El riesgo de llegar tarde a la inteligencia artificial

Aunque es comprensible el temor a regular demasiado sectores innovadores, experiencias pasadas deberían bastar a Bruselas para mostrar un mayor liderazgo

La presidenta de la Comisión Europea, Ursula von der Leyen, este jueves en Aachen (Alemania).Christopher Neundorf (EFE)

Los avances trepidantes en la inteligencia artificial descolocan a poderes públicos y empresas en cualquier rincón del mundo. De todas las innovaciones en este campo, la de Mythos, un modelo de la empresa estadounidense Anthropic que destaca por su capacidad para detectar vulnerabilidades en ámbitos tan sensibles para la seguridad como la defensa, es la que más inquieta. Tras la alarma surgida en Estados Unidos, las instituciones de la Unión Europea se han sumado al coro de voces que reclaman tomar medidas. De momento, sin ninguna concreción.

Los países de la UE reclaman a la Comisión Europea que despliegue una estrategia para protegerse frente a los riesgos. En ese reciente debate, Bruselas ha admitido con frustración que, tras dialogar con responsables de la pionera en IA, no ha logrado que le dé acceso a su sistema. Según lo divulgado hasta ahora, solo ha compartido su información con medio centenar de empresas y operadores de infraestructuras críticas, todos de EE UU. Entre ellas figuran Apple, Amazon, Microsoft, Nvidia y JP Morgan.

Sin esa información poco puede hacer el Ejecutivo comunitario para pertrecharse contra las consecuencias negativas de un sistema cuyo funcionamiento desconoce. Y en estos momentos de hostilidad con la Administración de Donald Trump –que considera, además, que la regulación europea pone trabas al funcionamiento sin límites de los gigantes digitales estadounidenses–, recurrir a la interlocución política o diplomática para obtener más información resulta poco provechoso.

Nada de eso debe servir para cruzarse de brazos. La existencia de un actor que, según sus creadores, es capaz de detectar los puntos flacos de los sistemas informáticos de gobiernos y empresas supone un riesgo de suficiente magnitud como para abordarlo. Pero más allá de protegerse frente a lo que ya existe, la UE debería multiplicar sus esfuerzos para lograr que esos sistemas de protección tuviesen sello europeo.

Las señales no son alentadoras. Al tiempo que los países miembros e instituciones como el Banco Central Europeo urgen a actuar, esos mismos Estados de la UE, junto con el Parlamento, han relajado la prohibición prevista para los sistemas de IA de alto riesgo de forma que entre en vigor más tarde de lo previsto. Aunque es comprensible el temor a regular demasiado sectores innovadores, con el riesgo de frenar los avances, experiencias pasadas en torno a los gigantes tecnológicos estadounidenses deberían bastar a Bruselas para mostrar un mayor liderazgo en este terreno.

Vía:https://cincodias.elpais.com/o