China y EE.UU. forman parte de un pacto multilateral para colaborar en los riesgos de la IA.

China y Estados Unidos se unen en un acuerdo multilateral para cooperar en los desafíos de la inteligencia artificial.

Globo contra un fondo de ciudad

Un grupo de 28 países, incluyendo China y Estados Unidos, ha acordado trabajar juntos para identificar y gestionar los posibles riesgos de la “inteligencia artificial” (IA) “avanzada”, marcando el primer acuerdo multilateral de este tipo. 

Publicado por el Reino Unido, la “Declaración de Bletchley sobre la seguridad de la IA” describe el reconocimiento de los países de la “necesidad urgente” de garantizar que la IA se desarrolle y despliegue de manera “segura y responsable” en beneficio de una comunidad global. Este esfuerzo requiere una cooperación internacional más amplia, según la Declaración, que ha sido respaldada por países de Asia, la UE y Medio Oriente, incluyendo Singapur, Japón, India, Francia, Australia, Alemania, Corea del Sur, Emiratos Árabes Unidos y Nigeria.

También: La IA generativa podría ayudar a la evolución del código bajo hacia el código nulo, pero con un giro

Los países reconocen que pueden surgir riesgos significativos por el uso intencional indebido o problemas no previstos de control de la IA avanzada, en particular, riesgos de ciberseguridad, biotecnología y desinformación. La Declaración señala posibles daños graves y catastróficos causados por modelos de IA, así como riesgos asociados con el sesgo y la privacidad. 

Junto con su reconocimiento de que los riesgos y las capacidades aún no se comprenden completamente, las naciones han acordado colaborar y construir una “comprensión científica y basada en evidencia” compartida de los riesgos de la IA avanzada. 

También: A medida que los desarrolladores aprendan los entresijos de la IA generativa, los no desarrolladores los seguirán

La Declaración describe la IA avanzada como sistemas que abarcan “modelos de IA generalizados de alto rendimiento”, incluyendo modelos fundamentales, que pueden llevar a cabo una amplia gama de tareas, así como IA específica y estrecha.  

“Nos comprometemos a trabajar juntos de manera inclusiva para garantizar una IA centrada en el ser humano, confiable y responsable que sea segura y respalde el bienestar de todos a través de organismos internacionales existentes y otras iniciativas relevantes”, establece la Declaración.

“Al hacerlo, reconocemos que los países deben considerar la importancia de un enfoque de gobernanza y regulación proporcional y a favor de la innovación que maximice los beneficios y tenga en cuenta los riesgos asociados con la IA”.

Este enfoque podría incluir el establecimiento de clasificaciones y categorizaciones de riesgos basadas en las circunstancias locales y los marcos legales aplicables de cada país. También puede haber requisitos de cooperación en enfoques innovadores, como principios comunes y códigos de conducta. 

También: ¿Puede la IA codificar? Solo en pequeños pasos

Los esfuerzos del grupo se centrarán en la creación de políticas basadas en riesgos en los países, colaborando cuando sea apropiado y reconociendo que los enfoques a nivel nacional pueden diferir. Junto con la necesidad de una mayor transparencia por parte de los actores privados que están desarrollando capacidades de IA avanzadas, estos nuevos esfuerzos incluyen el desarrollo de métricas de evaluación relevantes y herramientas para pruebas de seguridad, así como capacidades del sector público e investigación científica.

El primer ministro del Reino Unido, Rishi Sunak, dijo: “Este es un logro histórico que muestra que las mayores potencias de IA del mundo están de acuerdo en la urgencia de comprender los riesgos de la IA”.

La Secretaria de Tecnología del Reino Unido, Michelle Donelan, agregó: “Siempre hemos dicho que ningún país puede enfrentar los desafíos y riesgos planteados por la IA solo, y la Declaración histórica de hoy marca el inicio de un nuevo esfuerzo global para construir la confianza pública garantizando el desarrollo seguro de la tecnología”.  

Un proyecto liderado por Singapur conocido como Sandbox también fue anunciado esta semana, con el objetivo de proporcionar un conjunto estándar de indicadores para evaluar productos de IA generativa. La iniciativa reúne recursos de importantes actores globales que incluyen a Anthropic y Google, y está guiada por un catálogo preliminar que clasifica los indicadores actuales y los métodos utilizados para evaluar modelos de lenguaje grandes. 

También: La ética de la IA generativa: cómo podemos aprovechar esta poderosa tecnología

El catálogo recopila herramientas de prueba técnicas comúnmente utilizadas, organizándolas según lo que prueban y sus métodos, y recomienda un conjunto básico de pruebas para evaluar productos de IA generativa. El objetivo es establecer un lenguaje común y apoyar la adopción “más amplia, segura y confiable” de la IA generativa.

El mes pasado, las Naciones Unidas (ONU) establecieron un equipo asesor para examinar cómo se debería gobernar la IA para mitigar posibles riesgos, con la promesa de adoptar un enfoque “globalmente inclusivo”. El cuerpo actualmente cuenta con 39 miembros e incluye representantes de agencias gubernamentales, organizaciones privadas y académicas, como el jefe de IA del gobierno de Singapur, el secretario de estado de digitalización y AI de España y el CTO de OpenAI.