El G7 está integrado por Estados Unidos, Japón, Alemania, Gran Bretaña, Francia, Italia, Canadá y la Unión Europea y reúne a las democracias con las economías más ricas del mundo. En mayo pasado, durante una cumbre que se celebró en Hiroshima, Japón, pidieron la creación de estándares técnicos internacionales para regular la inteligencia artificial.
Aunque reconocieron que los enfoques para lograr que esta sea confiable pueden variar, dijeron en un comunicado que las reglas sobre este tipo de tecnologías deben estar "en línea con los valores democráticos" compartidos. Desde allí anunciaron lo que se denomina, el Proceso de Hiroshima, un marco para las conversaciones en el ámbito de gabinete que celebrarán en los próximos meses sobre el tema. Y establecieron tres aspectos clave como guía: reconocer la importancia de la inteligencia artificial, equilibrar sus riesgos, además de sus beneficios, y exigir "medidas de seguridad".
Hasta ese momento, los gobiernos del G7 reconocían que las regulaciones "no necesariamente habían seguido el mismo ritmo" que los desarrollos sobre la inteligencia artificial y tecnologías inmersivas como los metaversos. Se referían especialmente a la generativa de texto e imágenes, como ChatGPT.
Esas declaraciones del G7 ocurrían al mismo tiempo que el Parlamento Europeo se preparaba para votar en junio lo que se convirtió en la primera ley integral de inteligencia artificial del mundo. La nueva normativa, denominada ‘AI Act’, establece obligaciones para proveedores y usuarios en función del nivel de riesgo de la IA. “Aunque muchos sistemas de IA plantean un riesgo mínimo, es necesario evaluarlos todos”, dijeron. La reglamentación escaló en clasificar los sistemas de IA entre aquellos de “riesgo inaceptable, alto riesgo, IA generativa, y riesgo limitado”.
Un código de conducta
Lo difundido este último 30 de octubre fue el "Código de Conducta para la IA", un acuerdo del G7 que pretende establecer parámetros para los desarrolladores de la inteligencia artificial de todo el mundo. Está compuesto de una serie de ideas que todas las empresas y desarrolladores de IA deberían seguir. Entre ellas se puede mencionar que antes y durante su despliegue es importante identificar, evaluar y mitigar los riesgos; mitigar vulnerabilidades y patrones de uso indebido; piden transparencia sobre las limitaciones y/o uso inapropiado; compartir información de manera responsable con otras organizaciones; implementar medidas para proteger datos personales y la propiedad intelectual.
Dentro del G7 se pusieron en juego las miradas de algunos países con visiones antagónicas. Por un lado Estados Unidos, favorable a no poner trabas en su desarrollo, y por otro lado el de países como Francia o Alemania, que comparten la visión europeísta de regular la IA de una manera más estricta.
Se impuso una tercera vía. Y esto fue lo que sucedió en mayo cuando Japón propuso la creación del 'Proceso de Hiroshima sobre IA'. Un foro intergubernamental con el objetivo de discutir cómo regular la IA y acercarse a la creación de estándares internacionales para una IA "digna de confianza". Entre la disyuntiva de Europa contra Estados Unidos, Japón se presentó como un punto intermedio. El gobierno japonés propuso una regulación más laxa, pero suficientemente concreta como para abordar los problemas del copyright o la exposición de datos personales. Y esto ha sido lo que los líderes del G7 han aceptado hace algunos días en un acuerdo que ya es oficial.
Ya lo pedía el CEO de OpenAI
Preguntarse por la regulación de la inteligencia artificial no es nuevo, Sam Altman, el CEO de OpenAI, en una sesión en el Senado estadounidense, había planteado la creación de un ente regulador internacional que dictamine estándares parecidos a los establecidos para las armas nucleares.
El empresario dejo ver grandes temores que hoy apuran a los principales gobiernos del mundo. "Si esta tecnología sale mal, puede salir bastante mal", había dicho en su momento y advertido que eventuales campañas de desinformación impulsadas por la IA podrían condicionar las próximas elecciones presidenciales de Estados Unidos.
Manos a la obra
El G7 afirma que la IA tiene un potencial "innovador y transformador" pero también apunta que se deben "proteger a los individuos y la sociedad". Para establecer este código de conducta, se ha creado una hoja de ruta en la que se apoyarán con distintos organismos internacionales como la Alianza Global sobre IA y con la OCDE. Además del G7, también se espera que otros países, entre ellos España, participen y ayuden a impulsar estas reglas.
Lo difundido recientemente, no es tan exhaustivo como la AI Act europea, pero va en la misma dirección. Desde Europa se ha jugado un rol importante en intentar alcanzar este acuerdo. La AI Act es una regulación pionera y ha marcado muchas de las líneas que ahora están presentes en ese código de conducta que se pretende implementar a nivel global. Estados Unidos, por su parte, ha anunciado una orden ejecutiva de regulación sobre la inteligencia artificial, con requisitos equivalentes al Código de Conducta en materia de privacidad y seguridad.
El problema de este código de conducta es que es voluntario (aunque cuenta con apoyo). La gran diferencia entre este acuerdo del G7 y la regulación europea es que mientras la segunda es una ley, esto es un acuerdo de unas reglas que no se traducirán en leyes. El Código de Conducta es una serie de pautas y recomendaciones, pero de carácter voluntario. Es decir, no se obligará a empresas como OpenAI, Google, Meta o Microsoft el cumplirlas. No se descarta que estas mismas empresas acaben firmando el acuerdo, pero los líderes del G7 han optado por dejar en manos de estas empresas privadas esa decisión. Una de las que ha reaccionado ha sido Google. Kent Walker, su vicepresidente de Asuntos Globales, expone que "el Código de Conducta del G7 marca un paso importante hacia el desarrollo y la implementación responsable de la IA de manera que beneficie a todos. Google apoya el Código de Conducta del G7 y esperamos trabajar con los gobiernos, la industria y la sociedad civil para afrontar este momento crítico”.
Por Fernanda Bireni