El gobierno de Estados Unidos ha cerrado acuerdos con Google DeepMind, Microsoft y xAI para revisar las primeras versiones de sus nuevos modelos de inteligencia artificial antes de que sean lanzados al público.
El Centro de Normas e Innovación en Inteligencia Artificial (CAISI), parte del Departamento de Comercio de Estados Unidos, anunció los acuerdos el martes, indicando que el proceso de revisión será clave para comprender las capacidades de los nuevos y potentes modelos de inteligencia artificial, así como para proteger la seguridad nacional de EE. UU. Estas colaboraciones ayudarán al gobierno federal a “escalar su trabajo en interés público en un momento crítico”, según dijo la agencia en un comunicado de prensa.
“La ciencia independiente y rigurosa de la medición es esencial para comprender la inteligencia artificial fronteriza y sus implicaciones para la seguridad nacional”, dijo Chris Fall, director de CAISI.
CAISI es una agencia destinada a facilitar la colaboración entre la industria tecnológica y el gobierno federal en el desarrollo de normas y evaluación de riesgos para sistemas de inteligencia artificial comerciales. El acuerdo entre la agencia y las empresas de inteligencia artificial se centra principalmente en identificar los riesgos para la seguridad nacional vinculados a la ciberseguridad, bioseguridad y armas químicas.
OpenAI y Anthropic firmaron acuerdos similares con la administración de Biden hace dos años y CAISI señala que la agencia ya ha completado más de 40 evaluaciones de este tipo, incluidos modelos no lanzados. Es común que los desarrolladores compartan modelos de inteligencia artificial no lanzados con el gobierno que han reducido o eliminado las protecciones de seguridad, según dijo CAISI en su comunicado de prensa. Esto ayuda al gobierno a “evaluar a fondo las capacidades y riesgos relacionados con la seguridad nacional”, señaló la agencia.
Los nuevos acuerdos llegan en medio de temores de que los modelos de inteligencia artificial más nuevos y poderosos, como el Mythos de Anthropic, podrían ser peligrosos si se lanzan al público; expertos en seguridad en inteligencia artificial, funcionarios gubernamentales y empresas tecnológicas temen que las amplias capacidades de estos modelos puedan ayudar a los hackers a explotar vulnerabilidades de ciberseguridad a una escala sin precedentes. Anthropic limitó el despliegue de Mythos a algunas compañías e inició el colaborativo Proyecto Glasswing para reunir a empresas tecnológicas “para asegurar el software más crítico del mundo”.
The New York Times y Wall Street Journal informaron el lunes que la administración de Trump estaba considerando un posible decreto ejecutivo para crear un proceso de supervisión gubernamental para estas herramientas de inteligencia artificial; la administración ha caracterizado esta información como “especulativa”.
Google y xAI no respondieron de inmediato a una solicitud de comentario.
Microsoft anunció un acuerdo similar en el Reino Unido el martes con el Instituto de Seguridad en Inteligencia Artificial respaldado por el gobierno, que también se enfoca en el desarrollo seguro de la inteligencia artificial.
“Mientras Microsoft realiza regularmente diversos tipos de pruebas de inteligencia artificial por su cuenta, las pruebas para la seguridad nacional y los riesgos de seguridad pública a gran escala deben ser necesariamente un esfuerzo colaborativo con los gobiernos”, escribió Microsoft en una publicación de blog sobre los dos acuerdos.






