Google, Microsoft y xAI compartirán versiones preliminares de sus modelos de inteligencia artificial con el Gobierno de EE.UU. para mitigar amenazas a la ciberseguridad, según anunció el Instituto Nacional de Estándares y Tecnología (NIST) el martes.
Esta colaboración surge después de que el nuevo y potente modelo de IA Mythos, de Anthropic, despertara el mes pasado preocupaciones sobre el impacto de la IA en la ciberseguridad, lo que llevó a la Casa Blanca a considerar un proceso formal de revisión para esta herramienta.
Los nuevos acuerdos permiten al Centro de Estándares e Innovación de IA (CAISI), dependiente del Departamento de Comercio de EE.UU., evaluar los nuevos modelos de IA y su impacto potencial en la seguridad nacional y la seguridad pública antes de su lanzamiento. El centro también realizará investigaciones y pruebas tras la implementación de los modelos. Hasta ahora, ya ha completado más de 40 evaluaciones.
“La ciencia de la medición independiente y rigurosa es esencial para comprender la IA de vanguardia y sus implicaciones para la seguridad nacional”, declaró Chris Fall, director del CAISI. “Estas colaboraciones ampliadas con la industria nos ayudan a escalar nuestro trabajo en beneficio del interés público en un momento crítico”.
Mythos, que según Anthropic está “muy por delante” de otros modelos en términos de ciberseguridad, generó una ola de preocupación entre gobiernos, bancos y empresas de servicios públicos durante el último mes. La compañía afirmó que aún no se siente cómoda publicando el modelo y restringió el acceso a un grupo selecto de organizaciones autorizadas. También ha informado a altos funcionarios del Gobierno estadounidense sobre sus capacidades.
OpenAI también anunció la semana pasada que pondrá sus modelos de IA más avanzados a disposición de todos los niveles gubernamentales autorizados, con el objetivo de anticiparse a amenazas basadas en IA.
Estas alianzas podrían facilitar al CAISI la realización de pruebas al proporcionarle más recursos, según Jessica Ji, analista sénior de investigación del Centro de Seguridad y Tecnologías Emergentes de Universidad de Georgetown.
“Simplemente no cuentan con la misma cantidad de recursos (que las grandes empresas tecnológicas), ni en personal, ni en técnicos, ni en capacidad de procesamiento, para evaluar estos modelos y realizar pruebas rigurosas”, afirmó.
La Casa Blanca está consultando con un grupo de expertos para que la asesoren sobre un posible proceso de revisión gubernamental para nuevos modelos de IA, según confirmó CNN. Esto representaría un cambio respecto al enfoque permisivo que la administración de Donald Trump ha mantenido hasta ahora en materia de regulación de la IA.
The New York Times fue el primero en informar sobre este grupo de trabajo el lunes.
“Cualquier anuncio político provendrá directamente del Presidente. Hablar sobre posibles decretos es pura especulación”, declaró un portavoz de la Casa Blanca a CNN.
Si bien Microsoft prueba regularmente sus propios modelos, CAISI ofrece “experiencia técnica, científica y en seguridad nacional” adicional, afirmó Natasha Crampton, directora de IA responsable de Microsoft, en un comunicado.
Google declinó hacer más comentarios sobre el acuerdo. xAI no respondió a las solicitudes de comentarios.


