Altos funcionarios de la Casa Blanca están tratando de calmar las preocupaciones de la industria de que la administración podría exigir a las empresas de tecnología que presenten sus modelos avanzados de inteligencia artificial para una investigación federal antes de publicarlos.
Un día después de que un alto asesor económico de la Casa Blanca confirmara públicamente que se estaba debatiendo una revisión de ese tipo (comparándola el miércoles con las pruebas de medicamentos recetados que lleva a cabo la Administración de Alimentos y Medicamentos durante años), los asesores del presidente Donald Trump estaban enviando un mensaje diferente: no tan rápido.
“Hay una o dos personas que están muy aceptadas en las regulaciones gubernamentales, pero son una especie de minoría del grupo”, dijo un alto funcionario de la Casa Blanca. A esta persona, al igual que a otras personas en este informe, se le concedió el anonimato para describir debates políticos delicados.
Los mensajes de ida y vuelta se producen mientras los funcionarios de la industria tecnológica esperan ansiosamente una orden ejecutiva que explique cómo planea la administración evitando que se utilicen indebidamente nuevos y poderosos modelos de inteligencia artificial para lanzar ataques cibernéticos o incluso desarrollar armas biológicas.
POLITICO informó el martes que la Casa Blanca está considerando un sistema de investigación que podría requerir que gigantes de la inteligencia artificial como OpenAI, Anthropic y Google pasen por el gobierno antes de lanzar nuevos modelos.
Si bien no está inmediatamente claro cuán oneroso sería ese sistema de supervisión, Kevin Hassett, director del Consejo Económico Nacional de la Casa Blanca, dijo en una entrevista con Fox Business el miércoles que la administración estaba considerando un régimen de pruebas de seguridad previas a la liberación similar a lo que hace la FDA con los medicamentos.
“Estamos estudiando posiblemente una orden ejecutiva para dar una hoja de ruta clara a todos sobre cómo va a ir esto, y cómo las futuras IA que también potencialmente crean vulnerabilidades deberían pasar por un proceso para que sean liberadas en el medio silvestre después de que se haya demostrado que son seguros, tal como un medicamento de la FDA”, dijo Hassett.
Los comentarios de Hasset inquietaron a la gente en los círculos de la industria porque parecían indicar que la administración se estaba concentrando en regulaciones para la IA mucho más estrictas de lo previsto, en medio de temores de que nuevos sistemas poderosos como Claude Mythos de Anthropic puedan encontrar y explotar vulnerabilidades críticas de software que incluso eluden a los principales piratas informáticos del mundo.
El alto funcionario de la Casa Blanca dijo el jueves que los comentarios de Hassett fueron “sacados un poco de contexto” y que la Casa Blanca está buscando una “asociación” con empresas en lugar de buscar una “regulación gubernamental”.
La preocupación de la administración por las señales contradictorias provocó un raro tuit de la jefa de gabinete de la Casa Blanca, Susie Wiles, quien dijo el miércoles por la noche que el gobierno “no está en el negocio de elegir ganadores y perdedores”.
“La Casa Blanca seguirá liderando un esfuerzo de Estados Unidos Primero que empodere a los grandes innovadores de Estados Unidos, no a la burocracia, para impulsar el despliegue seguro de tecnologías potentes y al mismo tiempo mantener a Estados Unidos seguro”, añadió. Fue solo su cuarta publicación en X desde que creó su cuenta oficial allí como jefa de personal la semana pasada.
En un comunicado, un funcionario de la Casa Blanca dijo que la publicación de Wiles reiteraba un “compromiso de larga data” para equilibrar “el avance de la innovación y la garantía de la seguridad en nuestra formulación de políticas de IA”.
Aún no está claro qué acciones planea tomar la Casa Blanca para abordar los poderosos modelos cibernéticos, ni cuándo se anunciarán.
Según tres personas familiarizadas con los aviones, la Casa Blanca también está considerando recurrir a la comunidad de inteligencia para evaluar previamente los modelos y ayudar a proteger los sistemas antes de su divulgación generalizada.
Parte del objetivo de cualquier coordinación gubernamental previa a la liberación, dijo un funcionario estadounidense. funcionario del gobierno, es garantizar que la comunidad de inteligencia pueda estudiar y explotar las herramientas antes de que adversarios como Rusia y China sepan de las nuevas capacidades.
El subsecretario de Defensa, Emil Michael, hablando el jueves en una conferencia de AI en Washington, pareció respaldar esta última idea.
“El momento Mythos es realmente un momento cibernético; ¿cómo está Estados Unidos? El gobierno va a lidiar con lo cibernético, ¿cómo hacemos operativos para arreglar las cosas que necesitan ser arregladas?.
Pero una serie de ejecutivos de tecnología, grupos políticos alineados con la industria y ex funcionarios gubernamentales han expresado su preocupación sobre la idea de que el gobierno exija la supervisión previa al lanzamiento de los modelos de IA, por temor a que obstaculice la competencia.
“Si [la aprobación es] algo que se puede retener antes de salir al mercado, es un gran problema para cualquier empresa”, dijo Daniel Castro, presidente de la Fundación de Innovación y Tecnología de la Información, un grupo de expertos financiado por empresas como Anthropic, Microsoft y Meta. “Si un competidor obtiene la aprobación y el otro no, eso podría tener un gran impacto si hablamos de semanas o meses en términos de su acceso al mercado”.
Desde hace varios años existen acuerdos federales voluntarios de evaluación y pruebas de seguridad para nuevos modelos de IA, y algunas empresas de tecnología presentan sus modelos para el escrutinio del Centro de Estándares e Innovación de IA del Departamento de Comercio. CAISI anunció esta semana que había firmado acuerdos para realizar pruebas de seguridad con otros laboratorios de inteligencia artificial líderes, incluidos Google DeepMind, xAI y Microsoft.
La lucha de la administración Trump por establecer nuevos estándares de seguridad para los modelos de IA se está complicando por una disputa en curso entre el Pentágono y Anthropic.
Después de que Anthropic se resistiera a permitir que el Pentágono usara sus modelos en ataques letales autónomos y vigilancia masiva, el secretario de Defensa, Pete Hegseth, designó en marzo a la empresa como un riesgo para la cadena de suministro, una medida sin precedentes contra una estrategia estadounidense. empresa que prohibió el uso de su modelo en contratos del DOD. Por otra parte, Trump dio a las agencias federales seis meses para dejar de usar los productos de Anthropic, denunciando a sus ejecutivos como “trabajos locos de izquierda”.
Pero las agencias federales han estado clamando por tener acceso a Mythos desde que Anthropic anunció el mes pasado que había construido un sistema de inteligencia artificial tan eficaz para piratear que no podía divulgarse al público en general.
En cambio, comparte exclusivamente el modelo con unas pocas docenas de organizaciones de tecnología y seguridad, para que puedan comenzar a reparar agujeros en software crítico antes de que piratas informáticos malintencionados los exploten. Anthropic ha predicho similar que capacidades estarán ampliamente disponibles dentro de un año.
OpenAI, el archivo de Anthropic, anunció el jueves por la noche que también permitirá vistas previas limitadas de una nueva herramienta de inteligencia artificial, GPT-5.5-Cyber, que puede encontrar y reparar vulnerabilidades cibernéticas.
El temor a que el gobierno pueda ser tomado por sorpresa por otro modelo más poderoso ha llevado a la administración Trump a tomar medidas rápidas y marca un cambio importante para un presidente que prometió recortar excesivamente la regulación de la IA cuando ejerció el cargo.
A algunos en la industria les preocupa que estas acciones puedan ir demasiado lejos.
“El argumento siempre ha sido que una de las razones por las que EE.UU. “Lo que le está yendo tan bien es que ha adoptado un enfoque ligero hacia esta tecnología emergente que el gobierno no necesariamente conoce mejor”, dijo Castro, de la Fundación de Innovación y Tecnología de la Información. “Creo que fue una gran sorpresa que eso se estaba considerando siquiera”.
