La administración Trump prohíbe el uso de herramientas de inteligencia artificial antrópica en el gobierno de EE. UU.

25
La administración Trump prohíbe el uso de herramientas de inteligencia artificial antrópica en el gobierno de EE. UU.

La administración Trump ha tomado medidas para prohibir el uso de las herramientas de inteligencia artificial de Anthropic en todas las agencias federales, intensificando una disputa sobre las aplicaciones militares de la tecnología. La decisión, anunciada el viernes, sigue a semanas de enfrentamientos entre la administración y la startup de IA sobre las restricciones sobre cómo se puede implementar la IA.

El presidente Trump emitió la directiva, afirmando que Anthropic había intentado “forzar” al Departamento de Defensa y que la medida era necesaria para proteger los intereses estadounidenses. Las agencias tendrán un período de eliminación gradual de seis meses para cumplir, lo que potencialmente permitirá futuras negociaciones.

Conflicto en aumento con implicaciones para la seguridad nacional

La prohibición va más allá del simple cese del uso. El secretario de Defensa, Pete Hegseth, designó a Anthropic como un “riesgo para la cadena de suministro”, prohibiendo efectivamente que el ejército estadounidense y sus contratistas trabajen con la empresa. Esta designación, normalmente reservada para entidades extranjeras consideradas amenazas a la seguridad nacional, subraya la severidad de la postura de la administración.

El núcleo del conflicto se centra en la demanda del Pentágono de “todo uso legal” de la IA, incluido el potencial de sistemas de armas totalmente autónomos o vigilancia masiva. Anthropic se resistió, argumentando que ese despliegue sin restricciones podría conducir a resultados peligrosos. Si bien el Pentágono insiste en que no tiene planes actuales para estas aplicaciones, los funcionarios han dejado claro que se oponen a que una empresa de tecnología civil imponga el uso militar de tecnología crítica.

El auge de la IA en la defensa y el complicado papel de Silicon Valley

Anthropic fue el primer gran laboratorio de inteligencia artificial que se asoció con el ejército de los EE. UU., y el año pasado consiguió un acuerdo de 200 millones de dólares para desarrollar modelos restringidos conocidos como Claude Gov. Google, OpenAI y xAI hicieron lo mismo, pero Anthropic sigue siendo la única empresa que actualmente trabaja con sistemas clasificados.

La medida del Pentágono pone de relieve una tendencia más amplia: la creciente aceptación de los contratos de defensa por parte de Silicon Valley. Este cambio ha provocado tensiones internas dentro de la industria, con cientos de empleados de OpenAI y Google firmando una carta abierta apoyando a Anthropic y criticando a sus propias empresas por eliminar las restricciones al uso militar de la IA. El director ejecutivo de OpenAI, Sam Altman, ha declarado que su empresa comparte las preocupaciones de Anthropic sobre las armas totalmente autónomas y la vigilancia masiva, pero tiene la intención de negociar un acuerdo para seguir trabajando con el Pentágono.

Disputas subyacentes y perspectivas de expertos

La disputa salió a la luz públicamente después de que surgieran informes de que líderes militares estadounidenses utilizaron el modelo Claude de Anthropic para ayudar a planificar una operación para capturar al presidente de Venezuela, Nicolás Maduro. Anthropic niega haber interferido con el uso de su tecnología por parte del Pentágono, pero el incidente provocó una escalada de retórica en ambas partes.

Algunos expertos sostienen que el conflicto es en gran medida simbólico. Michael Horowitz, exfuncionario del Pentágono, sugiere que la disputa se debe a “casos de uso teóricos que no están sobre la mesa por ahora”, y que Anthropic ha apoyado todas las aplicaciones actuales de su tecnología del Departamento de Defensa.

Sin embargo, las acciones de la administración señalan una línea firme contra la percepción de extralimitación corporativa en asuntos militares. Anthropic se fundó sobre el principio de seguridad de la IA, y su director ejecutivo, Dario Amodei, advirtió contra los peligros del desarrollo desenfrenado de la IA. La respuesta de la administración sugiere que tales preocupaciones no dictarán la política de seguridad nacional.

Conclusión

La prohibición por parte de la administración Trump de las herramientas de inteligencia artificial de Anthropic marca una escalada significativa en el debate sobre el papel de las empresas de tecnología privadas en las aplicaciones militares. La medida subraya la voluntad de la administración de afirmar el control sobre el despliegue de la IA y priorizar las consideraciones de seguridad nacional sobre las objeciones corporativas. Es probable que el conflicto remodele el panorama de las asociaciones entre la IA y la defensa, obligando a las empresas a navegar en un entorno regulatorio más asertivo.