EE. UU. rompe contratos con Anthropic tras choque por uso militar de inteligencia artificial
De acuerdo con el experto Pablo Aya, el Pentágono otorgó un plazo de seis meses para que las agencias de defensa realicen la transición hacia otros proveedores tecnológicos.
El Gobierno de Estados Unidos tomó una decisión que sacude el sector tecnológico y marca un precedente en la industria de la inteligencia artificial: rescindió todos los contratos federales con Anthropic, la empresa creadora del sistema Claude, tras desacuerdos sobre el uso de sus modelos en escenarios sensibles de seguridad nacional.
La ruptura se produce luego de que la compañía se negara a permitir un uso sin restricciones de su tecnología, especialmente en aplicaciones que, según sus directivos, entrarían en conflicto con sus principios éticos.
Inteligencia artificial
Foto: creada con IA Grok
El pentágono da seis meses para la transición
Según explicó en entrevista con Maañanas Blu 10:30 AM Pablo Aya, director de Business and Language Analytics en el Instituto de Ingeniería del Conocimiento, el Departamento de Defensa calificó la tecnología de la firma como un “riesgo en su cadena de suministro”.
De acuerdo con el experto, el Pentágono otorgó un plazo de seis meses para que las agencias de defensa realicen la transición hacia otros proveedores tecnológicos.
La decisión implica el fin de una relación que, hasta hace pocos meses, era cercana. Desde mayo de 2024, ambas partes mantenían contratos por cerca de 200 millones de dólares destinados al análisis de grandes bases de datos.
El choque: principios éticos vs. seguridad nacional
La tensión escaló cuando la administración estadounidense planteó posibles usos de la inteligencia artificial en tareas de vigilancia y defensa. Anthropic, liderada por su CEO Dario Amodei, expresó reservas frente a escenarios como la vigilancia masiva de ciudadanos o el desarrollo de armas autónomas sin supervisión humana.
“Las reticencias que tenía Anthropic eran en el caso de hacer una vigilancia masiva de la ciudadanía y en el uso de la inteligencia artificial para armas autónomas”, señaló Aya.
Publicidad
Ante esa postura, el Gobierno optó por cortar la relación contractual, priorizando la libertad operativa en materia de defensa sobre las restricciones éticas planteadas por la empresa.
El debate sobre armas autónomas
Uno de los puntos más sensibles del desacuerdo gira en torno a la automatización de decisiones letales en el campo de batalla. Anthropic ha sido clara en su oposición a que sus modelos tomen decisiones de ataque sin intervención humana directa.
“Eso es una de las cuestiones que ha puesto Darío Amodei sobre la mesa, el hecho de que se utilicen inteligencias artificiales para tomar decisiones en conflictos de guerra de manera automatizada, sin intervención humana”, explicó Aya.
La postura de la compañía contrasta con la estrategia militar estadounidense, que estaría integrando capacidades de automatización avanzada en su planificación, incluido el uso de drones con altos niveles de autonomía.
Publicidad
La brecha regulatoria con Europa
El caso también reabre el debate sobre la regulación internacional de la inteligencia artificial. Mientras en Europa existe un marco más restrictivo frente al uso de sistemas autónomos en defensa y vigilancia, en Estados Unidos el enfoque ha sido distinto.
Aya recordó que la regulación es posible cuando existe voluntad política y citó como ejemplo el Reglamento de Inteligencia Artificial europeo, que contempla restricciones a sistemas biométricos y de vigilancia masiva.
No obstante, advirtió que la capacidad real de limitar estas tecnologías dependerá de las “barreras éticas que quieran imponer, que al final son decisiones soberanas de cada país”.