Agencias
Anthropic PBC demandó al Departamento de Defensa por declarar que el gigante de la inteligencia artificial representaba un riesgo para la cadena de suministro militar de Estados Unidos, tras una disputa con el Pentágono sobre las salvaguardas de la tecnología de la empresa.
Anthropic, con sede en San Francisco, impugna la decisión del departamento y de otras agencias federales de trasladar su trabajo en IA a otros proveedores, basándose en una designación de riesgo que normalmente se reserva a compañías de países que EE.UU. considera adversarios.
“Estas acciones no tienen precedentes y son ilegales”, afirmó la empresa en una demanda presentada el lunes ante un tribunal federal de San Francisco. “La Constitución no permite al gobierno ejercer su enorme poder para castigar a una empresa por su libertad de expresión protegida”.
La semana pasada, el Pentágono notificó formalmente a Anthropic su decisión. El director ejecutivo, Dario Amodei, emitió entonces un comunicado en el que sostuvo que las medidas del gobierno no eran “legalmente sólidas” y que no dejaban a la empresa “otra opción que impugnarlas ante los tribunales”.
La disputa estalló el mes pasado, cuando el Pentágono quiso utilizar Claude para cualquier fin dentro de los límites legales y sin restricciones de uso impuestas por Anthropic. La empresa había insistido en que el chatbot no se empleara para la vigilancia masiva de estadounidenses ni en operaciones armamentísticas totalmente autónomas.
En respuesta, el secretario de Defensa Pete Hegseth, ordenó el 27 de febrero al Pentágono prohibir a sus contratistas y socios cualquier actividad comercial con Anthropic. En una publicación en X, Hegseth fijó un plazo de seis meses para que la empresa transfiriera sus servicios de IA a otro proveedor.
Trump arremetió contra Anthropic ese mismo día en su red social Truth Social, al afirmar: “Los locos de izquierda de Anthropic han cometido un ERROR DESASTROSO al intentar FORZAR al Departamento de Guerra”. En su publicación, el presidente ordenó a las agencias gubernamentales de EE.UU. dejar de utilizar Claude.
La demanda de la empresa nombra como demandados al Departamento de Guerra —término que la administración Trump utiliza para referirse al Departamento de Defensa— y a más de una docena de agencias federales.
El Departamento de Defensa no respondió de inmediato a una solicitud de comentarios sobre la demanda.
En los días posteriores al primer anuncio del departamento sobre la designación de riesgo, los consumidores generaron una “demanda sin precedentes” del chatbot Claude, en una muestra de apoyo a la resistencia de la empresa frente a la presión del gobierno para permitir un uso sin restricciones de su tecnología.
Mientras tanto, su rival OpenAI anunció que alcanzó un acuerdo para permitir al Pentágono desplegar sus modelos de inteligencia artificial en su red clasificada. El director de OpenAI, Sam Altman, dijo posteriormente que trabajaba con el Departamento de Guerra para añadir más salvaguardas en torno a la vigilancia.
Fundada en 2021 por antiguos empleados de OpenAI, Anthropic se consolidó rápidamente como rival del fabricante de ChatGPT con Claude, promocionado como un modelo más seguro y orientado a negocios. Actualmente, la empresa con sede en San Francisco cuenta con más de 300.000 clientes corporativos que utilizan sus modelos para optimizar tareas laborales, especialmente en programación informática, donde se ha convertido en líder de mercado con su asistente de codificación, Claude Code.
El caso es Anthropic v. US Department of War, 26-cv-01996, Tribunal de Distrito de los Estados Unidos, Distrito Norte de California (San Francisco).
Fuente: Bloomberg














