Donald Trump ha exigido categóricamente que todas las agencias gubernamentales dejen de utilizar la tecnología de IA antrópica «despertada» y lleguen rápidamente a un acuerdo de reemplazo con OpenAI de Sam Altman.
Trump, el secretario de Defensa, Pete Hegseth, y otros funcionarios recurrieron a las redes sociales para reprender a Anthropic por no permitir que el ejército use sin restricciones su tecnología de inteligencia artificial antes de la fecha límite del viernes.
Anthropic está acusada de poner en peligro la seguridad nacional después de que el director ejecutivo, Dario Amodei, se negara a dar marcha atrás, temiendo que los productos de la empresa pudieran usarse de una manera que violaría sus salvaguardias.
“¡No los necesitamos, no los queremos y no volveremos a hacer negocios con ellos!” » dijo Trump en las redes sociales.
Hegseth también consideró que la empresa representaba un “riesgo para la cadena de suministro”, una designación que normalmente se asigna a los adversarios extranjeros y que podría descarrilar las asociaciones críticas de la empresa con otras empresas.
En un comunicado emitido el viernes por la noche, Anthropic dijo que impugnaría lo que llamó una acción sin precedentes y legalmente infundada «nunca antes aplicada públicamente a una empresa estadounidense».
Anthropic había dicho que estaba buscando garantías limitadas del Pentágono de que su chatbot de IA Claude no se utilizaría para la vigilancia masiva de estadounidenses ni en armas totalmente autónomas.
El Pentágono ha dicho que no está interesado en tales usos y que sólo implementará la tecnología legalmente, pero también ha insistido en un acceso sin limitaciones.
Donald Trump ha exigido categóricamente que todas las agencias gubernamentales dejen de utilizar la tecnología de IA antrópica «despertada» y lleguen rápidamente a un acuerdo de reemplazo con OpenAI de Sam Altman.
Anthropic está acusada de poner en peligro la seguridad nacional después de que el director ejecutivo Dario Amodei (en la foto) se negara a dar marcha atrás, temiendo que los productos de la empresa pudieran usarse de una manera que violaría sus salvaguardias.
“Ninguna intimidación o castigo por parte del Departamento de Guerra cambiará nuestra posición sobre la vigilancia interna masiva o las armas totalmente autónomas”, dijo la compañía.
«Impugnaremos cualquier designación de riesgo en la cadena de suministro ante los tribunales».
Estados Unidos utilizó una forma de inteligencia artificial durante la operación militar para capturar al presidente venezolano Nicolás Maduro.
El uso de la herramienta de inteligencia artificial de Anthropic, Claude, pone de relieve cómo el uso de la IA está ganando terreno en el Pentágono.
Se entiende que Anthropic fue el primer desarrollador de modelos de IA utilizados en operaciones clasificadas por el Departamento de Defensa de EE. UU., luego de un acuerdo de 200 millones de dólares con la compañía el año pasado.
Sin embargo, los desarrolladores se negaron a decir si el software se utilizó en una operación específica.
También dijeron que las pautas de uso de Anthropic prohíben que Claude sea utilizado para facilitar la violencia, desarrollar armas o realizar vigilancia.
Pese a ello, la misión para capturar a Maduro y su esposa el pasado 3 de enero implicó el bombardeo de varios sitios en Caracas, la capital de Venezuela.
El secretario de Defensa, Pete Hegseth, y otros funcionarios recurrieron a las redes sociales para reprender a Anthropic por no permitir que los militares utilicen sin restricciones su tecnología de inteligencia artificial antes de la fecha límite del viernes.
Los esfuerzos del gobierno por afirmar su dominio sobre la toma de decisiones corporativas internas se producen en medio de un conflicto más amplio sobre el papel de la IA en la seguridad nacional y preocupaciones sobre cómo máquinas cada vez más capaces podrían usarse en situaciones de alto riesgo que involucran fuerza letal, información sensible o vigilancia gubernamental.
Horas después de que su competidor fuera castigado, el director ejecutivo de OpenAI, Sam Altman, anunció el viernes por la noche que su compañía había llegado a un acuerdo con el Pentágono para proporcionar su IA a redes militares clasificadas, llenando potencialmente un vacío creado por el derrocamiento de Anthropic.
Pero Altman dijo que las mismas líneas rojas que fueron el punto conflictivo en la disputa entre Anthropic y el Pentágono ahora están escritas en la nueva asociación de OpenAI.
«Dos de nuestros principios de seguridad más importantes son la prohibición de la vigilancia masiva interna y la responsabilidad humana en el uso de la fuerza, incluidos los sistemas de armas autónomos», escribió Altman.
Añadió que el Departamento de Defensa «está de acuerdo con estos principios, los refleja en leyes y políticas y los consagramos en nuestro acuerdo».
Altman también dijo que esperaba que el Pentágono «ofreciera estos mismos términos a todas las empresas de IA» para «alejarse de acciones legales y gubernamentales y llegar a acuerdos razonables».
Trump dijo que Anthropic cometió un error al intentar fortalecer el Pentágono.
Escribió en Truth Social que la mayoría de las agencias deberían dejar de usar inmediatamente la IA de Anthropic, pero le dio al Pentágono un plazo de seis meses para eliminar gradualmente la tecnología ya integrada en las plataformas militares.
Horas después de que su competidor fuera castigado, el director ejecutivo de OpenAI, Sam Altman (en la foto), anunció el viernes por la noche que su compañía había llegado a un acuerdo con el Pentágono para proporcionar su IA a redes militares clasificadas, llenando potencialmente un vacío creado por el derrocamiento de Anthropic.
Estados Unidos utilizó una forma de inteligencia artificial en la operación militar para capturar al presidente venezolano Nicolás Maduro (foto)
“¡Los Estados Unidos de América nunca permitirán que una izquierda radical y una sociedad despierta dicte cómo nuestros grandes militares luchan y ganan guerras!” escribió en mayúsculas.
Meses de conversaciones privadas desembocaron en un debate público esta semana y llegaron a un punto muerto cuando Amodei dijo que su empresa «no podía, en conciencia, acceder» a las demandas.
Anthropic puede darse el lujo de perder el contrato, pero las acciones del gobierno plantearon mayores riesgos en el apogeo del meteórico ascenso de la compañía desde un poco conocido laboratorio de investigación informática en San Francisco hasta una de las nuevas empresas más valiosas del mundo.
La decisión del presidente fue precedida por horas en las que altos funcionarios designados por Trump del Pentágono y el Departamento de Estado recurrieron a las redes sociales para criticar a Anthropic, pero sus quejas contenían contradicciones.
El portavoz del Pentágono, Sean Parnell, dijo que la negativa de Anthropic a cumplir con las demandas militares estaba «poniendo en peligro operaciones militares críticas y poniendo potencialmente en riesgo a nuestros combatientes».
Hegseth dijo que el Pentágono «debe tener acceso total y sin restricciones a los modelos de Anthropic para cada objetivo de defensa de LEGAL Republic».
La publicación de Trump en las redes sociales decía que la compañía «será mejor que actúe en conjunto y sea útil» durante el período de eliminación gradual o habrá «importantes consecuencias civiles y penales a seguir».
Sin embargo, la decisión de Hegseth de etiquetar a Anthropic como un riesgo para la cadena de suministro utiliza una herramienta administrativa diseñada para empresas propiedad de adversarios estadounidenses para evitar que vendan productos perjudiciales para los intereses estadounidenses.
El senador de Virginia Mark Warner, el demócrata de mayor rango en el Comité de Inteligencia del Senado, ha expresado su preocupación por todo el proceso.
El general retirado de la Fuerza Aérea Jack Shanahan, exjefe de iniciativas de inteligencia artificial del Pentágono, escribió en las redes sociales esta semana que el gobierno «pintar un objetivo en Anthropic genera titulares picantes, pero al final todos pierden».
El senador de Virginia Mark Warner, el demócrata de mayor rango en el Comité de Inteligencia del Senado, señaló que esta dinámica, «combinada con una retórica incendiaria que ataca esta empresa, plantea serias preocupaciones sobre si las decisiones de seguridad nacional están impulsadas por un análisis cuidadoso o consideraciones políticas».
El conflicto ha sorprendido a los desarrolladores de IA en Silicon Valley, donde capitalistas de riesgo, destacados científicos de IA y un gran número de trabajadores de los principales rivales de Anthropic -OpenAI y Google- han expresado su apoyo a la posición de Amodei en cartas abiertas y otros foros.
Estos movimientos podrían beneficiar a ChatGPT de OpenAI, así como al chatbot rival de Elon Musk, Grok, al que el Pentágono también planea brindar acceso a redes militares clasificadas.
Esto podría servir de advertencia a Google, que tiene un contrato aún en desarrollo para proporcionar sus herramientas de inteligencia artificial a los militares.
Musk se puso del lado de la administración Trump, declarando en su plataforma de redes sociales
Altman adoptó un enfoque diferente, expresando solidaridad con las garantías de Anthropic y oponiéndose al enfoque «amenazante» del gobierno, mientras trabajaba para asegurar el acuerdo de OpenAI con el Pentágono.
Este es el último giro en la larga y a veces enconada rivalidad de OpenAI con Anthropic, que fue fundada por un grupo de ex ejecutivos de OpenAI en 2021.
El general retirado de la Fuerza Aérea Jack Shanahan, exjefe de iniciativas de inteligencia artificial del Pentágono, escribió en las redes sociales esta semana que el gobierno «pintar un objetivo en Anthropic genera titulares picantes, pero al final todos pierden».
Shanahan dijo que Claude ya era ampliamente utilizado dentro del gobierno, incluso en entornos clasificados, y que las líneas rojas de Anthropic eran «razonables».
Dijo que los grandes modelos de lenguaje de IA que impulsan los chatbots como Claude, Grok y ChatGPT tampoco están «listos para su uso en horario de máxima audiencia en contextos de seguridad nacional», especialmente para armas totalmente autónomas.
Anthropic no intenta ser lindo aquí, escribió en LinkedIn. «No encontrarás un sistema con un alcance más amplio y profundo dentro del ejército. »















