🔥 6 cuotas sin interés con todos los medios de pago | Con tu inscripción te incluimos GRATIS el Curso Experto en Power BI 👨‍🏫

Anthropic vs Pentágono: la crisis de IA que sacudió a Trump

El enfrentamiento entre Anthropic y el Pentágono por el uso de inteligencia artificial es, sin dudas, uno de los episodios más significativos de la historia reciente de la IA. En cuestión de días, una empresa fundada por dos hermanos que dejaron OpenAI para priorizar la seguridad se convirtió en el centro de una tormenta geopolítica que involucró al propio Donald Trump. En este artículo analizamos qué pasó, por qué importa y qué consecuencias tiene para el sector.

Anthropic vs pentagono

Breve historia de Dario y Daniela Amodei: su paso por OpenAI desde 2018, la entrada de Microsoft con USD 1.000 millones en 2020, y la decisión de renunciar en 2021 para fundar Anthropic con un grupo de investigadores comprometidos con la seguridad en IA. Claude fue el resultado de ese trabajo.

El contrato de USD 200 millones con el Pentágono

En julio de 2025, Anthropic cerró un acuerdo con el Departamento de Defensa de EE.UU. Claude comenzó a operar en redes militares clasificadas —inteligencia, ciberdefensa, operaciones— e incluso fue utilizado a través de Palantir en operaciones como la relacionada con Nicolás Maduro en Venezuela.

El contrato tenía dos condiciones no negociables impuestas por Anthropic:

  • No vigilancia masiva sobre ciudadanos estadounidenses.
  • No armas autónomas: ningún sistema que decida por sí solo a quién atacar.

Martes 24 de febrero — El Pentágono exige acceso total

Pete Hegseth, secretario de Defensa, convocó a Dario Amodei en Washington para solicitar acceso sin condiciones. Anthropic rechazó la propuesta.

Miércoles y jueves — Ultimátum y comunicado histórico

El Pentágono presentó una última oferta con trampas legales según Anthropic. Amodei publicó un comunicado abierto: «No podemos en buena conciencia acceder a sus peticiones.» El subsecretario Emil Michael respondió atacando a Amodei públicamente en X.

Viernes — Trump interviene y designa a Anthropic como riesgo de seguridad nacional

Trump publicó en su red social que Anthropic son «locos de extrema izquierda» y ordenó cortar relaciones con todas las agencias federales. Primera vez en la historia que esa etiqueta —usada para empresas como Huawei— se aplica a una empresa americana.

La paradoja: vetados de mañana, necesarios de noche

Apenas horas después del veto, el ejército americano continuó utilizando Claude para análisis de inteligencia y ataques coordinados contra Irán. El veto incluye un período de transición de 6 meses. No podés reemplazar de un día para otro un modelo integrado en operaciones militares críticas.

Esa misma noche, Sam Altman anunció un acuerdo con el Pentágono declarando compartir las mismas líneas rojas. Pero hay una diferencia clave: las restricciones de OpenAI van atadas a las leyes vigentes. Si la ley cambia, las protecciones se diluyen. Anthropic pedía prohibiciones absolutas e incondicionales. Eso es precisamente lo que el Pentágono no aceptó.

El lunes siguiente, Altman reconoció públicamente que el acuerdo fue «oportunista y descuidado» y prometió reforzarlo con cláusulas explícitas.

El impacto en el mercado y en la opinión pública

  • Claude subió al #1 del App Store, superando a ChatGPT.
  • Las desinstalaciones de ChatGPT crecieron un 295% en un día.
  • Las reseñas de una estrella de ChatGPT aumentaron un 775%.
  • Las descargas de Claude crecieron un 81%.
  • Más de 100 empleados de Google pidieron restricciones similares para Gemini.
  • Trabajadores de OpenAI firmaron una carta apoyando a Anthropic.
  • El 67% de los estadounidenses considera que las empresas tecnológicas tienen derecho a poner límites éticos.

El precedente que preocupa

Un ex asesor de IA de la administración Trump advirtió que este precedente podría extenderse a cualquier empresa tecnológica que implemente controles éticos o restricciones militares.

La relevancia para el ecosistema latinoamericano de datos

Desde el Instituto de Data Science Argentina, observamos que este conflicto no es solo americano: plantea preguntas urgentes sobre gobernanza de IA, uso militar de modelos de lenguaje y el rol de las empresas como actores con responsabilidad ética propia. Son debates que también nos competen.

Lo que quedó demostrado es que los principios no son solo declaraciones de intención. Son también estrategia de negocio, retención de talento y reputación de marca. El enrejado —como llaman internamente a su Constitución de Claude— aguantó. Y eso, en el contexto actual, es extraordinario.

¿Qué opinás vos? ¿Las empresas de IA deben poner límites absolutos al uso militar de sus modelos?

Artículo añadido al carrito.
0 artículos - $0,00