Tu Piildora diariaResumen rápido de lo más importante en tecnología y ciencia |
|
Edición Especial: Anthropic vs. el Pentágono — La pelea de IA que nadie esperaba
¿Quién es Anthropic y por qué importa en este contexto?Anthropic es una de las empresas de inteligencia artificial más importantes del mundo, fundada en 2021 por Dario Amodei y Daniela Amodei, junto a otros exintegrantes de OpenAI. Su producto principal es Claude, un modelo de lenguaje —piénsalo como un asistente conversacional muy avanzado— que compite directamente con ChatGPT. La empresa fue valorada recientemente en alrededor de 380 mil millones de dólares y se ha distinguido desde su fundación por poner el énfasis en lo que llaman “IA segura y responsable”: construir sistemas que incluyan límites explícitos sobre cómo pueden ser utilizados. No es marketing: esa filosofía está escrita en sus contratos.
Desde su nacimiento, Anthropic tomó una postura poco común en la industria: antes de preocuparse por ganar cuota de mercado, quiso definir reglas claras sobre lo que su tecnología puede y no puede hacer. Eso funcionó bien en el mundo corporativo, donde muchas empresas valoran tener garantías sobre el uso de IA en sus operaciones. Pero esa misma rigidez iba a generar fricción tarde o temprano con clientes que operan en zonas grises, como las fuerzas armadas. El choque con el Departamento de Defensa de Estados Unidos —rebautizado como “Departamento de Guerra” por la administración Trump— era, en retrospectiva, casi inevitable.
El acuerdo, el ultimátum y la rupturaEn julio de 2025, Anthropic firmó un contrato con el Pentágono valuado en hasta 200 millones de dólares para integrar Claude en redes clasificadas del gobierno. Fue un hito: Claude se convirtió en el primer modelo de IA en operar dentro de los sistemas secretos de las fuerzas armadas estadounidenses. El contrato incluía restricciones específicas derivadas de la política de uso aceptable de Anthropic: prohibición de usar Claude para vigilancia masiva de ciudadanos estadounidenses y prohibición de integrarlo en sistemas de armas autónomas —es decir, robots o sistemas militares que puedan seleccionar y atacar objetivos sin intervención humana. El Pentágono aceptó esas condiciones en su momento. Pero en enero de 2026, el secretario de defensa Pete Hegseth emitió un memorándum exigiendo que todos los contratos de IA del Departamento adoptaran lenguaje de “cualquier uso legal” en un plazo de 180 días, lo que entraba en conflicto directo con los términos de Anthropic. El 24 de febrero de 2026, Hegseth le dio a Dario Amodei un ultimátum con fecha límite: el 27 de febrero a las 5:01 p.m., hora de Washington.
Anthropic no cedió. Amodei publicó una declaración diciendo que su empresa “no puede en buena conciencia” acceder a las demandas del Pentágono. Unas horas después del vencimiento del plazo, el presidente Donald Trump ordenó mediante una publicación en Truth Social que todas las agencias federales cesaran de inmediato el uso de la tecnología de Anthropic. Hegseth fue un paso más allá y designó a la empresa como “riesgo en la cadena de suministro para la seguridad nacional” —una etiqueta que, en la práctica, obliga a cualquier contratista que trabaje con el ejército a demostrar que no tiene vínculos comerciales con Anthropic. La empresa anunció que tomará acciones legales para revertir la designación.
Reacciones: la industria, los abogados y OpenAI en el medioLa reacción del sector tecnológico fue amplia y mayoritariamente a favor de Anthropic. Jensen Huang, CEO de Nvidia, expresó que esperaba un acuerdo, aunque aclaró que si no se llegaba a uno, el Pentágono podría trabajar con otras empresas. El movimiento más llamativo vino de OpenAI: apenas horas después de que Anthropic fuera designada riesgo de seguridad, su CEO Sam Altman anunció que OpenAI había firmado su propio contrato con el Departamento de Defensa para proveer IA en redes clasificadas. Altman declaró que su acuerdo incluye las mismas dos restricciones que Anthropic exigía —sin vigilancia masiva y sin armas autónomas— además de una tercera: sin uso de IA para decisiones automatizadas de alto impacto, como sistemas de crédito social. Desde el campo legal, varios expertos cuestionaron la legalidad de la designación: la firma de investigación Lawfare y expertos del Brennan Center for Justice señalaron que la etiqueta de “riesgo en la cadena de suministro” requiere una evaluación de riesgos formal y notificación al Congreso —pasos que aparentemente no se cumplieron.
La situación puso al descubierto una tensión que la industria de IA ha evitado nombrar directamente: ¿hasta dónde tiene derecho una empresa privada a imponer condiciones éticas sobre el uso de su tecnología cuando el cliente es el gobierno? Lo interesante del caso OpenAI es que logró lo que Anthropic no pudo: un acuerdo con las mismas restricciones de fondo, pero estructuradas de forma diferente —a través de salvaguardas técnicas y despliegue exclusivo en la nube, en lugar de cláusulas contractuales explícitas. Eso sugiere que el problema no era tanto el qué, sino el cómo.
¿Qué sigue? El impacto real y las preguntas que quedan abiertasEn términos financieros, perder el contrato de 200 millones de dólares no amenaza la existencia de Anthropic, que está valuada en 380 mil millones. El golpe más serio viene de la designación de “riesgo en la cadena de suministro”: cualquier empresa con contratos gubernamentales que use productos de Anthropic —como servicios de nube, software empresarial o herramientas de análisis— podría verse presionada a desvincularse. Eso puede arrastrar una parte considerable de la base de clientes corporativos de la empresa, que es donde está su negocio real. Anthropic anunció que impugnará la designación en los tribunales, y varios expertos legales consideran que tiene argumentos sólidos dado que el proceso no siguió los pasos reglamentarios. El propio OpenAI pidió públicamente al gobierno que intente resolver la situación con Anthropic, calificando el estado actual como “una muy mala manera de iniciar la próxima fase de colaboración entre el gobierno y los laboratorios de IA.”
Este episodio abre preguntas que van mucho más allá de Anthropic: ¿Puede el gobierno de Estados Unidos forzar a una empresa privada a modificar los límites éticos de su propia tecnología? ¿Qué pasa cuando las restricciones de uso que una empresa considera irrenunciables chocan con las necesidades operativas de un cliente tan poderoso como el ejército? Y, quizás lo más relevante para el futuro de la IA: si las empresas que ponen condiciones de seguridad son penalizadas mientras las que no las ponen prosperan, ¿qué incentivo queda para construir IA con salvaguardas reales? La respuesta a esas preguntas se definirá en parte en los tribunales, en parte en el Congreso, y en parte en cómo reaccione el mercado. Por ahora, el caso Anthropic se convierte en el primer gran precedente sobre hasta dónde llega la soberanía ética de una empresa de IA frente al Estado.
|
|
|
¿Tienes comentarios? Escríbenos a equipo@piild.com © 2026 Piild. Todos los derechos reservados. |