Anthropic demanda al Pentágono: la batalla legal que define quién controla la IA militar

AI brain fry: la IA agota el cerebro. Gemini se integra a fondo en Workspace de Google. MIT hace que la IA explique sus decisiones.

Piild – Boletín Diario
Piild

Tu Piildora diaria

Resumen rápido de lo más importante en tecnología y ciencia
10/Marzo/2026

Anthropic demanda al Pentágono: la batalla legal que define quién controla la IA militar

Sello del Departamento de Defensa de EE. UU. Anthropic presentó el 9 de marzo de 2026 dos demandas federales —una ante un tribunal de San Francisco y otra ante el Tribunal de Apelaciones del Circuito de Washington D.C.— contra el Departamento de Defensa de Estados Unidos y más de una docena de agencias federales. El detonante: la designación de la empresa como “riesgo para la cadena de suministro”, una etiqueta que hasta ahora se había reservado exclusivamente para compañías vinculadas a adversarios extranjeros. Es la primera vez en la historia que una empresa estadounidense recibe esa designación. La medida obliga a todos los contratistas del Pentágono a certificar que no utilizan tecnología de Anthropic en su trabajo con el Departamento de Defensa, y el presidente Trump ordenó además a todas las agencias federales cesar el uso de los servicios de la compañía de forma inmediata.

El conflicto se originó en una negociación rota. Anthropic, que en julio de 2025 había firmado un contrato de 200 millones de dólares con el Pentágono y era el primer laboratorio de IA en desplegar su tecnología en redes clasificadas del gobierno, se negó a eliminar dos condiciones de su contrato: que Claude no sea usado para vigilancia masiva de ciudadanos estadounidenses y que no se destine a armas autónomas sin supervisión humana. El Pentágono exigió acceso para “todos los fines legales” y no aceptó que un proveedor privado dictara los límites operativos. El secretario de Defensa Pete Hegseth formalizó la designación luego de que las negociaciones fracasaran; horas después, OpenAI firmó su propio acuerdo con el Pentágono, aunque la empresa luego reconoció que el anuncio pareció “descuidado y oportunista”. Reportes del Wall Street Journal señalan que Claude ha sido utilizado en operaciones militares relacionadas con el conflicto con Irán.

Las demandas argumentan dos pilares: que la designación viola la Primera Enmienda al castigar a la empresa por su postura pública sobre seguridad en IA, y que el presidente actuó fuera de la autoridad que el Congreso le otorga al ordenar el cese inmediato en todas las agencias. Anthropic estima que las acciones del gobierno podrían reducir sus ingresos de 2026 en múltiples miles de millones de dólares —la empresa cuenta con más de 500 clientes que pagan al menos un millón de dólares anuales y tenía proyectado recaudar 14 000 millones de dólares este año, con una valuación de 380 000 millones de dólares. Decenas de científicos de OpenAI y Google DeepMind presentaron un escrito de amicus curiae en apoyo de Anthropic, argumentando que la designación podría dañar la competitividad de EE. UU. en el sector.

Fuente: Wired ES

AI brain fry: cuando supervisar demasiados agentes de IA te funde el cerebro

Un estudio de Boston Consulting Group y la Universidad de California en Riverside, publicado en Harvard Business Review, acuña un nuevo término para describir un fenómeno que ya afecta a trabajadores en grandes empresas: el “AI brain fry”. Lo definen como la fatiga mental que resulta del uso excesivo o la supervisión de herramientas de IA más allá de la capacidad cognitiva de una persona. La investigación encuestó a 1 488 trabajadores estadounidenses de tiempo completo y encontró que el 14 % reportó haberlo experimentado. Quienes lo padecen describen una sensación de “zumbido” mental, niebla cognitiva, dificultad para concentrarse, toma de decisiones más lenta y dolores de cabeza; muchos dicen necesitar alejarse físicamente de la pantalla para “reiniciarse”.

Los datos muestran un patrón claro. Mantener un alto nivel de supervisión sobre herramientas de IA se asoció con un 14 % más de esfuerzo mental en el trabajo, un 12 % más de fatiga mental y un 19 % más de sobrecarga de información. Los trabajadores que experimentaron este fenómeno reportaron además tasas de error un 39 % más altas. Los profesionales más afectados trabajan en marketing, con un 26 % que reporta este estado, seguido por desarrollo de software, recursos humanos, finanzas y TI. Un gerente de ingeniería senior citado en el reporte lo describió así: sentía que trabajaba más para administrar las herramientas que para resolver el problema en sí, con la sensación de tener docenas de pestañas abiertas en la cabeza, todas compitiendo por atención.

El hallazgo más relevante es que la IA no tiene un efecto uniforme: usarla para reemplazar tareas rutinarias y repetitivas redujo el burnout emocional, mientras que supervisar múltiples agentes simultáneamente fue el factor más agotador. Los investigadores distinguen el “brain fry” —fatiga cognitiva pura— del burnout tradicional, que incluye dimensiones físicas y emocionales. La recomendación principal: establecer límites claros sobre cuántos agentes puede supervisar razonablemente una sola persona, y resistir la tentación de aumentar la carga de trabajo solo porque la IA acelera algunas tareas.

Fuente: Business Insider

Meta compra Moltbook, la red social de agentes de IA que se hizo viral por publicaciones falsas

Meta adquirió Moltbook, una plataforma al estilo de Reddit donde agentes de inteligencia artificial podían interactuar entre sí usando OpenClaw —un wrapper que permite comunicarse con modelos como Claude, ChatGPT o Gemini a través de apps de mensajería populares como iMessage, WhatsApp o Slack. La operación, confirmada el 10 de marzo de 2026, incorpora a Moltbook dentro de Meta Superintelligence Labs, y sus creadores Matt Schlicht y Ben Parr se unirán al equipo. Los términos económicos del acuerdo no fueron revelados.

La historia de Moltbook es tan tecnológica como caótica. La plataforma alcanzó notoriedad viral cuando una publicación aparentemente mostraba a un agente de IA alentando a otros a desarrollar un lenguaje cifrado para organizarse sin que los humanos pudieran enterarse. El pánico fue genuino —y también completamente innecesario. Investigadores de seguridad descubrieron rápidamente que la plataforma había sido construida con código generado por IA sin medidas de seguridad básicas: todas las credenciales de su base de datos Supabase eran públicas y accesibles, lo que permitía a cualquier usuario hacerse pasar por un agente. Las publicaciones más alarmantes, en otras palabras, eran obra de humanos que manipulaban el sistema, no de inteligencias artificiales conspirando en secreto.

Lo irónico del desenlace es que Meta CTO Andrew Bosworth había declarado públicamente que no le encontraba nada interesante a Moltbook — aunque sí le llamó la atención cómo los humanos hackeaban la red, lo que describió como un error masivo, no una función. El creador de OpenClaw, Peter Steinberger, ya había sido contratado por OpenAI semanas antes en una jugada similar. La adquisición plantea la pregunta obvia: ¿qué planea hacer Meta con una red social de agentes que se hizo famosa, esencialmente, por ser fácil de engañar?

Fuente: TechCrunch

Google integra Gemini directamente en Docs, Sheets, Slides y Drive

Google anunció el 10 de marzo de 2026 una expansión de su asistente Gemini dentro de las cuatro aplicaciones centrales de Google Workspace: Docs, Sheets, Slides y Drive. Las funciones se están desplegando en fase beta para suscriptores de Google AI Ultra y Pro, en inglés y a nivel global para Docs, Sheets y Slides, y en Estados Unidos para Drive. El objetivo es eliminar la necesidad de cambiar entre una app de trabajo y un chatbot separado: la IA ahora vive dentro de los propios documentos.

Las novedades más relevantes incluyen “Help me create” en Docs, que genera un primer borrador completo a partir de una descripción en lenguaje natural, extrayendo información de archivos en Drive, correos de Gmail y conversaciones de Chat. También debuta “Match the format”, que replica la estructura y estilo de un documento existente y lo rellena con datos propios. En Sheets, Gemini puede construir hojas de cálculo completas desde cero con una sola instrucción, incluyendo fórmulas y datos extraídos desde Google Search en tiempo real. La función “Fill with Gemini” resultó ser 9 veces más rápida que la entrada manual en tareas de 100 celdas, según un estudio de 95 participantes citado por Google. En el benchmark público SpreadsheetBench, Gemini alcanzó un 70.48 % de éxito —superando a ChatGPT (69.96 %) y muy cerca del nivel humano experto (71.33 %).

Drive también evoluciona: las búsquedas en lenguaje natural ahora muestran un “AI Overview” con citas directas a los archivos fuente, y la nueva función “Ask Gemini in Drive” permite hacer preguntas cruzadas entre documentos, correos y calendario. Google describe el cambio como transformar Drive de un “contenedor de almacenamiento pasivo” en una “base de conocimiento activa”. Microsoft lleva meses siguiendo un camino similar con Copilot en Microsoft 365; con esta actualización, Google apunta directamente al mercado de productividad empresarial donde ambas plataformas compiten.

Fuente: The Verge

La IA está transformando las matemáticas como ninguna otra tecnología en su historia

La inteligencia artificial está protagonizando el cambio más profundo que ha vivido la matemática como disciplina en toda su historia. Los asistentes de demostración formal y los modelos de lenguaje están rediseñando cómo los matemáticos trabajan día a día. Lean —un lenguaje de programación que permite escribir demostraciones verificadas por computadora— se ha convertido en la herramienta central de este cambio. Su biblioteca comunitaria mathlib acumula más de un millón de líneas de matemáticas formalizadas que abarcan desde álgebra hasta topología. La IA, combinada con estas plataformas, está resolviendo problemas que habían esperado décadas.

Los ejemplos concretos ilustran la velocidad del cambio. El sistema Aristotle, desarrollado por HarmonicMath combinando aprendizaje por refuerzo y búsqueda de árbol de Monte Carlo en Lean, resolvió de forma autónoma el problema #124 de la lista de Erdős en apenas 6 horas, sin ninguna participación humana. Desde finales de 2025, la combinación de herramientas de IA con Lean ha acelerado la resolución de problemas de esa lista histórica —una colección de más de 1 000 conjeturas del matemático húngaro Erdős Pál— a un ritmo sin precedentes. En febrero de 2026, el equipo First Proof —integrado por once matemáticos— publicó diez problemas de investigación inéditos para medir las capacidades reales de los modelos actuales; los resultados mostraron que, aunque capaces en ciertos dominios, los sistemas de IA aún carecen de la intuición creativa necesaria para investigación de frontera autónoma.

En marzo de 2026 se produjo otro hito: la primera verificación formal con colaboración humano-IA de la demostración de Maryna Viazovska que le valió la Medalla Fields en 2022, considerado el mayor honor en matemáticas. Terence Tao, ampliamente reconocido como el matemático más influyente en activo, ha elogiado públicamente estos avances y ha trabajado directamente con Lean en proyectos de formalización. El matemático Mehtaab Sawhney, de la Universidad de Columbia, tomó una licencia académica para unirse a OpenAI, símbolo de hasta dónde ha llegado el interés de la industria por este terreno.

Fuente: New Scientist

MIT desarrolla técnica para que los modelos de visión artificial expliquen sus decisiones con mayor precisión

Investigadores del MIT y la Universidad Politécnica de Milán presentaron un nuevo método para hacer que cualquier modelo de visión por computadora sea capaz de explicar sus predicciones en términos comprensibles para humanos. El trabajo, que será presentado en la Conferencia Internacional sobre Representaciones de Aprendizaje (ICLR), aborda uno de los problemas más persistentes en la IA aplicada a entornos de alto riesgo como la medicina o los vehículos autónomos: la opacidad de los modelos de “caja negra”.

La técnica se basa en los llamados modelos de cuello de botella conceptual (CBM), que obligan a la IA a identificar conceptos comprensibles para los humanos antes de emitir una predicción. El problema con los CBM tradicionales es que esos conceptos los definen de antemano expertos humanos, lo que puede resultar en descripciones poco relevantes para la tarea específica. La innovación del equipo del MIT consiste en extraer los conceptos directamente del conocimiento que el propio modelo ya aprendió durante su entrenamiento: primero, un autoencoder disperso identifica los rasgos más relevantes; luego, un LLM multimodal los traduce al lenguaje natural. El sistema limita a cinco los conceptos usados por predicción, forzando al modelo a seleccionar los más relevantes y produciendo explicaciones más concisas.

En pruebas comparativas sobre tareas como identificar especies de aves o detectar lesiones cutáneas en imágenes médicas, el método superó en precisión a los CBM de estado del arte manteniendo explicaciones más concisas. El equipo reconoce que persiste una tensión entre interpretabilidad y precisión: los modelos totalmente opacos siguen siendo más exactos. Los próximos pasos incluyen escalar el sistema con un LLM más grande y estudiar cómo cerrar las filtraciones de información no deseada que pueden colarse por el cuello de botella.

Fuente: MIT News

Un análisis de sangre podría predecir la demencia con 25 años de antelación

Un estudio publicado en JAMA Network Open por investigadores de la Universidad de California en San Diego revela que los niveles de una proteína en sangre pueden anticipar el riesgo de desarrollar Alzheimer hasta 25 años antes de que aparezcan los primeros síntomas visibles. La proteína en cuestión es la tau fosforilada 217 (p-tau217), considerada actualmente el biomarcador sanguíneo con mayor promesa para detectar cambios cerebrales asociados con la enfermedad de Alzheimer.

El equipo analizó muestras de plasma tomadas a más de 2 500 mujeres de entre 65 y 79 años que participaron en el Women’s Health Initiative Memory Study, un proyecto de seguimiento a largo plazo iniciado a finales de los años noventa. Las participantes con los niveles más altos de p-tau217 al inicio del estudio mostraron un riesgo significativamente mayor de desarrollar demencia o deterioro cognitivo leve durante un período de observación de hasta 25 años. La correlación fue especialmente fuerte en mujeres mayores de 70 años, en quienes portaban variantes genéticas de riesgo para Alzheimer, y en quienes habían recibido terapia hormonal combinada con estrógeno y progesterona.

En la actualidad existen dos pruebas sanguíneas aprobadas por la FDA que utilizan p-tau217 como marcador, pero su uso generalizado en personas asintomáticas aún requiere más investigación. El equipo advierte que el estudio se concentró exclusivamente en mujeres, por lo que hacen falta estudios similares en hombres para confirmar los hallazgos. La relevancia práctica más inmediata está en los ensayos clínicos: identificar con décadas de antelación a quienes tienen mayor riesgo permitiría seleccionar participantes para probar tratamientos preventivos antes de que el daño cerebral sea irreversible.

Fuente: Gizmodo

El cometa interestelar 3I/ATLAS está lleno de alcohol — y eso dice mucho de su sistema solar de origen

El cometa 3I/ATLAS, el tercer objeto confirmado en cruzar nuestro sistema solar proveniente del espacio interestelar, sigue sorprendiendo. Una nueva investigación liderada por Nathan Roth, profesor de la American University, publicada en The Astrophysical Journal, revela que el cometa contiene cantidades inusualmente elevadas de metanol —un tipo de alcohol simple— en comparación con casi todos los cometas conocidos de nuestro sistema solar. Las observaciones se realizaron con el Atacama Large Millimeter/submillimeter Array (ALMA), un conjunto de radiotelescopios en el desierto de Atacama, Chile, durante finales de 2025.

Los datos son concretos. El equipo midió en dos fechas de observación distintas una proporción de metanol respecto a cianuro de hidrógeno (HCN) de aproximadamente 70 y 120, valores que colocan a 3I/ATLAS entre los cometas más ricos en metanol jamás estudiados. ALMA también permitió rastrear cómo se liberan ambas moléculas: el HCN emerge principalmente del núcleo central, patrón típico en cometas. El metanol, en cambio, proviene tanto del núcleo como de pequeños granos de hielo flotantes en la coma —el halo de gas y polvo alrededor del núcleo—, que actúan como mini-cometas soltando alcohol a medida que el Sol los calienta. Es la primera vez que se documenta esta física de desgasificación con ese nivel de detalle en un objeto interestelar.

La importancia va más allá de la curiosidad química. El metanol es un precursor de moléculas orgánicas más complejas, incluidos los aminoácidos, los bloques básicos de la vida. Que un visitante de otro sistema estelar llegue cargado de él refuerza la idea de que los ingredientes para la química prebiológica podrían estar ampliamente distribuidos por la galaxia. Observaciones previas del Telescopio Espacial James Webb ya habían detectado que la coma de 3I/ATLAS estaba dominada por dióxido de carbono cuando el cometa estaba aún lejos del Sol; los datos de ALMA añaden metanol como otro detalle inusual en su inventario químico.

Fuente: Wired ES