Tu Piildora diariaResumen rápido de lo más importante en tecnología y ciencia |
|
La IA que planea guerras: cómo Palantir lleva los modelos de lenguaje al campo de batalla
La inteligencia artificial ha cruzado una frontera que pocos imaginaban tan pronto: la de la planificación militar en tiempo real. En marzo de 2026, el ejército de Estados Unidos ejecutó la Operación Epic Fury contra Irán, golpeando aproximadamente mil objetivos en menos de 24 horas. Detrás de esa velocidad sin precedente no había solo pilotos y generales —había software. El Maven Smart System de Palantir Technologies actuó como sistema nervioso central de la operación, mientras que el modelo de lenguaje Claude, de Anthropic, procesaba inteligencia y sugería cursos de acción. Juntos, demostraron que los modelos de IA generativa —los mismos que usan millones de personas para redactar correos o escribir código— ya operan dentro de redes clasificadas del Departamento de Defensa de EE.UU.La arquitectura técnica es significativa: la base de usuarios del sistema Maven creció más del doble en los primeros cinco meses de 2025, y los ejecutivos de Palantir describían el objetivo de tomar “mil decisiones de alta calidad, seleccionando y descartando objetivos en el campo de batalla, en una hora.” La llamada kill chain —el tiempo entre detectar un objetivo y atacarlo—, que antes se medía en horas o días de papeleo y aprobaciones, ahora apunta a reducirse a segundos. Sin embargo, la alianza entre Anthropic y el Pentágono se fracturó abruptamente. El Departamento de Defensa calificó a Anthropic como “riesgo para la cadena de suministro de seguridad nacional” —una designación normalmente reservada para empresas con vínculos a adversarios extranjeros— y prohibió a sus contratistas relacionarse comercialmente con la empresa, a pesar del contrato de hasta 200 millones de dólares que ambas partes habían firmado en julio de 2025. Anthropic anunció acciones legales contra la decisión y negó las versiones del Pentágono sobre sus objeciones. El episodio abre un debate sin respuestas claras: ¿quién decide los límites de uso de una IA en operaciones letales? ¿El fabricante del modelo, el ejército, o directamente nadie? Palantir, con ingresos de 1,410 millones de dólares en el cuarto trimestre de 2025 —un incremento interanual del 70%— se perfila como el principal integrador de IA militar, con una proyección de ingresos para 2026 cercana a los 7,190 millones de dólares. La Casa Blanca concedió al Pentágono un plazo de seis meses para reemplazar los modelos de Anthropic. OpenAI ya firmó un acuerdo para tomar su lugar en las redes clasificadas. Fuente: WIRED en Español |
|
Código invisible en miles de repositorios: el ataque fantasma que no puedes ver en tu editorUn ataque silencioso lleva meses infiltrando repositorios en GitHub, paquetes de npm y extensiones de VS Code, y en marzo de 2026 alcanzó una escala alarmante: más de 151 repositorios comprometidos en una nueva ola masiva. El método es tan ingenioso como perturbador: los atacantes utilizan caracteres Unicode invisibles —literalmente imposibles de ver en cualquier editor de código, terminal o interfaz de revisión— para ocultar cargas maliciosas dentro de lo que aparenta ser una cadena de texto vacía. El código dañino está ahí, activo, pero ningún humano que revise el repositorio puede verlo a simple vista.La campaña, rastreada bajo el nombre GlassWorm, empezó a documentarse en mayo de 2025 cuando investigadores de Aikido Security publicaron los primeros hallazgos sobre el abuso de Unicode invisible en ataques de cadena de suministro. Para octubre de ese año, los atacantes habían comprometido extensiones en el repositorio Open VSX y, a finales de 2025, habían desplazado su foco hacia repositorios de GitHub. La ola de marzo de 2026 demuestra que la técnica no fue un experimento aislado: los repositorios afectados incluyen proyectos con decenas de miles de estrellas —lo que los convierte en blancos de alto impacto, pues cualquier desarrollador que los use hereda automáticamente el código malicioso. Más inquietante aún: los commits que introducen el payload malicioso vienen camuflados como cambios menores realistas —retoques de documentación, correcciones de errores, ajustes de versión— con una coherencia de estilo que sugiere fuertemente el uso de modelos de lenguaje para generar los mensajes de confirmación falsos. El problema de fondo es estructural: las herramientas convencionales de revisión de código y los linters estándar no detectan lo que no pueden ver. La defensa requiere escáneres especializados que busquen activamente caracteres Unicode en rangos inusuales dentro del código fuente. Para los equipos de desarrollo, la lección es concreta: la revisión visual del código ya no es suficiente, y confiar en que una PR “se ve limpia” puede ser un vector de compromiso total del sistema. Fuente: Ars Technica |
|
Amazon y Cerebras se unen para cambiar cómo corre la IA: un chip del tamaño de una oblea entra a la nubeAmazon Web Services y la startup Cerebras Systems anunciaron este 13 de marzo una alianza que promete transformar la velocidad de inferencia en inteligencia artificial —es decir, la rapidez con la que un modelo de IA responde a una consulta del usuario. La propuesta es técnicamente poco ortodoxa: en lugar de usar un solo tipo de chip para todo el proceso, dividirán el trabajo. Los chips Trainium 3 de Amazon se encargarán del “prefill” —la fase en que el sistema convierte el texto del usuario en unidades que la IA puede procesar—, mientras que el Wafer Scale Engine 3 (WSE-3) de Cerebras tomará el relevo para la fase de “decode”, es decir, la generación de la respuesta. Amazon calcula que esta arquitectura “desagregada” puede ofrecer velocidades de inferencia hasta cinco veces superiores a las actuales, especialmente en tareas que requieren ida y vuelta con el usuario, como la generación iterativa de código.El WSE-3 de Cerebras no es un chip convencional: ocupa una oblea completa de silicio —de ahí el término wafer-scale—, incorpora 900,000 núcleos de procesamiento y 44 gigabytes de memoria SRAM en el propio chip, con un ancho de banda de memoria de 21 petabytes por segundo. Esa arquitectura elimina uno de los cuellos de botella más persistentes en la inferencia de modelos grandes: la latencia al mover datos entre chips separados. El nuevo servicio estará disponible a través de Amazon Bedrock —la plataforma de modelos fundacionales de AWS— en la segunda mitad de 2026. AWS es el primer hiperescalador en adoptar la tecnología de Cerebras, una startup valorada en 23,100 millones de dólares que ya cerró un contrato de 10,000 millones con OpenAI a principios de este año y que prepara su salida a bolsa. La alianza tiene también un subtexto competitivo evidente: tanto Amazon como Cerebras compiten directamente con Nvidia, que domina actualmente el mercado de chips para IA. Nvidia tiene planeado para la próxima semana revelar su propia estrategia de chips combinados con Groq, la startup en la que invirtió 17,000 millones de dólares. La carrera por quien ofrece la inferencia más rápida y económica acaba de acelerarse. Fuente: Bloomberg |
|
Artemis II: la NASA confirma el 1 de abril como fecha de lanzamiento de la primera misión tripulada a la Luna en 53 añosEl 12 de marzo, la viceadministradora asociada de la NASA, Lori Glaze, anunció en conferencia de prensa que la agencia apunta al 1 de abril de 2026 a las 18:24 (hora del Este) para el lanzamiento de Artemis II. Si todo sale según lo planeado, cuatro astronautas se convertirán en los primeros seres humanos en abandonar la órbita terrestre baja con destino a la Luna desde diciembre de 1972, cuando concluyó el programa Apollo. La tripulación la conforman los astronautas de la NASA Reid Wiseman, Victor Glover y Christina Koch, junto con Jeremy Hansen de la Agencia Espacial Canadiense. El viaje durará diez días y describirá una trayectoria de retorno libre alrededor del satélite natural sin tocar su superficie —una misión de validación que abrirá el camino a futuros alunizajes.El anuncio llega después de meses de contratiempos técnicos. A principios de 2026, durante el ensayo general conocido como Wet Dress Rehearsal, los ingenieros detectaron una fuga de hidrógeno y una falla en el suministro de helio del cohete Space Launch System (SLS), lo que obligó a retirar el vehículo de la plataforma de lanzamiento y trabajar durante semanas en las reparaciones. La ventana de lanzamiento de marzo —disponible entre el 6 y el 11 de ese mes— también quedó descartada por razones de alineación orbital. La nueva ventana se extiende del 1 al 6 de abril, con apenas unas pocas horas disponibles por día. Glaze advirtió que, dentro de esos seis días, la agencia cuenta con aproximadamente cuatro oportunidades reales de intento de despegue. El cohete SLS está programado para regresar a la plataforma el 19 de marzo. La misión no estará exenta de riesgos: una auditoría reciente de la Oficina del Inspector General de la NASA estimó la probabilidad de pérdida de la tripulación en 1 de cada 30. El propio presidente del equipo de gestión de la misión, John Honeycutt, recordó que “un cohete nuevo tiene esencialmente un 50% de probabilidades de éxito.” Glaze contextualizó: aunque el SLS ya voló en Artemis I, el intervalo de más de tres años entre misiones representa un riesgo significativamente mayor que el de un sistema que opera de forma rutinaria. Fuente: WIRED en Español |
|
Microsoft lleva su asistente de IA Gaming Copilot a las consolas Xbox Series X y SDurante una sesión en la Game Developers Conference (GDC) 2026, Sonali Yadav, product manager del equipo de IA para gaming de Xbox, confirmó que Gaming Copilot llegará a las consolas de generación actual —es decir, Xbox Series X y Series S— en algún momento de este año. El asistente, que funciona a partir de un modelo de lenguaje de gran escala, lleva cerca de un año en fase beta para PC con Windows, la aplicación móvil de Xbox y los dispositivos handheld ROG Xbox Ally. Su llegada a consolas representa el paso final para que el asistente esté disponible en el ecosistema completo de Microsoft.Las funciones actuales de Gaming Copilot incluyen responder preguntas contextuales sobre el juego que el usuario está jugando —cómo fabricar un objeto, qué estrategia usar contra un jefe, qué misión completar a continuación— sin necesidad de salir del juego. También permite pedir recomendaciones de títulos basadas en el historial de juego, consultar logros o datos de la cuenta, y mantener conversaciones de voz. Según datos presentados en GDC, el 30% del uso del asistente se concentra en ayuda directa dentro de los juegos, el 25% en descubrimiento de nuevos títulos y el 19% en conversación casual. Microsoft reconoció que el contenido que usa el asistente proviene de guías y recursos creados por la comunidad online, y anunció que está explorando acuerdos de licencia para compensar económicamente a los creadores de esas guías. La directora general de IA para gaming de Xbox, Haiyan Zhang, insistió en que el enfoque de la compañía es no reemplazar a los creadores humanos —ni de juegos ni de contenido— sino amplificar su trabajo. La nueva CEO de Microsoft Gaming, Asha Sharma, quien asumió el cargo en febrero de 2026, ha marcado como prioridad evitar lo que describió como “IA sin alma”. La fecha exacta del lanzamiento para consolas aún no fue revelada. Fuente: The Verge |
|
Spotify te deja editar tu perfil de gustos: adiós al Wrapped arruinado por las canciones de tus hijosEn el marco de la conferencia SXSW, el co-CEO de Spotify, Gustav Söderström, anunció el lanzamiento en beta de Taste Profile, una nueva función que por primera vez permitirá a los usuarios revisar y editar el perfil algorítmico que la plataforma construye sobre sus preferencias musicales. Ese perfil —invisible hasta ahora— es el motor detrás de Discover Weekly, las playlists Made For You, Spotify Wrapped y el resto de recomendaciones personalizadas. La diferencia con las herramientas previas es sustancial: antes, los usuarios solo podían excluir pistas o playlists específicas. Ahora podrán ver todos sus datos de escucha en un solo lugar —música, podcasts y audiolibros— y ajustar el perfil usando lenguaje natural, pidiendo “más” o “menos” de cierto tipo de vibe.La función llega después de años de quejas de usuarios que veían su algoritmo “contaminado” por comportamientos de escucha que no reflejaban sus gustos reales: la playlist de los niños que suena en el carro, el ambient para dormir, o la cuenta familiar compartida en el altavoz inteligente de la sala. En particular, el fenómeno de los padres con hijos pequeños destruyendo su propio Wrapped se había convertido en un clásico anual de las redes sociales. Spotify había introducido parches parciales —excluir una canción, excluir una playlist—, pero el perfil subyacente seguía siendo opaco y difícil de corregir. El acceso a Taste Profile estará disponible tocando la foto de perfil dentro de la app y desplazándose hacia abajo, con los cambios reflejados inmediatamente en la página de inicio. El lanzamiento en beta comenzará en las próximas semanas con usuarios Premium en Nueva Zelanda, antes de expandirse a otros mercados. Que Spotify esté abriendo su caja negra algorítmica —aunque sea de forma controlada— es una señal interesante: la presión regulatoria y el agotamiento del usuario con los sistemas de recomendación opacos están empezando a cambiar las reglas del juego. Fuente: TechCrunch |
|
|
¿Tienes comentarios? Escríbenos a equipo@piild.com © 2026 Piild. Todos los derechos reservados. |
La IA que planea guerras: cómo Palantir lleva los modelos de lenguaje al campo de batalla
Amazon + Cerebras: la oblea que quiere vencer a Nvidia. Artemis II despega el 1 de abril. Gaming Copilot llega a Xbox. Spotify abre su caja negra de gustos
La inteligencia artificial ha cruzado una frontera que pocos imaginaban tan pronto: la de la planificación militar en tiempo real. En marzo de 2026, el ejército de Estados Unidos ejecutó la Operación Epic Fury contra Irán, golpeando aproximadamente mil objetivos en menos de 24 horas. Detrás de esa velocidad sin precedente no había solo pilotos y generales —había software. El Maven Smart System de Palantir Technologies actuó como sistema nervioso central de la operación, mientras que el modelo de lenguaje Claude, de Anthropic, procesaba inteligencia y sugería cursos de acción. Juntos, demostraron que los modelos de IA generativa —los mismos que usan millones de personas para redactar correos o escribir código— ya operan dentro de redes clasificadas del Departamento de Defensa de EE.UU.