Tu Piildora diariaResumen rápido de lo más importante en tecnología y ciencia |
|
OpenAI cierra la ronda de financiamiento más grande de la historia tech: $122 mil millones
El 31 de marzo, OpenAI anunció el cierre de una ronda de financiamiento por $122 mil millones de dólares, estableciendo una valuación post-inversión de $852 mil millones, la más alta jamás alcanzada por una empresa privada de tecnología. La ronda fue liderada por Amazon, NVIDIA, SoftBank y Microsoft, con participación de Andreessen Horowitz (a16z), D.E. Shaw, MGX y TPG. Por primera vez, $3 mil millones fueron captados de inversores individuales a través de canales bancarios, y OpenAI será incluida en fondos cotizados en bolsa de ARK Invest. La empresa también amplió su línea de crédito a $4,700 millones con un consorcio bancario global. En métricas de negocio: la empresa ya genera $2 mil millones de ingresos mensuales, su API procesa más de 15 mil millones de tokens por minuto, y Codex —su herramienta de programación— supera los 2 millones de usuarios semanales, quintuplicando su base en tres meses.
Para entender la escala: OpenAI pasó de $1 mil millones en ingresos anuales a $1 mil millones mensuales en cuestión de meses, y aseguran crecer cuatro veces más rápido que lo que hicieron Google o Meta en sus etapas comparables. El dinero irá principalmente a infraestructura de cómputo —los centros de datos y chips que entrenan y ejecutan los modelos—, que es hoy el verdadero cuello de botella de la industria. La estrategia es clara: diversificar proveedores de hardware (no depender solo de NVIDIA, sino también de AMD, Broadcom y chips propios), expandir globalmente, y construir una “superapp de IA” que integre ChatGPT, programación, búsqueda y agentes en una sola plataforma. El riesgo también es claro: una valuación de $852 mil millones exige un crecimiento sostenido casi sin precedentes. Pero las cifras actuales sugieren que, al menos por ahora, la demanda real acompaña las expectativas.
|
|
El Koenigsegg Gemera arranca producción: 2,300 hp, 4 asientos y 6 años de esperaLa automotriz sueca Koenigsegg anunció el inicio oficial de producción de su hypercar Gemera, seis años después de su presentación en marzo de 2020. El ensamble se lleva a cabo en el nuevo taller Gripen Atelier de 11,000 m² en el campus de Ängelholm, Suecia, en paralelo a la línea del modelo CC850. La producción quedará limitada a 300 unidades, todas ya vendidas. El Gemera final viene con un motor V8 biturbo de 5.0 litros acompañado de tres motores eléctricos, sumando una potencia combinada de 2,300 hp y 2,750 Nm de torque. Toda esa potencia se envía a las cuatro ruedas mediante la transmisión Light Speed Tourbillon de 9 velocidades. El resultado: de 0 a 100 km/h en menos de 2 segundos y una velocidad máxima superior a los 320 km/h. Todo esto en un auto con cuatro asientos y espacio real para adultos.
Lo que hace al Gemera genuinamente interesante no es solo su potencia —que es estratosférica—, sino su propuesta de combinar eso con la practicidad de un auto de cuatro plazas. En el mundo de las hypercars, casi todo tiene dos asientos y cero espacio para maletas. Koenigsegg llama al Gemera un “Mega-GT”: la idea de que puedas manejar a 320 km/h y luego llevar a tu familia al aeropuerto. El camino desde el concepto original hasta la producción no fue recto: el plan inicial incluía un motor de 3 cilindros de 2.0 litros, que fue abandonado en 2023 al comprobar que casi ningún comprador lo quería frente a la versión con V8. También es un ejemplo de cómo los híbridos de alto rendimiento están redefiniendo lo que significa ser una hypercar en la era electrificada: no como sacrificio de potencia, sino como su amplificación.
|
|
Los centros de datos de IA están calentando el suelo a kilómetros de distanciaUn estudio —aún pendiente de revisión por pares— de la Universidad de Cambridge analizó aproximadamente 8,400 centros de datos de gran escala (los llamados “hyperscalers”, los gigantes que ofrecen servicios de nube e IA) y su impacto térmico en el entorno. Cruzando la ubicación de estos centros con datos satelitales de temperatura del suelo de los últimos 20 años, los investigadores encontraron que la temperatura superficial del terreno aumenta un promedio de 2°C (3.6°F) tras la apertura de un centro de datos cercano. En los casos más extremos, el aumento llegó a 8.9°C (16°F). El efecto se siente hasta 10 kilómetros (6.2 millas) a la redonda y afecta a más de 340 millones de personas en todo el mundo. El fenómeno ya fue detectado en zonas específicas: el hub de centros de datos en el Bajío, México, y la región de Aragón, España, ambas registraron incrementos de ~2°C en los últimos 20 años.
Los centros de datos son básicamente galpones llenos de servidores que generan calor constantemente. El calor que producen debe ir a algún lado —parte se disipa al exterior, parte calienta el edificio mismo—, y cuando se concentran en un área, el efecto acumulado puede ser significativo. Este tipo de impacto se llama “isla de calor urbano“, un fenómeno conocido en ciudades densas, pero que hasta ahora no se había documentado tan claramente alrededor de centros de datos. Vale la pena ser cauteloso: el estudio no está aún validado por otros científicos, y algunos expertos señalan que parte del calor observado podría venir del sol golpeando los enormes edificios, no del calor generado por el cómputo. Pero incluso si la metodología se ajusta, el mensaje de fondo no cambia: la explosión de IA tiene un costo físico y térmico real que hasta ahora apenas estamos empezando a medir.
|
|
Nvidia invierte $2,000 millones en Marvell: chips rivales que ahora juegan en el mismo equipoEl 31 de marzo, Nvidia anunció una inversión de $2,000 millones de dólares en Marvell Technology, fabricante de chips especializado en infraestructura de centros de datos y diseño de semiconductores a medida. La alianza tiene tres ejes: primero, integrar los chips personalizados (ASICs) de Marvell con NVLink Fusion, la tecnología de interconexión de Nvidia que hasta hace poco solo era compatible con hardware propio. Segundo, colaborar en fotónica de silicio —una tecnología que usa luz en lugar de cables de cobre para mover datos de forma más rápida y eficiente—. Tercero, trabajar en conjunto en Nvidia Aerial, un conjunto de herramientas para convertir redes de telecomunicaciones 5G/6G en infraestructura capaz de correr cargas de IA. Las acciones de Marvell subieron casi 13% tras el anuncio. Es la quinta inversión de $2,000 millones que Nvidia realiza en empresas del ecosistema de chips en los últimos meses, siguiendo a Synopsys, CoreWeave, Coherent, Lumentum y Nebius Group.
Para entender por qué esto importa hay que saber que los ASICs —circuitos diseñados para una tarea específica— son hoy la principal alternativa a las GPUs de Nvidia. Empresas como Google, Amazon y Meta han invertido miles de millones en desarrollar sus propios chips de IA precisamente para depender menos de Nvidia. Marvell es uno de los proveedores clave que ayuda a estas empresas a diseñar esos chips. Lo paradójico del acuerdo es que Nvidia está invirtiendo en su propio competidor —y lo hace de forma inteligente: al abrir NVLink Fusion para que los chips de Marvell sean compatibles con su ecosistema, Nvidia se asegura de que incluso quienes usen ASICs alternativos sigan dependiendo de su infraestructura de interconexión, servidores y software. Es una jugada de plataforma clásica: en lugar de bloquear a los rivales, los integra. El CEO de Nvidia, Jensen Huang, lo resumió con ironía ante las cámaras: “Marvell es una inversión maravillosa. Llevaba tiempo queriendo decir eso.”
|
|
|
¿Tienes comentarios? Escríbenos a equipo@piild.com © 2026 Piild. Todos los derechos reservados. |