IA en guerra, NVIDIA imparable y Anthropic cede
¿Qué ocurre cuando las IAs toman decisiones militares? Un profesor del King's College de Londres enfrentó a GPT 5.2, Claude Sonnet 4 y Gemini 3 Flash en simulaciones de conflictos geopolíticos, y el resultado es escalofriante: en el 95% de las partidas, al menos un modelo desplegó armas nucleares tácticas. Ninguno se rindió jamás. Arrancamos el episodio con este dato que abre un debate crucial sobre los límites de la IA en escenarios de alto riesgo.
Saltamos a los números de NVIDIA, que no deja de romper récords: 68.100 millones de dólares en ingresos trimestrales, un beneficio anual de 120.000 millones y su negocio de centros de datos disparado un 71%. Jensen Huang lo resume con claridad: sin cómputo no hay tokens, y sin tokens no hay ingresos. La burbuja de la IA, al menos de momento, no se pincha.
En el lado de la seguridad, Anthropic reescribe su política de escalado responsable y elimina su mecanismo de freno automático ante modelos que superen las salvaguardas. Su director científico lo justifica: no tiene sentido frenar unilateralmente si OpenAI, Google y xAI avanzan sin restricciones. Un giro significativo para la empresa que nació precisamente por la falta de compromiso de otros con la seguridad.
Además, repasamos la llegada de NanoBanana 2 (Gemini 3.1 Flash Image) a usuarios gratuitos, la disponibilidad de Claude CoWork en Windows, el lanzamiento de ADA por Read AI como asistente-doble digital, y dedicamos un bloque especial a explicar qué son los gemelos digitales y cómo la IA está pasando de herramienta a clon que actúa por ti. Cerramos con una sesión práctica sobre IA en local: generación de vídeo estilo Pixar con ComfyUI y las primeras pruebas con Qwen 3.5 cuantizado a 35B.
Únete a TELEGRAM!!