Hay un momento en toda revolución tecnológica en que los trajes dejan de sonreír. Ayer fue ese momento. El secretario del Tesoro Scott Bessent y el presidente de la Fed Jerome Powell convocaron de urgencia a los directores de los principales bancos de Estados Unidos para hablar de inteligencia artificial. No de cómo invertir en ella. De cómo sobrevivirla. Y es que Claude Mythos, el modelo de Anthropic que la semana pasada nos tenía hablando de vulnerabilidades de veintisiete años, resultó ser lo suficientemente bueno para aterrorizar a la gente que mueve el dinero del mundo. Mientras tanto, Intel se unió a la megafábrica de chips de Elon Musk y OpenAI, Anthropic y Google se aliaron contra China. Por su lado, los estados de la unión americana están legislando a una velocidad que haría sonrojar a la IA europea. Y para rematar, ochenta mil personas perdieron su empleo en el primer trimestre, casi la mitad por culpa —o con el pretexto— de la inteligencia artificial.
La semana en que la IA dejó de ser un tema de tecnología y se convirtió en un asunto de Estado.
Hoy destacamos:
• Mythos provoca reunión de emergencia entre el Tesoro, la Fed y la banca
• Intel se suma al proyecto Terafab de Musk: chips de IA hechos en casa
• OpenAI, Anthropic y Google se alían contra el robo de modelos por China
• Investigadores logran IA neurosimbólica que consume cien veces menos energía
• Utah autoriza a la IA a renovar recetas de medicamentos psiquiátricos
• Ochenta mil despidos tech en el primer trimestre: ¿es la IA o es el pretexto?
• La pelea entre Washington y los estados por quién regula la IA
• “The AI Doc”: el documental que juntó a Altman, Amodei y Hassabis
Mythos asusta a Wall Street
La reunión no estaba en ninguna agenda. El jueves por la tarde, Bessent y Powell sentaron a los directores de JPMorgan, Bank of America, Citigroup, Goldman Sachs y los demás bancos sistémicos para una conversación que nadie ha querido resumir en público. El tema: las vulnerabilidades que Claude Mythos descubrió en sistemas financieros críticos. No una ni dos. Vulnerabilidades de diez, veinte y hasta veintisiete años de antigüedad. Algunas en OpenBSD, que durante décadas presumió ser el sistema operativo más seguro del mundo.
Jamie Dimon, el único CEO que no asistió, mandó representante. Viniendo de alguien que hace un año llamaba a la IA “el riesgo más importante de nuestra generación”, la ausencia dice más que cualquier comunicado.
Anthropic respondió lanzando Project Glasswing: acceso limitado a Mythos exclusivamente para fines defensivos, restringido a AWS, Apple, Cisco, CrowdStrike, Google, Microsoft y NVIDIA. El mensaje es inequívoco: este modelo es demasiado peligroso para que ande suelto, pero demasiado poderoso para que no lo use nadie.
Intel se sube a la Terafab de Musk
Intel firmó como socio de fabricación del proyecto Terafab, el megaproyecto de veinticinco mil millones de dólares liderado por Tesla, SpaceX y xAI para construir una fábrica de semiconductores en Texas con capacidad de un terawatt de cómputo de IA por año. Intel aportará su proceso 18A, de 1.8 nanómetros —su tecnología más avanzada.
El complejo tendrá dos plantas: una “Terrestre” para chips de robótica humanoide y vehículos autónomos, y una “Orbital” para semiconductores resistentes a la radiación destinados a los centros de datos de Starlink. Las acciones de Intel subieron once por ciento tras el anuncio, su mejor día en más de un año.
Los tres rivales se unen contra China
Algo que no habíamos visto: OpenAI, Anthropic y Google compartiendo inteligencia a través del Frontier Model Forum para detectar y bloquear intentos de “destilación adversarial” por empresas chinas. El término suena técnico pero es simple: usar las respuestas de un modelo superior para entrenar uno inferior sin pagar por el desarrollo.
Anthropic reportó que DeepSeek, Moonshot AI y MiniMax generaron más de dieciséis millones de intercambios con Claude a través de unas veinticuatro mil cuentas fraudulentas. No es espionaje clásico. Es algo más sofisticado: un bombardeo masivo de preguntas diseñadas para extraer el conocimiento del modelo gota a gota.
Las tres empresas están desarrollando tecnología para identificar patrones de tráfico anómalo que delaten estos intentos. Pero hay una tensión que nadie quiere discutir en público: bloquear el acceso a usuarios chinos legítimos para detener a los ilegítimos crea un problema comercial y diplomático que no se resuelve con algoritmos.
La IA que consume cien veces menos energía
En medio de tanto drama geopolítico, un equipo de la Universidad de Tufts publicó algo que debería estar en primera plana y que probablemente nadie va a leer. Desarrollaron un sistema de IA neurosimbólica —combinación de redes neuronales con razonamiento simbólico tipo humano— que logró un noventa y cinco por ciento de éxito en tareas robóticas, contra un treinta y cuatro por ciento de los sistemas convencionales. El dato que mata: usó un uno por ciento de la energía de entrenamiento y un cinco por ciento de la energía de operación. El entrenamiento tomó treinta y cuatro minutos en vez de día y medio.
Utah deja que la IA recete antidepresivos
Utah amplió su programa piloto de prescripciones con IA —que ya llevaba unos meses con medicamentos crónicos de bajo riesgo— a quince medicamentos psiquiátricos, incluyendo Prozac y Zoloft. El sistema de la startup Legion Health puede renovar recetas sin intervención humana, aunque no puede escribir recetas nuevas, cambiar dosis ni manejar sustancias controladas o antipsicóticos.
Ochenta mil despidos: ¿IA o pretexto?
Setenta y ocho mil quinientos cincuenta y siete trabajadores de tecnología perdieron su empleo en el primer trimestre de 2026. Casi la mitad —cuarenta y ocho por ciento— de los recortes se atribuyeron a la inteligencia artificial y la automatización. Oracle ejecutó el mayor recorte individual: hasta treinta mil empleados de un plumazo el último día de marzo.
Lo revelador está en otra parte. Sam Altman, el CEO de OpenAI, dijo que parte de la narrativa de “la IA nos quita el empleo” es exactamente eso: narrativa. Un estudio del MIT publicado esta semana desafía la idea del apocalipsis laboral. Y ha surgido un fenómeno que ya tiene nombre: “AI-washing” — empresas que usan la IA como excusa para despidos que harían de todos modos, porque suena mejor decir “estamos automatizando” que “estamos recortando costos”.
ProPublica, el medio de periodismo de investigación, vivió una huelga de veinticuatro horas por protecciones contra IA y despidos. Los periodistas saben de qué va esto.
¿Quién regula la IA: Washington o los estados?
La Casa Blanca publicó en marzo su Marco Nacional de Política para IA con una recomendación que suena razonable pero esconde una bomba: que las leyes federales prevalezcan sobre las leyes estatales de IA que “impongan cargas excesivas”. ¿Quién define “excesivas”? La administración, claro.
Mientras tanto, los legisladores estatales han introducido más de seiscientos proyectos de ley sobre IA en las sesiones de 2026. Indiana, Utah y Washington ya aprobaron leyes que prohíben a las aseguradoras de salud usar IA como única base para negar reclamaciones. El Departamento de Justicia creó un AI Litigation Task Force específicamente para impugnar leyes estatales que considere problemáticas.
GPT-5.5 en la puerta
Un dato suelto pero no menor: GPT-5.5, nombre código “Spud”, ya completó su preentrenamiento. Polymarket le asigna un setenta y ocho por ciento de probabilidad de lanzamiento antes del treinta de abril. OpenAI también anunció su Safety Fellowship para el periodo septiembre 2026 a febrero 2027, y publicó un Child Safety Blueprint enfocado en amenazas de explotación infantil potenciadas por IA. Dos caras de la misma moneda: la empresa que entrena el modelo más poderoso del mundo también tiene que pensar en cómo evitar que lo usen para lo peor.
“The AI Doc”: cuando los tres CEOs se sientan juntos
El documental “The AI Doc: Or How I Became an Apocaloptimist” sigue en cartelera desde su estreno el veintisiete de marzo. Lo dirige Daniel Roher, que ganó el Óscar por “Navalny”, y lo coproduce Daniel Kwan, el de “Everything Everywhere All At Once”. Incluye entrevistas con Sam Altman, Dario Amodei y Demis Hassabis. Más de cuarenta entrevistados. Tres mil trescientas páginas de transcripciones. Rating de 8.2 en IMDB.
Para comprender el texto
Destilación adversarial: Técnica para copiar el conocimiento de un modelo de IA superior haciéndole preguntas masivas y usando las respuestas para entrenar un modelo inferior. Es como fotografiar cada página de un libro protegido por derechos de autor: no robas el libro, pero reproduces su contenido.
IA neurosimbólica: Enfoque que combina redes neuronales (aprendizaje estadístico) con razonamiento simbólico (reglas lógicas explícitas). Promete mayor eficiencia y menor consumo de energía que los modelos puramente neuronales.
Preempción federal: Principio legal por el cual una ley federal invalida leyes estatales que entren en conflicto con ella. En el contexto de la IA, la administración Trump busca que una ley federal de IA anule regulaciones estatales más restrictivas.
AI-washing: Práctica de empresas que atribuyen despidos a la inteligencia artificial cuando las razones reales son recortes de costos o reestructuraciones. Variante del “greenwashing” aplicada al discurso tecnológico.
Project Glasswing: Programa de Anthropic para dar acceso controlado a las capacidades de ciberseguridad de Claude Mythos exclusivamente a empresas seleccionadas y con fines defensivos. El nombre evoca transparencia, pero la lista de invitados es muy selecta.
Terafab: Megaproyecto de fabricación de semiconductores liderado por Tesla, SpaceX y xAI, con capacidad de un terawatt de cómputo por año. Busca la integración vertical completa de la cadena de chips de IA en suelo estadounidense.