Cuando Wall Street tiene miedo

Hay un momento en toda revolución tecnológica en que los trajes dejan de sonreír. Ayer fue ese momento. El secretario del Tesoro Scott Bessent y el presidente de la Fed Jerome Powell convocaron de urgencia a los directores de los principales bancos de Estados Unidos para hablar de inteligencia artificial. No de cómo invertir en ella. De cómo sobrevivirla. Y es que Claude Mythos, el modelo de Anthropic que la semana pasada nos tenía hablando de vulnerabilidades de veintisiete años, resultó ser lo suficientemente bueno para aterrorizar a la gente que mueve el dinero del mundo. Mientras tanto, Intel se unió a la megafábrica de chips de Elon Musk y OpenAI, Anthropic y Google se aliaron contra China. Por su lado, los estados de la unión americana están legislando a una velocidad que haría sonrojar a la IA europea. Y para rematar, ochenta mil personas perdieron su empleo en el primer trimestre, casi la mitad por culpa —o con el pretexto— de la inteligencia artificial.

La semana en que la IA dejó de ser un tema de tecnología y se convirtió en un asunto de Estado.

Hoy destacamos:
• Mythos provoca reunión de emergencia entre el Tesoro, la Fed y la banca
• Intel se suma al proyecto Terafab de Musk: chips de IA hechos en casa
• OpenAI, Anthropic y Google se alían contra el robo de modelos por China
• Investigadores logran IA neurosimbólica que consume cien veces menos energía
• Utah autoriza a la IA a renovar recetas de medicamentos psiquiátricos
• Ochenta mil despidos tech en el primer trimestre: ¿es la IA o es el pretexto?
• La pelea entre Washington y los estados por quién regula la IA
• “The AI Doc”: el documental que juntó a Altman, Amodei y Hassabis


Mythos asusta a Wall Street

La reunión no estaba en ninguna agenda. El jueves por la tarde, Bessent y Powell sentaron a los directores de JPMorgan, Bank of America, Citigroup, Goldman Sachs y los demás bancos sistémicos para una conversación que nadie ha querido resumir en público. El tema: las vulnerabilidades que Claude Mythos descubrió en sistemas financieros críticos. No una ni dos. Vulnerabilidades de diez, veinte y hasta veintisiete años de antigüedad. Algunas en OpenBSD, que durante décadas presumió ser el sistema operativo más seguro del mundo.

Jamie Dimon, el único CEO que no asistió, mandó representante. Viniendo de alguien que hace un año llamaba a la IA “el riesgo más importante de nuestra generación”, la ausencia dice más que cualquier comunicado.

Anthropic respondió lanzando Project Glasswing: acceso limitado a Mythos exclusivamente para fines defensivos, restringido a AWS, Apple, Cisco, CrowdStrike, Google, Microsoft y NVIDIA. El mensaje es inequívoco: este modelo es demasiado peligroso para que ande suelto, pero demasiado poderoso para que no lo use nadie.

Contexto: Es la primera vez que un modelo de IA provoca una reunión de emergencia entre los reguladores financieros más poderosos de Estados Unidos y la banca privada. El precedente más cercano fue la crisis de 2008, cuando las reuniones de emergencia eran sobre hipotecas tóxicas, no sobre inteligencia artificial.
Por qué importa: Que el Tesoro y la Fed convoquen a la banca por un tema de IA marca un antes y un después. La inteligencia artificial acaba de graduarse de “sector tecnológico interesante” a “riesgo sistémico para la infraestructura financiera”. Y los riesgos sistémicos se regulan de otra manera. Se regulan con miedo.

Intel se sube a la Terafab de Musk

Intel firmó como socio de fabricación del proyecto Terafab, el megaproyecto de veinticinco mil millones de dólares liderado por Tesla, SpaceX y xAI para construir una fábrica de semiconductores en Texas con capacidad de un terawatt de cómputo de IA por año. Intel aportará su proceso 18A, de 1.8 nanómetros —su tecnología más avanzada.

El complejo tendrá dos plantas: una “Terrestre” para chips de robótica humanoide y vehículos autónomos, y una “Orbital” para semiconductores resistentes a la radiación destinados a los centros de datos de Starlink. Las acciones de Intel subieron once por ciento tras el anuncio, su mejor día en más de un año.

Contexto: Terafab es parte de la estrategia de reshoring de semiconductores que comenzó con el CHIPS Act de 2022. A diferencia de las fábricas de TSMC en Arizona, esta planta es cien por ciento estadounidense: diseño, fabricación y clientes. Intel lleva años perdiendo terreno frente a TSMC y Samsung. Esta alianza con el ecosistema de Musk le da un cliente cautivo de escala enorme.
Por qué importa: Musk no solo construye los robots, los coches y los satélites. Ahora también va a fabricar los chips que los alimentan. Integración vertical completa: desde el silicio hasta la órbita. Si esto sale bien, Musk tendrá un ecosistema cerrado que haría palidecer a Apple. Si sale mal, serán veinticinco mil millones de dólares enterrados en el desierto de Texas. Con Musk, las dos opciones son igualmente probables.

Los tres rivales se unen contra China

Algo que no habíamos visto: OpenAI, Anthropic y Google compartiendo inteligencia a través del Frontier Model Forum para detectar y bloquear intentos de “destilación adversarial” por empresas chinas. El término suena técnico pero es simple: usar las respuestas de un modelo superior para entrenar uno inferior sin pagar por el desarrollo.

Anthropic reportó que DeepSeek, Moonshot AI y MiniMax generaron más de dieciséis millones de intercambios con Claude a través de unas veinticuatro mil cuentas fraudulentas. No es espionaje clásico. Es algo más sofisticado: un bombardeo masivo de preguntas diseñadas para extraer el conocimiento del modelo gota a gota.

Las tres empresas están desarrollando tecnología para identificar patrones de tráfico anómalo que delaten estos intentos. Pero hay una tensión que nadie quiere discutir en público: bloquear el acceso a usuarios chinos legítimos para detener a los ilegítimos crea un problema comercial y diplomático que no se resuelve con algoritmos.

Por qué importa: La IA acaba de generar su propia versión de la Guerra Fría tecnológica. Tres competidores feroces que normalmente no comparten ni la hora decidieron cooperar contra un adversario común. La última vez que algo así pasó en tecnología fue cuando Microsoft, Apple y todos los demás se unieron contra los virus informáticos en los noventa. Solo que entonces el enemigo eran adolescentes en sótanos. Ahora son laboratorios con presupuesto estatal.

La IA que consume cien veces menos energía

En medio de tanto drama geopolítico, un equipo de la Universidad de Tufts publicó algo que debería estar en primera plana y que probablemente nadie va a leer. Desarrollaron un sistema de IA neurosimbólica —combinación de redes neuronales con razonamiento simbólico tipo humano— que logró un noventa y cinco por ciento de éxito en tareas robóticas, contra un treinta y cuatro por ciento de los sistemas convencionales. El dato que mata: usó un uno por ciento de la energía de entrenamiento y un cinco por ciento de la energía de operación. El entrenamiento tomó treinta y cuatro minutos en vez de día y medio.

Contexto: La IA generativa tiene un problema de consumo energético que nadie ha resuelto. Entrenar un modelo de frontera consume la energía de una ciudad pequeña durante semanas. La IA neurosimbólica es un enfoque alternativo que combina la fuerza bruta de las redes neuronales con reglas lógicas explícitas, reduciendo drásticamente la necesidad de datos y cómputo.
Por qué importa: Si este enfoque escala, cambia la ecuación fundamental de la IA. Hoy, para competir necesitas miles de millones de dólares en GPUs y electricidad. Un modelo que haga más con menos no solo es más eficiente: es más democrático. La pregunta, como siempre, es si la industria que vende GPUs tiene interés en que esto funcione.

Utah deja que la IA recete antidepresivos

Utah amplió su programa piloto de prescripciones con IA —que ya llevaba unos meses con medicamentos crónicos de bajo riesgo— a quince medicamentos psiquiátricos, incluyendo Prozac y Zoloft. El sistema de la startup Legion Health puede renovar recetas sin intervención humana, aunque no puede escribir recetas nuevas, cambiar dosis ni manejar sustancias controladas o antipsicóticos.

Por qué importa: Lo que parece un ajuste técnico menor es en realidad un precedente enorme. Es el primer estado de Estados Unidos que permite que la IA tome decisiones autónomas sobre medicamentos psiquiátricos. El argumento a favor es poderoso: en zonas rurales de Utah, conseguir cita con un psiquiatra puede tomar meses. La renovación automática de una receta estable resuelve un problema real. Pero hay una línea delgada entre “renovar una receta estable” y “decidir que un paciente no necesita ser visto por un humano”. Esa línea la acaban de cruzar.

Ochenta mil despidos: ¿IA o pretexto?

Setenta y ocho mil quinientos cincuenta y siete trabajadores de tecnología perdieron su empleo en el primer trimestre de 2026. Casi la mitad —cuarenta y ocho por ciento— de los recortes se atribuyeron a la inteligencia artificial y la automatización. Oracle ejecutó el mayor recorte individual: hasta treinta mil empleados de un plumazo el último día de marzo.

Lo revelador está en otra parte. Sam Altman, el CEO de OpenAI, dijo que parte de la narrativa de “la IA nos quita el empleo” es exactamente eso: narrativa. Un estudio del MIT publicado esta semana desafía la idea del apocalipsis laboral. Y ha surgido un fenómeno que ya tiene nombre: “AI-washing” — empresas que usan la IA como excusa para despidos que harían de todos modos, porque suena mejor decir “estamos automatizando” que “estamos recortando costos”.

ProPublica, el medio de periodismo de investigación, vivió una huelga de veinticuatro horas por protecciones contra IA y despidos. Los periodistas saben de qué va esto.

Por qué importa: La verdad, como casi siempre, probablemente está en medio. La IA sí está reemplazando funciones concretas —soporte técnico nivel uno, generación de contenido básico, procesamiento de datos—, pero también está sirviendo de coartada para reestructuraciones que tienen más que ver con márgenes de ganancia que con innovación. Las grandes tech invertirán seiscientos cincuenta mil millones combinados en IA este año. Los despidos funcionan como mecanismo para autofinanciar esa infraestructura: despides a la gente que hace el trabajo de hoy para pagar las máquinas que harán el trabajo de mañana.

¿Quién regula la IA: Washington o los estados?

La Casa Blanca publicó en marzo su Marco Nacional de Política para IA con una recomendación que suena razonable pero esconde una bomba: que las leyes federales prevalezcan sobre las leyes estatales de IA que “impongan cargas excesivas”. ¿Quién define “excesivas”? La administración, claro.

Mientras tanto, los legisladores estatales han introducido más de seiscientos proyectos de ley sobre IA en las sesiones de 2026. Indiana, Utah y Washington ya aprobaron leyes que prohíben a las aseguradoras de salud usar IA como única base para negar reclamaciones. El Departamento de Justicia creó un AI Litigation Task Force específicamente para impugnar leyes estatales que considere problemáticas.

Contexto: El marco de la Casa Blanca recomienda explícitamente que NO se cree una nueva agencia reguladora de IA. En cambio, propone que las agencias existentes (SEC, FDA, FTC) apliquen las leyes vigentes al nuevo contexto. La postura es claramente proindustria: menos regulación nueva, más reinterpretación de la existente.
Por qué importa: Se perfila una batalla constitucional entre el gobierno federal y los estados sobre quién tiene autoridad para regular la IA. Es el mismo patrón que vimos con la privacidad de datos, el cannabis y el matrimonio igualitario: los estados se adelantan, Washington intenta frenarlos, y al final los tribunales deciden. Solo que esta vez la tecnología avanza más rápido que cualquier proceso legislativo. Para cuando haya una ley federal de IA, la IA que esa ley pretendía regular ya será obsoleta.

GPT-5.5 en la puerta

Un dato suelto pero no menor: GPT-5.5, nombre código “Spud”, ya completó su preentrenamiento. Polymarket le asigna un setenta y ocho por ciento de probabilidad de lanzamiento antes del treinta de abril. OpenAI también anunció su Safety Fellowship para el periodo septiembre 2026 a febrero 2027, y publicó un Child Safety Blueprint enfocado en amenazas de explotación infantil potenciadas por IA. Dos caras de la misma moneda: la empresa que entrena el modelo más poderoso del mundo también tiene que pensar en cómo evitar que lo usen para lo peor.


“The AI Doc”: cuando los tres CEOs se sientan juntos

El documental “The AI Doc: Or How I Became an Apocaloptimist” sigue en cartelera desde su estreno el veintisiete de marzo. Lo dirige Daniel Roher, que ganó el Óscar por “Navalny”, y lo coproduce Daniel Kwan, el de “Everything Everywhere All At Once”. Incluye entrevistas con Sam Altman, Dario Amodei y Demis Hassabis. Más de cuarenta entrevistados. Tres mil trescientas páginas de transcripciones. Rating de 8.2 en IMDB.

Por qué importa: Es la primera vez que los tres CEO más influyentes de la IA —cada uno con una visión distinta de hacia dónde va esto— se sientan frente a la misma cámara. Altman, el optimista corporativo. Amodei, el precavido con conciencia. Hassabis, el científico con ambiciones galácticas. Que un documental los haya juntado dice algo sobre el momento: la IA ya es lo suficientemente importante como para tener su propio género cinematográfico. Y lo suficientemente inquietante como para que el título incluya la palabra “apocalipsis”.

Para comprender el texto

Destilación adversarial: Técnica para copiar el conocimiento de un modelo de IA superior haciéndole preguntas masivas y usando las respuestas para entrenar un modelo inferior. Es como fotografiar cada página de un libro protegido por derechos de autor: no robas el libro, pero reproduces su contenido.

IA neurosimbólica: Enfoque que combina redes neuronales (aprendizaje estadístico) con razonamiento simbólico (reglas lógicas explícitas). Promete mayor eficiencia y menor consumo de energía que los modelos puramente neuronales.

Preempción federal: Principio legal por el cual una ley federal invalida leyes estatales que entren en conflicto con ella. En el contexto de la IA, la administración Trump busca que una ley federal de IA anule regulaciones estatales más restrictivas.

AI-washing: Práctica de empresas que atribuyen despidos a la inteligencia artificial cuando las razones reales son recortes de costos o reestructuraciones. Variante del “greenwashing” aplicada al discurso tecnológico.

Project Glasswing: Programa de Anthropic para dar acceso controlado a las capacidades de ciberseguridad de Claude Mythos exclusivamente a empresas seleccionadas y con fines defensivos. El nombre evoca transparencia, pero la lista de invitados es muy selecta.

Terafab: Megaproyecto de fabricación de semiconductores liderado por Tesla, SpaceX y xAI, con capacidad de un terawatt de cómputo por año. Busca la integración vertical completa de la cadena de chips de IA en suelo estadounidense.


Descubre más de Mutatis mutandis

Suscríbete para recibir las últimas entradas en tu correo electrónico.