Esta semana no hubo Vigía — se atravesó Semana Santa, Molti (mi agente que corre OpenClaw en una mac mini) se desconfiguró y el Pichicuaz declaró estado de emergencia por un cambio de croquetas que considera un agravio personal. Pero la inteligencia artificial no descansa por decreto eclesiástico, así que aquí va lo que se acumuló del 2 al 6 de abril en una sola entrega. Para quien tenga prisa, primero va el resumen titulado “La semana en un trago”; para quien quiera la historia completa, abajo está.
La semana en un trago. Google DeepMind soltó Gemma 4, sus modelos abiertos más capaces hasta la fecha, bajo licencia Apache 2.0 — hay una versión que corre en una Raspberry Pi y otra que ya es el tercer modelo abierto del mundo en el Arena AI. OpenAI cerró Sora, su generador de video que se quemaba quince millones de dólares al día y que dejó colgado a Disney con un trato de mil millones; la era del video generativo como servicio resultó más cara de lo que cualquiera imaginó. El código fuente completo de Claude Code, la herramienta de programación de Anthropic, se filtró por un error en npm — medio millón de líneas de TypeScript al aire libre y un ataque a la cadena de suministro de pilón. UnitedHealth Group apostó tres mil millones de dólares a que la IA le va a reconfigurar la salud entera, con veintidós mil ingenieros ya trabajando en ello. Y en México, el AI Index de Stanford nos puso tercer lugar mundial en graduados de TIC, pero la letra chica dice otra cosa: talento sobra, ecosistema para absorberlo no hay. Todo eso en cinco días.
Comencemos con lo que ocurrió con Gemma 4, pues merece que nos detengamos un momento porque es de esas cosas que no salen en los titulares de las ocho pero que mueven el piso de toda la industria. Google DeepMind publicó el 2 de abril cuatro modelos abiertos — desde uno chiquito de dos mil millones de parámetros efectivos que literalmente corre en tu teléfono o en una Raspberry Pi, hasta uno denso de treinta y uno mil millones que ya ocupa el tercer lugar mundial entre modelos abiertos en el Arena AI — y los soltó bajo licencia Apache 2.0, que en cristiano significa: haz lo que quieras con ellos, sin pedirle permiso a nadie, sin pagar un centavo. Demis Hassabis anduvo en X presumiendo que los modelos chicos de dos y cuatro mil millones superan a modelos diez veces más grandes en dispositivos de borde, y Sundar Pichai, entre anunciar que dará el discurso de graduación de Stanford este año y empujar Gemma como si le fuera la vida en ello, dejó claro que la estrategia de Google ya no es solo competir con OpenAI en la nube sino democratizar la inferencia hasta el último rincón donde haya un chip y una toma de corriente. Cuatrocientos millones de descargas acumuladas de la familia Gemma y más de cien mil variantes en el ecosistema. El número que importa no es el benchmark sino la velocidad de adopción: esto ya no es un experimento de laboratorio, es infraestructura que se multiplica sola.
Mientras Google regalaba modelos, OpenAI mataba uno de los suyos. Sora, el generador de video que en diciembre de 2024 nos hizo creer que el cine generativo estaba a la vuelta de la esquina, cierra su app el 26 de abril y su API en septiembre. Los números que TechCrunch destapó son de aquellos que le quitan el sueño a cualquier director de finanzas: menos de quinientos mil usuarios activos tras un pico de un millón, y un costo operativo de quince millones de dólares diarios — sí, diarios — corriendo modelos de video que nadie estaba usando lo suficiente para justificar la factura de cómputo. Pero el dato que de verdad duele es el de Disney: tenían un acuerdo de mil millones de dólares sobre la mesa y se enteraron de que Sora cerraba menos de una hora antes del anuncio público. Mil millones de dólares muertos por un correo tardío, que nomás de pensarlo dan ganas de sentarse. OpenAI dice que el cómputo liberado se va para herramientas de código y clientes empresariales, lo cual tiene sentido si aceptas que la estrategia ya no es impresionar con demos espectaculares sino generar ingresos recurrentes, que al parecer andan en dos mil millones de dólares mensuales con novecientos millones de usuarios semanales. El video generativo no murió — Veo de Google, Kling, los chinos siguen empujando — pero la lección de Sora es que no basta con hacer algo asombroso; tienes que hacer algo que la gente use lo suficiente para pagar la cuenta de luz.
Y luego pasó lo de Claude Code, que me toca más de cerca porque es la herramienta con la que trabajo todos los días. El 31 de marzo, un investigador llamado Chaofan Shou descubrió que la versión 2.1.88 del paquete npm de Claude Code incluía un archivo de mapa de código fuente de casi sesenta megabytes que alguien olvidó excluir del build de producción — el tipo de error que cualquier desarrollador reconoce con un escalofrío, como cuando dejas la llave puesta en la puerta de la calle y te das cuenta al día siguiente. Quinientas doce mil líneas de TypeScript, casi dos mil archivos, todo el esqueleto de uno de los agentes de programación más usados del planeta, expuesto en horas, con el repositorio en GitHub alcanzando ochenta y cuatro mil estrellas y ochenta y dos mil forks antes de que nadie pudiera hacer nada. Lo que los curiosos encontraron adentro es interesante pero lo que da miedo es otra cosa: resulta que quienes instalaron o actualizaron Claude Code en npm entre las doce y las tres de la mañana UTC del 31 de marzo pudieron haber descargado una versión troyanizada con un acceso remoto metido por un ataque a la cadena de suministro que aprovechó el revuelo. Anthropic confirmó la filtración, pero el daño colateral del supply chain attack es el recordatorio de que la infraestructura de desarrollo de software tiene los mismos agujeros de siempre, solo que ahora los paquetes que se caen son los que controlan agentes de IA con acceso a tu código, tu terminal y tus archivos.
Hoy STAT publicó lo de UnitedHealth Group y la cifra amerita detenerse: tres mil millones de dólares apostados a IA, veintidós mil ingenieros de software en nómina, más del ochenta por ciento usando inteligencia artificial para programar o construir agentes, y Sandeep Dadlani de Optum Insight declarando que “desde la llegada de la IA generativa, realmente redoblamos entrenamiento, inversiones e impulso de casos de uso significativos.” Lo que traduzco de eso es que la aseguradora más grande de Estados Unidos ya no está experimentando con IA como quien prueba un nuevo software de oficina; está reconfigurando su operación completa — procesamiento de reclamaciones, detección de fraude, documentación clínica, códigos de facturación — a escala industrial. Cuando una empresa que procesa miles de millones de reclamaciones médicas cambia su stack de decisión, no solo cambia ella: cambia el estándar de mercado para todo el sector salud. Hace dos vigías hablé de la curva de aprendizaje que documentó Anthropic en su Economic Index, la brecha entre quien sabe usar IA y quien no. Pues UnitedHealth es el ejemplo corporativo de lo que pasa cuando una organización entera decide cruzar esa curva de golpe, con cheque de tres mil millones para asegurarse de que no se quede a medias.
En Europa, la Comisión Europea y la EUIPO firmaron un acuerdo de cinco años para reforzar la aplicación de la Ley de Servicios Digitales contra infracciones en las plataformas grandes — veintidós VLOPs y dos VLOSEs, más WhatsApp que se sumó en enero. No es el AI Act propiamente dicho, pero marca el clima: la inteligencia artificial ya no se regula sola sino amarrada a propiedad intelectual, moderación de contenido y deberes de plataforma. Euronews volvió a señalar que la fragmentación regulatoria en datos le sigue costando a Europa competitividad en una economía estimada en quinientos mil millones de euros, que para cualquier actor editorial o cultural — como nosotros en Ediciones del Ermitaño o Librántida — significa más incertidumbre cada vez que quieres escalar un producto de IA más allá de tu país.
Y luego están las voces en X, que esta semana trajeron más filosofía que producto. Yann LeCun sigue en su cruzada insistiendo en que “la inmensa mayoría de nuestro pensamiento no está basado en lenguaje” — y la neta es que cada vez que lo leo me quedo un rato largo mirando la pantalla preguntándome si los modelos de lenguaje que uso todos los días son una herramienta genial o un callejón sin salida muy sofisticado. Karpathy anda quejándose del precio de la API de X para proyectos con agentes, que es una señal menor pero reveladora: hasta los investigadores de primer nivel sienten que la infraestructura para construir agentes autónomos sigue cara y fragmentada. Y Musk, bueno, Musk sigue en lo suyo, que estos días es más guerra cultural que inteligencia artificial.
Pero lo que más me hizo pensar esta semana no viene de Silicon Valley sino de tres piezas que, leídas juntas, cuentan una historia que me toca de cerca. Manola Zabalza compartió en X datos del AI Index 2025 de Stanford: México es tercer lugar mundial en graduados de TIC — treinta y dos mil setecientos treinta y ocho, detrás de Estados Unidos y Brasil — y el setenta y cinco por ciento de los mexicanos se declara entusiasmado con la inteligencia artificial. Suena a titular para celebrar con bombo y platillo, pero hay que leer la letra chica. El tercer lugar es por volumen bruto; con ciento treinta millones de habitantes, la tasa per cápita nos deja muy atrás de Corea del Sur, Australia o Canadá. Y el entusiasmo del setenta y cinco por ciento viene acompañado de un nerviosismo igualmente alto, alrededor del sesenta por ciento. Los países con menos emoción — Japón, Alemania — resultan ser los que tienen los sistemas de IA más maduros. A veces la calma es mejor indicador que la euforia. Lo que no aparece en los datos que celebramos: inversión en investigación y desarrollo, patentes de IA, papers publicados, empresas fundadas, adopción empresarial real. En ninguno de esos rubros México figura en un top quince global. Tener graduados sin un sistema que los absorba produce fuga de cerebros, no ventaja competitiva.
La segunda pieza viene de McKinsey. Su encuesta de AI Trust Maturity muestra que el índice global de madurez en IA responsable subió de dos punto cero a dos punto tres en un año. Zabalza lo presenta como un salto significativo, pero en una escala de cero a cuatro, pasar de dos a dos punto tres es ir de “inmaduro” a “ligeramente menos inmaduro.” Lo revelador está en el desglose: datos y tecnología avanzan al cincuenta y cinco por ciento, pero gobernanza al treinta y cinco y estrategia al treinta y dos. Las empresas están implementando IA más rápido de lo que aprenden a gobernarla, y la categoría de gobernanza de agentes de IA — la supuesta “era agéntica” que todo mundo anda vendiendo — apenas registra un treinta y dos por ciento siendo categoría nueva. Estamos lejos de la autonomía que el hype promete. Y la correlación entre inversión en IA responsable y beneficios económicos merece cautela: las empresas que invierten cincuenta millones o más reportan más valor porque son las que más invierten en todo. Correlación no es causalidad, y McKinsey lo sabe aunque no le convenga decirlo en voz alta.
La tercera pieza es la más provocadora y no la vi en ningún medio mexicano. Joe Hudson — coach de Sam Altman y de equipos en OpenAI, Anthropic, DeepMind y Apple — propone que estamos en una transición histórica: de la era de la inteligencia a la era de la sabiduría. Su lógica: cada revolución tecnológica desplazó el recurso humano más valioso. Primero fue la fuerza física, luego las habilidades técnicas, después la inteligencia analítica. Ahora que la IA externaliza la inteligencia, lo que queda es el criterio — la capacidad de decidir bien, de distinguir la oportunidad real del ruido, de ver patrones donde otros ven datos. El marco es sólido aunque no nuevo: es la vieja pirámide DIKW — datos, información, conocimiento, sabiduría — reempaquetada para Silicon Valley. Y Hudson lo reduce demasiado a “taste” y toma de decisiones de negocio, cuando la sabiduría implica también juicio ético, pensamiento de segundo orden y la experiencia que solo da el tiempo. Pero la provocación vale: si tiene razón, las personas con décadas de experiencia y capacidad de juicio deberían ser las más valiosas en esta era, justo lo opuesto de lo que la cultura tech celebra con su culto a la juventud y al “move fast and break things.”
ARTICLE 19 México publicó esta semana un análisis de las reformas mexicanas a derecho de autor y trabajo alrededor de IA que debería preocupar a todo el que trabaje en un sello editorial, un medio de comunicación o cualquier empresa que toque contenido: la intención de proteger voz e interpretación es legítima, pero si la definición de “imitación” sale demasiado amplia, te acabas llevando de corbata la sátira, la parodia, la crítica y la circulación cultural legítima. Es el tipo de legislación donde los detalles hacen la diferencia entre proteger al creador y amordazar al comentarista, y en México tenemos un talento especial para escribir leyes con buenas intenciones y pésima redacción.
Todo esto se conecta de una manera que no es obvia pero que a mí, sentado aquí en San Pedro de los Pinos con el Sheldon dormido encima de un libro que se supone que debería estar editando, me resulta cada vez más clara: México tiene graduados pero no el sistema para aprovecharlos. Las empresas globales tienen la tecnología pero no la gobernanza. Y el recurso que de verdad escasea no es talento técnico ni herramientas — de eso hay un chingo — sino criterio para usarlos bien. La pregunta para México no es cuántos graduados producimos sino cuántos de ellos, y de nosotros, desarrollarán el juicio para distinguir señal de ruido en un mundo saturado de inteligencia artificial barata. El entusiasmo sin sabiduría es puro hype con buenas intenciones, y de eso ya tenemos de sobra.
Para comprender el texto
Gemma 4 — Familia de modelos de inteligencia artificial de Google DeepMind, publicada el 2 de abril de 2026 bajo licencia Apache 2.0. Viene en cuatro tamaños: desde uno de 2 mil millones de parámetros que corre en un teléfono, hasta uno de 31 mil millones que compite con los mejores del mundo. “Abierto” y “Apache 2.0” significan que cualquiera puede usarlo, modificarlo y comercializarlo sin pedir permiso ni pagar.
Sora — Generador de video por inteligencia artificial de OpenAI, lanzado en diciembre de 2024. Permitía crear videos a partir de texto. Cierra su app el 26 de abril de 2026 y su API en septiembre, tras acumular pérdidas operativas estimadas en quince millones de dólares diarios y menos de medio millón de usuarios activos.
Claude Code — Herramienta de programación asistida por IA de Anthropic que funciona desde la terminal. El 31 de marzo de 2026, un archivo de mapa de código fuente (.map) incluido por error en el paquete npm expuso sus 512,000 líneas de código TypeScript. npm es el registro público donde los desarrolladores publican y descargan paquetes de software en JavaScript.
Supply chain attack (ataque a la cadena de suministro) — Cuando un atacante compromete un componente de software en su canal de distribución (en este caso npm) para que quienes lo descarguen reciban código malicioso sin saberlo. Es como envenenar el agua en la planta potabilizadora en lugar de ir casa por casa.
UnitedHealth Group / Optum — La aseguradora de salud más grande de Estados Unidos. Optum es su brazo de servicios de datos y tecnología. La inversión de $3,000 millones en IA anunciada el 6 de abril apunta a automatizar el procesamiento de reclamaciones médicas, detección de fraude y documentación clínica a escala.
VLOPs y VLOSEs — Very Large Online Platforms y Very Large Online Search Engines, categorías de la Ley de Servicios Digitales (DSA) de la UE para las plataformas con más de 45 millones de usuarios mensuales en Europa. Actualmente hay 22 VLOPs (incluyendo a Facebook, YouTube, TikTok, Amazon) y 2 VLOSEs (Google Search y Bing).
ARTICLE 19 — Organización internacional de defensa de la libertad de expresión, con oficina en México y Centroamérica. Su análisis sobre las reformas mexicanas de derecho de autor alerta sobre el riesgo de que proteger “voz e interpretación” con definiciones demasiado amplias termine restringiendo sátira, parodia y crítica.
AI Index — Informe anual del Instituto de Inteligencia Artificial Centrada en el Ser Humano de la Universidad de Stanford (HAI) que mide el estado global de la IA en investigación, industria, política y percepción pública. El dato de México como tercer lugar en graduados de TIC viene de la edición 2025.
AI Trust Maturity (McKinsey) — Encuesta global de McKinsey que mide qué tan preparadas están las empresas para usar IA de manera responsable, en una escala de 0 a 4. Un 2.3 global significa que la mayoría está implementando tecnología más rápido de lo que aprende a gobernarla.
Pirámide DIKW — Modelo clásico de gestión del conocimiento: Datos → Información → Conocimiento → Sabiduría (Data, Information, Knowledge, Wisdom). Cada nivel añade contexto y juicio al anterior. Hudson la usa para argumentar que la IA cubre los primeros tres niveles, dejando la sabiduría como ventaja exclusivamente humana.
Joe Hudson — Coach ejecutivo que trabaja con líderes de OpenAI, Anthropic, Google DeepMind y Apple. Su tesis de “la era de la sabiduría” propone que cuando la inteligencia se externaliza en máquinas, el recurso humano más valioso pasa a ser el criterio — la capacidad de decidir bien con información incompleta.