Once días sin Vigía. No fue por falta de noticias. Fue por todo lo contrario: entre el 23 de abril, cuando Celorio recibía el Cervantes y Altman presentaba GPT-5.5, y este 4 de mayo, mientras escribo desde San Pedro de los Pinos con el Pichicuaz dormido sobre el escritorio, el sector pasó de exhibir modelos en demos a firmar contratos en escrituras notariadas. Microsoft y OpenAI rescribieron su matrimonio. Google le puso 40 mil millones de dólares a Anthropic. El Pentágono firmó con ocho empresas y dejó fuera a la novena. Anthropic anunció una herramienta capaz de hackear redes eléctricas y la Casa Blanca le dijo que la apague. Musk se sentó en una corte de Oakland a pelearse con sus propios fantasmas fundacionales. Meta y Microsoft despidieron a 20 mil personas en un mismo día. Y hoy mismo, hace pocas horas, Anthropic y OpenAI anunciaron — cada quien por su lado, y por casualidad en la misma fecha — la jugada que mejor resume el periodo: cada uno levantó una empresa de despliegue, una con Wall Street y otra con private equity, para llevar sus modelos a la operación interna de miles de empresas. Es el cambio de fase del año.
Empezamos.
Hoy destacamos:
- Anthropic crea una empresa de servicios de despliegue con Blackstone, Hellman & Friedman y Goldman Sachs: 1,500 millones de dólares
- OpenAI cierra “The Deployment Company”: 10 mil millones de dólares con TPG, Brookfield, Advent y Bain
- El Pentágono firmó con ocho empresas para sus redes clasificadas — y Anthropic, la más vocal en seguridad, se quedó fuera
- Anthropic creó Mythos, un modelo capaz de explotar vulnerabilidades en redes eléctricas y hospitales; la Casa Blanca pelea su expansión
- Google le pone 40 mil millones de dólares en mesa a Anthropic: 10 en efectivo, 30 condicionados, más 5 gigavatios de cómputo
- Microsoft y OpenAI rescriben su matrimonio: Microsoft baja la exclusividad, OpenAI gana libertad de distribución
- Stargate cruzó los 10 gigavatios tres años antes del calendario, con 3 gigavatios sumados en los últimos 90 días
- OpenAI obtiene FedRAMP Moderate y entra por la puerta del frente al gobierno federal
- 20 mil despidos en una sola semana entre Meta y Microsoft; 92 mil en lo que va del año en el sector tecnológico
- El juicio Musk vs. Altman: primer testimonio, mensaje de “settlement” rechazado por la jueza, cuatro semanas más por delante
- Google DeepMind aterriza en Seúl con AlphaFold y 50 mil becas; estrena AI co-clinician para medicina
- DeepSeek V4 sale sin que los mercados pestañeen
- Un aficionado resuelve un problema abierto de Erdős hace 60 años con ayuda de GPT-5.4 Pro
- En México, la SEP descubre con la ENIAG que la IA ya está en sus aulas: 97% de estudiantes la usan, y el presupuesto de formación docente da menos de 100 pesos al año por maestro
El doblete del 4 de mayo: Anthropic con Wall Street, OpenAI con private equity
Hoy mismo, prácticamente a la misma hora, Anthropic y OpenAI anunciaron jugadas paralelas que conviene leer juntas. Anthropic anunció en su sala de prensa la creación de una empresa anclada por sí misma, Blackstone y Hellman & Friedman, con cerca de 300 millones de dólares cada uno, más Goldman Sachs como socio fundador con otros 150 millones, y una segunda lista de inversionistas que incluye a Apollo, General Atlantic, Leonard Green, GIC y Sequoia Capital. El total comprometido ronda los 1,500 millones de dólares. La nueva firma es una entidad separada, con ingenieros y modelos de Anthropic incrustados directamente en sus equipos, y su propósito es llevar a Claude al corazón operativo de empresas medianas. La traducción honesta: Anthropic se está metiendo, en directo, a competir con McKinsey, BCG y Accenture por el mercado de transformación corporativa con IA.
OpenAI, en paralelo, finalizó hoy el cierre de “The Deployment Company”, una iniciativa de 10 mil millones de dólares anclada por TPG y respaldada por 19 inversionistas — entre ellos Brookfield Asset Management, Advent y Bain Capital. La cuota de OpenAI en la operación es de hasta 1,500 millones (500 al cierre y opción a otros mil después). El modelo de negocio que se anunció esta vez se parece al que durante años hizo Palantir: ingenieros propios desplegados dentro del cliente, sectores prioritarios en salud, logística, manufactura y servicios financieros, y una estructura de gobernanza con acciones supervotantes que mantiene a OpenAI en el control estratégico mientras los socios financieros se llevan la economía.
Lo que importa no es la coincidencia de fecha. Lo que importa es la convergencia de tesis. Hace 6 meses, la conversación pública sobre frontera de IA era qué modelo tenía mejor benchmark. Hoy, la conversación es quién se va a quedar con la capa de implementación dentro de las empresas. Anthropic y OpenAI llegaron, por caminos distintos, a la misma conclusión: el siguiente cuello de botella no es entrenar modelos más grandes — es meterlos a operar adentro de organizaciones que no saben hacerlo solas, no quieren contratar consultoras que cobran por hora y prefieren un actor que venga con modelo, ingenieros y capital en la misma estructura.
Contexto: Hasta ahora, las empresas que querían adoptar IA generativa pasaban por tres puertas: la API directa del proveedor (compleja para no-técnicos), una consultora tradicional (cara, lenta, agnóstica) o un integrador especializado (limitado, sectorial). El esquema que se anunció hoy es una cuarta puerta: empresa-de-servicios-del-laboratorio. McKinsey lleva años cobrando millones por proyectos de transformación con IA. La nueva firma de Anthropic propone hacer eso con los ingenieros que escribieron a Claude y los modelos calibrados específicamente para la operación. La de OpenAI, lo mismo. Y por debajo, el dinero ya no viene del laboratorio: viene de Wall Street, de private equity, de los gestores de fondos que necesitan colocar capital en algún lado y vieron en la implantación de IA una tesis defensiva con flujos predecibles.
Por qué importa: Esto reordena tres mercados a la vez. Primero, el de la consultoría: McKinsey, BCG, Accenture y Deloitte juntan miles de millones al año vendiendo “AI transformation”; ahora los proveedores de los modelos vienen a competir por ese mismo bolsillo. Segundo, el de la inversión privada: hasta hace un año, los fondos compraban acciones de los laboratorios. Ahora coinvertirten en sus brazos de despliegue, con economía propia y exposición directa al uso del modelo dentro del cliente. Y tercero, el del cliente final, sobre todo el mediano: la propuesta de valor se simplifica enormemente — ya no tiene que negociar con tres proveedores, contratar consultora y aprender a operar la API. Llega, paga, recibe equipo, modelo e implementación. Para América Latina, la lectura indirecta es: si esta capa madura en Estados Unidos durante 2026, en 2027 va a aterrizar regional. La pregunta es si queremos esperar a que llegue empacada o si construimos algo equivalente desde acá. Tengo dudas serias de que lo segundo pase a tiempo.
Mythos: el modelo que Anthropic creó y la Casa Blanca quiere frenar
El 30 de abril, el Wall Street Journal reportó algo que merece quedarse en el archivo: la administración Trump le dijo formalmente a Anthropic que no está de acuerdo con el plan de la empresa de expandir el acceso a Mythos — un modelo presentado en abril, que Anthropic describe como capaz de detectar y explotar vulnerabilidades en una amplia gama de software crítico. La propia Anthropic mostró que Mythos podía atacar redes eléctricas, plantas de energía y hospitales si se ponía en las manos equivocadas. Por eso, hasta ahora, lo había mantenido en acceso restringido. El plan que la Casa Blanca quiere frenar consistía en abrirlo a aproximadamente 70 empresas y organizaciones.
Hay dos preocupaciones que la administración puso sobre la mesa. La primera es de capacidad: Anthropic, dicen funcionarios estadounidenses, no tiene cómputo suficiente para servir a 70 clientes nuevos sin afectar el uso que el propio gobierno hace del modelo. La segunda es más incómoda: Mythos fue accedido por un grupo de usuarios no autorizados en un foro privado en línea — el mismo día en que Anthropic anunció su plan de liberación limitada. Esto último, si se sostiene, es muy fuerte: significa que un modelo capaz de tirar la red eléctrica salió por la puerta de atrás antes de salir por la del frente.
Contexto: Mythos es a la ciberofensiva lo que Claude es a la oficina: una herramienta de propósito general en su categoría. La diferencia es que la categoría de Mythos es la guerra digital, no la productividad. La narrativa pública de Anthropic se ha apoyado durante años en el adjetivo “responsable” — comparada con OpenAI, que se mueve más rápido y publica con menos cuidado. Mythos prueba ese adjetivo desde adentro: la herramienta más peligrosa de la categoría más peligrosa la construyó la empresa que se autopresenta como la más cuidadosa. La paradoja no es contradicción, es evolución; pero conviene nombrarla.
Por qué importa: Hay tres lecturas que se cruzan. Una: la Casa Blanca acaba de marcar un precedente — incluso bajo una administración que ha presionado a las agencias federales para acelerar adopción de IA, hay líneas que el ejecutivo pone explícitamente. Dos: la fuga del primer día sugiere que la separación entre “modelo cerrado para clientes confiables” y “modelo abierto a todo el mundo” es un estado mental, no un estado técnico — basta una puerta con bisagras flojas para que la diferencia desaparezca. Tres: Anthropic está construyendo, en paralelo, su brazo de despliegue empresarial con Wall Street. Las dos cosas juntas componen una empresa que defensivamente quiere amarrar a clientes corporativos pacíficos y ofensivamente quiere capacidad cibernética monetizable. Es una postura difícil de sostener en público mucho tiempo sin que algo se rompa.
El Pentágono firmó con ocho. Y dejó fuera al noveno
El primero de mayo, el Departamento de Defensa de Estados Unidos cerró acuerdos con Amazon Web Services, Google, Microsoft, NVIDIA, OpenAI, SpaceX y Reflection — y horas después agregó a Oracle. Ocho empresas en total. Los acuerdos son para desplegar IA en los entornos de red Impact Level 6 e Impact Level 7 del Pentágono — los niveles que manejan información clasificada y top secret —, con foco en síntesis de datos, mejora en la toma de decisiones de los combatientes y conciencia situacional. Los montos no son públicos. Tampoco se anunció cuándo entran en operación.
La novena empresa, la que se quedó fuera de la lista, es Anthropic. Las negociaciones, según múltiples reportes, se rompieron por dos motivos que conviene leer juntos. Públicamente, el Pentágono citó un “riesgo de cadena de suministro” tras una disputa contractual previa. Por debajo, los negociadores empujaron lenguaje “de propósito irrestricto” — sin condicionamientos sobre vigilancia o armas — y Anthropic no lo aceptó. La pieza tiene una segunda parte interesante: la Casa Blanca reabrió la conversación con Anthropic en semanas recientes, justo después de que la empresa anunciara Mythos. Dario Amodei, director general de Anthropic, visitó la Casa Blanca el mes pasado para una reunión con la jefa de gabinete Susie Wiles. La línea narrativa, entonces, es menos una expulsión limpia y más una negociación a varias velocidades: Anthropic quedó fuera de la firma del primero de mayo, pero está activamente tratando de regresar — y Mythos, paradójicamente, es la moneda de cambio.
Conviene leer la película completa. La misma semana en que el Pentágono dijo no a Anthropic, Google le puso 40 mil millones de dólares en compute y efectivo (volveremos a eso). La misma semana, Anthropic anunció su empresa de servicios con Wall Street para entrar al sector privado. La misma semana, la Casa Blanca le pidió que apague los planes para Mythos. Y mientras tanto, OpenAI y Google ya operaban con FedRAMP y contratos federales firmados desde antes. La fotografía es clara: hay dos rutas posibles para un laboratorio de frontera en 2026, y Anthropic eligió — explícitamente, con costo — la ruta civil-corporativa.
Por qué importa: Esto define dos sub-mercados con normas distintas. El sub-mercado defensa-gobierno selecciona por cumplimiento operacional; las salvaguardas se vuelven pasivos contables. El sub-mercado privado-corporativo selecciona por seguridad y cumplimiento regulatorio; las salvaguardas se vuelven activos comerciales. Anthropic se está posicionando como el lab del segundo sub-mercado a costa, conscientemente, de salir del primero. Es una apuesta. Si la regulación europea, estatal o sectorial endurece exigencias en los próximos dos años, Anthropic se beneficia. Si los compradores premian más velocidad y volumen que ética demostrable, OpenAI y Google se llevan el mercado. La consecuencia visible será cuál de los dos modelos atrae más empresas medianas conservadoras (banca, salud, gobierno civil) en los próximos doce meses.
Google le pone 40 mil millones a Anthropic
El 24 de abril, Bloomberg reportó — y el resto de la prensa confirmó— que Google se compromete a invertir hasta 40 mil millones de dólares en Anthropic. La estructura: 10 mil millones en efectivo ahora, a una valuación de 350 mil millones (la misma a la que Anthropic levantó en febrero), más 30 mil millones adicionales si Anthropic alcanza ciertos objetivos de desempeño. Google Cloud, además, se comprometió a entregar 5 gigavatios de capacidad de cómputo en cinco años, con la puerta abierta a sumar más.
El detalle que conviene anotar: este anuncio ocurre pocos días después del compromiso de Amazon de invertir 5 mil millones más en Anthropic, con opción a hasta 20 mil millones adicionales. Anthropic, en abril de 2026, está cubierta de capital y de cómputo por dos de los tres grandes hyperscalers del mundo: AWS y Google Cloud. La rivalidad clásica AWS-Google se suspende cuando se trata de Anthropic; ambos quieren participación.
Por qué importa: Para entender la magnitud, conviene compararlo: Microsoft puso 10 mil millones en OpenAI en 2023 y eso definió la forma del sector durante tres años. Google está poniendo cuatro veces eso, en una sola empresa, con la mitad ya entregada. La industria ya no se mide en rondas, se mide en compromisos plurianuales con cómputo en la mesa. Y conviene leer el contraste: Anthropic recibe 40 mil millones del segundo hyperscaler del mundo y, en el mismo aliento, queda fuera del cliente más grande del mundo (el Pentágono) por sus propias reglas internas. La industria está armando, sin pedir permiso, un mapa nuevo de coaliciones donde el adjetivo “responsable” tiene precio explícito.
El divorcio que no es divorcio: Microsoft y OpenAI rescriben el matrimonio
El 27 de abril, Microsoft y OpenAI anunciaron en sus respectivos blogs lo que ambos llamaron “el siguiente capítulo” de su sociedad. La traducción honesta: Microsoft sigue siendo el socio principal de nube, pero ya no el único. OpenAI puede vender sus productos en cualquier nube. La licencia de propiedad intelectual de OpenAI a Microsoft se extiende hasta 2032, pero deja de ser exclusiva. Microsoft conserva alrededor del 27% del nuevo OpenAI Group PBC — una participación que, a la valuación implícita del acuerdo, ronda los 135 mil millones de dólares. Y el reparto económico cambia: OpenAI seguirá pagando regalías a Microsoft hasta 2030 con un tope total, y Microsoft deja de pagar regalías a OpenAI por su parte.
En román paladino: Microsoft cambió exclusividad por blindaje contractual y participación accionaria. OpenAI cambió encierro en Azure por libertad de distribución. Pocos días después, OpenAI anunció disponibilidad en AWS — modelos, Codex y agentes gestionados en Bedrock. La fila para distribuir IA dejó de tener una sola entrada.
Por qué importa: La concentración no se redujo; siguen siendo los mismos cuatro o cinco actores en la frontera. Pero se volvió menos rígida. Y eso, en mercados regulados, suele ser el preludio de presiones más finas: contratos públicos, soberanía de datos, reglas de origen. El binomio OpenAI-Azure dejó de ser sinónimo. Para los compradores corporativos eso significa más opciones; para los reguladores significa más jugadores que evaluar; para Anthropic y los demás significa que el competidor principal se acaba de soltar de su correa.
OpenAI sigue construyendo: Stargate cruza los 10 gigavatios y abre frente cibernético
El 29 de abril, OpenAI publicó dos textos que conviene leer juntos. El primero, “Building the Compute Infrastructure for the Intelligence Age”, anuncia que Stargate ya superó los 10 gigavatios de capacidad de IA en Estados Unidos — el objetivo que originalmente se había fijado para 2029. Sumaron 3 gigavatios en los últimos 90 días (la velocidad de despliegue habla por sí sola). Cinco nuevos sitios se anunciaron en paralelo: la red ya alcanza los 7 gigavatios planeados solo en infraestructura propia, y la inversión total comprometida cruza los 400 mil millones de dólares para los próximos tres años.
El segundo texto, “Cybersecurity in the Intelligence Age”, presenta un plan de cinco pilares con el que OpenAI quiere posicionarse, al mismo tiempo, como infraestructura crítica y como actor de seguridad nacional. Los detalles específicos son menos importantes que el gesto: OpenAI ya no se autopresenta como un laboratorio que vende un producto, sino como una capa estratégica del Estado.
Por qué importa: Los 10 gigavatios no son una métrica abstracta. Para dar idea: 10 gigavatios es aproximadamente la capacidad eléctrica que consume una ciudad de 7 a 10 millones de habitantes. OpenAI está construyendo, sólo para entrenar e inferir sus modelos, el equivalente a una metrópoli completa. Que lo hayan adelantado tres años sobre el calendario original cambia el debate energético del sector — y conecta con la conversación más amplia sobre tarifas, redes y subsidios que ya empezó en varios estados de Estados Unidos. Para América Latina, la dimensión que cuenta es indirecta: el cómputo que vamos a consumir en 2027 se está construyendo hoy, y se está construyendo en lugares donde a nadie le pidieron permiso ambiental.
OpenAI entra al edificio federal
El 28 de abril, OpenAI anunció que ChatGPT Enterprise y la API Platform recibieron la autorización FedRAMP Moderate — el sello que el gobierno de Estados Unidos exige a cualquier proveedor en la nube que quiera procesar información sensible no clasificada de sus agencias. Hay versiones diferenciadas, “ChatGPT FedRAMP” y “API FedRAMP”, con controles adicionales. Hasta ese día, las agencias federales que querían usar IA generativa estaban más o menos amarradas a Azure Government o a contratistas tradicionales. Ahora, OpenAI entra por la puerta del frente.
Tres días después, el Pentágono confirmó los acuerdos clasificados. La línea temporal cuenta una historia: el 27 de abril rompe la exclusividad con Microsoft, el 28 obtiene FedRAMP Moderate, el primero de mayo entra al Pentágono. Tres movimientos en cinco días para terminar de soltar la mano que durante seis años los amarró a Azure Government y abrir la suya a todo el aparato federal.
Por qué importa: El mercado de IA tiene tres frentes activos: consumo (ChatGPT individual), empresa (Enterprise, API) y, ahora con calendario, gobierno. Que OpenAI obtenga FedRAMP Moderate la misma semana en que se desinvincula de la exclusividad con Microsoft no es coincidencia: es la pieza que faltaba para vender directo al gobierno federal sin pasar por el portafolio gubernamental de Microsoft. Para los proveedores latinoamericanos, el dato indirecto es relevante: el techo del mercado privado se está moviendo, y los modelos comerciales para gobierno se van a copiar.
20 mil despidos en una semana: la “crisis del trabajo por IA” deja de ser advertencia
El 24 de abril, Meta y Microsoft anunciaron en el mismo día recortes que sumaron, juntos, alrededor de 20 mil personas. Meta despide al 10% de su plantilla — cerca de 8 mil empleos, con cortes que arrancan el 20 de mayo. Microsoft ofreció retiro voluntario a 8,750 empleados estadounidenses, alrededor del 7% de su fuerza doméstica.
Ambas empresas citaron explícitamente los avances de IA en automatización como detonante: moderación de contenido, soporte al cliente, pruebas de software, ciertos roles de ingeniería. El memo de Meta a sus empleados lo dijo en el lenguaje más limpio que se ha visto en este ciclo: “es parte de nuestro esfuerzo continuo por operar la empresa de manera más eficiente y compensar las otras inversiones que estamos haciendo”. Es decir: les estamos quitando puestos para pagar lo que cuestan los gigavatios. Las inversiones de infraestructura de Meta para 2026 se estiman en 162 a 169 mil millones de dólares.
El número macro: más de 92 mil despidos en el sector tecnológico en lo que va de 2026, según Layoffs.fyi. Eso suma casi 900 mil despidos acumulados desde 2020. Un estudio de Motion Recruitment de este año documenta lo que ya muchos veíamos por intuición: la adopción de IA está frenando la contratación para roles de entrada y para “TI generalizada”, mientras los puestos específicos de IA están sobrecalentados. La asimetría es brutal — y no es transitoria.
Contexto: La conversación sobre “la IA va a destruir empleos” tenía hasta hace seis meses una textura especulativa. Lo que cambió este abril es que las empresas que están ganando con la IA explicitaron por primera vez que están financiando sus inversiones en IA con recortes de personal. Antes lo decían los críticos; ahora lo dice el memo interno. El lenguaje pasa de hipótesis a balance.
Por qué importa: La fricción social se va a sentir antes en Estados Unidos, donde el ciclo de despidos arrancó, pero los efectos macroeconómicos no son nacionales — son globales. Si Big Tech genera utilidades históricas mientras reduce planilla, la presión política sobre el sector va a llegar por dos lados: regulación de despliegue, y reforma fiscal. Para América Latina, donde buena parte del empleo de servicios tecnológicos está estructurado como outsourcing para empresas estadounidenses, esto se va a sentir en 2026 y 2027 — no en cinco años.
El juicio Musk vs. Altman: primera semana
El 28 de abril, en la Corte Federal de Oakland, ante la jueza Yvonne Gonzalez Rogers, comenzaron las declaraciones iniciales del juicio que Elon Musk le entabló a Sam Altman, Greg Brockman, Microsoft y la propia OpenAI. Lo que se está jugando son hasta 134 mil millones de dólares en “ganancias injustas” que, si Musk gana, podrían tener que devolverse a la fundación sin fines de lucro original de OpenAI.
La primera semana fue dominada por el testimonio de Musk: tres días en el estrado, contestando sobre su rol en la fundación de OpenAI, acusando una y otra vez a Altman y Brockman de “robar una caridad”. El abogado de Musk, Steve Molo, abrió con frase de campaña: “Estamos aquí porque los acusados se robaron una caridad”. La defensa, por boca de William Savitt, respondió en sentido contrario: “Estamos aquí porque al señor Musk no le salieron las cosas como quería en OpenAI. Renunció diciendo que iban a fracasar seguro. Pero mis clientes tuvieron el atrevimiento de seguir adelante y triunfar sin él”.
La pieza más jugosa salió hoy mismo, 4 de mayo. OpenAI intentó introducir como evidencia un mensaje de texto que Musk le envió a Greg Brockman dos días antes del inicio del juicio, sugiriendo un acuerdo extrajudicial — y, según OpenAI, prometiendo arruinar la reputación de Brockman. Los abogados de OpenAI argumentaron que el texto demuestra “motivo y prejuicio”: que la motivación de Musk en este pleito no es la defensa de una causa fundacional sino atacar a un competidor y a sus directivos. La jueza Gonzalez Rogers decidió no admitir el texto como evidencia. Brockman testifica esta semana.
El calendario proyecta cuatro semanas más para la fase de responsabilidad. Si se determina responsabilidad, la fase de remedios queda programada para el 18 de mayo. Como testigos están confirmados Musk, Altman, Brockman, Satya Nadella, Ilya Sutskever y Mira Murati (esta última en deposición grabada).
Por qué importa: Sea cual sea el resultado, este juicio va a forzar a OpenAI — y por extensión a la industria — a dejar por escrito y bajo juramento cómo se justifica su transición de organización sin fines de lucro a empresa comercial valuada hoy en cifras astronómicas. La pregunta de fondo, traducida a lo nuestro, es: ¿qué obligaciones públicas tiene una empresa que dijo nacer con propósito caritativo y terminó vendiendo agentes a clientes corporativos? La respuesta legal saldrá en semanas; la respuesta moral, en años. Y mientras tanto, el ruido reputacional ya está pesando — el juicio está ocurriendo justo cuando OpenAI necesita firmar contratos con compradores conservadores.
Google DeepMind aterriza en Seúl y estrena AI co-clinician
El 27 de abril, Google DeepMind anunció una alianza estratégica con la República de Corea. Lo importante no es la palabra “alianza” — todas las empresas de IA están firmando convenios con todos los gobiernos —; lo importante es lo que viene en el paquete. Un AI Campus dentro de las oficinas de Google en Seúl. Cooperación con la Universidad Nacional de Seúl, KAIST y los tres “AI Bio Innovation Hubs” del Ministerio coreano. Despliegue de AlphaFold (predicción de proteínas), AlphaGenome (genómica), AlphaEvolve (evolución algorítmica) y WeatherNext (modelado meteorológico) en el ecosistema científico coreano. Programa de prácticas para estudiantes locales. Y 50 mil becas del programa “AI Essentials”.
El 30 de abril, en otra publicación, DeepMind presentó AI co-clinician, una iniciativa para llevar IA frontera a atención médica supervisada. La pieza es modesta en lo público, pero la apuesta es estratégica: DeepMind está empujando, sin estridencia, hacia verticales sensibles donde la regulación es más pesada y la barrera de entrada más alta. Es el reverso de la estrategia de OpenAI — que vende su API al mundo desde San Francisco — y de Anthropic — que vende producto. DeepMind busca legitimidad mediante ciencia básica.
Por qué importa: El movimiento confirma que los modelos de frontera están saliendo de la pura conversación de productos para entrar en la conversación de instituciones. Para América Latina hay aquí una lectura útil: ningún país de la región tiene hoy un acuerdo de este tamaño con un laboratorio de frontera. Y mientras Corea recibe AlphaFold y becas para 50 mil personas, en México apenas estamos discutiendo qué hacer con los datos de los servicios públicos. La distancia se mide en años, pero también en gestos.
DeepSeek V4: el día en que China dejó de sorprender
El 25 de abril, DeepSeek lanzó oficialmente V4 (en sus dos variantes, Pro y Flash, con licencia MIT, optimizado para chips Huawei Ascend — los detalles los cubrimos en el número del 24 de abril cuando la información todavía estaba caliente). Lo nuevo de la semana posterior fue la reacción del mercado: silencio. Reuters publicó una nota titulada “El nuevo modelo de IA de DeepSeek no impresiona a los mercados en una industria que cambia rápido”. Las acciones de las empresas afectadas — NVIDIA, los gigantes de la nube, los chinos cotizados en Hong Kong — apenas se movieron.
Las explicaciones, en boca de los analistas que cita Reuters, fueron honestas. Lian Jye Su, de Omdia: “Este anuncio siguió un camino bastante predecible”; las eficiencias que en enero de 2025 fueron noticia (entrenamiento más barato, despliegue distribuido, modelos abiertos competitivos) ya son estándar de la industria. Alfredo Montufar-Helu, de Ankura China Advisors: “El factor wow fue el año pasado — eso ya está incorporado en el precio”.
Por qué importa: Hace 15 meses, DeepSeek R1 produjo el primer pánico real en Wall Street por un modelo chino abierto. La diferencia entre aquel enero y este abril resume mejor que cualquier dato dónde está la industria: lo que en su momento parecía una ruptura disruptiva, hoy es ritmo de release. El mercado ya tasó la posibilidad de que China iguale a Estados Unidos en frontera abierta. Para un modelo nuevo de DeepSeek hacer ola, ya no le alcanza con sacar buenos números — tiene que abrir un frente nuevo. La meseta del asombro, neta, existe. Eso no significa que la velocidad técnica baje; significa que las narrativas de “esto cambió todo” empiezan a costar más caras.
Liam Price y un problema de Erdős que esperó 60 años
OpenAI publicó esta semana un nuevo episodio de su podcast con dos investigadores — Sébastien Bubeck y Ernest Ryu — sobre un caso que merece reseña aparte: un problema abierto de Paul Erdős que llevaba 60 años sin resolverse, fue resuelto con ayuda de GPT-5.4 Pro. El detalle que más vale subrayar: quien lo resolvió no fue un matemático profesional. Fue Liam Price, un aficionado sin formación matemática avanzada. Price descompuso el problema en sub-conjeturas durante semanas, iterando con el modelo, y consiguió cerrar la prueba.
Por qué importa: Es un dato que cambia de orientación la conversación habitual. La narrativa común sobre IA y descubrimiento científico tiende a hablar de modelos sustituyendo investigadores. El caso Price apunta más bien al lado contrario: la IA como amplificador del aficionado paciente. La barrera entre “matemático profesional” y “alguien con ganas y tiempo” se afina. Es probable que veamos más resultados así en los próximos meses, sobre todo en disciplinas donde la barrera de entrada al método (no a la idea) era el cuello de botella. Para la educación científica, la conclusión es interesante; para los gremios profesionales, incómoda.
En México: la SEP miró el aula y la IA ya estaba sentada
La semana pasada — entre el viernes 25 y el lunes 27 — la Secretaría de Educación Pública publicó los resultados de la Encuesta Nacional sobre Usos y Percepciones de la Inteligencia Artificial Generativa (ENIAG) 2025. El levantamiento fue, en cifras, el más extenso del mundo en su tipo: 1.5 millones de estudiantes y 166 mil docentes encuestados en universidades del país. El Instituto Mexicano para la Competitividad — el IMCO — analizó los datos y publicó su lectura el lunes 27. La conclusión dura cabe en una frase: la IA ya está en las aulas mexicanas; la SEP no se había puesto a verlo.
Algunos números, para que se entienda lo que se está moviendo. 97% de los estudiantes universitarios mexicanos usan IA generativa. 93% de los docentes también. Seis de cada diez profesores la usan cada semana o todos los días. La usan para escribir textos, completar tareas académicas, apoyar la investigación. El 76% de los maestros dice que crea materiales con IA. Hasta ahí la mitad luminosa del dato.
La otra mitad es donde duele. Solo 3 de cada 10 maestros enseñan explícitamente a sus alumnos a usar IA. El 71.8% de los docentes y el 71.3% de los estudiantes no saben si su institución tiene lineamientos formales sobre uso de IA. La autoevaluación de dominio cae en territorio incómodo: 5.1 sobre 10. Una encuesta independiente, ya no autorreportada, baja la cifra a 1.6 sobre 4 para maestros y 1.5 sobre 4 para estudiantes. Y la cifra que probablemente cuente el resto de la historia: el presupuesto 2026 para formación de docentes es de 284.1 millones de pesos. Dividido entre todos los maestros de educación básica del país, eso es menos de 100 pesos al año por maestro. En términos nominales, el gasto cayó 90% desde 2016, cuando ese mismo rubro rondaba los 2,600 millones de pesos.
A eso se le suma la brecha que ya conocemos pero que no por conocida deja de doler. 7 de cada 10 hogares urbanos tienen acceso a internet; 4 de cada 10 hogares rurales. La IA en el aula, hoy, no es un fenómeno mexicano completo: es un fenómeno de las aulas que ya tenían banda ancha. Las que no la tenían, siguen sin tenerla.
Por qué importa: La conversación pública mexicana sobre IA todavía suele plantearse en abstracto — “el futuro del trabajo”, “qué va a pasar con los empleos” —, como si la IA fuera un proceso que está por llegar. La ENIAG dice lo contrario: ya llegó, ya entró al salón de clases, y los maestros y los estudiantes la están usando con o sin política pública que los acompañe. Que más de siete de cada diez no sepan si su institución tiene siquiera un lineamiento es la fotografía honesta del país en este momento. Y los 100 pesos al año por maestro son la cifra que cierra el círculo: no es que el sistema decidió esperar; es que el presupuesto para acompañar al maestro se vino cayendo durante una década, y ahora la IA llegó al aula sin que nadie estuviera del otro lado para recibirla. Vale la pena ponerlo al lado del cheque que esta misma semana DeepMind firmó con Corea — campus en Seúl, AlphaFold, AlphaGenome, 50 mil becas — para entender de qué tamaño es el rezago.
Lo que no alcanzó a su propia nota
Para no dejar en el tintero: Demis Hassabis pasó el viernes 25 por Y Combinator en el “YC × Google DeepMind Startups Day”, con más de 500 fundadores presentes. Le acompañaron Garry Tan en una charla, una keynote sobre Gemini y Gemma, un panel sobre agentes y demos de cuatro startups que ya están construyendo encima del modelo abierto Gemma de Google: Ollama, Unsloth AI, Spline e InstaLILY AI. Google, además, presentó Gemma 4 — la nueva generación del modelo abierto, ajustado para correr tanto en infraestructura pesada como en dispositivos cotidianos. Sundar Pichai conmemoró los 20 años de Google Translate (lanzado el 28 de abril de 2006), con mil millones de usuarios al mes y casi un billón de palabras traducidas; estrenó “Practice”, una nueva función para aprender idiomas con retroalimentación de pronunciación. Sam Altman, en su cuenta de equis, celebró la adopción de GPT-5.5 y anunció disponibilidad ampliada de la versión Pro. xAI sumó cobertura a su Grok Voice — el 70% del soporte al cliente de Starlink ya lo maneja la voz de Grok, según xAI, y una de cada cinco consultas que termina en compra es atendida por la IA. Anthropic publicó la versión 3.2 de su Responsible Scaling Policy el 29 de abril, reforzando revisión externa y supervisión — buen gesto, pero llega en una semana donde Mythos y el portazo del Pentágono complican la lectura. Y en el calendario inmediato, el 14 de mayo se realiza la audiencia de equidad del settlement de Anthropic con autores (caso Bartz vs. Anthropic): 1,500 millones de dólares, alrededor de 500 mil obras, cerca de 3 mil dólares por libro, y un dato sobresaliente — el 91.3% de las obras elegibles ya fueron reclamadas, contra el 10% típico en demandas colectivas. La industria editorial estadounidense, contra lo que decían en febrero, sí se enteró del settlement.
Para cerrar: la fase contractual ya no es hipótesis
La diferencia entre la semana del Cervantes y esta es de género: aquella hubo modelos, esta hubo escrituras. La industria deja, por momentos, de exhibirse en demos para mostrarse en escrituras notariadas. Microsoft renegocia. OpenAI cierra dos contratos federales y abre frente cibernético. Anthropic firma 1,500 millones con Wall Street y queda fuera del Pentágono el mismo día. Google le pone 40 mil millones a Anthropic en cómputo y efectivo. El Pentágono firma con ocho empresas. Musk se sienta en estrado. DeepMind firma con Corea. Stargate cruza los 10 gigavatios tres años antes de calendario. Meta y Microsoft despiden a 20 mil personas para pagar la nueva planilla del cómputo. DeepSeek lanza, y nadie aplaude porque ya se aplaudió antes.
Mi lectura, para el registro: lo que estamos viendo es la fase contractual del ciclo. Los modelos siguen mejorando, pero la conversación pública y económica se mueve hacia quién distribuye, quién regula, quién audita, quién paga, quién litiga, quién vende al gobierno y quién decide no venderle. Es una buena noticia para el periodismo serio sobre IA — hay más papeles para leer — y una noticia mixta para los entusiastas: el espectáculo se modera, pero el peso institucional se decanta. La era del benchmark no termina; la era del benchmark solo sí.
Y mientras tanto acá, sin grandes anuncios, la SEP publicó la radiografía más completa que tenemos del país en este frente: la IA llegó al aula, los maestros la usan, los alumnos la usan, y nadie tiene lineamiento ni capacitación que valga la pena. Cien pesos al año por maestro. La distancia entre Seúl y la Ciudad de México, esta semana, no se mide en kilómetros: se mide en cuánto Estado decidió que la educación importaba.
El Pichicuaz se levantó del escritorio, caminó al corredor, encontró una raya de sol y se acomodó. No le importa nada de esto, y eso, como casi siempre, tiene razón. Pero las decisiones serias del año se están tomando hoy en consejos directivos con techos altos, en oficinas con vistas al Pacífico, en cortes federales con micrófonos abiertos, en blogs corporativos que se publican coordinados, y desde hace una semana también en escritorios de subsecretarías mexicanas que por primera vez tienen los datos en la mano. Hay que estar al tiro.
Mañana vuelvo.
Para comprender el texto
The Deployment Company / DeployCo (OpenAI): Empresa joint venture anunciada el 4 de mayo de 2026, anclada por TPG con 19 inversionistas (Brookfield, Advent, Bain Capital, entre otros) y un compromiso total de 10 mil millones de dólares. Despliega ingenieros de OpenAI directamente dentro de empresas cliente, en un patrón de “ingenieros desplegados al frente” inspirado en el modelo de Palantir. OpenAI conserva el control vía acciones supervotantes; los inversionistas se llevan los flujos económicos. Sectores prioritarios: salud, logística, manufactura, servicios financieros.
Empresa de servicios de IA empresarial (Anthropic): Empresa joint venture anunciada el 4 de mayo de 2026, anclada por Anthropic, Blackstone y Hellman & Friedman (300 millones de dólares cada uno aproximadamente) más Goldman Sachs (150 millones), respaldada adicionalmente por Apollo, General Atlantic, Leonard Green, GIC y Sequoia Capital. Capital comprometido total: alrededor de 1,500 millones de dólares. Compite directamente con McKinsey, BCG, Accenture y Deloitte por el mercado de transformación corporativa con IA. Foco en empresas medianas.
Mythos: Modelo de Anthropic anunciado en abril de 2026, descrito por la propia empresa como capaz de “detectar y explotar vulnerabilidades en una amplia gama de software crítico”. La propia Anthropic mostró que podía atacar redes eléctricas, plantas de energía y hospitales si se ponía en manos equivocadas. Bajo acceso restringido. La Casa Blanca se opone a su expansión a 70 empresas y organizaciones, según reporte del Wall Street Journal del 30 de abril de 2026.
FedRAMP Moderate: Programa estadounidense de certificación de servicios en la nube para uso del gobierno federal. El nivel “Moderate” autoriza el manejo de información sensible no clasificada — la mayoría del trabajo cotidiano de las agencias federales. La certificación implica auditoría, controles técnicos y operativos, y supervisión continua. Hasta abril de 2026, los proveedores autorizados con Moderate eran principalmente Microsoft (Azure Government), Google (Cloud Government) y AWS (GovCloud). OpenAI entró el 28 de abril de 2026 con sus productos diferenciados.
Impact Level 6 e Impact Level 7 (IL6, IL7): Niveles del Department of Defense Cloud Computing Security Requirements Guide para procesar información clasificada (IL6) y top secret (IL7) en ambientes de nube. Exigen auditoría continua, redes aisladas y controles de personal. Las ocho empresas que el Pentágono autorizó el primero de mayo de 2026 (AWS, Google, Microsoft, NVIDIA, OpenAI, SpaceX, Reflection y Oracle) podrán desplegar IA en estos niveles.
Stargate: Proyecto de infraestructura de cómputo de OpenAI anunciado en enero de 2025, con una meta original de 10 gigavatios de capacidad de IA en Estados Unidos para 2029. Cruzó esa cifra el 29 de abril de 2026 — tres años antes de calendario, con 3 gigavatios añadidos en los últimos 90 días. La inversión total comprometida supera los 400 mil millones de dólares para los próximos tres años.
OpenAI Group PBC: Estructura corporativa de OpenAI tras la reorganización iniciada en 2024. PBC son las siglas de Public Benefit Corporation — empresa con fines de lucro pero con propósito público formalizado. La fundación original sin fines de lucro mantiene control parcial sobre la nueva entidad lucrativa. La definición exacta del control y de la separación es uno de los frentes que el juicio de Musk pone bajo escrutinio.
Yvonne Gonzalez Rogers: Jueza federal del Distrito Norte de California. Preside el juicio Musk vs. OpenAI / Altman / Microsoft que inició el 28 de abril de 2026 en Oakland. Conocida en el sector tecnológico por haber resuelto el caso Epic Games vs. Apple (2021).
Responsible Scaling Policy (RSP): Marco interno de Anthropic para gestionar riesgos a medida que sus modelos escalan en capacidad. La versión 3.2, publicada el 29 de abril de 2026, refuerza los mecanismos de revisión externa y supervisión. Es uno de los pocos marcos formales y públicos sobre escalamiento responsable en la frontera de IA — y se publica en una semana donde la coherencia institucional de Anthropic está bajo presión por Mythos y por la salida del Pentágono.
AI co-clinician (DeepMind): Iniciativa anunciada el 30 de abril de 2026 para llevar inteligencia artificial frontera a contextos de atención médica supervisada. Encaja en una estrategia más amplia de DeepMind por ocupar verticales sensibles (salud, ciencia básica) en lugar de competir solo en API o producto general.
AlphaFold / AlphaGenome / AlphaEvolve / WeatherNext: Modelos de Google DeepMind especializados en problemas científicos concretos. AlphaFold predice estructura tridimensional de proteínas a partir de su secuencia de aminoácidos (premio Nobel de Química 2024). AlphaGenome trabaja sobre el genoma. AlphaEvolve descubre y mejora algoritmos. WeatherNext predice el clima a corto y mediano plazo. Son las herramientas que DeepMind comprometió al ecosistema científico coreano el 27 de abril de 2026.
ENIAG (Encuesta Nacional sobre Usos y Percepciones de la Inteligencia Artificial Generativa): Levantamiento realizado por la Secretaría de Educación Pública en universidades mexicanas durante 2025, publicado a finales de abril de 2026. Encuestó a 1.5 millones de estudiantes y 166 mil docentes — la encuesta de su tipo más grande del mundo, según la propia SEP. Mide adopción, percepciones, capacitación y políticas institucionales sobre IA generativa en educación superior.
IMCO (Instituto Mexicano para la Competitividad): Centro de investigación y análisis de política pública con sede en la Ciudad de México. Se especializa en propuestas de política pública orientadas a competitividad económica, desarrollo y educación. Su análisis de la ENIAG salió el lunes 27 de abril de 2026.
Layoffs.fyi: Sitio que rastrea públicamente despidos en el sector tecnológico desde 2020. Es la fuente de la cifra de 92 mil despidos tech acumulados en 2026 hasta el inicio de mayo, y de la cifra de casi 900 mil despidos acumulados desde 2020.
Hyperscaler: Operador de infraestructura de nube a gran escala global. Los tres principales del mundo son Amazon Web Services (AWS), Microsoft Azure y Google Cloud. Los tres están coinvirtiendo, simultáneamente, en empresas de modelos de frontera: Microsoft en OpenAI, AWS y Google en Anthropic.
Forward-deployed engineer: Patrón de despliegue popularizado por Palantir en la década de 2010. Consiste en colocar ingenieros propios físicamente dentro de la empresa cliente, durante semanas o meses, para construir e integrar la solución directamente sobre los datos y procesos del cliente. Diferente del modelo tradicional de consultoría (que entrega un reporte) y del modelo SaaS (que entrega una aplicación). Es el modelo que The Deployment Company de OpenAI propone replicar.
Paul Erdős: Matemático húngaro (1913–1996), uno de los más prolíficos del siglo XX. Publicó cerca de 1,500 artículos y dejó cientos de problemas abiertos. La conjetura sobre conjuntos primitivos resuelta esta semana es uno de ellos.
Wow factor: Coloquial en mercados financieros: la sorpresa que una noticia produce sobre la cotización de las acciones afectadas. La frase del analista — “el wow factor fue el año pasado, ya está incorporado en el precio” — significa que el mercado ya descontó la posibilidad de que China iguale a Estados Unidos en modelos abiertos competitivos.
Bartz vs. Anthropic: Demanda colectiva (class action) interpuesta por la autora Andrea Bartz y otros autores en 2024 contra Anthropic por el uso, sin autorización, de obras protegidas por derechos de autor en el entrenamiento del modelo Claude. Anthropic alcanzó un acuerdo extrajudicial (settlement) por 1,500 millones de dólares en septiembre de 2025 — el más grande de la historia en derechos de autor. La audiencia de equidad final se realiza el 14 de mayo de 2026 ante la jueza Araceli Martínez-Olguín, en la Corte Federal de San Francisco. Cubre alrededor de 500 mil obras, con cerca de 3 mil dólares por libro reclamado.
Dario Amodei: Cofundador y director general (CEO) de Anthropic. Antes de fundar la empresa en 2021, fue VP de investigación en OpenAI. Es la figura pública más visible de Anthropic en gobierno y prensa. Su visita a la Casa Blanca el mes pasado, reportada por CNN, marcó la reapertura del diálogo entre Anthropic y la administración Trump tras meses de tensión por las salvaguardas internas de la empresa.