Quien tenga mejor método de orquestación va a ganar sobre quien solo tenga mejor modelo

El Vigía — 2026-03-18

Un día después del keynote de Jensen Huang, la industria entera seguía procesando lo que vio. Fortune lo resumió bien: “El día en que la tecnología se detuvo a ver el show de Jensen Huang.” Y no exagera. La proyección de un billón de dólares en órdenes entre Blackwell y Vera Rubin hasta 2027 no es marketing — es la cifra que define cuánta infraestructura va a necesitar la IA para funcionar a escala real. Lo de ayer no fue un evento de producto. Fue una declaración de poder.

Hoy la GTC siguió con más carne: Mistral presentó Mistral Forge, una plataforma para que las empresas entrenen modelos propios con sus datos. Es decir, la democratización sale del discurso y entra a la operación. Disney, por su parte, sacó a Olaf — sí, el muñeco de nieve de Frozen — caminando libre por el escenario de Nvidia. Un robot autónomo que interactúa con la gente sin guía humana, debutando en Disneyland París el 29 de marzo. La combinación de IA y robótica física ya no es paper académico; es entretenimiento de parques temáticos.

Pero la voz del día no fue la de Jensen. Fue la de Sam Altman, que publicó un post con 4.8 millones de vistas y 33 mil likes: “Siento una enorme gratitud hacia quienes escribieron software extremadamente complejo carácter por carácter… Gracias por habernos traído hasta aquí” (“I have so much gratitude to people who wrote extremely complex software character-by-character… Thank you for getting us to this point”). El CEO de la empresa que más está haciendo por automatizar la programación, agradeciéndole a los programadores humanos. Hay algo profundamente honesto y al mismo tiempo inquietante ahí. Es como agradecer a los artesanos justo antes de inaugurar la fábrica.

Altman también confirmó que Codex no se cierra — “todo lo contrario” — y la conversación técnica del día giró en torno al soporte de subagentes: agentes que delegan tareas a otros agentes, arman cadenas de ejecución y entregan resultados completos sin intervención humana intermedia. Matt Shumer lo calificó de “asunto mayor” para tareas más ambiciosas. La neta es que aquí cambió la unidad de valor: ya no es la respuesta a un prompt, es el pipeline completo entregado. Quien tenga mejor método de orquestación va a ganar sobre quien solo tenga mejor modelo.

Yann LeCun, mientras tanto, le bajó la espuma a todo desde otra trinchera: “Otro tipo más que no se da cuenta de que antes de tener un producto… hay que leer papers de investigación” (“Yet another dude who doesn’t realize that before you get a product… Read research papers”). Es el recordatorio incómodo de que detrás de cada demo espectacular hay décadas de investigación fundamental que nadie celebra en X. La tensión entre el espectáculo y la ciencia de fondo sigue siendo una de las cosas más reveladoras de esta época.

En el frente de infraestructura material, Peter Diamandis puso cifras al asunto: unas 16,000 hectáreas — más o menos el tamaño de toda la alcaldía de Tlalpan — como orden de magnitud para la próxima generación de centros de datos. Suena abstracto hasta que lo traduces a lo que realmente implica: permisos de uso de suelo, subestaciones eléctricas, consumo de agua, conflictos con comunidades locales. La IA no vive en la nube — vive en territorios concretos con problemas concretos. Y en México esa conversación apenas está empezando.

En el mundo editorial, la tendencia de licenciamiento para IA que reportamos en los dos Vigías anteriores sigue avanzando. No hay novedad nueva hoy, pero el patrón ya es claro: PLS (Publishers’ Licensing Services) en Reino Unido y CCC (Copyright Clearance Center) en Estados Unidos, y la pregunta sigue abierta para América Latina. Si no nos sentamos a definir las condiciones, nos las van a definir desde afuera.

Día denso en un lunes que fue, básicamente, la resaca del show de Jensen. Pero a veces en la resaca es donde se piensa con más claridad.


Glosario rápido: GTC — GPU Technology Conference, el evento anual de Nvidia. Keynote — conferencia magistral de apertura. Blackwell / Vera Rubin — familias de chips de Nvidia para IA (la actual y la próxima). Subagentes — agentes de IA que delegan partes de una tarea a otros agentes especializados, formando cadenas de trabajo autónomo. Pipeline — secuencia automatizada de pasos que convierte un insumo en un producto terminado. Codex — plataforma de OpenAI para programación asistida por IA. PLS — Publishers’ Licensing Services, organismo británico de gestión de derechos editoriales. CCC — Copyright Clearance Center, equivalente estadounidense. DGX — línea de hardware de Nvidia diseñada para cargas de trabajo de IA.


Descubre más de Mutatis mutandis

Suscríbete para recibir las últimas entradas en tu correo electrónico.