La era de entrenar por entrenar se acabó. Ahora toca poner a trabajar todo esto

El Vigía — 2026-03-16

Hoy arrancó la GTC 2026 en San José y Jensen Huang hizo lo que mejor sabe hacer: pararse en un escenario y recordarle al mundo que sin Nvidia nada de esto funciona. El keynote fue un desfile de lanzamientos —Agent Toolkit, Nemotron Coalition, modelos abiertos para robótica física, BioNeMo para biomedicina— pero el mensaje de fondo fue uno solo: la siguiente fase del boom de IA no se define por entrenar modelos más grandes, sino por inferencia. Es decir, por poner a trabajar lo que ya existe, a escala, en tiempo real.

Lo que más me llamó la atención no fue ningún producto en particular, sino la órbita gravitacional alrededor de Nvidia. Sam Altman agradeció públicamente a Jensen por expandir capacidad de Nvidia en AWS para OpenAI. Satya Nadella presumió que Microsoft es la primera nube en levantar un sistema Vera Rubin NVL72. Sundar Pichai le deseó suerte en la GTC. Los tres CEOs más poderosos de la IA rindiendo pleitesía al hombre de la chamarra de cuero. Si alguien tenía duda de quién controla la infraestructura, hoy quedó clarísimo.

Karpathy, mientras tanto, andaba en otra frecuencia: publicó reflexiones técnicas sobre mecanismos de atención y compiladores de C a pesos de modelos. La neta es que mientras el mundo celebra demos y keynotes, los que realmente entienden la arquitectura siguen excavando más profundo. Esa tensión entre el espectáculo y la investigación de fondo es parte del paisaje que hay que aprender a leer.

En el frente laboral, el patrón que reportamos ayer se intensifica: Meta planea recortar hasta el 20% de su plantilla para redirigir recursos a IA. Después de Block (40%), Atlassian (10%) y ahora Meta, ya no se puede hablar de casos aislados. Es una reestructuración sistémica donde las empresas tecnológicas están apostando que equipos más chicos con IA integrada pueden producir lo mismo —o más— que plantillas completas. Que eso sea cierto o no es otra discusión; lo que no se discute es que están actuando como si lo fuera.

En el mundo editorial hubo otra pieza del rompecabezas que empezó ayer con PLS en el Reino Unido: el Copyright Clearance Center en Estados Unidos lanzó licencias explícitas de reuso de contenido para IA en ámbito académico. Son dos movimientos en dos días, en dos países distintos, apuntando en la misma dirección: el licenciamiento de contenido para entrenamiento de IA se está formalizando. Para el ecosistema del libro en América Latina esto debería ser una llamada de atención. Si no definimos las condiciones bajo las cuales nuestro contenido se usa, otros las van a definir por nosotros.

Nadella, por cierto, no solo habló de infraestructura hoy. Presentó un modelo multimodal que convierte laminillas de patología rutinarias en proteómica espacial — básicamente, IA leyendo muestras de tejido para detectar microambientes tumorales. Es el tipo de aplicación que no genera likes en X pero que podría cambiar cómo se diagnostica el cáncer. Ahí es donde la inteligencia artificial deja de ser conversación de Silicon Valley y se vuelve asunto de vida o muerte.

Día pesado, con mucha carne. La GTC seguirá toda la semana y probablemente veamos más anuncios. Pero el mensaje central ya lo dio Jensen hoy: la era de entrenar por entrenar se acabó. Ahora toca poner a trabajar todo esto.


Descubre más de Mutatis mutandis

Suscríbete para recibir las últimas entradas en tu correo electrónico.