Estos días he andado peleándome con la configuración de Cowork de Claude y con Molti — mi agente que corre en OpenClaw y que se encarga de juntar las noticias del día — mientras el Pichicuaz decidió declararse en huelga de hambre porque las croquetas nuevas no le parecen de su nivel socioeconómico y el Sheldon, solidario, se dedica a dormirse encima del teclado justo cuando más necesito teclear. Pero los acontecimientos no esperan a que uno resuelva la logística doméstica ni la tecnológica, porque diario es mucho lo que se mueve en inteligencia artificial y cada vez es más lo que nos mueve a nosotros, queramos o no.
Un jurado de Los Ángeles acaba de encontrar a Meta y a YouTube culpables de negligencia por el daño que le causaron a una mujer — identificada como K.G.M., hoy de veinte años — que empezó a usar YouTube a los seis e Instagram a los nueve y terminó con ansiedad severa, depresión y pensamientos suicidas. Seis millones de dólares en daños, 70% a cargo de Meta. Lo que más me revuelve no son los millones sino lo que salió en el juicio: documentos internos donde ejecutivos de Meta discuten cómo atraer niños a la plataforma, y uno que dice textualmente “si queremos ganar en grande con adolescentes, hay que traerlos como preadolescentes”. Meta y Google van a apelar, por supuesto, y van a decir que la salud mental de los jóvenes es “profundamente compleja” y no se le puede echar la culpa a una sola app. Pero esto es un caso piloto — bellwether, le dicen los abogados — y detrás de él hay cientos de demandas consolidadas esperando turno. TikTok y Snap ya arreglaron antes. La era de “no somos responsables de lo que pasa en nuestra plataforma” se está cerrando a martillazos, y la neta, ya era hora.
Mientras un jurado le pone precio al daño de la tecnología de ayer, Google soltó hoy lo que podría ser el avance más importante del trimestre en tecnología de mañana, y nadie fuera del gremio se enteró. Se llama TurboQuant. Es un algoritmo de compresión que reduce la memoria que necesitan los modelos de lenguaje — específicamente el KV cache, que es donde el modelo guarda el contexto de la conversación — a una sexta parte, sin perder precisión. Cero pérdida de precisión. En GPUs H100 de NVIDIA, acelera la inferencia hasta ocho veces. Esto no suena sexy pero es de esas cosas que cambian las cuentas de toda la industria: si necesitas seis veces menos memoria para correr el mismo modelo, necesitas menos chips, menos energía, menos dinero. Las acciones de Micron bajaron 12% en la semana y las de Samsung también se resintieron, porque Wall Street entendió al vuelo lo que esto significa para los fabricantes de memoria. En el Vigía #15 hablé del consumo energético de la IA — el reporte de EPRI que proyecta hasta 17% de la electricidad de Estados Unidos para 2030. Pues TurboQuant es exactamente el tipo de solución que puede cambiar esa ecuación. No viene de un discurso inaugural sino de un estudio publicado por Google Research que se va a presentar en ICLR 2026. Las revoluciones de verdad llegan sin fanfarria.
Y hablando de lo que se ve versus lo que importa: ayer Melania Trump caminó por la Casa Blanca escoltada por un robot humanoide de Figure AI que saludaba en varios idiomas y se presentó como “un humanoide construido en los Estados Unidos de América”. El Figure 03 mide un metro setenta y dos, funciona con un modelo de visión-lenguaje-acción llamado Helix, y formó parte de la cumbre educativa “Fostering the Future Together” con representantes de 45 países. La imagen es espectacular — NPR, CNN, Fox, todos la pusieron en portada — pero conviene no confundir la foto con la película. Medio internet pensó que era el Optimus de Musk; no lo era. Amazon, por su lado, cerró la compra de Fauna Robotics, una startup neoyorquina que fabrica el Sprout — un robot humanoide de un metro de altura, diseñado para la casa, que se vende en cincuenta mil dólares. Es la segunda adquisición robótica de Amazon este mes — la primera fue Rivr, robots repartidores suizos. Bezos quiere ponerte un robot en la cocina; la pregunta no es si va a pasar sino cuándo el condenado aparato costará menos que un microondas.
François Chollet, el creador de Keras que lleva años diciendo que los benchmarks de IA miden memoria y no inteligencia, lanzó ayer ARC-AGI-3 en Y Combinator, en conversación nada menos que con Sam Altman. El nuevo benchmark es interactivo: juegos diseñados a mano donde el agente tiene que explorar entornos desconocidos, adquirir metas sobre la marcha y construir modelos del mundo en tiempo real. Los humanos sacan 100%. Los mejores modelos de IA sacan 0.26%. Hay dos millones de dólares de premio para quien lo resuelva. Que Altman se haya sentado ahí sabiendo que sus modelos sacan prácticamente cero es, como mínimo, un acto de honestidad que hay que reconocerle. Mientras tanto, Jensen Huang declaró en el podcast de Lex Fridman que la AGI ya se alcanzó — su definición: una IA capaz de crear y operar un negocio de mil millones de dólares. Cuando Fridman le preguntó si una IA podría replicar algo tan complejo como NVIDIA, Huang no dudó: “la probabilidad es cero”. O sea que tenemos a Chollet diciendo que los modelos no entienden nada nuevo, a Huang diciendo que ya mero llegamos, y a Altman en medio preparando un modelo que, según él, va a “acelerar la economía”. Y mientras OpenAI mide qué tan lejos está de la inteligencia general, internamente ya completó el preentrenamiento de un modelo nuevo con nombre clave “Spud” — descrito por Altman ante empleados como “very strong” y capaz de “realmente acelerar la economía”. Renombraron su división de producto como “AGI Deployment”. Ya mencioné ayer que cerraron Sora; ahora sabemos para qué liberaron esos GPUs.
Lo que me queda rondando de todo esto es una palabra que no suena a titular pero que define el día: consecuencias. Un jurado dice que diseñar una plataforma adictiva para niños tiene precio. Un algoritmo silencioso le pega a las acciones de los fabricantes de memoria. Un benchmark le demuestra a los modelos más caros del planeta que no entienden un carajo de lo que ven. Y uno de aquí, sentado en San Pedro de los Pinos con el Sheldon dormido en la silla de al lado, sigue intentando calibrar qué parte de todo esto es ruido espectacular y qué parte es la señal que va a determinar cómo trabajamos, cómo nos informamos y cómo nos cuidamos los próximos diez años.
Para comprender el texto
Caso bellwether es un juicio que se selecciona como prueba representativa de un grupo grande de demandas similares. El veredicto contra Meta y YouTube no solo afecta a K.G.M. — establece un precedente para cientos de casos consolidados. Si gana la demandante, como ocurrió aquí, los demás demandantes tienen viento a favor.
TurboQuant es un algoritmo de Google Research que comprime el KV cache — la memoria donde un modelo de lenguaje guarda el contexto de la conversación — de 32 bits a solo 3, reduciendo el consumo de memoria a una sexta parte sin perder precisión. Se presentará en ICLR 2026, la conferencia más importante de aprendizaje automático.
KV cache (key-value cache) es como la memoria de trabajo del modelo: donde guarda lo que ya leyó de tu conversación para poder responder con contexto. Mientras más larga la conversación, más memoria consume. Comprimirlo a una sexta parte significa que el mismo hardware puede atender conversaciones mucho más largas o a muchos más usuarios simultáneamente.
Figure 03 es el robot humanoide de Figure AI, empresa de Sunnyvale, California. Opera con un modelo VLA (visión-lenguaje-acción) llamado Helix: la máquina ve su entorno, razona y ejecuta acciones físicas. Fue presentado en octubre 2025 como robot para uso doméstico — lavandería, limpieza, lavar platos.
ARC-AGI-3 es el tercer benchmark de François Chollet para medir inteligencia adaptativa, no memorización. A diferencia de los anteriores, es completamente interactivo: cientos de juegos donde la IA tiene que aprender sobre la marcha. Que los humanos saquen 100% y los modelos 0.26% no dice que la IA sea inútil — dice que este tipo de razonamiento flexible es exactamente lo que las máquinas actuales no tienen.
AGI (Inteligencia General Artificial) es el punto donde una IA iguala o supera la inteligencia humana en tareas generales. No hay consenso sobre si ya llegamos: Huang dice que sí (con una definición económica estrecha), Chollet dice que ni de lejos (con una definición cognitiva rigurosa), y la mayoría de la industria navega en algún punto intermedio. La tensión entre ambas posturas define buena parte del debate actual.
Spud es el nombre clave del próximo modelo de OpenAI, cuyo preentrenamiento ya terminó. Podría ser GPT-5.5 o GPT-6 — nadie lo sabe aún. Lo que sí se sabe es que para darle prioridad de cómputo, OpenAI cerró Sora y renombró su división de producto como “AGI Deployment”, con Fidji Simo (exejecutiva de Meta) al frente.