Hoy no hubo bomba. Ningún modelo nuevo que rehaga el tablero en 24 horas, ningún anuncio de esos que hacen correr a todos a actualizar sus flujos. Lo que sí hubo fue algo que, en mi experiencia, importa más: evidencia de que el foco competitivo se está moviendo del modelo al sistema de trabajo.
En concreto: ya no alcanza con preguntar bien. Hay que diseñar cómo una cadena de agentes investiga, verifica, redacta, corrige y entrega. La conversación sobre soporte de subagentes en Codex que Matt Shumer amplificó en X no es chisme de la plataforma: es señal de un cambio de paradigma operativo. Pasamos de “chat inteligente” a algo que empieza a parecerse a una fábrica cognitiva. David Shapiro lo está experimentando en carne propia: lleva semanas armando equipos de agentes especializados dentro de Grok —uno que argumenta, uno que cuestiona, uno que busca hechos, uno que evalúa pragmáticamente. Primitivo todavía, pero funcional.
Para lo que hago todos los días —editar, publicar, investigar— la lectura es concreta. El cuello de botella ya no está en las ideas ni en el texto inicial. Está en convertir criterio editorial en flujo repetible. Quien traduzca estilo + rigor + intención cultural en un pipeline que funcione solo gana escala sin perder voz. El que no, quedará atrapado en la ansiedad de cada lanzamiento.
Y aquí entra NemoClaw, que Jensen Huang presentó ayer en GTC. NVIDIA le añadió al ecosistema OpenClaw —el mismo sobre el que corre Molti, mi agente de monitoreo— una capa de seguridad que se instala en un solo comando: sandbox de privacidad, guardrails por política, soporte para modelos Nemotron locales. Jensen lo llamó “el sistema operativo para la IA personal”. Karpathy, más escéptico y con más razón de serlo, lleva semanas advirtiendo que OpenClaw es una maravilla conceptual y una pesadilla de seguridad sin controles. La neta: NemoClaw es la respuesta a eso. Todavía está en alpha, solo corre en Linux, no es para producción todavía, pero la señal de maduración es clara.
La segunda señal del día viene del mundo editorial. PLS —la entidad británica de licenciamiento de publicaciones— abrió una primera fase de adhesión voluntaria a un esquema de licencias colectivas para uso de contenidos en IA. No resuelve el conflicto de fondo entre derechos de autor y entrenamiento de modelos, pero introduce algo que hacía falta: infraestructura transaccional para jugadores medianos y pequeños que no pueden negociar solos con cada laboratorio. Para LATAM esto llega con retraso, pero llega, y el precedente de diseño institucional es replicable. Ahí hay chamba concreta para Quehacer Editorial: no lamento gremial, sino propuesta.
La tercera señal es más incómoda de nominar porque no tiene titulares claros. En X se está intensificando una retórica casi religiosa alrededor de la IA: UHI como destino inevitable, lenguaje de salvación, promesas totalizantes. Peter Diamandis, David Shapiro y varios de su esfera empujan esa narrativa con fruición. No es evidencia sobre el futuro económico de nadie —es evidencia sobre el clima narrativo. Y el clima narrativo importa porque condiciona política pública, diseño educativo y tolerancia social al riesgo. La posición laica me da un lugar diferencial para desmontar ese misticismo con análisis. Ese espacio está casi vacío en el ecosistema del mundo hispanohablante.
Por lo demás, volvió la conversación sobre data centers y números físicos: 40,000 acres como orden de magnitud para la infraestructura que la IA requiere. Detrás del optimismo tipo “abundancia” con que suelen envolverse esos datos, hay realidad dura: permisos, subestaciones, consumo hídrico, conflictos locales por suelo. En México este eje sigue subdiscutido. Si no entramos a tiempo a la conversación de infraestructura y su regulación, terminamos siendo consumidores de servicios, no coarquitectos de capacidades.
Y mientras tanto, en México: la comunidad de Claude está ejecutando el tour “Sin Fronteras” por nueve ciudades. El Build Day de CDMX el sábado y el meetup de Monterrey el jueves ya están agotados. Mérida y Cancún tienen lugar todavía. Que esto esté pasando aquí —en lugar de solo en San Francisco— dice algo que los titulares técnicos rara vez registran: hay una base regional construyendo en serio.
Lo que queda del día no es ningún lanzamiento: es la confirmación de que la IA útil de los próximos años no vendrá del modelo más brillante sino de quien aprenda a gobernar procesos cognitivos automatizados con criterio humano fuerte. Eso requiere menos andar corriendo detrás de cada lanzamiento y más horas nalga armando sistemas que funcionen cuando uno no está mirando. No es lo más glamoroso. Tampoco es opcional.
Para comprender el texto
OpenClaw — Framework de código abierto para construir agentes de IA autónomos. Surgió a finales de 2025 y se convirtió rápidamente en el proyecto open-source de más rápido crecimiento del ecosistema. Sobre este motor —montado en una Mac Mini en mi escritorio junto a mi Mac Studio— corre Molti, mi agente de monitoreo.
Molti — Agente de IA personal construido sobre OpenClaw. Monitorea fuentes de información diariamente y arroja el material de investigación en bruto que luego proceso con Claude.
GTC — GPU Technology Conference, evento anual de NVIDIA donde Jensen Huang (su CEO) anuncia las principales apuestas tecnológicas de la empresa.
NemoClaw — Stack de seguridad lanzado por NVIDIA para OpenClaw. Añade privacidad, guardrails y aislamiento en una instalación de un solo comando. Actualmente en fase alpha: experimental, no apto para producción general.
Sandbox / Guardrails — Un sandbox es un entorno de ejecución aislado: el agente opera sin poder afectar el resto del sistema. Los guardrails son las restricciones que definen qué puede y qué no puede hacer un agente: qué datos leer, qué acciones ejecutar, a qué servicios conectarse. Imagínalos como barreras, pero uso el anglicismo porque es el más difundido.
Modelos Nemotron — Familia de modelos de lenguaje de NVIDIA diseñados para correr localmente en tu computadora, sin enviar datos a la nube.
Codex / Subagentes — Codex es el agente de programación de OpenAI. Los subagentes son agentes especializados a los que un agente principal puede delegar tareas: uno investiga, otro redacta, otro verifica. La noticia del día fue que Codex ahora soporta esta arquitectura.
Pipeline — Cadena de procesos automatizados donde el resultado de uno alimenta al siguiente. En contexto editorial: investigación → redacción → verificación → publicación, ejecutado por agentes sin intervención manual en cada paso.
PLS (Publishers’ Licensing Services) — Entidad británica de gestión colectiva de derechos editoriales. En marzo 2026 lanzó un esquema voluntario de licencias para uso de contenidos en IA generativa.
UHI (Universal High Income) — Propuesta económica según la cual la abundancia generada por la IA debería traducirse en un ingreso elevado universal para todos los ciudadanos. Evolución del concepto de Renta Básica Universal (UBI/RBU).
Alpha — Primera fase de disponibilidad pública de un software. Existe y funciona en condiciones controladas, pero no está listo para uso general ni para entornos de producción.
Claude Sin Fronteras — Tour comunitario organizado por Rich Lira y la comunidad de Claude en México. Nueve ciudades, formato práctico: los asistentes construyen y publican un agente de IA durante el propio evento.