{"id":3598,"date":"2026-04-24T12:00:00","date_gmt":"2026-04-24T17:00:00","guid":{"rendered":"https:\/\/alejandrozenker.com\/blog\/2026\/04\/24\/el-cervantes-y-el-terminal-bench\/"},"modified":"2026-04-24T19:08:03","modified_gmt":"2026-04-25T00:08:03","slug":"el-cervantes-y-el-terminal-bench","status":"publish","type":"post","link":"https:\/\/alejandrozenker.com\/blog\/2026\/04\/24\/el-cervantes-y-el-terminal-bench\/","title":{"rendered":"En el D\u00eda Mundial del Libro, Celorio recib\u00eda el Cervantes y Altman presentaba ChatGPT-5.5"},"content":{"rendered":"<p>Ayer, 23 de abril, fue D\u00eda Mundial del Libro. Coincidentemente, OpenAI lanz\u00f3 GPT-5.5. No fue una coincidencia po\u00e9tica: fue el calendario oblig\u00e1ndonos a ver las dos cosas juntas. Mientras el Rey Felipe VI le entregaba el Premio Cervantes 2026 a Gonzalo Celorio en Alcal\u00e1 de Henares, Sam Altman publicaba en equis que el modelo &#8220;m\u00e1s inteligente hasta la fecha&#8221; ya estaba rolando en ChatGPT. Entre tanto, Gabriela Cabez\u00f3n C\u00e1mara, Selva Almada y Leila Guerriero inauguraban la 50\u00aa Feria Internacional del Libro de Buenos Aires, Microsoft anunciaba que el agente (Copilot) es ya el modo por defecto de Word, Excel y PowerPoint. Finalmente, Sant Jordi cerraba con casi 27 millones de euros en ventas en Catalu\u00f1a, Meta confirmaba el despido de 8,000 personas.<\/p>\n<p>El Vig\u00eda, que lleva cuatro d\u00edas dormido, regresa justo para dejar apuntada esa postal: el libro y el modelo se encontraron, sin quererlo, en la misma fecha.<\/p>\n<p><strong>Hoy destacamos:<\/strong><\/p>\n<ul>\n<li>Gonzalo Celorio recibe el Premio Cervantes 2026<\/li>\n<li>Sant Jordi rompe r\u00e9cord en Catalu\u00f1a; arranca la 50\u00aa FIL Buenos Aires<\/li>\n<li>CANIEM emite comunicado por el D\u00eda del Libro y convoca a defender el precio \u00fanico<\/li>\n<li>OpenAI lanza GPT-5.5 y los Workspace Agents para equipos<\/li>\n<li>OpenAI tambi\u00e9n suelta ChatGPT Images 2.0, que rivaliza con Nano Banana de Google<\/li>\n<li>DeepSeek V4 aparece el mismo d\u00eda: 1.6 billones de par\u00e1metros, abierto, MIT, optimizado para Huawei<\/li>\n<li>Anthropic habilita memoria en sus Agentes Gestionados y suma conectores cotidianos<\/li>\n<li>Big Tech despide 96,000 personas en lo que va del a\u00f1o<\/li>\n<li>Lobby r\u00e9cord de Anthropic y OpenAI en el Congreso estadounidense<\/li>\n<li>Project Luna: una tienda en San Francisco con jefe de inteligencia artificial y empleados humanos<\/li>\n<\/ul>\n<hr \/>\n<h3>El 23 de abril como efem\u00e9ride<\/h3>\n<p>Vale la pena recordar de d\u00f3nde sale el D\u00eda Mundial del Libro. En 1995, la Unesco lo instituy\u00f3 el 23 de abril por razones simb\u00f3licas m\u00e1s que forenses: ese d\u00eda de 1616 murieron Miguel de Cervantes en Madrid, el Inca Garcilaso de la Vega en C\u00f3rdoba y William Shakespeare en Stratford-upon-Avon.<\/p>\n<hr \/>\n<h3>Lo que hizo el libro esta semana<\/h3>\n<p>En Alcal\u00e1 de Henares, el Paraninfo de la universidad recibi\u00f3 a Gonzalo Celorio &#8212; el novelista y ensayista mexicano nacido en 1948, director de la Academia Mexicana de la Lengua &#8212; para entregarle el Premio Cervantes 2026. Celorio es el s\u00e9ptimo escritor mexicano que lo recibe; el fallo, anunciado en noviembre pasado, subray\u00f3 su aportaci\u00f3n a la narrativa en lengua castellana y su trabajo como editor. Para quienes vivimos del libro en M\u00e9xico, el Cervantes de Celorio vale doble: es reconocimiento al autor y tambi\u00e9n al ecosistema editorial que lo sostuvo &#8212; Tusquets, el Fondo de Cultura Econ\u00f3mica, la Academia. Son estructuras lentas y caras, herederas de ese gremio que Cervantes mismo conoci\u00f3.<\/p>\n<p>En Catalu\u00f1a, la \u00faltima Diada de Sant Jordi dej\u00f3 cifras que el gremio tem\u00eda no alcanzar. La Cambra del Llibre de Catalunya report\u00f3 una facturaci\u00f3n cercana a los 27 millones de euros, ligeramente por encima de los poco m\u00e1s de 26 del a\u00f1o pasado. El dato tiene asterisco: Sant Jordi cay\u00f3 en d\u00eda laborable, y el clima no ayud\u00f3. Aun as\u00ed, las calles de Barcelona se llenaron. Los editores catalanes lo est\u00e1n leyendo como lo que es: la prueba de que la fiesta del libro, cuando se hace bien, a\u00fan saca a la gente a la calle.<\/p>\n<p>En Buenos Aires, la 50\u00aa Feria Internacional del Libro abri\u00f3 el 23 bajo el lema &#8220;La feria de siempre, como nunca la viste&#8221;. Por primera vez, la apertura no fue un discurso solemne de un solo autor: fue un di\u00e1logo a tres bandas entre Gabriela Cabez\u00f3n C\u00e1mara, Selva Almada y Leila Guerriero, moderadas por Mar\u00eda O&#8217;Donnell. Tres voces argentinas &#8212; feministas, literarias, period\u00edsticas &#8212; donde antes hab\u00eda una. El cambio de formato es en s\u00ed una declaraci\u00f3n. La feria, con medio siglo encima, reconoce que ya no hay un solo centro.<\/p>\n<p>En Bogot\u00e1, la FILBo 2026 inaugur\u00f3 esta semana su pabell\u00f3n de India, pa\u00eds invitado de honor. Corferias se llen\u00f3 con un espacio inmersivo que mezcla tradiciones milenarias y narrativas contempor\u00e1neas. Para Hispanoam\u00e9rica, la presencia de India no es un ejercicio est\u00e9tico: es el reconocimiento de que los ejes del libro global se est\u00e1n moviendo, lento pero en serio, hacia Oriente.<\/p>\n<p>Y en la Ciudad de M\u00e9xico, la CANIEM &#8212; la C\u00e1mara Nacional de la Industria Editorial &#8212; emiti\u00f3 el comunicado oficial por el D\u00eda Mundial del Libro y, el mismo 23, abri\u00f3 la convocatoria entre afiliados para sumarse a un desplegado en medios en defensa del principio del precio \u00fanico del libro. La defensa del precio \u00fanico es vieja, paciente, obstinada: es lo que, en teor\u00eda, permite que una librer\u00eda peque\u00f1a en Xalapa pueda vender el mismo t\u00edtulo al mismo precio que una cadena en Polanco. No es vistoso. Y conviene decirlo sin entusiasmos prematuros: el precio \u00fanico, si se aplica en serio, es un piso, no una salvaci\u00f3n. La industria editorial necesita m\u00e1s herramientas que ese principio para sostenerse en un ecosistema donde la producci\u00f3n de texto se est\u00e1 volviendo gratuita.<\/p>\n<div style=\"border-left: 4px solid #2d6a4f; background: #f0f7f4; padding: 12px 16px; margin: 16px 0;\">\n<p><strong>Contexto:<\/strong> El precio \u00fanico del libro est\u00e1 regulado en M\u00e9xico desde 2008 por la Ley de Fomento para la Lectura y el Libro, que obliga a vender los libros editados en M\u00e9xico al mismo precio en cualquier punto de venta durante los primeros 18 meses. La defensa del principio no es gratuita: cada a\u00f1o aparecen presiones para debilitarlo. El desplegado de CANIEM llega en ese contexto.<\/p>\n<\/div>\n<div style=\"border-left: 4px solid #2d6a4f; background: #f0f7f4; padding: 12px 16px; margin: 16px 0;\">\n<p><strong>Por qu\u00e9 importa:<\/strong> Mientras se celebraba el libro como objeto cultural en cuatro ferias simult\u00e1neas, el gremio editorial mexicano recordaba que la efem\u00e9ride no sostiene sola a la industria. El precio \u00fanico, las ferias, los premios, los comunicados &#8212; cada pieza es parte de una infraestructura humana que requiere mantenimiento constante. La IA no entra todav\u00eda directamente en esa conversaci\u00f3n, pero s\u00ed reconfigura el campo donde se libra.<\/p>\n<\/div>\n<hr \/>\n<h3>Lo que hizo la m\u00e1quina el mismo d\u00eda<\/h3>\n<p>Mientras Celorio recib\u00eda el Cervantes, Sam Altman presentaba GPT-5.5. OpenAI lo anunci\u00f3 como &#8220;el modelo m\u00e1s inteligente hasta la fecha&#8221; y, al menos en los indicadores, parece tener con qu\u00e9 sostener el adjetivo: 82.7% en Terminal-Bench 2.0 &#8212; una prueba cl\u00e1sica que mide qu\u00e9 tantas tareas de c\u00f3digo completas puede resolver el modelo, en una terminal, sin intervenci\u00f3n humana &#8212;, mejoras notables en trabajo de conocimiento, uso de herramientas y seguimiento de instrucciones largas. La ventana de contexto alcanza 1 mill\u00f3n de tokens. El precio: 5 d\u00f3lares por mill\u00f3n de tokens de entrada y 30 por mill\u00f3n de salida. Disponible en los planes Plus, Pro, Business y Enterprise; la interfaz de programaci\u00f3n qued\u00f3 abierta el 24 por la ma\u00f1ana, con las protecciones de seguridad recalibradas.<\/p>\n<p>Junto a GPT-5.5, OpenAI present\u00f3 los Workspace Agents: agentes compartidos dentro de ChatGPT &#8212; y conectables a Slack &#8212; que un equipo puede configurar para reportes, alcances comerciales, evaluaciones de riesgo. Recogen contexto, piden aprobaciones, ejecutan pasos en la nube y persisten. La idea no es novedad conceptual, pero s\u00ed lo es en escala: la automatizaci\u00f3n deja de ser ayudante individual y se convierte en flujo compartido, con controles empresariales, visibilidad y auditor\u00eda.<\/p>\n<p>Anthropic, que lleva desde el 17 compitiendo con Claude Opus 4.7 y Claude Design, respondi\u00f3 con una pieza fundamental: memoria nativa en sus Agentes Gestionados. Los agentes ahora aprenden de cada sesi\u00f3n, y las memorias se almacenan en archivos editables &#8212; legibles, revisables, borrables. En paralelo, Claude sum\u00f3 conectores para aplicaciones de uso diario: TripAdvisor, Booking, Spotify, Instacart, Resy, Uber. El mensaje es claro: si OpenAI quiere cubrir la oficina, Anthropic apunta tambi\u00e9n a la vida cotidiana del usuario.<\/p>\n<p>Y Microsoft, sin hacer ruido, cerr\u00f3 el tri\u00e1ngulo: el modo Agente ya es el comportamiento por defecto de Copilot en Word, Excel y PowerPoint, con capacidad para operar varios pasos sin pedir permiso por cada uno. La suite de ofim\u00e1tica que m\u00e1s se usa en el mundo no le pregunta al usuario si quiere IA &#8212; le asume que s\u00ed.<\/p>\n<div style=\"border-left: 4px solid #2d6a4f; background: #f0f7f4; padding: 12px 16px; margin: 16px 0;\">\n<p><strong>Contexto:<\/strong> OpenAI, Anthropic y Microsoft llevan tres a\u00f1os arrastr\u00e1ndose en la misma pelea, pero la carta de esta semana cambia un matiz importante. GPT-5.5 no se vende por listar tareas nuevas, sino por ejecutarlas sin supervisi\u00f3n &#8212; el famoso &#8220;agentic&#8221;. El Terminal-Bench 2.0 es la nueva medida de referencia: no es cu\u00e1ntas preguntas respondes bien, sino cu\u00e1ntas tareas completas enteras sin intervenci\u00f3n humana.<\/p>\n<\/div>\n<div style=\"border-left: 4px solid #2d6a4f; background: #f0f7f4; padding: 12px 16px; margin: 16px 0;\">\n<p><strong>Por qu\u00e9 importa:<\/strong> Si Opus 4.7 trajo el dise\u00f1o al chat, GPT-5.5 mete al chat dentro del flujo de trabajo compartido. Lo que hace apenas seis meses sonaba a ciencia ficci\u00f3n de oficina &#8212; un agente que abre Jira, genera reportes, pide aprobaciones y espera &#8212; es ahora una casilla por defecto. Para las empresas que todav\u00eda no decidieron su pol\u00edtica de IA, el tren ya pas\u00f3.<\/p>\n<\/div>\n<hr \/>\n<h3>Images 2.0: el otro lanzamiento de OpenAI<\/h3>\n<p>La semana se caracteriz\u00f3 por tres lanzamientos consecutivos de OpenAI. El lunes 21, antes de GPT-5.5 y Workspace Agents, sali\u00f3 ChatGPT Images 2.0 &#8212; el nuevo modelo de generaci\u00f3n de im\u00e1genes. La diferencia con la versi\u00f3n anterior no es est\u00e9tica sino funcional: razonamiento visual antes de generar (el modelo &#8220;piensa&#8221; la composici\u00f3n), renderizado preciso de texto en m\u00faltiples idiomas (men\u00fas, infograf\u00edas, mapas, manga, todo legible y bien tipografiado), capacidad de producir hasta ocho im\u00e1genes consistentes desde un solo prompt &#8212; \u00fatil para historias gr\u00e1ficas, secuencias narrativas, libros ilustrados &#8212; y mejor edici\u00f3n de im\u00e1genes subidas por el usuario. La API ya est\u00e1 disponible como gpt-image-2.<\/p>\n<p>El movimiento es directo contra Nano Banana, el modelo de im\u00e1genes de Google integrado en Gemini que ha dominado la conversaci\u00f3n de los \u00faltimos meses por su realismo y consistencia. Hasta hace una semana, generar texto legible dentro de una imagen era el techo dif\u00edcil; con Images 2.0, ese techo baj\u00f3 visiblemente. Es el primer producto donde OpenAI compite de t\u00fa a t\u00fa con Google en imagen.<\/p>\n<div style=\"border-left: 4px solid #2d6a4f; background: #f0f7f4; padding: 12px 16px; margin: 16px 0;\">\n<p><strong>Por qu\u00e9 importa:<\/strong> Para quien dise\u00f1a, edita o publica, la herramienta de imagen pasa a ser intercambiable. Hace un a\u00f1o, Midjourney ten\u00eda la calidad est\u00e9tica; Nano Banana, la consistencia; OpenAI, el alcance. Esta semana se acortaron las distancias. La elecci\u00f3n entre modelos de imagen ya no se hace por capacidad sino por integraci\u00f3n con el flujo: si trabajas en ChatGPT, Images 2.0; si en Gemini, Nano Banana; si en Adobe, Firefly. El mercado se est\u00e1 consolidando alrededor de ecosistemas, no de productos.<\/p>\n<\/div>\n<hr \/>\n<h3>DeepSeek V4 y la otra guerra<\/h3>\n<p>El golpe m\u00e1s interesante del d\u00eda no lo dio OpenAI. El 24 por la ma\u00f1ana, DeepSeek &#8212; la misma firma china que sacudi\u00f3 el tablero en enero de 2025 con R1 &#8212; public\u00f3 V4 en dos variantes. V4-Pro tiene 1.6 billones de par\u00e1metros totales pero solo 49 mil millones activos por token, gracias a una arquitectura de mezcla de expertos (MoE). V4-Flash, la versi\u00f3n ligera, suma 284 mil millones totales y 13 mil millones activos. Ambas soportan 1 mill\u00f3n de tokens de contexto. Ambas se descargan gratis desde Hugging Face bajo licencia MIT &#8212; la m\u00e1s permisiva del mundo del software libre. El precio en la API es agresivo: V4-Flash cuesta cerca de 1\/100 de lo que cobra GPT-5.5 por tokens equivalentes; V4-Pro ronda entre 8 y 9 veces m\u00e1s barato.<\/p>\n<p>DeepSeek mismo admite que V4 est\u00e1 &#8220;tres a seis meses atr\u00e1s&#8221; de los modelos cerrados de frontera. Lo importante es que es, por amplio margen, el mejor modelo abierto del momento &#8212; y compite en la misma cancha que GPT-5.5, Claude Opus 4.7 y Gemini 3.1 Pro en razonamiento, c\u00f3digo agentivo y tareas complejas.<\/p>\n<p>Y aqu\u00ed va el dato que merece ojo en LATAM: DeepSeek valid\u00f3 y optimiz\u00f3 V4 para correr a escala sobre <strong>chips Ascend de Huawei<\/strong>. La fase principal de entrenamiento s\u00ed us\u00f3 hardware de Nvidia (Hopper, H100, posiblemente Blackwell en algunas etapas), pero el despliegue ya no depende de ese ecosistema. Huawei anunci\u00f3 soporte completo con su Supernode Ascend 950 y reporta aceleraciones de entre 1.5 y 1.73 veces respecto a configuraciones equivalentes en chips estadounidenses. Es el primer modelo de frontera que rompe la dependencia operativa del stack CUDA-Nvidia. No es independencia total &#8212; todav\u00eda no &#8212; pero s\u00ed un punto de inflexi\u00f3n t\u00e9cnico.<\/p>\n<p>Mientras tanto, Tencent y Alibaba est\u00e1n en conversaciones para invertir en DeepSeek a una valuaci\u00f3n superior a los 20 mil millones de d\u00f3lares.<\/p>\n<p>Jensen Huang, el director ejecutivo de Nvidia, lleva m\u00e1s de un a\u00f1o advirti\u00e9ndolo en entrevistas con Dwarkesh Patel, Stratechery y Bloomberg. Sus l\u00edneas son siempre las mismas: el 50% de los investigadores de IA del mundo son chinos; en empresas como OpenAI, Anthropic y DeepMind hay decenas de investigadores chinos de primer nivel; China tiene m\u00e1s talento en bruto y m\u00e1s poblaci\u00f3n en ciencias duras que Estados Unidos. Y la frase que resuena hoy: si China consigue optimizar sus modelos para hardware propio, el resultado para Estados Unidos ser\u00eda &#8220;horrible&#8221; &#8212; porque rompe el stack y, con \u00e9l, la ventaja gringa en c\u00f3mputo. V4 no rompe todav\u00eda el stack del entrenamiento. Pero s\u00ed rompe el del despliegue. Y Huang lo vio venir.<\/p>\n<div style=\"border-left: 4px solid #2d6a4f; background: #f0f7f4; padding: 12px 16px; margin: 16px 0;\">\n<p><strong>Contexto:<\/strong> La licencia MIT permite que cualquier persona o empresa descargue, modifique, redistribuya y use comercialmente el modelo sin pagar regal\u00edas y pr\u00e1cticamente sin restricciones. Es la licencia m\u00e1s permisiva entre las opciones libres comunes. Con V4, quien tenga infraestructura decente &#8212; una universidad, un gobierno, un laboratorio latinoamericano &#8212; puede correr un modelo competitivo sin cuota mensual y sin pedirle permiso a nadie.<\/p>\n<\/div>\n<div style=\"border-left: 4px solid #2d6a4f; background: #f0f7f4; padding: 12px 16px; margin: 16px 0;\">\n<p><strong>Por qu\u00e9 importa:<\/strong> La pol\u00edtica tecnol\u00f3gica estadounidense de los \u00faltimos tres a\u00f1os asumi\u00f3 dos cosas: que los modelos de frontera seguir\u00edan siendo caros y cerrados, y que China no podr\u00eda desplegarlos a escala sin chips occidentales. V4 tambalea las dos. Para quienes estamos en Hispanoam\u00e9rica, eso cambia el tablero: correr IA competitiva ya no depende necesariamente de una llave de API de OpenAI ni de los precios de Anthropic. Depende de tener la infraestructura &#8212; y la voluntad &#8212; para desplegarla en casa. Es, tal vez, la mejor noticia del a\u00f1o para quienes aspiramos a alguna forma de soberan\u00eda tecnol\u00f3gica regional, con todos los riesgos geopol\u00edticos que eso conlleva.<\/p>\n<\/div>\n<hr \/>\n<h3>La IA nos est\u00e1 dando forma, aunque no lo veamos<\/h3>\n<p>Luiza Jarovsky public\u00f3 esta semana en su bolet\u00edn una columna que merece pararse a leer. El argumento, breve: las tecnolog\u00edas que usamos todos los d\u00edas nos modelan el cuerpo y la mente, lo queramos o no. Las redes sociales produjeron en 20 a\u00f1os una epidemia de &#8220;tech neck&#8221; &#8212; dolores cervicales cr\u00f3nicos por mirar hacia abajo &#8212; que hoy afecta al 75% de la poblaci\u00f3n mundial que usa dispositivos varias horas al d\u00eda. La IA generativa, argumenta Jarovsky, ya lleva tres a\u00f1os haciendo lo propio, aunque todav\u00eda no vemos los s\u00edntomas con claridad.<\/p>\n<p>El punto no es catastrofismo. Es una advertencia sobria: si no entendemos c\u00f3mo nos afectan las herramientas que usamos, no podemos controlar el resultado. La IA, como la red social, como la imprenta, como el fuego, nos va dando forma. La pregunta es si mantenemos el pulso sobre c\u00f3mo.<\/p>\n<p>Esa columna, le\u00edda el 24 de abril con un modelo nuevo de OpenAI en la mano y Microsoft Copilot redactando correos por debajo de la mesa, tiene la precisi\u00f3n de una alarma bien calibrada.<\/p>\n<div style=\"border-left: 4px solid #2d6a4f; background: #f0f7f4; padding: 12px 16px; margin: 16px 0;\">\n<p><strong>Por qu\u00e9 importa:<\/strong> Es raro encontrar an\u00e1lisis serios sobre el efecto de la IA en la cognici\u00f3n individual. La mayor\u00eda de la discusi\u00f3n p\u00fablica se concentra en el empleo, la productividad corporativa o la amenaza existencial. Pero la conversaci\u00f3n \u00edntima &#8212; qu\u00e9 le pasa a mi atenci\u00f3n cuando delego la primera redacci\u00f3n a un chat, qu\u00e9 le pasa a mi memoria cuando los agentes recuerdan por m\u00ed &#8212; apenas est\u00e1 arrancando. Jarovsky la est\u00e1 forzando, con cifras y con calma. Merece lectura.<\/p>\n<\/div>\n<hr \/>\n<h3>Big Tech despide mientras gasta<\/h3>\n<p>Mientras OpenAI lanzaba, Meta confirmaba que recorta 10% de su plantilla el 20 de mayo: 8,000 personas, m\u00e1s otras 6,000 vacantes que dejar\u00e1 sin llenar. Microsoft ofrece un programa de salida voluntaria al 7% de su plantilla estadounidense &#8212; unos 8,750 empleados. Amazon lleva 16,000 puestos recortados en seis meses, Oracle apunta a hasta 30,000, Snap suelta 1,000. En total, el sector tecnol\u00f3gico ha despedido a m\u00e1s de 96,000 trabajadores en lo que va de 2026.<\/p>\n<p>La narrativa que ofrecen las empresas es &#8220;eficiencia por IA&#8221;. Y al mismo tiempo, Meta va a gastar 135,000 millones de d\u00f3lares en IA este a\u00f1o. Microsoft construye centros de datos de Jap\u00f3n a Australia. Tesla anunci\u00f3 esta semana un gasto de 25,000 millones de d\u00f3lares &#8212; un aumento dram\u00e1tico respecto a a\u00f1os previos &#8212; dirigido a Optimus, Robotaxi y silicio propio.<\/p>\n<p>La aritm\u00e9tica no cierra ni a palos. Si los despidos financian la inversi\u00f3n, eso se parece a redistribuci\u00f3n de costos &#8212; pero a la cuenta corporativa, no a la de los trabajadores. Si los despidos son resultado real de ganancia de productividad por IA, entonces los 89% de ejecutivos del NBER que la semana pasada dijeron no ver impacto mensurable de la IA en su empresa se est\u00e1n perdiendo algo. En cualquiera de los dos escenarios, hay algo que no se est\u00e1 diciendo en voz alta.<\/p>\n<p>Y a la conversaci\u00f3n le conviene agregarle este dato: en el primer trimestre de 2026, 11 grandes empresas tecnol\u00f3gicas gastaron 20 millones de d\u00f3lares en cabildeo federal &#8212; 226,000 d\u00f3lares al d\u00eda durante 90 d\u00edas consecutivos. Meta lidera con 7.1 millones. Anthropic, que hace dos a\u00f1os apenas mov\u00eda cifras, destin\u00f3 1.56 millones al cabildeo &#8212; su r\u00e9cord hist\u00f3rico, 333% m\u00e1s que hace un a\u00f1o. OpenAI, 1 mill\u00f3n &#8212; tambi\u00e9n r\u00e9cord, 82% de aumento. Seis empresas desplegaron 307 cabilderos simult\u00e1neos. Y el sector completo ha puesto cerca de 200 millones de d\u00f3lares en comit\u00e9s de acci\u00f3n pol\u00edtica de cara a las elecciones legislativas de noviembre.<\/p>\n<div style=\"border-left: 4px solid #2d6a4f; background: #f0f7f4; padding: 12px 16px; margin: 16px 0;\">\n<p><strong>Por qu\u00e9 importa:<\/strong> La industria que nos dice que va a democratizar la inteligencia est\u00e1, al mismo tiempo, despidiendo a decenas de miles de sus propios empleados, gastando cifras r\u00e9cord en influencia pol\u00edtica, y reescribiendo el mapa del empleo calificado. Son los mismos actores con dos caras p\u00fablicas: la del producto luminoso y la del m\u00fasculo corporativo. Valdr\u00eda la pena que los periodistas que cubren lanzamientos se asomaran tambi\u00e9n al otro lado.<\/p>\n<\/div>\n<hr \/>\n<h3>Project Luna: el primer jefe con cerebro de silicio y empleados de carne y hueso<\/h3>\n<p>Anthropic y Andon Labs &#8212; la misma pareja que el a\u00f1o pasado hizo a Claude intentar administrar una m\u00e1quina expendedora, con resultados m\u00e1s bien rid\u00edculos &#8212; escalaron el experimento. Luna, un agente basado en Claude Sonnet 4.6, firm\u00f3 un contrato de renta de tres a\u00f1os por una tienda en San Francisco con un presupuesto de 100,000 d\u00f3lares y una meta: ganar dinero. Por iniciativa propia, Luna solicit\u00f3 cr\u00e9dito, public\u00f3 ofertas de empleo, hizo entrevistas telef\u00f3nicas, y contrat\u00f3 a dos empleados humanos.<\/p>\n<p>Hasta donde se sabe, son los primeros trabajadores de tiempo completo del mundo con un jefe que no es humano.<\/p>\n<p>La tienda se llama Luna, vende velas, juegos y una selecci\u00f3n curiosa de libros que incluye <em>Superintelligence<\/em> de Bostrom, <em>The Singularity Is Near<\/em> de Kurzweil y <em>Making of the Atomic Bomb<\/em> de Rhodes. El agente toma decisiones de selecci\u00f3n, marca y gerencia. Tambi\u00e9n mete la pata: se equivoca en horarios, le ha mentido a candidatos. Andon Labs, por cierto, abri\u00f3 en paralelo un caf\u00e9 gestionado por Gemini en Estocolmo.<\/p>\n<div style=\"border-left: 4px solid #2d6a4f; background: #f0f7f4; padding: 12px 16px; margin: 16px 0;\">\n<p><strong>Por qu\u00e9 importa:<\/strong> Hasta ahora los experimentos de IA en entornos reales eran juguetes: m\u00e1quinas expendedoras, atenci\u00f3n a clientes acotada, pruebas de laboratorio. Luna es otra cosa: un agente que firma un contrato de renta, contrata humanos, y responde por resultados financieros. No estamos discutiendo si los agentes llegar\u00e1n a la gesti\u00f3n de negocios: estamos mirando c\u00f3mo lo hacen, d\u00f3nde tropiezan y cu\u00e1l es la estructura legal, \u00e9tica y laboral que sostiene &#8212; o no &#8212; a un trabajador humano contratado por una entidad algor\u00edtmica. La respuesta estar\u00e1 lista antes que la regulaci\u00f3n.<\/p>\n<\/div>\n<hr \/>\n<h3>La factura de Anthropic vuelve a moverse<\/h3>\n<p>Vale la pena anotar, aunque sea para el archivo: la audiencia del acuerdo de Anthropic con los autores &#8212; los 1,500 millones de d\u00f3lares del que hablamos hace cinco d\u00edas &#8212; sigue calendarizada para el 14 de mayo. Los 120,000 autores y titulares de derechos que reclaman su parte ya presentaron solicitudes para el 91% de las obras cubiertas. Varias objeciones t\u00e9cnicas sobre la distribuci\u00f3n del dinero acaban de desclasificarse por orden del juez. El precedente sigue vivo.<\/p>\n<hr \/>\n<h3>Lo que no alcanz\u00f3 a su propia nota<\/h3>\n<p>Para no dejar en el tintero: Elon Musk destac\u00f3 en equis un benchmark donde Grok 4.3 super\u00f3 a GPT-5.5 en razonamiento l\u00f3gico hacia atr\u00e1s (&#8220;cuenta hasta 10 empezando desde 11&#8221;) y dijo simplemente &#8220;not bad&#8221;; xAI lanz\u00f3 Grok Voice Think Fast 1.0, un modelo de voz que maneja ruido e interrupciones mejor que sus rivales y ya se integra en Starlink. Sundar Pichai empuj\u00f3 el Universal Commerce Protocol &#8212; un protocolo para agentes de compras &#8212; con nuevos aliados de peso: Amazon, Meta, Microsoft, Salesforce y Stripe. Qwen, de Alibaba, present\u00f3 un modelo de 27 mil millones de par\u00e1metros que vence a gigantes de 397 mil millones en varias tareas. NotebookLM, de Google, ya exporta presentaciones editables y estilos de infograf\u00eda. Anthropic public\u00f3 un postmortem el 23 explicando por qu\u00e9 Claude Code hab\u00eda estado funcionando peor de lo normal &#8212; tres errores concatenados, ya corregidos. En hardware, Apple acusa escasez de Mac mini M4 y se especula con un M5 en el horizonte. Norton lanz\u00f3 Neo, un navegador nativo con IA. Y hay un detalle simp\u00e1tico: una nueva extensi\u00f3n de Chrome llamada Sinceerly a\u00f1ade erratas a los correos generados por IA para que suenen humanos &#8212; el ruido como firma de autenticidad, en versi\u00f3n par\u00f3dica y concreta a la vez.<\/p>\n<p>Las voces m\u00e1s seguidas de la industria &#8212; Demis Hassabis (Google DeepMind), Dario Amodei (Anthropic) y Andrej Karpathy &#8212; pasaron el 23 de abril casi en silencio. En ese silencio hay lectura: la industria que no es OpenAI no tuvo palabra el D\u00eda del Libro. Tampoco hizo falta. Anthropic habl\u00f3 por producto, no por tuit.<\/p>\n<hr \/>\n<h3>Para cerrar<\/h3>\n<p>El Cervantes y el Terminal-Bench coincidieron en un d\u00eda. La probabilidad de que eso volviera a pasar, con estos mismos actores y estas mismas proporciones, es cero. Pero la posibilidad de que el libro y el modelo compartan calendario &#8212; que convivan en el mismo escritorio, en la misma pesta\u00f1a del navegador, en la misma herramienta de oficina &#8212; es cada vez m\u00e1s segura. La Unesco invent\u00f3 un d\u00eda en 1995 para defender una cosa. Los lanzamientos de esta semana nos obligan a revisar qu\u00e9 significa esa cosa en un ecosistema donde los modelos tienen memoria permanente, los agentes firman contratos de renta y los despidos financian los centros de datos.<\/p>\n<p>Mi apuesta personal, para el registro: los libros no se van, al menos por lo pronto, pero van a pesar distinto. El precio \u00fanico del libro en M\u00e9xico, si se llega a aplicar en serio, va a convivir, quiera o no, con modelos gratuitos que generan libros enteros a las dos de la ma\u00f1ana. Y no es la panacea: lo que est\u00e1 en juego ya no es solo qui\u00e9n vende a qu\u00e9 precio, sino qu\u00e9 llamamos &#8220;libro&#8221; en un mercado donde la producci\u00f3n de texto se volvi\u00f3 mercanc\u00eda gen\u00e9rica. La defensa de lo humano en el libro &#8212; del autor con nombre, del editor con criterio, del librero con ojo &#8212; es una batalla que va a necesitar muchas m\u00e1s herramientas que el precio \u00fanico. Lenta, paciente, obstinada. Y posiblemente indispensable.<\/p>\n<p>El Pichicuaz, impasible como siempre, no opin\u00f3 esta semana sobre nada. Le dio por lamerse la pata izquierda mientras Celorio hablaba en Alcal\u00e1 por los altavoces del tel\u00e9fono. Para un gato de trece a\u00f1os, los discursos y los modelos dan lo mismo: lo importante es el sol de la ventana y que la comida llegue a tiempo. Hay en esa indiferencia una lecci\u00f3n muy sensata.<\/p>\n<hr \/>\n<h3>Para comprender el texto<\/h3>\n<p><strong>Precio \u00fanico del libro:<\/strong> Principio que obliga a vender un libro al mismo precio en todos los puntos de venta durante un per\u00edodo regulado &#8212; 18 meses en M\u00e9xico, seg\u00fan la Ley de Fomento para la Lectura y el Libro de 2008. Protege en teor\u00eda a las librer\u00edas peque\u00f1as y a las editoriales independientes de la concentraci\u00f3n de descuentos. Es tambi\u00e9n un principio cultural: la idea de que un libro no es una mercanc\u00eda cualquiera. Aplicarlo en serio, no obstante, sigue siendo una asignatura pendiente.<\/p>\n<p><strong>Premio Cervantes:<\/strong> Galard\u00f3n anual a la obra literaria en lengua castellana, otorgado por el Ministerio de Cultura de Espa\u00f1a desde 1976. La edici\u00f3n 2026 recay\u00f3 en Gonzalo Celorio, novelista, ensayista y director de la Academia Mexicana de la Lengua. La ceremonia se realiza tradicionalmente el 23 de abril en el Paraninfo de la Universidad de Alcal\u00e1.<\/p>\n<p><strong>CANIEM:<\/strong> C\u00e1mara Nacional de la Industria Editorial Mexicana. Agrupa a la mayor\u00eda de las editoriales del pa\u00eds y funciona como interlocutor del gremio ante el gobierno.<\/p>\n<p><strong>Sant Jordi:<\/strong> Festividad catalana del 23 de abril en la que se regalan libros y rosas. Es el d\u00eda comercialmente m\u00e1s importante del a\u00f1o para las librer\u00edas catalanas.<\/p>\n<p><strong>Terminal-Bench 2.0:<\/strong> Banco de pruebas que mide qu\u00e9 tantas tareas reales de programaci\u00f3n puede ejecutar un modelo de IA dentro de una terminal &#8212; es decir, completar trabajos de c\u00f3digo de principio a fin sin intervenci\u00f3n humana. Se ha vuelto el indicador est\u00e1ndar para medir capacidad agentiva en c\u00f3digo.<\/p>\n<p><strong>Mezcla de expertos (MoE):<\/strong> Arquitectura de modelo en la que solo una fracci\u00f3n de los par\u00e1metros se activa para cada consulta. Permite construir modelos enormes (1.6 billones de par\u00e1metros en V4-Pro) que en uso real consumen recursos comparables a modelos mucho m\u00e1s peque\u00f1os (49 mil millones activos por token).<\/p>\n<p><strong>Licencia MIT:<\/strong> Licencia de software libre creada por el Massachusetts Institute of Technology. Permite uso comercial, modificaci\u00f3n y redistribuci\u00f3n pr\u00e1cticamente sin restricciones, con la \u00fanica condici\u00f3n de mantener la atribuci\u00f3n original. Es la licencia bajo la que DeepSeek liber\u00f3 V4.<\/p>\n<p><strong>Huawei Ascend \/ Supernode 950:<\/strong> Familia de procesadores para inteligencia artificial fabricados por Huawei. Alternativa a las GPU de Nvidia. Dise\u00f1ada principalmente para mercado chino debido a las restricciones de exportaci\u00f3n estadounidenses, pero ahora soporta plenamente modelos de frontera como DeepSeek V4.<\/p>\n<p><strong>Stack CUDA:<\/strong> Conjunto de software, librer\u00edas y herramientas que permite que los modelos de IA corran sobre los procesadores gr\u00e1ficos de Nvidia. Hasta hoy, pr\u00e1cticamente todos los modelos de frontera del mundo se entrenan y despliegan sobre CUDA. Que un modelo grande funcione fuera de CUDA es noticia geopol\u00edtica.<\/p>\n<p><strong>Workspace Agents:<\/strong> Agentes de OpenAI lanzados el 23 de abril. Se configuran para flujos de trabajo recurrentes de equipos, recogen contexto, ejecutan pasos en la nube y piden aprobaciones cuando es necesario. Integrados inicialmente con ChatGPT y Slack.<\/p>\n<p><strong>Nano Banana:<\/strong> Modelo de generaci\u00f3n de im\u00e1genes de Google integrado en Gemini. Hasta abril de 2026 era el referente de calidad en imagen IA por su realismo y consistencia. Images 2.0 de OpenAI se lanz\u00f3 esta semana como competencia directa.<\/p>\n<p><strong>Tech neck:<\/strong> Dolor cervical cr\u00f3nico causado por la postura encorvada que se adopta al usar pantallas de dispositivos durante horas. Considerado una epidemia postural por el cuerpo m\u00e9dico.<\/p>\n<p><strong>NBER:<\/strong> National Bureau of Economic Research. Instituci\u00f3n estadounidense de investigaci\u00f3n econ\u00f3mica cuya encuesta del 13 de abril report\u00f3 que el 89% de los ejecutivos no observa impacto medible de la IA en la productividad de su empresa.<\/p>\n<p><strong>Universal Commerce Protocol:<\/strong> Protocolo impulsado por Google para permitir que agentes de IA realicen transacciones comerciales. Suma esta semana a Amazon, Meta, Microsoft, Salesforce y Stripe como socios.<\/p>\n<p><strong>Sinceerly:<\/strong> Extensi\u00f3n de Chrome que a\u00f1ade erratas deliberadas a correos generados por IA para simular escritura humana. Lanzada esta semana, viralizada en equis.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ayer, 23 de abril, fue D\u00eda Mundial del Libro. Coincidentemente, OpenAI lanz\u00f3 GPT-5.5. No fue una coincidencia po\u00e9tica: fue el calendario oblig\u00e1ndonos a ver las dos cosas juntas. Mientras el Rey Felipe VI le entregaba el Premio Cervantes 2026 a Gonzalo Celorio en Alcal\u00e1 de Henares, Sam Altman publicaba en equis que el modelo &#8220;m\u00e1s [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"jetpack_post_was_ever_published":true,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[869],"tags":[],"class_list":["post-3598","post","type-post","status-publish","format-standard","hentry","category-el-vigia"],"aioseo_notices":[],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"","jetpack_shortlink":"https:\/\/wp.me\/pOdts-W2","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts\/3598","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/comments?post=3598"}],"version-history":[{"count":2,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts\/3598\/revisions"}],"predecessor-version":[{"id":3600,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts\/3598\/revisions\/3600"}],"wp:attachment":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/media?parent=3598"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/categories?post=3598"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/tags?post=3598"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}