Ayer, 23 de abril, fue Día Mundial del Libro. Coincidentemente, OpenAI lanzó GPT-5.5. No fue una coincidencia poética: fue el calendario obligándonos a ver las dos cosas juntas. Mientras el Rey Felipe VI le entregaba el Premio Cervantes 2026 a Gonzalo Celorio en Alcalá de Henares, Sam Altman publicaba en equis que el modelo “más inteligente hasta la fecha” ya estaba rolando en ChatGPT. Entre tanto, Gabriela Cabezón Cámara, Selva Almada y Leila Guerriero inauguraban la 50ª Feria Internacional del Libro de Buenos Aires, Microsoft anunciaba que el agente (Copilot) es ya el modo por defecto de Word, Excel y PowerPoint. Finalmente, Sant Jordi cerraba con casi 27 millones de euros en ventas en Cataluña, Meta confirmaba el despido de 8,000 personas.
El Vigía, que lleva cuatro días dormido, regresa justo para dejar apuntada esa postal: el libro y el modelo se encontraron, sin quererlo, en la misma fecha.
Hoy destacamos:
- Gonzalo Celorio recibe el Premio Cervantes 2026
- Sant Jordi rompe récord en Cataluña; arranca la 50ª FIL Buenos Aires
- CANIEM emite comunicado por el Día del Libro y convoca a defender el precio único
- OpenAI lanza GPT-5.5 y los Workspace Agents para equipos
- OpenAI también suelta ChatGPT Images 2.0, que rivaliza con Nano Banana de Google
- DeepSeek V4 aparece el mismo día: 1.6 billones de parámetros, abierto, MIT, optimizado para Huawei
- Anthropic habilita memoria en sus Agentes Gestionados y suma conectores cotidianos
- Big Tech despide 96,000 personas en lo que va del año
- Lobby récord de Anthropic y OpenAI en el Congreso estadounidense
- Project Luna: una tienda en San Francisco con jefe de inteligencia artificial y empleados humanos
El 23 de abril como efeméride
Vale la pena recordar de dónde sale el Día Mundial del Libro. En 1995, la Unesco lo instituyó el 23 de abril por razones simbólicas más que forenses: ese día de 1616 murieron Miguel de Cervantes en Madrid, el Inca Garcilaso de la Vega en Córdoba y William Shakespeare en Stratford-upon-Avon.
Lo que hizo el libro esta semana
En Alcalá de Henares, el Paraninfo de la universidad recibió a Gonzalo Celorio — el novelista y ensayista mexicano nacido en 1948, director de la Academia Mexicana de la Lengua — para entregarle el Premio Cervantes 2026. Celorio es el séptimo escritor mexicano que lo recibe; el fallo, anunciado en noviembre pasado, subrayó su aportación a la narrativa en lengua castellana y su trabajo como editor. Para quienes vivimos del libro en México, el Cervantes de Celorio vale doble: es reconocimiento al autor y también al ecosistema editorial que lo sostuvo — Tusquets, el Fondo de Cultura Económica, la Academia. Son estructuras lentas y caras, herederas de ese gremio que Cervantes mismo conoció.
En Cataluña, la última Diada de Sant Jordi dejó cifras que el gremio temía no alcanzar. La Cambra del Llibre de Catalunya reportó una facturación cercana a los 27 millones de euros, ligeramente por encima de los poco más de 26 del año pasado. El dato tiene asterisco: Sant Jordi cayó en día laborable, y el clima no ayudó. Aun así, las calles de Barcelona se llenaron. Los editores catalanes lo están leyendo como lo que es: la prueba de que la fiesta del libro, cuando se hace bien, aún saca a la gente a la calle.
En Buenos Aires, la 50ª Feria Internacional del Libro abrió el 23 bajo el lema “La feria de siempre, como nunca la viste”. Por primera vez, la apertura no fue un discurso solemne de un solo autor: fue un diálogo a tres bandas entre Gabriela Cabezón Cámara, Selva Almada y Leila Guerriero, moderadas por María O’Donnell. Tres voces argentinas — feministas, literarias, periodísticas — donde antes había una. El cambio de formato es en sí una declaración. La feria, con medio siglo encima, reconoce que ya no hay un solo centro.
En Bogotá, la FILBo 2026 inauguró esta semana su pabellón de India, país invitado de honor. Corferias se llenó con un espacio inmersivo que mezcla tradiciones milenarias y narrativas contemporáneas. Para Hispanoamérica, la presencia de India no es un ejercicio estético: es el reconocimiento de que los ejes del libro global se están moviendo, lento pero en serio, hacia Oriente.
Y en la Ciudad de México, la CANIEM — la Cámara Nacional de la Industria Editorial — emitió el comunicado oficial por el Día Mundial del Libro y, el mismo 23, abrió la convocatoria entre afiliados para sumarse a un desplegado en medios en defensa del principio del precio único del libro. La defensa del precio único es vieja, paciente, obstinada: es lo que, en teoría, permite que una librería pequeña en Xalapa pueda vender el mismo título al mismo precio que una cadena en Polanco. No es vistoso. Y conviene decirlo sin entusiasmos prematuros: el precio único, si se aplica en serio, es un piso, no una salvación. La industria editorial necesita más herramientas que ese principio para sostenerse en un ecosistema donde la producción de texto se está volviendo gratuita.
Contexto: El precio único del libro está regulado en México desde 2008 por la Ley de Fomento para la Lectura y el Libro, que obliga a vender los libros editados en México al mismo precio en cualquier punto de venta durante los primeros 18 meses. La defensa del principio no es gratuita: cada año aparecen presiones para debilitarlo. El desplegado de CANIEM llega en ese contexto.
Por qué importa: Mientras se celebraba el libro como objeto cultural en cuatro ferias simultáneas, el gremio editorial mexicano recordaba que la efeméride no sostiene sola a la industria. El precio único, las ferias, los premios, los comunicados — cada pieza es parte de una infraestructura humana que requiere mantenimiento constante. La IA no entra todavía directamente en esa conversación, pero sí reconfigura el campo donde se libra.
Lo que hizo la máquina el mismo día
Mientras Celorio recibía el Cervantes, Sam Altman presentaba GPT-5.5. OpenAI lo anunció como “el modelo más inteligente hasta la fecha” y, al menos en los indicadores, parece tener con qué sostener el adjetivo: 82.7% en Terminal-Bench 2.0 — una prueba clásica que mide qué tantas tareas de código completas puede resolver el modelo, en una terminal, sin intervención humana —, mejoras notables en trabajo de conocimiento, uso de herramientas y seguimiento de instrucciones largas. La ventana de contexto alcanza 1 millón de tokens. El precio: 5 dólares por millón de tokens de entrada y 30 por millón de salida. Disponible en los planes Plus, Pro, Business y Enterprise; la interfaz de programación quedó abierta el 24 por la mañana, con las protecciones de seguridad recalibradas.
Junto a GPT-5.5, OpenAI presentó los Workspace Agents: agentes compartidos dentro de ChatGPT — y conectables a Slack — que un equipo puede configurar para reportes, alcances comerciales, evaluaciones de riesgo. Recogen contexto, piden aprobaciones, ejecutan pasos en la nube y persisten. La idea no es novedad conceptual, pero sí lo es en escala: la automatización deja de ser ayudante individual y se convierte en flujo compartido, con controles empresariales, visibilidad y auditoría.
Anthropic, que lleva desde el 17 compitiendo con Claude Opus 4.7 y Claude Design, respondió con una pieza fundamental: memoria nativa en sus Agentes Gestionados. Los agentes ahora aprenden de cada sesión, y las memorias se almacenan en archivos editables — legibles, revisables, borrables. En paralelo, Claude sumó conectores para aplicaciones de uso diario: TripAdvisor, Booking, Spotify, Instacart, Resy, Uber. El mensaje es claro: si OpenAI quiere cubrir la oficina, Anthropic apunta también a la vida cotidiana del usuario.
Y Microsoft, sin hacer ruido, cerró el triángulo: el modo Agente ya es el comportamiento por defecto de Copilot en Word, Excel y PowerPoint, con capacidad para operar varios pasos sin pedir permiso por cada uno. La suite de ofimática que más se usa en el mundo no le pregunta al usuario si quiere IA — le asume que sí.
Contexto: OpenAI, Anthropic y Microsoft llevan tres años arrastrándose en la misma pelea, pero la carta de esta semana cambia un matiz importante. GPT-5.5 no se vende por listar tareas nuevas, sino por ejecutarlas sin supervisión — el famoso “agentic”. El Terminal-Bench 2.0 es la nueva medida de referencia: no es cuántas preguntas respondes bien, sino cuántas tareas completas enteras sin intervención humana.
Por qué importa: Si Opus 4.7 trajo el diseño al chat, GPT-5.5 mete al chat dentro del flujo de trabajo compartido. Lo que hace apenas seis meses sonaba a ciencia ficción de oficina — un agente que abre Jira, genera reportes, pide aprobaciones y espera — es ahora una casilla por defecto. Para las empresas que todavía no decidieron su política de IA, el tren ya pasó.
Images 2.0: el otro lanzamiento de OpenAI
La semana se caracterizó por tres lanzamientos consecutivos de OpenAI. El lunes 21, antes de GPT-5.5 y Workspace Agents, salió ChatGPT Images 2.0 — el nuevo modelo de generación de imágenes. La diferencia con la versión anterior no es estética sino funcional: razonamiento visual antes de generar (el modelo “piensa” la composición), renderizado preciso de texto en múltiples idiomas (menús, infografías, mapas, manga, todo legible y bien tipografiado), capacidad de producir hasta ocho imágenes consistentes desde un solo prompt — útil para historias gráficas, secuencias narrativas, libros ilustrados — y mejor edición de imágenes subidas por el usuario. La API ya está disponible como gpt-image-2.
El movimiento es directo contra Nano Banana, el modelo de imágenes de Google integrado en Gemini que ha dominado la conversación de los últimos meses por su realismo y consistencia. Hasta hace una semana, generar texto legible dentro de una imagen era el techo difícil; con Images 2.0, ese techo bajó visiblemente. Es el primer producto donde OpenAI compite de tú a tú con Google en imagen.
Por qué importa: Para quien diseña, edita o publica, la herramienta de imagen pasa a ser intercambiable. Hace un año, Midjourney tenía la calidad estética; Nano Banana, la consistencia; OpenAI, el alcance. Esta semana se acortaron las distancias. La elección entre modelos de imagen ya no se hace por capacidad sino por integración con el flujo: si trabajas en ChatGPT, Images 2.0; si en Gemini, Nano Banana; si en Adobe, Firefly. El mercado se está consolidando alrededor de ecosistemas, no de productos.
DeepSeek V4 y la otra guerra
El golpe más interesante del día no lo dio OpenAI. El 24 por la mañana, DeepSeek — la misma firma china que sacudió el tablero en enero de 2025 con R1 — publicó V4 en dos variantes. V4-Pro tiene 1.6 billones de parámetros totales pero solo 49 mil millones activos por token, gracias a una arquitectura de mezcla de expertos (MoE). V4-Flash, la versión ligera, suma 284 mil millones totales y 13 mil millones activos. Ambas soportan 1 millón de tokens de contexto. Ambas se descargan gratis desde Hugging Face bajo licencia MIT — la más permisiva del mundo del software libre. El precio en la API es agresivo: V4-Flash cuesta cerca de 1/100 de lo que cobra GPT-5.5 por tokens equivalentes; V4-Pro ronda entre 8 y 9 veces más barato.
DeepSeek mismo admite que V4 está “tres a seis meses atrás” de los modelos cerrados de frontera. Lo importante es que es, por amplio margen, el mejor modelo abierto del momento — y compite en la misma cancha que GPT-5.5, Claude Opus 4.7 y Gemini 3.1 Pro en razonamiento, código agentivo y tareas complejas.
Y aquí va el dato que merece ojo en LATAM: DeepSeek validó y optimizó V4 para correr a escala sobre chips Ascend de Huawei. La fase principal de entrenamiento sí usó hardware de Nvidia (Hopper, H100, posiblemente Blackwell en algunas etapas), pero el despliegue ya no depende de ese ecosistema. Huawei anunció soporte completo con su Supernode Ascend 950 y reporta aceleraciones de entre 1.5 y 1.73 veces respecto a configuraciones equivalentes en chips estadounidenses. Es el primer modelo de frontera que rompe la dependencia operativa del stack CUDA-Nvidia. No es independencia total — todavía no — pero sí un punto de inflexión técnico.
Mientras tanto, Tencent y Alibaba están en conversaciones para invertir en DeepSeek a una valuación superior a los 20 mil millones de dólares.
Jensen Huang, el director ejecutivo de Nvidia, lleva más de un año advirtiéndolo en entrevistas con Dwarkesh Patel, Stratechery y Bloomberg. Sus líneas son siempre las mismas: el 50% de los investigadores de IA del mundo son chinos; en empresas como OpenAI, Anthropic y DeepMind hay decenas de investigadores chinos de primer nivel; China tiene más talento en bruto y más población en ciencias duras que Estados Unidos. Y la frase que resuena hoy: si China consigue optimizar sus modelos para hardware propio, el resultado para Estados Unidos sería “horrible” — porque rompe el stack y, con él, la ventaja gringa en cómputo. V4 no rompe todavía el stack del entrenamiento. Pero sí rompe el del despliegue. Y Huang lo vio venir.
Contexto: La licencia MIT permite que cualquier persona o empresa descargue, modifique, redistribuya y use comercialmente el modelo sin pagar regalías y prácticamente sin restricciones. Es la licencia más permisiva entre las opciones libres comunes. Con V4, quien tenga infraestructura decente — una universidad, un gobierno, un laboratorio latinoamericano — puede correr un modelo competitivo sin cuota mensual y sin pedirle permiso a nadie.
Por qué importa: La política tecnológica estadounidense de los últimos tres años asumió dos cosas: que los modelos de frontera seguirían siendo caros y cerrados, y que China no podría desplegarlos a escala sin chips occidentales. V4 tambalea las dos. Para quienes estamos en Hispanoamérica, eso cambia el tablero: correr IA competitiva ya no depende necesariamente de una llave de API de OpenAI ni de los precios de Anthropic. Depende de tener la infraestructura — y la voluntad — para desplegarla en casa. Es, tal vez, la mejor noticia del año para quienes aspiramos a alguna forma de soberanía tecnológica regional, con todos los riesgos geopolíticos que eso conlleva.
La IA nos está dando forma, aunque no lo veamos
Luiza Jarovsky publicó esta semana en su boletín una columna que merece pararse a leer. El argumento, breve: las tecnologías que usamos todos los días nos modelan el cuerpo y la mente, lo queramos o no. Las redes sociales produjeron en 20 años una epidemia de “tech neck” — dolores cervicales crónicos por mirar hacia abajo — que hoy afecta al 75% de la población mundial que usa dispositivos varias horas al día. La IA generativa, argumenta Jarovsky, ya lleva tres años haciendo lo propio, aunque todavía no vemos los síntomas con claridad.
El punto no es catastrofismo. Es una advertencia sobria: si no entendemos cómo nos afectan las herramientas que usamos, no podemos controlar el resultado. La IA, como la red social, como la imprenta, como el fuego, nos va dando forma. La pregunta es si mantenemos el pulso sobre cómo.
Esa columna, leída el 24 de abril con un modelo nuevo de OpenAI en la mano y Microsoft Copilot redactando correos por debajo de la mesa, tiene la precisión de una alarma bien calibrada.
Por qué importa: Es raro encontrar análisis serios sobre el efecto de la IA en la cognición individual. La mayoría de la discusión pública se concentra en el empleo, la productividad corporativa o la amenaza existencial. Pero la conversación íntima — qué le pasa a mi atención cuando delego la primera redacción a un chat, qué le pasa a mi memoria cuando los agentes recuerdan por mí — apenas está arrancando. Jarovsky la está forzando, con cifras y con calma. Merece lectura.
Big Tech despide mientras gasta
Mientras OpenAI lanzaba, Meta confirmaba que recorta 10% de su plantilla el 20 de mayo: 8,000 personas, más otras 6,000 vacantes que dejará sin llenar. Microsoft ofrece un programa de salida voluntaria al 7% de su plantilla estadounidense — unos 8,750 empleados. Amazon lleva 16,000 puestos recortados en seis meses, Oracle apunta a hasta 30,000, Snap suelta 1,000. En total, el sector tecnológico ha despedido a más de 96,000 trabajadores en lo que va de 2026.
La narrativa que ofrecen las empresas es “eficiencia por IA”. Y al mismo tiempo, Meta va a gastar 135,000 millones de dólares en IA este año. Microsoft construye centros de datos de Japón a Australia. Tesla anunció esta semana un gasto de 25,000 millones de dólares — un aumento dramático respecto a años previos — dirigido a Optimus, Robotaxi y silicio propio.
La aritmética no cierra ni a palos. Si los despidos financian la inversión, eso se parece a redistribución de costos — pero a la cuenta corporativa, no a la de los trabajadores. Si los despidos son resultado real de ganancia de productividad por IA, entonces los 89% de ejecutivos del NBER que la semana pasada dijeron no ver impacto mensurable de la IA en su empresa se están perdiendo algo. En cualquiera de los dos escenarios, hay algo que no se está diciendo en voz alta.
Y a la conversación le conviene agregarle este dato: en el primer trimestre de 2026, 11 grandes empresas tecnológicas gastaron 20 millones de dólares en cabildeo federal — 226,000 dólares al día durante 90 días consecutivos. Meta lidera con 7.1 millones. Anthropic, que hace dos años apenas movía cifras, destinó 1.56 millones al cabildeo — su récord histórico, 333% más que hace un año. OpenAI, 1 millón — también récord, 82% de aumento. Seis empresas desplegaron 307 cabilderos simultáneos. Y el sector completo ha puesto cerca de 200 millones de dólares en comités de acción política de cara a las elecciones legislativas de noviembre.
Por qué importa: La industria que nos dice que va a democratizar la inteligencia está, al mismo tiempo, despidiendo a decenas de miles de sus propios empleados, gastando cifras récord en influencia política, y reescribiendo el mapa del empleo calificado. Son los mismos actores con dos caras públicas: la del producto luminoso y la del músculo corporativo. Valdría la pena que los periodistas que cubren lanzamientos se asomaran también al otro lado.
Project Luna: el primer jefe con cerebro de silicio y empleados de carne y hueso
Anthropic y Andon Labs — la misma pareja que el año pasado hizo a Claude intentar administrar una máquina expendedora, con resultados más bien ridículos — escalaron el experimento. Luna, un agente basado en Claude Sonnet 4.6, firmó un contrato de renta de tres años por una tienda en San Francisco con un presupuesto de 100,000 dólares y una meta: ganar dinero. Por iniciativa propia, Luna solicitó crédito, publicó ofertas de empleo, hizo entrevistas telefónicas, y contrató a dos empleados humanos.
Hasta donde se sabe, son los primeros trabajadores de tiempo completo del mundo con un jefe que no es humano.
La tienda se llama Luna, vende velas, juegos y una selección curiosa de libros que incluye Superintelligence de Bostrom, The Singularity Is Near de Kurzweil y Making of the Atomic Bomb de Rhodes. El agente toma decisiones de selección, marca y gerencia. También mete la pata: se equivoca en horarios, le ha mentido a candidatos. Andon Labs, por cierto, abrió en paralelo un café gestionado por Gemini en Estocolmo.
Por qué importa: Hasta ahora los experimentos de IA en entornos reales eran juguetes: máquinas expendedoras, atención a clientes acotada, pruebas de laboratorio. Luna es otra cosa: un agente que firma un contrato de renta, contrata humanos, y responde por resultados financieros. No estamos discutiendo si los agentes llegarán a la gestión de negocios: estamos mirando cómo lo hacen, dónde tropiezan y cuál es la estructura legal, ética y laboral que sostiene — o no — a un trabajador humano contratado por una entidad algorítmica. La respuesta estará lista antes que la regulación.
La factura de Anthropic vuelve a moverse
Vale la pena anotar, aunque sea para el archivo: la audiencia del acuerdo de Anthropic con los autores — los 1,500 millones de dólares del que hablamos hace cinco días — sigue calendarizada para el 14 de mayo. Los 120,000 autores y titulares de derechos que reclaman su parte ya presentaron solicitudes para el 91% de las obras cubiertas. Varias objeciones técnicas sobre la distribución del dinero acaban de desclasificarse por orden del juez. El precedente sigue vivo.
Lo que no alcanzó a su propia nota
Para no dejar en el tintero: Elon Musk destacó en equis un benchmark donde Grok 4.3 superó a GPT-5.5 en razonamiento lógico hacia atrás (“cuenta hasta 10 empezando desde 11”) y dijo simplemente “not bad”; xAI lanzó Grok Voice Think Fast 1.0, un modelo de voz que maneja ruido e interrupciones mejor que sus rivales y ya se integra en Starlink. Sundar Pichai empujó el Universal Commerce Protocol — un protocolo para agentes de compras — con nuevos aliados de peso: Amazon, Meta, Microsoft, Salesforce y Stripe. Qwen, de Alibaba, presentó un modelo de 27 mil millones de parámetros que vence a gigantes de 397 mil millones en varias tareas. NotebookLM, de Google, ya exporta presentaciones editables y estilos de infografía. Anthropic publicó un postmortem el 23 explicando por qué Claude Code había estado funcionando peor de lo normal — tres errores concatenados, ya corregidos. En hardware, Apple acusa escasez de Mac mini M4 y se especula con un M5 en el horizonte. Norton lanzó Neo, un navegador nativo con IA. Y hay un detalle simpático: una nueva extensión de Chrome llamada Sinceerly añade erratas a los correos generados por IA para que suenen humanos — el ruido como firma de autenticidad, en versión paródica y concreta a la vez.
Las voces más seguidas de la industria — Demis Hassabis (Google DeepMind), Dario Amodei (Anthropic) y Andrej Karpathy — pasaron el 23 de abril casi en silencio. En ese silencio hay lectura: la industria que no es OpenAI no tuvo palabra el Día del Libro. Tampoco hizo falta. Anthropic habló por producto, no por tuit.
Para cerrar
El Cervantes y el Terminal-Bench coincidieron en un día. La probabilidad de que eso volviera a pasar, con estos mismos actores y estas mismas proporciones, es cero. Pero la posibilidad de que el libro y el modelo compartan calendario — que convivan en el mismo escritorio, en la misma pestaña del navegador, en la misma herramienta de oficina — es cada vez más segura. La Unesco inventó un día en 1995 para defender una cosa. Los lanzamientos de esta semana nos obligan a revisar qué significa esa cosa en un ecosistema donde los modelos tienen memoria permanente, los agentes firman contratos de renta y los despidos financian los centros de datos.
Mi apuesta personal, para el registro: los libros no se van, al menos por lo pronto, pero van a pesar distinto. El precio único del libro en México, si se llega a aplicar en serio, va a convivir, quiera o no, con modelos gratuitos que generan libros enteros a las dos de la mañana. Y no es la panacea: lo que está en juego ya no es solo quién vende a qué precio, sino qué llamamos “libro” en un mercado donde la producción de texto se volvió mercancía genérica. La defensa de lo humano en el libro — del autor con nombre, del editor con criterio, del librero con ojo — es una batalla que va a necesitar muchas más herramientas que el precio único. Lenta, paciente, obstinada. Y posiblemente indispensable.
El Pichicuaz, impasible como siempre, no opinó esta semana sobre nada. Le dio por lamerse la pata izquierda mientras Celorio hablaba en Alcalá por los altavoces del teléfono. Para un gato de trece años, los discursos y los modelos dan lo mismo: lo importante es el sol de la ventana y que la comida llegue a tiempo. Hay en esa indiferencia una lección muy sensata.
Para comprender el texto
Precio único del libro: Principio que obliga a vender un libro al mismo precio en todos los puntos de venta durante un período regulado — 18 meses en México, según la Ley de Fomento para la Lectura y el Libro de 2008. Protege en teoría a las librerías pequeñas y a las editoriales independientes de la concentración de descuentos. Es también un principio cultural: la idea de que un libro no es una mercancía cualquiera. Aplicarlo en serio, no obstante, sigue siendo una asignatura pendiente.
Premio Cervantes: Galardón anual a la obra literaria en lengua castellana, otorgado por el Ministerio de Cultura de España desde 1976. La edición 2026 recayó en Gonzalo Celorio, novelista, ensayista y director de la Academia Mexicana de la Lengua. La ceremonia se realiza tradicionalmente el 23 de abril en el Paraninfo de la Universidad de Alcalá.
CANIEM: Cámara Nacional de la Industria Editorial Mexicana. Agrupa a la mayoría de las editoriales del país y funciona como interlocutor del gremio ante el gobierno.
Sant Jordi: Festividad catalana del 23 de abril en la que se regalan libros y rosas. Es el día comercialmente más importante del año para las librerías catalanas.
Terminal-Bench 2.0: Banco de pruebas que mide qué tantas tareas reales de programación puede ejecutar un modelo de IA dentro de una terminal — es decir, completar trabajos de código de principio a fin sin intervención humana. Se ha vuelto el indicador estándar para medir capacidad agentiva en código.
Mezcla de expertos (MoE): Arquitectura de modelo en la que solo una fracción de los parámetros se activa para cada consulta. Permite construir modelos enormes (1.6 billones de parámetros en V4-Pro) que en uso real consumen recursos comparables a modelos mucho más pequeños (49 mil millones activos por token).
Licencia MIT: Licencia de software libre creada por el Massachusetts Institute of Technology. Permite uso comercial, modificación y redistribución prácticamente sin restricciones, con la única condición de mantener la atribución original. Es la licencia bajo la que DeepSeek liberó V4.
Huawei Ascend / Supernode 950: Familia de procesadores para inteligencia artificial fabricados por Huawei. Alternativa a las GPU de Nvidia. Diseñada principalmente para mercado chino debido a las restricciones de exportación estadounidenses, pero ahora soporta plenamente modelos de frontera como DeepSeek V4.
Stack CUDA: Conjunto de software, librerías y herramientas que permite que los modelos de IA corran sobre los procesadores gráficos de Nvidia. Hasta hoy, prácticamente todos los modelos de frontera del mundo se entrenan y despliegan sobre CUDA. Que un modelo grande funcione fuera de CUDA es noticia geopolítica.
Workspace Agents: Agentes de OpenAI lanzados el 23 de abril. Se configuran para flujos de trabajo recurrentes de equipos, recogen contexto, ejecutan pasos en la nube y piden aprobaciones cuando es necesario. Integrados inicialmente con ChatGPT y Slack.
Nano Banana: Modelo de generación de imágenes de Google integrado en Gemini. Hasta abril de 2026 era el referente de calidad en imagen IA por su realismo y consistencia. Images 2.0 de OpenAI se lanzó esta semana como competencia directa.
Tech neck: Dolor cervical crónico causado por la postura encorvada que se adopta al usar pantallas de dispositivos durante horas. Considerado una epidemia postural por el cuerpo médico.
NBER: National Bureau of Economic Research. Institución estadounidense de investigación económica cuya encuesta del 13 de abril reportó que el 89% de los ejecutivos no observa impacto medible de la IA en la productividad de su empresa.
Universal Commerce Protocol: Protocolo impulsado por Google para permitir que agentes de IA realicen transacciones comerciales. Suma esta semana a Amazon, Meta, Microsoft, Salesforce y Stripe como socios.
Sinceerly: Extensión de Chrome que añade erratas deliberadas a correos generados por IA para simular escritura humana. Lanzada esta semana, viralizada en equis.