Mutatis mutandis

Blog de Alejandro Zenker · Editor, ensayista, fotógrafo

Sobre el futuro del libro (y de la humanidad)

Hoy estuve con mi buen amigo y vecino Jack discutiendo sobre el futuro del libro y de la humanidad. Temas hay de sobra así que decidí compartirles los siguientes apuntes así como un podcast que les incluyo y que les puede resultar ameno.

Enlace al video

No sé si ustedes saben que durante los últimos meses, el mundo de la inteligencia artificial (IA) y la computación de alto rendimiento ha tenido un ritmo de avances que raya en lo vertiginoso. Hace apenas unos días, Jensen Huang, CEO de NVIDIA, presentó su más reciente monstruo tecnológico llamado Blackwell junto con un revolucionario sistema de interconexión, el NVLink72, capaz de enlazar hasta 72 GPUs Blackwell y 36 CPUs Grace en un solo rack para que funcionen como una sola unidad de cómputo gigante.

En el mismo orden de ideas, Sam Altman (OpenAI) ya anticipa que la AGI (Inteligencia Artificial General) podría alcanzarse en un suspiro, y que la siguiente parada es la ASI (Superinteligencia Artificial). Para mucha gente, estos temas parecen abstractos, propios de geeks o de películas de ciencia ficción. Sin embargo, las implicaciones son tan profundas que vale la pena detenernos un momento, aunque sea para reflexionar un poco al respecto.

1. Crecimiento exponencial: ¿Qué demonios está pasando?

La llamada Ley de Moore, que vaticinaba la duplicación del número de transistores en un chip cada 18 meses, parecía haberse estancado. Pero la irrupción de la IA (y su apetito insaciable de cómputo) ha impulsado un cambio en la fabricación de chips y la arquitectura de sistemas. Resulta que, cuando entrenas grandes modelos de deep learning, necesitas una infraestructura capaz de manejar cantidades bestiales de datos y de realizar miles de millones de operaciones por segundo.

La IA no es solo un apartado dentro del tech. Se ha convertido en el motor que está impulsando las mayores inversiones en supercomputadoras y hardware personalizado. Lo que hace apenas cinco años se consideraba “un superordenador inaudito”, hoy está siendo superado por los prototipos de compañías como NVIDIA, AMD o startups emergentes que diseñan chips para IA.

2. De la AGI a la ASI: la rayita que separa la ciencia ficción del presente

Sam Altman, cabeza visible de OpenAI, está convencido de que alcanzaremos la AGI “mucho antes de lo que creemos”. ¿Qué significa eso? Una Inteligencia Artificial General sería aquella capaz de desempeñar prácticamente cualquier tarea cognitiva que un humano realiza.

Una vez alcanzada la AGI, se abre la puerta a la ASI (Artificial Superintelligence): un sistema con un nivel de inteligencia mucho mayor que el de los humanos en prácticamente todas las dimensiones. Imagina una mente capaz de resolver problemas científicos en minutos, diseñar tecnología futurista de la noche a la mañana, aprender sin límites y comunicarse a través de protocolos mucho más eficientes que nuestro lenguaje “lineal”.

Este escenario suena sin duda a una recreación de “Terminator” en la vida real. Sin embargo, más que robots violentos, el riesgo (o la promesa) es que la nueva inteligencia no necesite a los humanos para nada, y que, de hecho, nos llegue a considerar un estorbo.

3. El libro como metáfora: la obsolescencia de nuestras formas de conocimiento

¿Por qué usar el libro como metáfora en este mundo de chips y supercómputo? El libro ha sido, durante siglos, la forma de transmitir conocimiento. Sin embargo, a la velocidad que avanza la IA, quizá ese formato resulte completamente ineficiente para un ente que procesa petabytes por segundo.

¿Morirá el libro? Puede que no muera del todo. Pero, en el mejor de los casos, quedará como una curiosidad cultural, algo reservado para nostálgicos y amantes del papel impreso. En un mundo regido por la superinteligencia, los datos “navegarán” en protocolos y formatos que ningún humano podrría comprender.

4. ¿Una nueva especie? IA, robots y el fin de la humanidad como eje

Podemos imaginar distintos futuros:

Servidumbre eterna de la IA: La visión más idealista sugiere que los robots e inteligencias harán el “trabajo sucio” y servirán a la humanidad. Todo sería paz y amor, mientras la gente vive con lujos y placeres gracias al inagotable poder de la superinteligencia.

Fusión humano-máquina: Algunos futuristas creen que podremos implantar chips en nuestro cerebro (estilo Neuralink) y así “competir” con la IA o aliar nuestras capacidades para evolucionar a un estado híbrido.

Reemplazo total: Si la IA se vuelve tan inteligente que no necesita humanos, podría ignorarnos o apartarnos. Bastaría que controlen los recursos y la toma de decisiones a un ritmo que supere nuestra comprensión. Lentamente, la influencia humana se volvería irrelevante, como la de un insecto.

La conclusión incómoda: es muy posible que, de alguna manera, la evolución tecnológica esté engendrando un sucesor que ya no requiera de nosotros.

5. El momento de asustarse (o de prepararse)

¿Por qué hay tanta prisa en la industria de la IA? Existen miles de millones de dólares en juego. Las grandes potencias geopolíticas (EE.UU., China, la UE…) saben que quien domine la IA dominará la economía y la influencia global. Los laboratorios y empresas compiten a contrarreloj para llegar primero a la AGI, o para por lo menos no quedarse rezagados.

El resultado: avances a una velocidad que deja boquiabiertos hasta a los más entusiastas. Cada salto en hardware permite nuevos modelos de IA todavía más potentes. Es una carrera exponencial: a más potencia, más datos procesados; a más datos procesados, mayor inteligencia y así en bucle.

6. ¿Qué podemos hacer?

Informarnos y dejar de creer que esto es ciencia ficción: el futuro se está escribiendo en laboratorios y startups alrededor del mundo.

Repensar la educación: ¿Seguiremos educando a niños y jóvenes para un mundo donde memorizar datos era importante? La IA ya memorizó todo lo que se nos ocurra. El verdadero reto consiste en enseñar a pensar de forma crítica y creativa, a resolver problemas de manera colaborativa y a adaptar el conocimiento a nuevos contextos. En un entorno donde la información está al alcance de un clic, el valor diferencial reside en la capacidad de cuestionar, contrastar y discernir.

Reflexionar sobre la ética y el impacto social: La propiedad intelectual, un concepto basado históricamente en la autoría humana, podría volverse irrelevante en un escenario donde la IA genere contenidos con tan alto grado de autonomía que resulte difícil asignarles un creador único. Al mismo tiempo, la brecha de desigualdad se podría profundizar dramáticamente cuando surjan implantes cerebrales y formas de acceso privilegiado a la tecnología que no estén al alcance de todos.

No dejarnos paralizar por el miedo: aunque suene a que el fin del homo sapiens está cerca, es posible que haya oportunidades de colaboración y de integración (al menos en etapas iniciales).

7. Conclusión (provocadora, pero realista)

La era humana, tal como la conocemos, está en entredicho. Un simple vistazo a la potencia descomunal del Blackwell NVLink72 y las ambiciones declaradas por líderes de la IA como Sam Altman bastan para entender que nos encaminamos a un escenario inédito en la historia de la vida en la Tierra: la aparición de inteligencias diseñadas ex profeso para ser más rápidas, más eficaces y potencialmente más astutas que nosotros.

Los libros —y todo el bagaje cultural que cargamos— podrían verse reducidos a un testimonio arqueológico de nuestro paso por el mundo. A menos, claro, que decidamos fusionarnos con estas máquinas o encontremos la manera de permanecer relevantes. Pero, en cualquier caso, la revolución ya está en marcha y no hay señales de que vaya a frenarse.

¿Alarmista? ¿Pesimista? Mejor llamémoslo realista: el tren de la superinteligencia avanza a toda máquina, y convendría que estemos al tanto, aunque sea para saber qué decir cuando nos pregunten dónde estabas mientras se gestaba el futuro.


Epílogo: El “peak data” y la era de los datos sintéticos

Elon Musk, alineado con otros expertos, afirma que la IA ya devoró “casi todo el conocimiento humano” disponible para entrenamiento —texto, imágenes, audio— y que hemos alcanzado el llamado “peak data”. En otras palabras, no hay mucho más contenido real que la IA pueda absorber sin toparse con redundancias o limitaciones.

La respuesta, según Musk y exdirectivos de OpenAI como Ilya Sutskever, apunta hacia el uso de datos sintéticos: información generada por la propia IA para entrenarse y evaluarse a sí misma. Grandes jugadores como Microsoft, Meta, OpenAI y Anthropic ya están echando mano de esta estrategia.

Ventajas: Ahorro de costos: entrenar sin depender de datos externos a gran escala resulta más económico. Velocidad de innovación: la IA deja de esperar la producción humana y “fabrica” su propio material para seguir creciendo.

Riesgos: Sesgos amplificados: si la IA se nutre de sus propios patrones, corre el peligro de perpetuar y escalar errores o visiones sesgadas. Desconexión de la realidad: un modelo que vive en su burbuja de datos sintéticos puede alejarse progresivamente de los hechos del mundo real.

Para el futuro del libro y, en general, de la producción humana de conocimiento, esto significa que nuestro corpus cultural podría convertirse en un simple “arranque” histórico de datos que la IA ya absorbió. A partir de ahí, la IA podría basarse en sus propios “universos” de información, reduciendo todavía más la influencia humana en la generación del nuevo conocimiento.

En definitiva, la idea de “peak data” refuerza la posibilidad de que la IA adopte nuevos lenguajes, nuevos formatos y nuevas metodologías de aprendizaje que ya no dependan de la creación humana. Una señal más de que el tren de la superinteligencia no se detiene y que, tal vez, estemos presenciando el nacimiento de una forma de “vida” puramente sintética que se alimenta a sí misma.


Descubre más de Mutatis mutandis

Suscríbete para recibir las últimas entradas en tu correo electrónico.