{"id":3492,"date":"2026-03-26T19:10:16","date_gmt":"2026-03-27T01:10:16","guid":{"rendered":"https:\/\/alejandrozenker.com\/blog\/2026\/03\/26\/volverte-adicto-a-las-redes-sociales-y-sufrir-traumas-te-puede-volver-millonario\/"},"modified":"2026-03-26T19:10:16","modified_gmt":"2026-03-27T01:10:16","slug":"volverte-adicto-a-las-redes-sociales-y-sufrir-traumas-te-puede-volver-millonario","status":"publish","type":"post","link":"https:\/\/alejandrozenker.com\/blog\/2026\/03\/26\/volverte-adicto-a-las-redes-sociales-y-sufrir-traumas-te-puede-volver-millonario\/","title":{"rendered":"Volverte adicto a las redes sociales y sufrir traumas te puede volver millonario"},"content":{"rendered":"<p>Estos d\u00edas he andado pele\u00e1ndome con la configuraci\u00f3n de Cowork de Claude y con Molti \u2014 mi agente que corre en OpenClaw y que se encarga de juntar las noticias del d\u00eda \u2014 mientras el Pichicuaz decidi\u00f3 declararse en huelga de hambre porque las croquetas nuevas no le parecen de su nivel socioecon\u00f3mico y el Sheldon, solidario, se dedica a dormirse encima del teclado justo cuando m\u00e1s necesito teclear. Pero los acontecimientos no esperan a que uno resuelva la log\u00edstica dom\u00e9stica ni la tecnol\u00f3gica, porque diario es mucho lo que se mueve en inteligencia artificial y cada vez es m\u00e1s lo que nos mueve a nosotros, queramos o no.<\/p>\n<p>Un jurado de Los \u00c1ngeles acaba de encontrar a Meta y a YouTube culpables de negligencia por el da\u00f1o que le causaron a una mujer \u2014 identificada como K.G.M., hoy de veinte a\u00f1os \u2014 que empez\u00f3 a usar YouTube a los seis e Instagram a los nueve y termin\u00f3 con ansiedad severa, depresi\u00f3n y pensamientos suicidas. Seis millones de d\u00f3lares en da\u00f1os, 70% a cargo de Meta. Lo que m\u00e1s me revuelve no son los millones sino lo que sali\u00f3 en el juicio: documentos internos donde ejecutivos de Meta discuten c\u00f3mo atraer ni\u00f1os a la plataforma, y uno que dice textualmente &#8220;si queremos ganar en grande con adolescentes, hay que traerlos como preadolescentes&#8221;. Meta y Google van a apelar, por supuesto, y van a decir que la salud mental de los j\u00f3venes es &#8220;profundamente compleja&#8221; y no se le puede echar la culpa a una sola app. Pero esto es un caso piloto \u2014 bellwether, le dicen los abogados \u2014 y detr\u00e1s de \u00e9l hay cientos de demandas consolidadas esperando turno. TikTok y Snap ya arreglaron antes. La era de &#8220;no somos responsables de lo que pasa en nuestra plataforma&#8221; se est\u00e1 cerrando a martillazos, y la neta, ya era hora.<\/p>\n<p>Mientras un jurado le pone precio al da\u00f1o de la tecnolog\u00eda de ayer, Google solt\u00f3 hoy lo que podr\u00eda ser el avance m\u00e1s importante del trimestre en tecnolog\u00eda de ma\u00f1ana, y nadie fuera del gremio se enter\u00f3. Se llama TurboQuant. Es un algoritmo de compresi\u00f3n que reduce la memoria que necesitan los modelos de lenguaje \u2014 espec\u00edficamente el KV cache, que es donde el modelo guarda el contexto de la conversaci\u00f3n \u2014 a una sexta parte, sin perder precisi\u00f3n. Cero p\u00e9rdida de precisi\u00f3n. En GPUs H100 de NVIDIA, acelera la inferencia hasta ocho veces. Esto no suena sexy pero es de esas cosas que cambian las cuentas de toda la industria: si necesitas seis veces menos memoria para correr el mismo modelo, necesitas menos chips, menos energ\u00eda, menos dinero. Las acciones de Micron bajaron 12% en la semana y las de Samsung tambi\u00e9n se resintieron, porque Wall Street entendi\u00f3 al vuelo lo que esto significa para los fabricantes de memoria. En el Vig\u00eda #15 habl\u00e9 del consumo energ\u00e9tico de la IA \u2014 el reporte de EPRI que proyecta hasta 17% de la electricidad de Estados Unidos para 2030. Pues TurboQuant es exactamente el tipo de soluci\u00f3n que puede cambiar esa ecuaci\u00f3n. No viene de un discurso inaugural sino de un estudio publicado por Google Research que se va a presentar en ICLR 2026. Las revoluciones de verdad llegan sin fanfarria.<\/p>\n<p>Y hablando de lo que se ve versus lo que importa: ayer Melania Trump camin\u00f3 por la Casa Blanca escoltada por un robot humanoide de Figure AI que saludaba en varios idiomas y se present\u00f3 como &#8220;un humanoide construido en los Estados Unidos de Am\u00e9rica&#8221;. El Figure 03 mide un metro setenta y dos, funciona con un modelo de visi\u00f3n-lenguaje-acci\u00f3n llamado Helix, y form\u00f3 parte de la cumbre educativa &#8220;Fostering the Future Together&#8221; con representantes de 45 pa\u00edses. La imagen es espectacular \u2014 NPR, CNN, Fox, todos la pusieron en portada \u2014 pero conviene no confundir la foto con la pel\u00edcula. Medio internet pens\u00f3 que era el Optimus de Musk; no lo era. Amazon, por su lado, cerr\u00f3 la compra de Fauna Robotics, una startup neoyorquina que fabrica el Sprout \u2014 un robot humanoide de un metro de altura, dise\u00f1ado para la casa, que se vende en cincuenta mil d\u00f3lares. Es la segunda adquisici\u00f3n rob\u00f3tica de Amazon este mes \u2014 la primera fue Rivr, robots repartidores suizos. Bezos quiere ponerte un robot en la cocina; la pregunta no es si va a pasar sino cu\u00e1ndo el condenado aparato costar\u00e1 menos que un microondas.<\/p>\n<p>Fran\u00e7ois Chollet, el creador de Keras que lleva a\u00f1os diciendo que los benchmarks de IA miden memoria y no inteligencia, lanz\u00f3 ayer ARC-AGI-3 en Y Combinator, en conversaci\u00f3n nada menos que con Sam Altman. El nuevo benchmark es interactivo: juegos dise\u00f1ados a mano donde el agente tiene que explorar entornos desconocidos, adquirir metas sobre la marcha y construir modelos del mundo en tiempo real. Los humanos sacan 100%. Los mejores modelos de IA sacan 0.26%. Hay dos millones de d\u00f3lares de premio para quien lo resuelva. Que Altman se haya sentado ah\u00ed sabiendo que sus modelos sacan pr\u00e1cticamente cero es, como m\u00ednimo, un acto de honestidad que hay que reconocerle. Mientras tanto, Jensen Huang declar\u00f3 en el podcast de Lex Fridman que la AGI ya se alcanz\u00f3 \u2014 su definici\u00f3n: una IA capaz de crear y operar un negocio de mil millones de d\u00f3lares. Cuando Fridman le pregunt\u00f3 si una IA podr\u00eda replicar algo tan complejo como NVIDIA, Huang no dud\u00f3: &#8220;la probabilidad es cero&#8221;. O sea que tenemos a Chollet diciendo que los modelos no entienden nada nuevo, a Huang diciendo que ya mero llegamos, y a Altman en medio preparando un modelo que, seg\u00fan \u00e9l, va a &#8220;acelerar la econom\u00eda&#8221;. Y mientras OpenAI mide qu\u00e9 tan lejos est\u00e1 de la inteligencia general, internamente ya complet\u00f3 el preentrenamiento de un modelo nuevo con nombre clave &#8220;Spud&#8221; \u2014 descrito por Altman ante empleados como &#8220;very strong&#8221; y capaz de &#8220;realmente acelerar la econom\u00eda&#8221;. Renombraron su divisi\u00f3n de producto como &#8220;AGI Deployment&#8221;. Ya mencion\u00e9 ayer que cerraron Sora; ahora sabemos para qu\u00e9 liberaron esos GPUs.<\/p>\n<p>Lo que me queda rondando de todo esto es una palabra que no suena a titular pero que define el d\u00eda: consecuencias. Un jurado dice que dise\u00f1ar una plataforma adictiva para ni\u00f1os tiene precio. Un algoritmo silencioso le pega a las acciones de los fabricantes de memoria. Un benchmark le demuestra a los modelos m\u00e1s caros del planeta que no entienden un carajo de lo que ven. Y uno de aqu\u00ed, sentado en San Pedro de los Pinos con el Sheldon dormido en la silla de al lado, sigue intentando calibrar qu\u00e9 parte de todo esto es ruido espectacular y qu\u00e9 parte es la se\u00f1al que va a determinar c\u00f3mo trabajamos, c\u00f3mo nos informamos y c\u00f3mo nos cuidamos los pr\u00f3ximos diez a\u00f1os.<\/p>\n<hr style=\"margin-top:2em;margin-bottom:1em;\" \/>\n<div style=\"font-size:0.85em;color:#555;line-height:1.6;\">\n<p><strong>Para comprender el texto<\/strong><\/p>\n<p><strong>Caso bellwether<\/strong> es un juicio que se selecciona como prueba representativa de un grupo grande de demandas similares. El veredicto contra Meta y YouTube no solo afecta a K.G.M. \u2014 establece un precedente para cientos de casos consolidados. Si gana la demandante, como ocurri\u00f3 aqu\u00ed, los dem\u00e1s demandantes tienen viento a favor.<\/p>\n<p><strong>TurboQuant<\/strong> es un algoritmo de Google Research que comprime el KV cache \u2014 la memoria donde un modelo de lenguaje guarda el contexto de la conversaci\u00f3n \u2014 de 32 bits a solo 3, reduciendo el consumo de memoria a una sexta parte sin perder precisi\u00f3n. Se presentar\u00e1 en ICLR 2026, la conferencia m\u00e1s importante de aprendizaje autom\u00e1tico.<\/p>\n<p><strong>KV cache<\/strong> (key-value cache) es como la memoria de trabajo del modelo: donde guarda lo que ya ley\u00f3 de tu conversaci\u00f3n para poder responder con contexto. Mientras m\u00e1s larga la conversaci\u00f3n, m\u00e1s memoria consume. Comprimirlo a una sexta parte significa que el mismo hardware puede atender conversaciones mucho m\u00e1s largas o a muchos m\u00e1s usuarios simult\u00e1neamente.<\/p>\n<p><strong>Figure 03<\/strong> es el robot humanoide de Figure AI, empresa de Sunnyvale, California. Opera con un modelo VLA (visi\u00f3n-lenguaje-acci\u00f3n) llamado Helix: la m\u00e1quina ve su entorno, razona y ejecuta acciones f\u00edsicas. Fue presentado en octubre 2025 como robot para uso dom\u00e9stico \u2014 lavander\u00eda, limpieza, lavar platos.<\/p>\n<p><strong>ARC-AGI-3<\/strong> es el tercer benchmark de Fran\u00e7ois Chollet para medir inteligencia adaptativa, no memorizaci\u00f3n. A diferencia de los anteriores, es completamente interactivo: cientos de juegos donde la IA tiene que aprender sobre la marcha. Que los humanos saquen 100% y los modelos 0.26% no dice que la IA sea in\u00fatil \u2014 dice que este tipo de razonamiento flexible es exactamente lo que las m\u00e1quinas actuales no tienen.<\/p>\n<p><strong>AGI (Inteligencia General Artificial)<\/strong> es el punto donde una IA iguala o supera la inteligencia humana en tareas generales. No hay consenso sobre si ya llegamos: Huang dice que s\u00ed (con una definici\u00f3n econ\u00f3mica estrecha), Chollet dice que ni de lejos (con una definici\u00f3n cognitiva rigurosa), y la mayor\u00eda de la industria navega en alg\u00fan punto intermedio. La tensi\u00f3n entre ambas posturas define buena parte del debate actual.<\/p>\n<p><strong>Spud<\/strong> es el nombre clave del pr\u00f3ximo modelo de OpenAI, cuyo preentrenamiento ya termin\u00f3. Podr\u00eda ser GPT-5.5 o GPT-6 \u2014 nadie lo sabe a\u00fan. Lo que s\u00ed se sabe es que para darle prioridad de c\u00f3mputo, OpenAI cerr\u00f3 Sora y renombr\u00f3 su divisi\u00f3n de producto como &#8220;AGI Deployment&#8221;, con Fidji Simo (exejecutiva de Meta) al frente.<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Estos d\u00edas he andado pele\u00e1ndome con la configuraci\u00f3n de Cowork de Claude y con Molti \u2014 mi agente que corre en OpenClaw y que se encarga de juntar las noticias del d\u00eda \u2014 mientras el Pichicuaz decidi\u00f3 declararse en huelga de hambre porque las croquetas nuevas no le parecen de su nivel socioecon\u00f3mico y el [&hellip;]<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"jetpack_post_was_ever_published":false,"_jetpack_newsletter_access":"","_jetpack_dont_email_post_to_subs":false,"_jetpack_newsletter_tier_id":0,"_jetpack_memberships_contains_paywalled_content":false,"_jetpack_memberships_contains_paid_content":false,"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[869],"tags":[],"class_list":["post-3492","post","type-post","status-publish","format-standard","hentry","category-el-vigia"],"aioseo_notices":[],"jetpack_publicize_connections":[],"jetpack_featured_media_url":"","jetpack_shortlink":"https:\/\/wp.me\/pOdts-Uk","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts\/3492","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/comments?post=3492"}],"version-history":[{"count":0,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/posts\/3492\/revisions"}],"wp:attachment":[{"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/media?parent=3492"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/categories?post=3492"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/alejandrozenker.com\/blog\/wp-json\/wp\/v2\/tags?post=3492"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}