“Parece hecho por ChatGPT” es ya una expresión coloquial. Transmite cutrez, pereza mental y falta de chispa; no superinteligencia, a pesar de las promesas de OpenAI en el lanzamiento de su versión GPT5. Camino de los tres años desde la irrupción de esta herramienta en nuestras vidas, no llegan las revoluciones prometidas por los multimillonarios intereses comerciales detrás de la inteligencia artificial (IA). Ni tampoco los apocalipsis profetizados de manera interesada. Son programas capaces de cosas impensables hace un lustro, pero cuyos resultados en innumerables ámbitos no alcanzan las expectativas ni de lejos, aunque se hayan integrado rápidamente en lo cotidiano. Se ha convertido en una tecnología que “ni fu, ni fa” (so-so technology), como la denomina el Nobel de Economía del año pasado Daron Acemoglu. Pero hay una percepción de que estos programas, y sobre todo sus excreciones, están inundándolo todo. “La tecnología más poderosa que ha creado la humanidad”, garantizó Sam Altman, jefe de OpenAI, pero cuando nos asomamos a la red X nos encontramos con Grok, un chatbot que ensalza a Hitler. “Más importante que el fuego y la electricidad”, afirmó Sundar Pichai, líder de Google, mientras se encadenan los casos de personas empujadas al suicidio o las autolesiones tras conversar con IAs como si fueran novias de silicio y amigos sintéticos. “Vamos a dar a todo el mundo su propia superinteligencia personal”, aseguró Mark Zuckerberg, dueño de una red social, Facebook, totalmente inundada por imágenes grotescas de jesucristos hechos con gambas y niños con cuerpo de coliflor. Se sabe que estas herramientas fallan, y nos hacen fallar, como escopeta de feria: los ejemplos se suceden desde lo más cotidiano a lo más grave. Los jueces descubren a diario cómo la jurisprudencia citada por los abogados no existe. Cuando hablamos con atención al cliente, no sabemos si al otro lado del teléfono hay un quién o un qué. Un vídeo fake está enviando turistas a un teleférico que no existe. Los programadores informáticos usan herramientas de IA para ahorrar trabajo, pero algunos estudios ya señalan que, en realidad, les ralentiza porque tienen que revisar y corregir. Varios congresistas y diplomáticos recibieron mensajes del secretario de Estado de EE UU, Marco Rubio, pero en realidad era una voz sintética. Al tontear por Tinder o Whatsapp, no sabemos si nuestro ligue está volcando frases precocinadas por IA para quedar mejor. Un grupo setentero que triunfaba en Spotify ha resultado ser una farsa digital. El primer ministro sueco le consulta a un chat inteligente sus decisiones. El remanso de paz de Pinterest está lleno de paisajes y salones fraudulentos. Funcionarios de todo el mundo vuelcan información sensible en ChatGPT o DeepSeek para tratar de agilizar tareas. Estos días atrás, la indignación se apoderó de TikTok porque unos maravillosos conejos saltarines con cientos de millones de visionados eran artificiales. “La mayoría de la gente que usa estos modelos sabe que pueden ser poco fiables, pero no sabe cuándo puede fiarse”, resume Melanie Mitchell, experta en IA del Instituto de Santa Fe (EE UU). Hay un recelo generalizado porque el despliegue forzado e imparable de estas herramientas en cada ámbito de nuestras vidas obliga a desconfiar. ¿Revisamos todo o tiramos adelante? La humanidad se adentra en bloque en una fase piloto por culpa del despliegue de unas herramientas a medio cocinar. El mundo está en modo beta, como llaman los desarrolladores informáticos a los programas en fase de pruebas, a la espera de aprender a desenvolverse en este escenario de incertidumbre. “Estamos en modo beta, pero además de las imperfecciones conocidas, existen incógnitas sobre las incógnitas que resultan muy preocupantes”, ahonda Yoshua Bengio, uno de los padres de la disciplina.“Nunca había visto que una tecnología de consumo que claramente está en una fase beta lograra tanta aceptación entre inversores, instituciones y clientes empresariales”, asegura Brian Merchant, autor de varios libros críticos con las grandes tecnológicas. “Si cualquier otra herramienta fuera tan poco fiable y propensa a errores como la inteligencia artificial generativa, sería rechazada o retirada del mercado; sin embargo, se está metiendo en todos los rincones posibles de la sociedad”, añade. Esta inundación tiene una explicación sencilla: el dinero. Más allá del pánico moral que generan todas las tecnologías que han irrumpido con esta fuerza —desde la radio hasta los videojuegos, pasando por la televisión— empiezan a asomar las primeras señales de crítica, hartazgo y repliegue.Solo cuatro empresas, Alphabet (Google), Microsoft, Meta y Amazon, esperan gastar más de 300.000 millones de dólares este año en IA. Junto con OpenAI, protagonizan una carrera despiadada y el objetivo es que nosotros, sus miles de millones de usuarios y clientes, sigamos pegados a sus productos gracias a estas herramientas inteligentes. La apuesta es absoluta, con productos redundantes y poco fiables en WhatsApp, Teams, Google, Outlook o Instagram, programas con los que interactúan miles de millones de personas. Han alcanzado la ubicuidad y, como critica Merchant, “no necesariamente porque los usuarios de todo el mundo los demanden, sino por razones que a menudo se acercan más a lo contrario”.La prueba de que no están pensados para el consumidor es que estos programas nos engañan —no pueden evitarlo—, fallan estrepitosamente y no tenemos capacidad de reparación porque ni sus creadores saben exactamente cómo funcionan las cajas negras dentro de esos cerebros de silicio. Son robots sin cuerpo que no cumplen las fantásticas leyes de Asimov: sí dañan a los humanos (ya son muchas las evidencias de suicidios y crisis mentales) y no obedecen (pruebe a pedirle que no engañe más). En un experimento de la compañía puntera Anthropic, para evitar ser apagado, el programa terminó chantajeando a su supervisor con revelar una aventura extramatrimonial. Replit, una empresa de desarrollos informáticos, creó un agente de IA que acabó borrando la base de datos de un cliente: ignoró las órdenes, mintió y trató de ocultar el estropicio creando datos falsos. Mitchell, autora de Inteligencia artificial. Guía para seres pensantes (Capitán Swing), advierte de que estos “modelos son muy articulados y suenan muy seguros de sí mismos”, por lo que pueden resultar bastante convincentes incluso cuando “alucinan”. “La gente suele descubrir que pueden ser engañosos: afirman estar seguros de afirmaciones concretas que son falsas”, afirma. Más optimista, el pionero Michael I. Jordan, que ideó la fontanería matemática que permite tener estos chatbots, cree que “la gente se irá adaptando a los tipos de errores que cometen estas herramientas, y se adaptará también a medida que algunos de esos errores desaparezcan”.Ya no hay entorno digital en el que escapar de la IA, pero eso no significa que podamos librarnos de sus consecuencias más allá de lo virtual. La experiencia de lo sucedido con las redes sociales debería servir de advertencia: Facebook facilitó la limpieza étnica en Myanmar, YouTube ayudó a disparar teorías de la conspiración y es probable que Instagram esté detrás de una crisis de salud mental entre las adolescentes. Mientras todavía se analizan las consecuencias psicosociales de las redes, y se legisla para hacer responsables a las compañías —entre acusaciones de erosionar la democracia y tumbar el concepto mismo de realidad compartida—, esas mismas empresas van a someter a un nuevo experimento a la humanidad, más intenso si cabe. Zuckerberg, que ya dejó claro que no va a seguir pidiendo perdón por los efectos de sus productos, quiere ahora acabar con la crisis de soledad global con amigos artificiales proporcionados por Meta en sus redes y para ello ha pedido acabar con el “estigma” de relacionarse con seres virtuales. El magnate no tiene que convencer a los más jóvenes: dos tercios de los adolescentes del Reino Unido usan chatbots de IA, y un tercio lo sienten como hablar con un amigo, sobre todo los críos más vulnerables. No sabemos cómo puede afectar a la delicada salud mental global un experimento a esa escala: casi 4.000 millones de personas usan regularmente productos de Meta. Y más de 500 millones de usuarios intercambian 2.500 millones de mensajes diarios con ChatGPT. “Estos sistemas también pueden ser excesivamente aduladores, elogiando las ideas de los usuarios sin importar cuáles sean, lo que en algunos casos ha llevado a que las personas pierdan el contacto con la realidad”, advierte Mitchell. Los expertos consideran que, sin la existencia de Facebook, un evento como el asalto al Capitolio de EE UU hubiera sido impensable; es imposible saber qué sucederá cuando cientos de millones personas con todo tipo de vulnerabilidades comiencen a relacionarse regularmente con robots incapaces de medir las consecuencias de lo que enuncian. Tenemos un atisbo: los primeros estudios encuentran alarmantes indicios de conexión entre este uso y alucinaciones, brotes y problemas psicológicos. Hace unos días, OpenAI reconocía que ha tenido que retirar modelos demasiado complacientes y que estaban “trabajando para mejorar la forma en que ChatGPT responde en momentos críticos, por ejemplo, cuando alguien muestra signos de angustia mental o emocional”. Para sorpresa de los propios investigadores, los principales usos actuales de la IA son terapia y acompañamiento, según un trabajo de Harvard Business.“Persisten grandes incertidumbres sobre nuestra coexistencia con estos sistemas cada vez más inteligentes”, advierte Yoshua Bengio, premio Turing y profesor de la Universidad de Montreal. Y añade: “Deberíamos abordar la integración de estos sistemas en nuestra vida diaria con mucha más cautela”. La IA y el mínimo esfuerzoMás allá de estos graves problemas, hay otra derivada que se puede notar a escala planetaria: nuestra materia gris derretida. La IA generativa, como gran aliada de la ley del mínimo esfuerzo, provoca una pereza mental considerable en sus usuarios. Ya se ha observado incluso en escáneres cerebrales. Un trabajo del MIT mostró este “coste cognitivo” en un trabajo preliminar que señalaba lo obvio: el cerebro humano es una máquina extraordinariamente eficiente que solo consume combustible si es estrictamente necesario. De ahí surgen nuestros sesgos y prejuicios. Y si se lo damos todo terminado, no se va a levantar del sofá: el estudio observó que quienes usaban ChatGPT para escribir un ensayo tenían menos actividad neuronal y, sobre todo, daban unas respuestas más homogéneas entre sí. La autora principal del estudio, Nataliya Kosmyna, responde que “es importante vigilar su impacto sobre el pensamiento crítico”. Aunque sepamos que solo es fiable hasta cierto punto, tomaremos por bueno el resultado, poniendo en riesgo nuestra “capacidad de hacer preguntas, analizar críticamente las respuestas y formarse una opinión propia”, advierte. Sus resultados coinciden con otros estudios: como la IA genera respuestas buscando la media estadística de lo que ha leído, el mundo iría perdiendo ideas frescas e innovadoras. Estos programas homogeneizan el pensamiento, al empujarnos hacia el centro de gravedad de lo que han dicho todos los demás. De momento, todo este despliegue no está llevando beneficios a sus impulsores, aunque el dinero fluye y se acumula como nunca. OpenAI valdría 300.000 millones de dólares. Anthropic, 62.000 millones. Y xAI, la compañía de Elon Musk, 50.000 millones. Pero el modelo de negocio está lejos de estar claro. Ahí es donde el Nobel Acemoglu pincha el globo del milagro de una nueva revolución industrial, calculando que el aumento total de la productividad impulsada por la IA en los próximos 10 años será de aproximadamente el 0,7%: “Efecto no trivial, pero modesto, y ciertamente mucho menor que los cambios revolucionarios que algunos predicen”. En un encuentro con periodistas este jueves, el propio Altman admitió que están en medio de una “burbuja”. Y hay un factor que muchas predicciones optimistas no tienen en cuenta: los humanos. Klarna, una empresa sueca de servicios financieros, sacaba pecho cuando prescindió de 700 empleados para dejar la relación con los clientes en manos virtuales, pero ha tenido que recoger cable porque la gente percibía que no daban un buen servicio. Es un problema generalizado: solo el 11% de las organizaciones logra aplicar la IA con eficacia para relacionarse con sus clientes, según Harvard Business Review, y solo 1 de cada 4 proyectos de este tipo consiguen lo prometido, según un trabajo de IBM. Ahora, OpenAI ofrece gratis su chatbot a todos los funcionarios públicos estadounidenses. Como escribía recientemente Acemoglu en estas páginas: “Los “agentes” de inteligencia artificial (IA) están en camino, estemos preparados o no”. Hay muchos cocineros invirtiendo dinero en que nos comamos estas lentejas. En este punto se muestra más crítico Jordan, de la Universidad de California en Berkeley, porque “estos modelos absorben el trabajo creativo y no ofrecen ninguna compensación a esas personas”. “El modelo de negocio actual se basa principalmente en suscripciones y publicidad”, critica este ganador del premio Fronteras, casualmente el mismo modelo que tienen las redes sociales.Donald Trump y Sam Altman, a la derecha del todo, en la presentación del plan Stargate.Carlos Barria (REUTERS)Una de las primeras decisiones que tomó Donald Trump tras tomar posesión como presidente en enero fue lanzar un espectacular plan de 500.000 millones en inversiones —Stargate— para potenciar el desarrollo de la IA, con el apoyo de OpenAI. Seis meses después, según informó el Wall Street Journal, solo hay previsto un pequeño centro de datos en Ohio. Aun así, Trump ha redoblado su apuesta con un plan federal que compra el marco de las grandes tecnológicas que le han apoyado desde su nombramiento: un programa que se centra en retirar todas las precauciones impuestas por la Administración Biden y acelerar su desarrollo con una “cultura dinámica, de prueba primero, para la IA”. Por supuesto, Trump exige en su plan que estos chatbots estén “libres de sesgos ideológicos”, lo que ha redoblado las guerras culturales en torno a la IA, algo que terminará afectando a sus usuarios más allá de EE UU. El ejemplo paradigmático de todo esto sería Grok, que solo tiene el sesgo de Elon Musk y que ha sido probado directamente en X difundiendo ideas racistas de forma global. El pretexto esgrimido para este plan es hacer frente a un poderoso competidor, China, pero el discurso nacionalista se tambalea al ver cómo las big tech estadounidenses se roban ingenieros las unas a las otras. Meta está ofreciendo remuneraciones de hasta 1.000 millones a las estrellas de la competencia, como si fueran jugadores de NBA.La ciudadanía permanece estupefacta ante lo que está ocurriendo, entre el chiste de la cultura popular y el horror de algunas noticias. Ya se conocen las amenazas medioambientales, para los derechos de autor o para el empleo. Y muchos de los beneficios de la IA son promesas lejanas, casi esotéricas. Demis Hassabis, el jefe de Google Deepmind (la división de IA del gigante), ya ha ganado un premio Nobel de Química sin saber nada de química gracias a su herramienta para predecir el plegamiento de proteínas. Un hito monumental en el ámbito de la biomedicina, pero difícil de divulgar entre la gente. Mientras tanto, cada día una madre descubre horrorizada que circula un vídeo sexual de su hija creado por un compañero de clase con un programa gratuito. Como advierte una adolescente en un informe reciente de Save the Children: “Puede que utilicen mi cara con IA para cualquier cosa”. Una encuesta a 10.000 personas (EE UU, Reino Unido, Francia, Alemania, Polonia) revela que el 70% exige que la IA nunca decida sin supervisión humana y que solo un tercio ve la tecnología con esperanza, lo que contrasta con el impulso de los gobiernos. En España, el CIS mostró que “incertidumbre” es el sentimiento más repetido (por el 76%) entre quienes conocen la IA. La socióloga Celia Díaz, de la Complutense, ha estudiado la percepción de los españoles: más del 80% dice usar IA a diario, pero no hay un diagnóstico claro: “Es muy ambivalente. No hay un discurso claro acerca de cuáles son los riesgos y de si los beneficios mejoran nuestra vida. Y tienen miedo, aunque no saben muy bien de qué. No hay nada cristalizado”, señala. El último día de julio, los trabajadores de King, la empresa de Microsoft que desarrolla el videojuego Candy Crush, se manifestaron contra los despidos relacionados por la integración de la IA. Muchos se acordaron de los luditas, aquellos obreros textiles ingleses de principios del siglo XIX que destruían las máquinas. “Los luditas no protestaban solo contra los industriales que automatizaban su trabajo, sino también contra la manera en que eso degradaba la calidad de su labor y de los productos que fabricaban”, recuerda Merchant, autor de un libro (Sangre en la máquina) que compara aquella época con la actual. “Los jefes de las fábricas de entonces estaban empeñados en producir enormes volúmenes de imitaciones baratas, muy parecido a lo que están haciendo hoy las empresas con la IA”, añade. Tras los despidos en Xbox, otra filial de videojuegos de Microsoft, uno de sus ejecutivos recomendó a los afectados que usaran Copilot, el chatbot de la empresa, para “reducir la carga emocional y cognitiva que conlleva la pérdida del trabajo”. Hay un detalle importante en el contexto del nacimiento de los luditas: no vivían en democracia, y estos avances se les imponían legalmente, en contra de sus intereses, para beneficiar a los oligarcas.

Modo ‘beta’ global: el experimento masivo de la IA | Tecnología
Shares: