Saltar al contenido
lunes, Oct 13, 2025
Kalewche

Quincenario digital

Menú principal
  • Quiénes somos
  • Contacto
  • Secciones
    • A la Deriva
    • Argonautas
    • Balsa de Totora
    • Barquito de Papel
    • Brulote
    • Cartas Náuticas
    • Clionautas
    • El Faro y la Bruma
    • Escorbuto
    • Jangada Rioplatense
    • Kamal
    • Krakatoa
    • Kraken
    • Kukulkán
    • Lanterna
    • Lobodon
    • Naglfar
    • Naumaquia
    • Nautilus
    • Nocturlabio
    • Parley
    • Saloma
    • Zheng Shi
  • Autores
  • Suscripciones
  • Revista Corsario Rojo
Daniel Arjona Nautilus Nuevo

La gorila Koko y ChatGPT: los riesgos de olvidar que tu IA es idiota y no piensa

12 de octubre de 2025
Kalewche

La psicóloga estadounidense Francine Patterson en uno de sus experimentos lingüísticos con la gorila Hanabiko (alias Koko) a mediados de la década del 70, en la Universidad de Stanford, California. Fotograma del documental Koko, le gorille qui parle (1978), de Barbet Schröder.

El presente artículo del periodista español Daniel Arjona fue originalmente publicado en su blog, El Arjonauta, el 11 de septiembre del corriente año, con una bajada que decía: “Las actuales inteligencias artificiales generativas como la de Open AI o Gemini son como las salchichas: dejan de inspirar respeto a medida que sabes cómo están hechas”. Redactor del diario El Mundo de Madrid y ex director de la sección cultural de El Confidencial, Arjona se ha especializado en temas de cultura, ciencia y tecnología. Es autor de La venganza de la realidad: un viaje al centro de las discusiones científicas más enconadas hoy (Capitán Swing, 2014), un libro de lectura muy recomendable.


En los noventa yo leía a Michael Crichton, como todo el mundo. También a Borges y a Kropotkin y aún echaba de vez en cuando una ojeada furtiva a mis Batman (sí, ya sé, para leer eso, mejor no leer nada, como María Pombo). Lo de que todo el mundo leía a Crichton no es una boutade. Asegura Wikipedia que el padre de Parque Jurásico, y de la serie Urgencias, ha vendido más de 200 millones de ejemplares de sus libros en todo el mundo,1 doce de los cuales fueron llevados al cine. Las adaptaciones arreciaron en tromba después de que Steven Spielberg reventara las salas con su versión dinosáurica, que según la experta opinión del paleontólogo Stephen Jay Gould2 debió titularse, más bien, Parque Cretácico. Y así, en 1995 se estrenaba un film basado en –probablemente– uno de los peores títulos que el desigual Crichton3 había escrito quince años antes: Congo.

La película es espantosa también. Una revisión psicodélica de Las minas del rey Salomón, de Rider Haggard, con microchips, diamantes, caníbales y una ciudad perdida en la jungla africana habitada por gorilas homicidas superinteligentes a los que sólo logra calmar, ejerciendo como intérprete, una hembra de gorila llevada allí oportunamente por la expedición y que ha sido entrenada en un laboratorio yanqui para hablar la lengua de signos. Pues bien, la gorila Amy se inspiraba en una gorila parlante real. ¿Su nombre? Koko.

Koko fue una gorila adiestrada en los años setenta por la doctora Francine Patterson y otros científicos de la Universidad de Stanford que estaban convencidos de que los grandes simios no podían hablar como los humanos únicamente por algún déficit fonador. Pusieron a prueba su hipótesis enseñando a Koko una versión modificada del lenguaje de signos americano y aseguraron que, durante su vida, la gorila aprendió más de mil señas e incluso la capacidad para construir oraciones.

Pero la fanfarria fue exagerada, como explica el investigador Nikhel Mishra a la periodista Karen Hao en El imperio de la IA: Sam Altman y la carrera para dominar el mundo, el mejor libro que vas a leer sobre la historia reciente de la inteligencia artificial generativa y que Península publicará en español a finales de noviembre.4

“Otros expertos argumentaron que Koko nunca adquirió realmente el lenguaje. Si bien ciertamente era hábil para formar gestos, había poca evidencia de que estuviera haciendo más que lo que otros simios habían hecho en muchos otros experimentos similares: simplemente imitar los gestos de sus cuidadores. Nunca se publicaron datos de las señas de Koko para verificar de forma independiente sus capacidades, solo videos seleccionados de ella mostrándolas. Para muchos observadores, estos episodios revelaron más sobre la psicología humana y nuestra tendencia a proyectar nuestras propias creencias e ideas de intención que sobre la habilidad de Koko. La entrenadora, dice Mishra, estaba asignando un significado donde no lo había”.


Gorilas y loros

Lo que llamamos inteligencia artificial generativa y usamos y abusamos en forma de ChatGPT, Gemini, Claude, Mistral, etc., son sistemas de LLM (Grandes Modelos de Lenguaje, por sus siglas en inglés) que funcionan como la gorila Koko: producen formas convincentes de lenguaje sin comprender. Y nosotros interpretamos intención. Open AI, Google Deep Mind o Anthropic los ceban con enormes montañas de datos, que ordenan y contextualizan gracias a redes neuronales de aprendizaje profundo llamadas transformers, y luego son capaces de regurgitar elegantemente combinados a puro golpe de fuerza estadística gracias a la potencia de esos gigantescos centros de datos cuyos chips han convertido a un antiguo emigrante taiwanés pobre que lavaba platos y jugaba a videojuegos en el CEO de la compañía con mayor capitalización bursátil del mundo.5

Gorilas o loros estocásticos (es decir probabilísticos). Sobre los peligros de los loros estocásticos: ¿pueden los modelos de lenguaje ser demasiado grandes?, así se titulaba un informe experto firmado en 2021 por cuatro investigadoras de primer nivel con la ingeniera experta en IA de Google, Timnit Gebru, a la cabeza.

La imagen que emergía de allí era un modelo de IA terriblemente defectuoso en el que las respuestas repetían datos con ruido añadido y el algoritmo, que no entendía el problema, no podía saber si había repetido datos incorrectos. Tras presentarlo a sus superiores, Gebru fue fulminantemente despedida. ¿Qué cuatro riesgos principales señalaba el informe? Atentos al último:

1. La enorme huella ambiental de escalar modelos y centros de datos.

2. La incorporación y amplificación de lenguaje tóxico y sesgos al raspar internet debido a la demanda extrema de datos.

3. La dificultad de auditar y escrutar esos conjuntos de datos masivos con el fin de verificar lo que realmente contenían.

4. La ilusión de significado: los resultados estadísticos del modelo se estaban volviendo tan buenos que la gente podría confundirlos fácilmente con un lenguaje con significado e intención reales. Esto haría que la gente fuera propensa no solo a creer que el texto era información fáctica, sino también a considerar el modelo como un asesor competente, un confidente de confianza y quizás incluso algo sensible (véanse las aparentemente cada vez más numerosas noticias de suicidios después de terapias psicológicas con ChatGPT y sus hermanos).

O cómo se lo describió a Karen Hao la gran Margaret Mitchell, una de las mayores expertas mundiales en IA, que participó junto a Gebru en el informe sobre los loros estocásticos. “Estoy realmente preocupada por lo que significa para la gente ser afectada cada vez más por la ilusión, cuando esa ilusión se está volviendo tan buena”. Y confirma Emily Bender, profesora de lingüística computacional de la Universidad de Washington: “Ahora tenemos máquinas que pueden generar palabras sin pensar, pero no hemos aprendido a dejar de imaginar una mente detrás de ellas.”

En próximas entradas, hablaremos de otras cuestiones, como, por ejemplo, cómo es posible que hayamos elegido la peor senda de IA de las dos en disputa; aquella que no puede desembocar por congénita deficiencia en la anunciada AGI (Inteligencia Artificial General) que superaría a la humana; aquella que no es capaz de entender lo que dices ni lo que ella misma te dice ni lo hará nunca, que es completamente estúpida e ignorante pero, a la vez, cómo negarlo, muy útil; aquella a la que estamos a punto de legarle nuestra creatividad, nuestros oficios e incluso nuestro apoyo emocional y que, en el tránsito, puede causar una tremenda devastación.

Nos preocupa que las máquinas se vuelvan inteligentes y nos esclavicen (y sin duda los imperios tecnológicos difunden cada tanto, con malicia, esa posibilidad para engrandecer su marca). Pero el problema, más bien, es que las máquinas ya nos están esclavizando y siguen siendo estúpidas.

Daniel Arjona


NOTAS

1 https://elarjonauta.substack.com/p/nunca-hemos-comprado-tantos-libros.
2 https://elarjonauta.substack.com/p/el-hombre-que-no-acepto-su-propia.
3 Michael Crichton murió tempranamente en 2008, a los 66 años, a causa de un linfoma. En sus últimos libros, como Estado de miedo (2004), había dado rienda suelta a una nueva obsesión que veía a los activistas climáticos básicamente como malignos terroristas. Se volvía así a adelantar a su tiempo erigiéndose tal vez como el primer negacionista climático. ¡Qué tecnothriller se habría marcado con la IA! Bueno, de hecho, ya en Presa (2002) la mencionaba.
4 www.amazon.es/El-imperio-IA-carrera-ACTUALIDAD/dp/8411004287.
5 Nos referimos, claro está, a Jen-Hsun Huang, de NVDIA, cuya alucinante historia cuenta muy bien otro libro recién salido en inglés: The Thinking Machine: Jensen Huang and Nvidia, the company shaping the future of AI, de Stephen Witt.

Etiquetado en: AGI ChatGPT gorila Koko inteligencia artificial LLM loro estocástico nuevas tecnologías

Artículos relacionados

3 de agosto de 2025

La trampa de la inteligencia artificial: ver conciencia donde solo hay palabras

12 de octubre de 2025

Una pelota de lata

12 de octubre de 2025

Élisée Reclus: el Antropoceno antes de hora

Navegación de entradas

Anterior Entrada anterior: Una pelota de lata
Siguiente Entrada siguiente: Élisée Reclus: el Antropoceno antes de hora

¡Síguenos en nuestras redes!

  • Correo electrónico
  • Facebook
  • Instagram
  • Twitter
Copyleft. Permitida la reproducción citando al autor e incluyendo un enlace al artículo original. Tema: Themematic por News Base .
domingo octubre 12, 2025