Ilustración: Internal mHALfunction, de Anthony Petrie


Nota.— Este artículo de Nicholas Carr vio la luz en la revista norteamericana The Atlantic, en julio-agosto de 2008. A pesar del tiempo transcurrido, no ha perdido nada de vigencia. Parece, de hecho, cada día más actual: lo que Carr observaba tempranamente en su propia experiencia personal de bloguero precursor, es ahora una realidad global que afecta a una enorme mayoría de la población mundial. El ensayo fue publicado en castellano dentro de su libro La pesadilla tecnológica, Ediciones El Salmón, 2019. Tres lustros después de su redacción original, sigue siendo un texto fundamental para reflexionar sobre el impacto social e intelectual de internet.


“Detente, Dave. Detente, por favor, Dave. ¿Puedes parar, Dave?”. De este modo suplica la supercomputadora Hal al implacable astronauta Dave Bowman en una famosa y –aunque resulte extraño– conmovedora escena hacia el final de la película 2001: Una odisea del espacio, de Stanley Kubrick. Bowman, que se encuentra casi al borde de la muerte en el espacio a causa de un fallo de la máquina, procede con calma y frialdad a desconectar los circuitos de memoria que controlan el cerebro artificial. “Dave, mi mente se apaga”, dice Hal con tristeza. “Lo estoy notando. Lo estoy notando”.

Yo también lo estoy notando. Desde hace unos años tengo la desagradable sensación de que alguien, o algo, está trasteando con mi cerebro, reconfigurando sus conexiones neuronales, reprogramando su memoria. No es que mi mente se esté apagando –al menos eso creo– pero está cambiando. Ya no pienso como solía pensar. Lo noto, sobre todo, cuando leo. Antes me resultaba muy sencillo sumergirme en la lectura de un libro o de un artículo extenso. Solía quedar atrapado por el estilo narrativo o los giros de la trama, y dedicaba largas horas a recorrer vastas extensiones de prosa. Ahora rara vez puedo hacerlo, porque pierdo la concentración al cabo de dos o tres páginas. Me pongo nervioso, pierdo el hilo y comienzo a buscar otra cosa que hacer. Siento como si tuviera siempre que arrastrar a mi errático cerebro de nuevo hasta el texto. La lectura profunda que solía realizar de forma natural se ha convertido en un duro esfuerzo.

Creo que sé lo que está sucediendo. Desde hace más de una década he pasado mucho tiempo online, navegando, buscando y en ocasiones añadiendo contenido en las grandes bases de datos de internet. La web ha sido una bendición para mí como escritor. Investigaciones que antes requerían perder varios días entre las estanterías de hemerotecas y bibliotecas puedo realizarlas hoy en cuestión de minutos. Unas cuantas búsquedas en Google, unos clics rápidos sobre los enlaces, son suficientes para encontrar el dato concreto o la cita exacta que estaba buscando. Incluso cuando no estoy trabajando, es muy probable que me encuentre escudriñando la jungla informativa de la web: leyendo y escribiendo correos electrónicos, revisando titulares y entradas de blogs, viendo vídeos y escuchando podcasts, o simplemente vagando de un enlace a otro. (A diferencia de las notas al pie, con las que a veces se los compara, los enlaces no se limitan a señalar las referencias a otras obras, sino que nos impulsan a consultarlas).

Para mí, y para muchos otros, la red se está convirtiendo en un medio universal, el canal para la mayoría de la información que fluye a través de mis ojos y mis oídos hasta mi cerebro. Las ventajas de tener acceso inmediato a una fuente de información tan increíblemente abundante son muchas, y ya han sido ampliamente descritas y justamente alabadas. Como escribiera Clive Thompson en Wired: “La memoria perfecta del silicio puede ser una gran ayuda para el pensamiento”. Pero esa ayuda tiene un precio. Como señaló en los años sesenta el teórico de los medios de comunicación Marshall McLuhan, los medios no son sólo canales pasivos por los que circula la información, sino que, al tiempo que proveen del material para el pensamiento también modifican nuestra forma de pensar. Y, en mi caso, lo que pare ce estar haciendo la red es debilitar mi capacidad de concentración y reflexión. Ahora mi mente espera aprehender la información de la forma en que llega a través de la web: en un flujo veloz de partículas. Si en el pasado era como un buzo que se sumergía en un mar de palabras, ahora me deslizo por la superficie como si estuviera en una moto de agua.

Y no soy el único. Cuando comento mis problemas con la lectura a amigos y conocidos –gente de letras, la mayoría– muchos dicen tener un problema parecido: cuanto más tiempo pasan en la web, más les cuesta mantener la atención en la lectura de textos largos. Algunos de los blogueros a los que sigo habitualmente también han empezado a comentar dicho fenómeno. Scott Karp, que tiene un blog sobre medios digitales, confesó hace poco que ha dejado de leer libros, y decía: “Estudié Literatura en la universidad, y era un lector voraz, ¿qué me ha pasado?”. En su respuesta especulaba con lo siguiente: “¿Y si estoy leyendo exclusivamente en la web no porque mis hábitos de lectura hayan cambiado, es decir por pura comodidad, sino porque mi forma de pensar ha cambiado?”.

Bruce Friedman, que lleva un blog sobre el uso de los ordenadores en la medicina, también ha descrito cómo el uso de internet ha modificado sus hábitos mentales: “Ahora he perdido completamente la capacidad para leer y comprender un artículo largo tanto en la web como impreso”, escribía a principios de año. Friedman, patólogo en la Facultad de Medicina de la Universidad de Michigan, ahondó en su argumento durante una conversación telefónica que mantuvo conmigo. Su pensamiento, según me comentó, había adoptado la forma de un staccato, queriendo describir la forma en la que captaba rápidamente fragmentos cortos de textos de distintas fuentes online. “Ya no puedo leer algo como Guerra y paz. He perdido la capacidad para hacerlo. Hasta me cuesta asimilar una entrada de blog de más de dos o tres párrafos; apenas la leo por encima”.

Estas anécdotas, por sí solas, no prueban nada. Y todavía serán necesarios estudios neurológicos y experimentos psicológicos de mayor alcance para tener un cuadro definitivo de cómo internet afecta a nuestras capacidades cognitivas. Pero una investigación reciente sobre los hábitos de búsqueda en internet, llevada a cabo por académicos del University College de Londres, reveló que probablemente nos encontremos ante un cambio profundo de las formas en que leemos y pensamos. Dentro del programa quinquenal de investigación, los investigadores analizaron registros informáticos que documentaban el comportamiento de los visitantes de dos conocidas webs de investigación, una de ellas administrada por la Biblioteca Británica y la otra por un consorcio educativo del Reino Unido, que dan acceso a artículos de periódico, libros electrónicos y otras fuentes de información escrita. Los resultados mostraban que los usuarios tenían “una forma de lectura superficial”, saltando de una fuente a otra, y rara vez regresaban a las que ya habían visitado. Normalmente no leían más de una o dos páginas de un artículo o un libro antes de «saltar» a otra página. En algún caso guardaban un artículo largo, pero no existían evidencias de que más tarde lo recuperasen y realmente lo leyesen. Los autores del estudio señalaban: “Parece claro que los usuarios no están leyendo online en el sentido tradicional; por el contrario, hay pruebas de que están surgiendo nuevas formas de ‘lectura’ a medida que crece el ‘poder de exploración’ horizontal entre títulos, páginas de contenido y resúmenes, que buscan conseguir resultados rápidos. Pareciera que acuden a la red, precisamente, para evitar la lectura en el sentido tradicional”.

Gracias a la gran cantidad de texto que se encuentra en internet, por no mencionar la popularidad de los mensajes de texto a través de los teléfonos móviles, es probable que estemos leyendo hoy mucho más que en los años setenta y ochenta, cuando la televisión era nuestro medio de comunicación predilecto. Pero es un tipo de lectura diferente, y detrás de ella hay una nueva forma de pensar; quizá hasta un nuevo sentido de la identidad. Maryanne Wolf, psicóloga del desarrollo de la Universidad de Tufts y autora de Cómo aprendemos a leer. Historia y ciencia del cerebro y la lectura, escribía: “No somos sólo aquello que leemos. Somos también cómo leemos”. A Wolf le preocupa que el estilo de lectura que promueve la red, un estilo en que prima la «eficiencia» y la «inmediatez» por encima de cualquier otra cosa, pueda estar debilitando nuestra capacidad para realizar el tipo de lectura profunda que se desarrolló cuando una tecnología anterior, la imprenta, permitió popularizar las obras largas y complejas. Cuando leemos online, señala Wolf, tendemos a convertirnos en “meros decodificadores de información”. Nuestra capacidad para interpretar textos, para desarrollar las ricas conexiones mentales propiciadas por una lectura profunda y sin distracciones, se ve totalmente desalentada.

Wolf explica que leer no es una habilidad instintiva de los seres humanos. No está inscrita en nuestros genes como el habla. Necesitamos enseñar a nuestra mente cómo traducir los caracteres simbólicos que vemos al lenguaje que comprendemos, y los medios y tecnologías que utilizamos en la práctica y el aprendizaje del arte de la lectura tienen un papel sumamente importante en la forma que adoptan los circuitos neuronales de nuestro cerebro. Los experimentos han demostrado que los lectores de ideogramas, como los chinos, desarrollan un circuito mental para la lectura muy diferente a los lectores que utilizamos un lenguaje basado en el alfabeto.

Las diferencias se extienden a varias zonas del cerebro, incluidas aquellas que gobiernan funciones cognitivas básicas como la memoria y la interpretación de estímulos visuales y auditivos. Por tanto, cabe esperar que los circuitos generados por nuestro uso de internet serán diferentes de aquellos que se generan mediante la lectura de libros y obras impresas.

En algún momento de 1882, Friedrich Nietzsche compró una máquina de escribir, una Malling-Hansen Writing Ball, para ser precisos. Le estaba fallando la vista, y mantener sus ojos centrados en una página se había convertido en algo tortuoso y agotador, lo que le causaba continuos dolores de cabeza, por lo que se había visto forzado a escribir menos y, según temía, pronto tendría que renunciar a seguir haciéndolo. La máquina de escribir lo salvó, al menos por un tiempo. Una vez que aprendió a mecanografiar, era capaz de escribir con los ojos cerrados, utilizando únicamente la punta de sus dedos. Así, las palabras pudieron brotar de nuevo de su mente y plasmarse en la página.

Pero la máquina tuvo un efecto algo más sutil en su obra. Un compositor amigo de Nietzsche notó un cambio en el estilo de sus escritos. Su prosa, ya de por sí concisa, se volvió aún más dura, más telegráfica. “Quizá, mediante ese instrumento, llegues a forjar un nuevo lenguaje”, le escribió su amigo en una carta, observando de paso que, en su propia obra, sus “‘pensamientos’ musicales y el lenguaje a menudo dependen de la calidad de la pluma y el papel que utilizo”.

“Tienes razón”, le contestó Nietzsche, “nuestros medios de escritura influyen en el modo en que se conforman nuestros pensamientos”. Bajo el influjo de la máquina, como escribiera el estudioso alemán Friedrich A. Kittler, la prosa de Nietzsche “pasó de los argumentos a los aforismos, de los pensamientos a los juegos de palabras, de la retórica al estilo telegráfico”.

El cerebro humano es maleable. Solíamos pensar que nuestra estructura mental, las densas conexiones formadas por miles de millones de neuronas, quedaba en gran parte fijada cuando llegamos a la edad adulta. Pero los investigadores del cerebro han descubierto que no es así. James Olds, profesor de neurociencia que dirige el Instituto Krasnow de Estudios Avanzados de la Universidad George Mason, señala que incluso la mente adulta es “sumamente plástica”. Las células nerviosas rompen constantemente viejas conexiones y forman otras nuevas. “El cerebro –según Olds– tiene la capacidad de reprogramarse a sí mismo, alterando su propio funcionamiento”.

Cuando utilizamos lo que el sociólogo Daniel Bell llamara “tecnologías intelectuales” –herramientas que amplían nuestras capacidades mentales en lugar de las físicas– inevitablemente empezamos a adquirir las cualidades de dichas tecnologías. El reloj mecánico, cuyo uso se extendió durante el siglo XIV, es un buen ejemplo. En Técnica y civilización, el historiador y crítico cultural Lewis Mumford describió cómo el reloj “disoció el tiempo de la experiencia humana y ayudó a extender la creencia en un mundo independiente de secuencias matemáticamente mensurables”. El “marco abstracto de la división del tiempo” se convirtió en “la referencia para la acción y el pensamiento”.

El metódico tic-tac del reloj ayudó a crear la mente científica y al hombre de ciencia. Pero también hizo desaparecer algo. Como observara el difunto científico informático del MIT, Joseph Weizenbaum, en su libro de 1976 La frontera entre el ordenador y la mente, la concepción del mundo que surgió tras la generalización del uso de instrumentos para la medición del tiempo “no es sino una versión empobrecida de la más antigua, porque se basa en un rechazo de aquellas experiencias directas que subyacían, y que de hecho constituían, la vieja realidad”. A la hora de decidir cuándo comer, cuándo trabajar, cuándo dormir, cuándo levantarse, dejamos de escuchar nuestros sentidos y comenzamos a obedecer al reloj.

Este proceso de adaptación a las nuevas tecnologías intelectuales se ve reflejado en los cambios producidos en las metáforas que utilizamos para explicarnos a nosotros mismos. Cuando llegó el reloj mecánico, la gente comenzó a pensar que su cerebro funcionaba «como un reloj». Hoy en día, en la era del software, hemos empezado a pensar que funciona «como un ordenador». Pero los cambios, como señala la neurociencia, van mucho más allá de las metáforas. Gracias a la plasticidad de nuestro cerebro, la adaptación tiene lugar también a nivel biológico.

Internet promete tener efectos particularmente relevantes en nuestras funciones cognitivas. En un artículo publicado en 1936, el matemático inglés Alan Turing defendió que una computadora digital, que en aquel tiempo sólo existía en la teoría, podría ser programada para cumplir las funciones de cualquier otro dispositivo de procesamiento de datos. Y eso es lo que estamos constatando hoy en día. Internet, un sistema informático con una capacidad inconmensurable, está subsumiendo muchas de nuestras tecnologías intelectuales. Se ha convertido en nuestro mapa y nuestro reloj, en nuestra imprenta y nuestra máquina de escribir, en nuestra calculadora y nuestro teléfono, en nuestra radio y nuestra televisión.

Cuando la red absorbe un medio, recrea ese medio a su propia imagen y semejanza. Satura su contenido con hiperenlaces, anuncios emergentes y otras fruslerías digitales, y envuelve todo ese contenido con el contenido de otros medios que también ha absorbido. Podemos recibir la notificación de que hemos recibido un nuevo correo electrónico mientras repasamos, por ejemplo, los titulares de la página web de un periódico. La consecuencia es que distrae nuestra atención y entorpece nuestra concentración.

Y la influencia de la red no se limita a la pantalla del ordenador. A medida que la gente se acostumbra al delirante entorno de los medios de comunicación en internet, los medios tradicionales se ven obligados a adaptarse a las nuevas expectativas de la audiencia. Los programas de televisión añaden textos sobreimpresos y anuncios emergentes, y las revistas y periódicos recortan sus artículos, introduciendo breves resúmenes, y llenan sus páginas con fragmentos de información fáciles de hojear. Cuando en marzo de este año el New York Times decidió dedicar la segunda y tercera página de la publicación a los resúmenes de artículos, su director de diseño, Tom Bodkin, explicó que los «fragmentos» proporcionarían a los lectores apurados una «degustación» rápida de las noticias del día, evitándoles emplear el método «menos eficiente» de pasar las páginas y leer los artículos. Los viejos medios de comunicación no tienen más remedio que seguir las reglas que dictan los nuevos.

Nunca antes un sistema de comunicación había tenido un papel tan preponderante en nuestras vidas –o ejercido tanta influencia en nuestros pensamientos– como internet en nuestros días. Sin embargo, a pesar de todo lo que se ha escrito sobre la red, no se ha prestado mucha atención a cómo nos está reprogramando exactamente. La ética intelectual de internet permanece en la sombra.

Casi en la misma época en la que Nietzsche comenzó a usar su máquina de escribir, un joven riguroso llamado Frederick Winslow Taylor introdujo un cronómetro en la fábrica de acero Midvale en Filadelfia e inició una histórica serie de experimentos con el objetivo de mejorar la eficiencia de los operarios de la planta. Con el beneplácito de los propietarios de Midvale, Taylor seleccionó a un grupo de obreros, a los que situó al frente de varias máquinas metalúrgicas, para cronometrar y registrar cada uno de sus movimientos así como las operaciones que realizaban las máquinas. Al fragmentar cada uno de los trabajos en una secuencia de pequeños pasos específicos, y después probar distintas formas de ejecutar cada uno de ellos, Taylor pudo crear un conjunto de instrucciones precisas –un «algoritmo», diríamos hoy en día– al que los obreros debían ajustar su trabajo. Los trabajadores de Midvale, molestos con el nuevo y estricto régimen de trabajo, protestaron al considerar que aquello los convertía en poco más que autómatas, pero la productividad de la fábrica se disparó.

Más de un siglo después de la invención de la máquina a va por, la revolución industrial había encontrado su filosofía y a su filósofo. La rígida coreografía industrial de Taylor –su «sistema», como le gustaba llamarlo– fue adoptado por fabricantes de todo el país y, en poco tiempo, de todo el mundo. Con tal de maximizar la velocidad, la eficiencia y la productividad, los propietarios de las fábricas utilizaron los estudios sobre el tiempo que se empleaba en cada movimiento para organizar el trabajo y diseñar los puestos de sus trabajadores. El objetivo, según lo definió Taylor en su famoso tratado de 1911 Los principios de la administración científica, era identificar y adoptar, para cada tarea, el “mejor método” de trabajo y así promover “la adopción de la ciencia como la regla de oro de las artes mecánicas”. Una vez que se aplicara su sistema a todas las tareas del trabajo manual, aseguraba Taylor a sus seguidores, se produciría una reestructuración no sólo de la industria sino de toda la sociedad, creando así una utopía de eficiencia perfecta. “En el pasado el ser humano era lo primordial –afirmó–; en el futuro lo será el sistema”.

El sistema de Taylor goza aún de gran vigencia; sigue sien do parte fundamental de la ética de la manufactura industrial. Y hoy en día, gracias al poder que ejercen los ingenieros informáticos y los programadores de software sobre nuestra vida intelectual, la ética de Taylor también está empezando a gobernar el reino de nuestra mente. Internet es una máquina diseñada para realizar de forma eficiente y automática el almacenamiento, transmisión y manipulación de información, y sus legiones de programadores intentan encontrar «el mejor método» —el algoritmo perfecto— con el que llevar a cabo cualquier movimiento mental de lo que podríamos describir como «trabajo cognitivo». Las oficinas de Google en Mountain View, California, –el Googleplex– son la catedral de internet, y la religión que se practica dentro de sus muros es el taylorismo. Google, como afirma su director ejecutivo Eric Schmidt, es “una empresa fundada en torno a la ciencia de lo medible”, y dirige sus esfuerzos a “sistematizar todo” lo que hace. Sobre la base de terabytes de datos sobre el comportamiento, recogidos mediante su motor de búsqueda y otras páginas web, Google lleva a cabo miles de experimentos a diario, según el Harvard Business Review, y utiliza los resultados para refinar sus algoritmos e incrementar así el control sobre el modo en que las personas encuentran información y extraen su significado. Lo que Taylor hizo con el trabajo manual, Google lo está haciendo con el trabajo intelectual.

Google ha declarado que su misión es “organizar la información de todo el mundo y volverla universalmente accesible y utilizable”. Quieren desarrollar “el motor de búsqueda perfecto”, que definen como aquel que “entiende exactamente lo que buscas y te ofrece exactamente lo que deseas”. Desde el punto de vista de Google, la información es un tipo de mercancía, un recurso que puede ser explotado y procesado con eficiencia industrial. A cuanta más información podamos «acceder» y cuanto más rápido podamos descifrar su significado, más productivos seremos como pensadores.

¿Dónde está el límite? Sergey Brin y Larry Page, los dos jóvenes superdotados que fundaron Google mientras cursaban sus estudios de doctorado en Ciencias de la Computación en Stanford, suelen expresar su deseo de convertir su motor de búsqueda en una inteligencia artificial, una máquina como HAL que pueda conectarse directamente a nuestros cerebros. “El motor de búsqueda definitivo será tan inteligente como una persona, o más”, aseguró Page en una conferencia hace unos años. “Para nosotros, el trabajo de mejorar las búsquedas es una forma de trabajar en la consecución de la inteligencia artificial”. En una entrevista de 2004 en Newsweek, Brin dijo: “Es evidente que si tuviésemos toda la información del mundo directamente conectada a nuestro cerebro, o a un cerebro artificial que fuese más inteligente que nuestro propio cerebro, estaríamos mucho mejor”. El año pasado, Page afirmó en un congreso científico que Google “en realidad está intentando crear una inteligencia artificial y hacerlo a gran escala”.

Este tipo de ambición es natural, e incluso admirable, para un par de genios de las matemáticas que tienen a su disposición vastas cantidades de dinero y un pequeño ejército de informáticos a su servicio. Como empresa fundamentalmente científica, Google se mueve por el deseo de utilizar la tecnología, en palabras de Eric Schmidt, “para resolver aquellos problemas que nunca han sido resueltos”, y la inteligencia artificial es el mayor de esos problemas. ¿Por qué no habrían de querer Brin y Page ser los primeros en resolverlo?

Aun así, la condescendencia que deja ver cuando afirma que todos “estaríamos mejor” si nuestros cerebros fuesen complementados, o incluso reemplazados, por una inteligencia artificial no deja de ser inquietante, dado que sugiere que la inteligencia es el producto de un proceso mecánico, una serie de pasos específicos que pueden ser divididos, medidos y optimizados. En el mundo de Google, el mundo en el que entramos cuando nos conectamos a internet, hay muy poco lugar para la reflexión matizada. La ambigüedad no es un acicate para el conocimiento sino un error que debe corregirse. El cerebro humano es concebido como un ordenador obsoleto que necesita un procesador más potente y un disco duro con mayor capacidad.

La idea de que nuestra mente debería funcionar como una máquina para procesar información a gran velocidad no sólo es inherente al funcionamiento de internet, sino que es la base fundamental del modelo de negocio imperante en la red. Cuanto más rápido navegamos por la web –cuantos más enlaces consultamos y cuantas más páginas visitamos– más oportunidades tienen Google y otras empresas para recopilar información sobre nosotros y diseñar anuncios personalizados. La mayoría de propietarios de páginas comerciales de internet tiene un gran interés económico en recopilar las migajas de datos que dejamos cuando saltamos de enlace en enlace: cuantas más migajas, mejor. Lo último que querrían estas empresas, por lo tanto, es fomentar la lectura pausada o el pensamiento relajado y concentrado. Nos conducen hacia la distracción en pos de sus propios intereses económicos.

Quizá sea un agorero. Pero al igual que se tiende a celebrar el progreso tecnológico, también existe la tendencia contraria que espera lo peor de cualquier nueva herramienta o máquina. En el Fedro de Platón, Sócrates lamentaba el desarrollo de la escritura. Temía que, a medida que las personas adoptasen la palabra escrita como sustituto para el conocimiento que albergaban en sus mentes, “es olvido lo que producirá […] al descuidar la memoria”. Y dado que serán más propensos “a oír muchas cosas sin aprenderlas, parecerá que tienen muchos conocimientos, siendo, al contrario, en la mayoría de los casos, totalmente ignorantes”. Acabarían “por convertirse en sabios aparentes en lugar de sabios de verdad”. Sócrates no se equivocaba –esa nueva tecnología a menudo tiene los efectos que él temía– pero fue algo corto de vista. No llegó a prever la multitud de formas mediante las que la escritura y la lectura podrían servir para extender la información, difundir nuevas ideas y expandir el conocimiento humano (si bien no la sabiduría).

La invención de la imprenta de Gutenberg, en el siglo XV, desató otro asalto de esta vieja polémica. El humanista italiano Hieronimo Squarciafico temía que la gran cantidad de libros disponibles podría llevar a la pereza intelectual, volviendo a los hombres «menos estudiosos» y debilitando sus mentes. Otros sostenían que los libros y periódicos baratos socavarían la autoridad religiosa, degradarían el trabajo de escribas y eruditos, y difundirían la sedición y el libertinaje. Como observó el profesor de la Universidad de Nueva York, Clay Shirky, “la mayor parte de los argumentos contra la imprenta fueron acertados, incluso premonitorios”. Pero, una vez más, los agoreros fueron incapaces de imaginar las innumerables bondades que traería el mundo de la imprenta.

De modo que sí, deben ser ustedes escépticos respecto a mi escepticismo. Quizá aquellos que tratan a los críticos de internet como ludditas o nostálgicos finalmente tengan razón, y de nuestras mentes hiperactivas y atiborradas de información veremos nacer una edad de oro de descubrimientos intelectuales y sabiduría universal. Por otro lado, la red no es equiparable al alfabeto, y aunque pueda llegar a sustituir a la imprenta, produce algo totalmente distinto. El tipo de lectura profunda que promueve una secuencia de páginas impresas tiene valor no sólo por el conocimiento que adquirimos a partir de las palabras de su autor, sino por la vibración intelectual que esas palabras provoca en nuestra propia mente.

En los espacios silenciosos que se abren a partir de la lectura sostenida y concentrada de un libro, o a partir de cualquier otro acto de contemplación, realizamos nuestras propias asociaciones, nuestras propias inferencias y analogías, forjamos nuestras propias ideas. La lectura profunda, como sostiene Maryanne Wolf, es inseparable del pensamiento profundo. Si perdemos esos espacios silenciosos, o los llenamos de «contenido», estaremos sacrificando algo importante no sólo para el desarrollo de nuestra personalidad sino también de nuestra cultura. En un ensayo reciente, el dramaturgo Richard Foreman describió de forma elocuente lo que está en juego:

“Provengo de la tradición de la cultura occidental, en la cual el ideal (mi ideal) era complejo, denso y parecido a la estructura catedralicia de una personalidad forjada y cultivada: un hombre o una mujer eran portadores de una versión única y construida de manera personal de toda la herencia cultural de Occidente”. Pero ahora, continuaba Foreman, “veo cómo en todo el mundo (incluido yo mismo) se sustituye la densa complejidad interior por un nuevo tipo de personalidad, que se desarrolla bajo la presión de la saturación de información y las tecnologías de lo ‘inmediatamente accesible’”.

A medida que se nos despoja de nuestro “repertorio interior de una densa herencia cultural”, concluía Foreman, corremos el riesgo de convertirnos en “‘individuos-tortita’”: nos expandimos a lo largo y a lo ancho a medida que nos conectamos con una vasta red de información a la que accedemos mediante el simple gesto de pulsar un botón”.

Siento casi obsesión por esa escena de 2001. Lo que la vuelve tan conmovedora y extraña es la respuesta emocional del ordenador a la desarticulación de su mente: su desesperación a medida que sus circuitos se van desconectando uno por uno, sus súplicas infantiles al astronauta –“Lo estoy notando. Lo estoy notando. Tengo miedo”– y su regresión a lo que sólo podemos describir como un estado de inocencia. La profusión de sentimientos de HAL contrasta con la falta de emoción que caracteriza a los personajes humanos de la película, que realizan sus tareas con eficiencia de autómatas. Sus pensamientos y acciones parecen programados, como si siguiesen las rutinas de un algoritmo. En el mundo de 2001, las personas se han convertido en seres tan semejantes a máquinas que el personaje más humano resulta ser una máquina. Esa es la esencia de la oscura profecía de Kubrick: a medida que dependemos más y más de los ordenadores para comprender el mundo, es nuestra propia inteligencia la que se ve reducida a una inteligencia artificial.

Nicholas Carr