InicioInfoDe internet y nuestros patrones de lectura y pensamiento.

De internet y nuestros patrones de lectura y pensamiento.

Info10/3/2010
Un ensayo muy interesante sobre cómo internet altera nuestros patrones de lectura, y por consecuencia, de nuestros pensamientos. Básicamente, hace que leamos las cosas de manera rápida y superficial y desalienta la lectura profunda. También que tendemos a preferir los artículos cortos a los largos, y que vengan con resúmenes. Yo, igual que Bob Patiño cuando quería destruir la televisión, voy a remarcar en negrita algunas partes del texto. Porque sé donde lo estoy publicando, y sé que tal vez con una ojeada los haga interesar lo suficiente como para que lean el resto. "Is google making us stupid?" Por Nicholas Carr “Dave, para. Para, por favor. Para, Dave. ¿Vas a parar, Dave?” Así suplica la supercomputadora HAL al implacable astronauta Dave Bowman en una famosa y fantásticamente conmovedora escena casi al final de 2001: Una odisea del espacio, de Stanley Kubrick. Bowman, tras haber sido enviado a la muerte en el espacio interplanetario por la máquina descompuesta, está tranquila y fríamente desconectando los circuitos de memoria que controlan su “cerebro” artificial. “Dave, estoy perdiendo la mente” —dice HAL, con tristeza— “Me estoy dando cuenta. Lo estoy sintiendo.” Yo también me estoy dando cuenta, lo estoy sintiendo. En los últimos años he tenido la incómoda sensación de que alguien, o algo, ha estado jugueteando con mi cerebro, cambiando el esquema de su circuito neural, reprogramando la memoria. No es que esté perdiendo la mente —hasta donde puedo decir—, pero me está cambiando. No estoy pensando del modo que antes lo hacía. Me doy cuenta sobre todo cuando leo. Antes me era fácil sumergirme en un libro o en un artículo largo. Mi mente quedaba atrapada en la narración o en los giros de los argumentos y pasaba horas paseando por largos tramos de prosa. Ahora casi nunca es así. Ahora mi concentración casi siempre comienza a disiparse después de dos o tres páginas. Me pongo inquieto, pierdo el hilo, comienzo a buscar otra cosa que hacer. La lectura profunda que me venía de modo natural se ha convertido en una lucha. Yo dijo:A mí también me pasa lo mismo estos últimos meses. Creo que sé qué está pasando. Desde hace ya más de una década, he estado pasando mucho tiempo en línea, buscando y navegando y a veces añadiendo a la gran base de datos de Internet. La red ha sido una bendición para mí como escritor. Puedo hacer en minutos la investigación que en un tiempo requería días en salas de la biblioteca o de las publicaciones periódicas. Unas pocas búsquedas en Google, algunos “clics” rápidos en hiperlinks y obtengo el dato revelador o la cita sucinta que andaba buscando. Incluso sin estar trabajando, es muy probable que esté hurgando en la espesura de la información de la Red: leyendo y escribiendo correos, escaneando titulares y blogs, viendo videos y escuchando podcasts o sencillamente saltando de enlace en enlace. (A diferencia de las notas al pie, a las que muchas veces se asimilan, los hiperlinks no sólo señalan obras que guardan relación con el tema, sino que lo lanzan a uno a ellas.) Para mí, como para otros, la Red se está convirtiendo en un medio universal, el conducto de casi toda la información que fluye a mis ojos y oídos y entra en mi mente. Las ventajas de tener acceso inmediato a un almacén tan increíblemente rico de información son muchas y éstas han sido ampliamente descritas y debidamente aplaudidas. Clive Thomson escribió en Wired: “La retención perfecta de la memoria de silicio puede ser una enorme ayuda al pensamiento.” Pero la ayuda tiene un precio. Como señaló el teórico de los medios de difusión Marshall McLuhan en los años sesenta, éstos no son sólo canales pasivos de información. Suministran la materia para el pensamiento, pero también conforman el proceso del pensamiento. Y lo que la Red parece estar haciendo es socavar mi capacidad de concentración y contemplación. Mi mente espera ahora captar la información del modo en que la Red la distribuye: en una corriente de partículas en rápido movimiento. En un tiempo fui un submarinista en el mar de palabras. Ahora me deslizo por la superficie como un tipo en una moto acuática. No soy el único. Cuando les menciono mis problemas con la lectura a amigos y conocidos —la mayoría de ellos hombres de letras— muchos dicen estar experimentando algo similar. Mientras más usan la Red, más tienen que luchar para concentrarse en escritos largos. Algunos de los bloggers que sigo también han comenzado a mencionar el fenómeno. Scout Karp, quien escribe un blog sobre los medios de difusión en línea, confesó hace poco que ha dejado por completo de leer libros. “Hice el master en literatura en la universidad y era un voraz lector de libros —escribió—. ¿Qué ha pasado?” Y especula la respuesta: “¿Y si todo lo que leo es en la red, no se debe a que la forma en que leo haya cambiado, o sea, que esté sólo en busca de comodidad, sino porque mi forma de PENSAR ha cambiado?” Bruce Friedman, quien escribe regularmente blogs sobre el uso de las computadoras en la medicina, también ha descrito la forma en que Internet ha cambiado sus hábitos mentales. “He perdido casi por entero la capacidad de leer y absorber un artículo largo en la red o impreso”, escribió a principios de año. Friedman, patólogo miembro de larga data de la facultad de la Escuela de Medicina de la Universidad de Michigan, amplió su comentario en una conversación telefónica conmigo. Su forma de pensar, dijo, ha tomado una calidad de “staccato”, que refleja la forma en que escanea con rapidez pasajes cortos de texto de muchas fuentes en línea. “Ya no puedo volver a leer La guerra y la paz —admitió—. He perdido la capacidad de hacerlo. Me resulta difícil absorber incluso un blog de más de tres o cuatro párrafos. Lo leo por encima.” Las anécdotas por sí solas no demuestran mucho. Y todavía estamos en espera de experimentos neurológicos y psicológicos a largo plazo que brinden una imagen definitiva de la forma en que el uso de Internet afecta la cognición. Pero un estudio recién publicado de los hábitos de investigación en línea, realizado por académicos del University College de Londres, indican que muy bien podemos estar en medio de un cambio radical en la forma en que leemos y pensamos. Como parte de un programa de investigación de cinco años, los estudiosos examinaron registros de computación que documentan el comportamiento de visitantes de dos populares sitios de investigación, uno operado por la Biblioteca Británica y el otro por un consorcio educacional del Reino Unido, que brindan acceso a artículos de revistas, libros electrónicos y otras fuentes de información escrita. Encontraron que las personas que usan los sitios exhibían “una forma de actividad como de quien está echando una ojeada”, en que saltaban de una fuente a otra y pocas veces regresaban a una que ya hubieran visitado. Típicamente leían sólo una o dos páginas de un artículo o libro antes de “saltar” a otro sitio. A veces salvaban un artículo largo, pero no hay pruebas de que regresaran a él y lo leyeran de verdad. Los autores del estudio informan: Es evidente que los usuarios no leen en línea en el sentido tradicional; de hecho hay indicios de que están surgiendo nuevas formas de “leer” según los usuarios navegan horizontalmente por los títulos, los índices y los resúmenes buscando ganar rapidez. Casi parece que van en línea para evitar leer en el sentido tradicional. Gracias a la ubicuidad del texto en Internet, por no mencionar la popularidad de los mensajes de texto en los teléfonos celulares, pudiéramos estar leyendo más hoy que en los años setenta u ochenta, cuando la televisión era nuestro medio preferido. Pero es un tipo distinto de lectura y detrás de él hay un tipo distinto de pensamiento… tal vez incluso un nuevo sentido del ser. “No sólo somos lo que leemos —dice Maryanne Wolf, psicóloga del desarrollo de la Universidad de Tufts y autora de Proust and the Squid: The Story and Science of the Reading Brain1 —. Somos como leemos.” A Woolf le preocupa que el estilo de lectura que promueve la Red, un estilo que coloca la “eficiencia” y la “inmediatez” por encima de todo lo demás, esté debilitando tal vez nuestra capacidad para el tipo de lectura profunda que emergió cuando una tecnología anterior, la prensa impresa, hizo comunes y corrientes las largas y complejas obras de prosa. Cuando leemos en línea, dice, tendemos a convertirnos en “meros descodificadores de información”. Nuestra capacidad de interpretar textos, de hacer las ricas conexiones mentales que se forman cuando leemos con profundidad y sin distracción, sigue en gran medida desconectada. Leer, explica Wolf, no es una habilidad instintiva de los seres humanos. No está grabada en nuestros genes del modo que lo está el discurso. Tenemos que enseñar a nuestras mentes a traducir los caracteres simbólicos que vemos al lenguaje que comprendemos. Y los demás medios u otras tecnologías que usamos al aprender y practicar el arte de la lectura desempeñan un papel importante en la conformación de los circuitos neurales que se encuentran en el interior de nuestros cerebros. Los experimentos demuestran que los lectores de ideogramas, como los chinos, desarrollan un sistema de circuitos mentales para la lectura muy diferente del sistema que se encuentra en quienes, como nosotros, cuya lengua escrita emplea el alfabeto. Las variaciones se extienden a lo largo de muchas regiones del cerebro, incluidas las que rigen funciones cognitivas tan esenciales como la memoria y la interpretación de estímulos visuales y auditivos. Podemos también prever que los circuitos tejidos por nuestro uso de la Red sean distintos a los tejidos por nuestra lectura de libros y otras obras impresas. En algún momento de 1882, Friedrich Nietzsche compró una máquina de escribir: una Malling-Hansen Writing Bal, para mayor precisión. Le fallaba la vista y mantener los ojos enfocados en la página se le había hecho agotador y doloroso y muchas veces le provocaba fuertes dolores de cabeza. Se había visto obligado a reducir su escritura y temía que pronto le sería necesario abandonarla. La máquina de escribir lo rescató, al menos de momento. Una vez dominada la mecanografía al tacto, podía escribir con los ojos cerrados, usando sólo las yemas de los dedos. Las palabras podían fluir de nuevo de su mente a la página. Pero la máquina tuvo un efecto más sutil sobre su obra. Uno de los amigos de Nietzsche, un compositor, observó un cambio en su estilo de escribir. Su prosa, ya de por sí tersa, se había hecho más comprimida, más telegráfica. “Puede que con este instrumento incluso te adaptes a nuevos giros idiomáticos —le escribió el amigo en una carta observando que, en su propia obra, sus “«ideas» en música y lenguaje solían depender de la calidad de la pluma y el papel”. —Tienes razón —repuso Nietzsche—, nuestro equipo de escribir participa en la formación de nuestros pensamientos. Bajo el influjo de la máquina, escribe el académico alemán de los medios de difusión Friedrich A. Kittler, la prosa de Nietzsche “cambió de argumentos a aforismos, de pensamientos a juegos de palabras, del estilo retórico al telegráfico.” El cerebro humano es casi infinitamente maleable. La gente pensaba que nuestro engranaje mental —las densas conexiones que se forman entre los 100 billones de neuronas que se encuentran dentro de nuestros cráneos— estaba en gran medida fijado para el momento en que alcanzábamos la edad adulta. Pero los investigadores del cerebro han descubierto que no es así. James Olds, profesor de neurociencia que dirige el Instituto Krasnow de Estudios Avanzados en la Universidad George Mason, afirma que incluso la mente adulta “es muy plástica”. Las neuronas normalmente rompen conexiones viejas y forman nuevas. Según Olds, “el cerebro tiene la capacidad de reprogramarse a la carrera, cambiando la forma en que funciona.” Según usamos lo que el sociólogo Daniel Bell ha llamado nuestras “tecnologías individuales” —los instrumentos que amplían nuestras capacidades mentales más bien que físicas— inevitablemente comenzamos a adoptar las cualidades de esas tecnologías. El reloj mecánico, que comenzó a usarse corrientemente en el siglo XIV, brinda un ejemplo convincente. En Technics and Civilization (Técnicas y civilización), el historiador y crítico cultural Lewis Mumford describió la forma en que el reloj desasoció el tiempo de los sucesos humanos y contribuyó a crear la idea de un mundo independiente de secuencias matemáticamente mensurables. El “marco abstracto de tiempo dividido” se convirtió en “el punto de referencia de la acción y el pensamiento”. El tictac metódico del reloj contribuyó al surgimiento de la mente científica y del científico, pero también se llevó algo. Como observó el difunto científico de computación del MIT Joseph Weizenbaum en su libro de 1976, Computer Power and Human Reason: From Judgment to Calculation (El poder de la computadora y la razón humana: del juicio al cálculo), la concepción del mundo que surgió del empleo extendido de los instrumentos de llevar el tiempo “sigue siendo una versión empobrecida del antiguo, porque descansa en un rechazo de las experiencias directas que formaban la base de la antigua realidad y, de hecho, la constituían.” Al decidir cuándo comer, trabajar, dormir, levantarse, dejamos de escuchar a nuestros sentidos y comenzamos a obedecer el reloj. El proceso de adaptación a nuevas tecnologías intelectuales se refleja en las cambiantes metáforas que usamos para explicarnos a nosotros mismos. Cuando llegó el reloj mecánico, las personas comenzaron a pensar que sus cerebros operaban “como mecanismos de relojería”. Hoy, en la era del software, hemos llegado a pensar que operan “como computadoras“. Pero los cambios, nos dicen la neurociencia, son mucho más profundos que la metáfora. Gracias a la plasticidad de nuestro cerebro, la adaptación se produce también en el nivel biológico. Internet promete tener efectos de especial alcance en la cognición. En un trabajo publicado en 1936, el matemático británico Alan Turing demostró que era posible programar una computadora digital, que en aquella época existía sólo como máquina teórica, para que realizara la función de cualquier otro dispositivo de procesamiento de información. Eso es lo que estamos presenciando hoy. Internet, un sistema de computación inconmensurablemente poderoso, está subsumiendo la mayoría de nuestras otras tecnologías intelectuales. Se está convirtiendo en nuestro mapa y nuestro reloj, nuestra imprenta y nuestra máquina de escribir, nuestra calculadora y nuestro teléfono, nuestro radio y nuestra televisión. Cuando la Red absorbe un medio, ese medio se recrea a la imagen de la Red. Inyecta el contenido del medio con hiperlinks, anuncios de parpadeo y otras baratijas digitales y rodea el contenido con el contenido de todos los demás medios que ha absorbido. Un mensaje nuevo de correos, por ejemplo, puede anunciar su llegada mientras estamos revisando los últimos titulares de un sitio de prensa. El resultado es dispersar nuestra atención y difundir nuestra concentración. Tampoco termina la influencia de la Red en los márgenes de la pantalla de la computadora. Al irse sintonizando las mentes de las personas al enloquecido conjunto de medios de Internet, los medios tradicionales deben adaptarse a las nuevas expectativas del público. Los programas de televisión añaden textos que se deslizan por la pantalla y anuncios que surgen de repente; revistas y diarios acortan sus artículos, introducen resúmenes en cápsulas y rellenan sus páginas con fragmentos de información fáciles de rastrear. Cuando en marzo de este año The New York Times decidió dedicar la segunda y tercera páginas de cada edición a resúmenes de artículos, su director de diseño Tom Bodkin explicó que los “atajos” darían a los lectores atribulados un “tanteo” rápido de las noticias del día ahorrándoles el método “menos eficiente” de volver las páginas y leer los artículos. Los medios antiguos tienen poca opción más que jugar con las reglas de los medios nuevos. Nunca ha desempeñado un sistema de comunicación tantos papeles en nuestras vidas —o ejercido una influencia tan amplia sobre nuestros pensamientos— como hace hoy Internet. Pero, a pesar de todo lo que se ha escrito sobre la Red, se ha pensado poco en cómo exactamente nos está reprogramando. La ética intelectual de la Red sigue siendo oscura. Aproximadamente por el tiempo en que Nietzsche comenzó a usar su máquina de escribir, un joven serio llamado Frederick Winslow Taylor fue con un cronómetro a la planta Midvale Steel de Filadelfia y comenzó una histórica serie de experimentos destinada a mejorar la eficiencia de sus maquinistas. Con aprobación de los propietarios de Midvale, tomó a un grupo de obreros, los puso a trabajar en varias máquinas de elaborado de metales y registró y midió el tiempo de cada uno de sus movimientos así como las operaciones de las máquinas. Dividiendo cada tarea en una secuencia de pequeños pasos discretos y luego ensayando formas distintas de realizar cada una, Taylor creó un conjunto de instrucciones precisas —un “algoritmo” pudiéramos decir hoy— de cómo debía trabajar cada obrero. Los empleados de Midvale rezongaron sobre el estricto régimen nuevo, diciendo que los convertía en poco más que autómatas, pero la productividad de la fábrica se disparó. Más de cien años después de la invención del motor de vapor, la Revolución Industrial al fin había encontrado sus bases filosóficas y su filósofo. La apretada coreografía industrial de Taylor —su “sistema”, como le agradaba llamarlo— fue aceptada por fabricantes de todo el país y, con el tiempo, de todo el mundo. Procurando la mayor rapidez, eficiencia y producción, los dueños de fábricas utilizaban los estudios de tiempo y movimiento para organizar el trabajo y configurar las tareas de sus trabajadores. El objetivo, como definió Taylor en su célebre tratado de 1911, The Principles of Scientific Management (Los principios de la gestión moderna), era identificar y adoptar, para cada tarea, “un mejor método” de trabajo y con ello efectuar “la sustitución gradual de la ciencia por la regla empírica en todas las artes mecánicas“. Una vez que se aplicara este sistema en todos los actos de trabajo manual, aseguró Taylor a sus seguidores, brindaría una reestructuración no sólo de la industria, sino de la sociedad, creando la utopía de la eficiencia perfecta. “En el pasado el hombre había sido lo primero —declaró—, en el futuro lo será el sistema.” El sistema de Taylor sigue en gran medida con nosotros: sigue siendo la ética de la manufactura industrial. Y ahora, gracias al creciente poder que los ingenieros en computación y codificadores de software ejercen sobre nuestras vidas intelectuales, la ética de Taylor comienza a regir también la esfera de la mente. Internet es una máquina diseñada para la recolección, transmisión y manipulación automatizada de información y sus legiones de programadores están concentrados en encontrar el “mejor método único” —el algoritmo perfecto— para llevar a cabo cada movimiento mental de lo que hemos llegado a describir como “trabajo de conocimiento”. La sede de Google, en Moutain View, California —el Googleplex— es el santuario supremo de Internet y la religión que se practica dentro de sus paredes es el taylorismo. Google, al decir de su ejecutivo principal, Eric Schmidt, es “una compañía fundada en torno a la ciencia de la medición” y se esfuerza en “sistematizar todo” lo que hace. Según el Harvard Business Review, haciendo uso de los terabytes de datos de conducta que recoge mediante su motor de búsqueda y otros sitios, realiza miles de experimentos diarios y utiliza los resultados para refinar los algoritmos que controlan cada vez más la forma en que las personas encuentran información y extraen significado de ella. Lo que Taylor hizo para el trabajo manual, Google lo está haciendo para el trabajo mental. La compañía ha declarado que su misión es “organizar la información mundial y hacerla universalmente accesible y útil”. Procura desarrollar “el motor de búsqueda perfecto” al que define como algo que “entiende exactamente lo que uno quiere decir y le devuelve exactamente lo que desea”. Al entender de Google, la información es un tipo de producto, un recurso utilitario que puede extraerse y procesarse con eficiencia industrial. Mientras más sean las piezas de información a las que uno pueda “acceder” y mientras con mayor rapidez podamos extraer lo esencial de ellas, más productivos nos hacemos como pensadores. ¿Dónde termina esto? Sergey Brin y Larry Page, los dotados jóvenes que fundaron Google cuando hacían su doctorado en ciencias de computación en Stanford, hablan con frecuencia de su deseo de convertir su motor de búsqueda en una inteligencia artificial, una máquina al estilo de HAL que sea posible conectar directamente a nuestros cerebros. “El motor de búsqueda supremo es tan inteligente como las personas… o más —afirmó Page hace unos años en un discurso—. Para nosotros, trabajar en búsqueda es una forma de trabajar en inteligencia artificial.” En una entrevista concedida a Newsweek en 2004, Brin comentó: “No hay dudas de que si uno tuviera toda la información del mundo unida directamente al cerebro, o un cerebro artificial que fuera más listo que el propio, estaría uno mejor.” El año pasado Page dijo en una convención de científicos que Google “en realidad trata de construir una inteligencia artificial y de hacerlo en gran escala”. Una ambición de este tipo es natural, incluso admirable, para un par de genios matemáticos con vastas cantidades de dinero a su disposición y un pequeño ejército de científicos de computación en su empleo. Google, una empresa fundamentalmente científica, está motivada por un deseo de usar la tecnología, en palabras de Eric Schmidt, “para solucionar problemas que nunca antes se han solucionado” y la inteligencia artificial es el problema más difícil que hay. ¿Por qué no habrían de ser Brin y Page quienes lo resolvieran? De todos modos, su suposición fácil de que estaríamos “mucho mejor” si una inteligencia artificial complementara, o incluso sustituyera, nuestros cerebros resulta inquietante. Ésta indica una creencia en que la inteligencia es producto de un proceso mecánico, una serie de pasos discretos que es posible aislar, medir, optimizar. En el mundo de Google, el mundo en que entramos al entrar en línea, hay poco espacio para la falta de claridad de la contemplación. La ambigüedad no es una apertura para la visión, sino una falla que debe arreglarse. El cerebro humano es sólo una computadora anticuada que necesita un procesador más rápido y un disco duro mayor. La idea de que nuestras mentes deben operar como máquinas de procesamiento de datos de alta velocidad no sólo está incorporada al funcionamiento de Internet, sino que es también el modelo comercial reinante de la red. Mientras con mayor rapidez naveguemos por la Red —mientras más enlaces podamos cliquear y más páginas veamos— más oportunidades ganan Google y otras empresas de recopilar información sobre nosotros y alimentarnos anuncios. La mayoría de los propietarios de Internet comercial tienen interés financiero en recopilar los mendrugos de datos que dejamos atrás cuando revoloteamos de enlace en enlace… mientras más mendrugos, mejor. Lo último que desean estas empresas es fomentar la lectura pausada o el pensamiento concentrado, lento. Es interés económico suyo llevarnos a la distracción. Puede que yo sea sólo una persona que se preocupa más de lo debido. Del mismo modo que existe una tendencia a glorificar el avance tecnológico, existe una tendencia opuesta a esperar lo peor de todo instrumento o máquina nueva. En el Fedro de Platón, Sócrates se lamentaba del desarrollo de la escritura. Temía que, según las personas comenzaran a confiar en la palabra escrita como sustituto del conocimiento que antes llevaban dentro de las cabezas, en palabras de uno de los personajes del diálogo, “dejaran de ejercitar su memoria y se hicieran olvidadizas”. Y como podrían “recibir una cantidad de información sin instrucción adecuada”, se les “considerara muy conocedores cuando la mayoría es bien ignorante”. Estarían “llenas de la presunción de sabiduría en lugar de verdadera sabiduría”. Sócrates no se equivocaba —la nueva tecnología muchas veces tuvo los efectos que temió—, pero fue miope. No podía prever las muchas formas en que la escritura y la lectura servirían para extender la información, estimular ideas nuevas y expandir el conocimiento (cuando no la sabiduría) humana. La llegada de la imprenta de Gutenberg en el siglo XV provocó otra ronda de rechinamiento de dientes. Al humanista italiano Hieronimo Squarciafico le preocupaba que a disponibilidad fácil de los libros condujera a pereza intelectual, haciendo a los hombres “menos estudiosos” y debilitando sus mentes. Otros aducían que los libros y publicaciones impresas baratas socavarían la autoridad religiosa, degradarían el trabajo de eruditos y escribas y extenderían la sedición y el libertinaje. Como observa el profesor de la Universidad de Nueva York Clay Shirky: “La mayoría de los argumentos que se opusieron a la imprenta fueron correctos, incluso proféticos.” Pero, de nuevo, los agoreros no fueron capaces de imaginar la miríada de bendiciones que brindaría la palabra impresa. De modo que sí, deben mostrarse escépticos hacia mi escepticismo. Puede que aquellos que descarten a quienes critican Internet por considerarlos luditas o nostalgistas tengan la razón y de nuestras mentes hiperactivas, alimentadas de datos, surja una era dorada de descubrimiento intelectual y sabiduría universal. Pero, de nuevo, la Red no es el alfabeto y aunque pueda sustituir a la imprenta produce algo por completo diferente. El tipo de lectura profunda que promueve una secuencia de páginas impresas es valiosa no sólo por el conocimiento que adquirimos de las palabras del autor, sino por las vibraciones intelectuales que esas palabras desencadenan en nuestras propias mentes. En los espacios de calma abiertos por la lectura sostenida, sin distracción, de un libro o, si a eso vamos, por cualquier otro acto de contemplación, realizamos nuestras asociaciones, trazamos nuestras propias inferencias y analogías, promovemos nuestras propias ideas. La lectura profunda, como afirma Maryanne Wolf, es indistinguible del pensamiento profundo. Si perdemos esos espacios de quietud o los llenamos de “contenido”, sacrificaremos algo importante no sólo de nuestro propio ser, sino de nuestra cultura. En un ensayo reciente, el dramaturgo Richard Foreman describió con elocuencia lo que está en juego: “Procedo de una tradición de cultura occidental en que el ideal (mi ideal) era la estructura compleja, densa, como una catedral de la personalidad de alta educación y expresión, el hombre o mujer que llevaba dentro de sí una versión individualmente construida y singular del patrimonio completo de Occidente. [Pero ahora] veo dentro de todos nosotros (yo incluido) la sustitución de la compleja densidad interna por un nuevo tipo de ser que evoluciona bajo la presión de la sobrecarga de información y la tecnología de lo “instantáneamente disponible”. Según se nos drena de nuestro “repertorio interno de denso patrimonio cultural”, concluyó Foreman, nos arriesgamos a convertirnos en “gente tan extendida y fina como una crepa según nos conectamos con la vasta red de información a la que se accede tan sólo tocando un botón.” Me persigue esa escena de 2001. Lo que la hace tan conmovedora, y tan extraña, es la respuesta emocional de la computadora al desmonte de su mente: su desesperación cuando se va oscureciendo un circuito tras otro, su súplica infantil al astronauta —“Lo estoy sintiendo. Lo estoy sintiendo. Tengo miedo”— y su reversión final a lo que sólo puede recibir el nombre de estado de inocencia. La emanación de sentimientos de HAL contrasta con la impasibilidad que caracteriza a las figuras humanas del film, que hacen lo que tienen que hacer con eficiencia casi robótica. Sus pensamientos y acciones parecen preparados de antemano, como si siguieran los pasos de un algoritmo. En el mundo de 2001, las personas se han hecho tan similares a máquinas que el carácter más humano resulta ser la máquina. Esa es la esencia de la oscura profecía de Kubrick: según confiemos en las computadoras para mediar nuestra comprensión del mundo es nuestra propia inteligencia la que se aplana hasta convertirse en inteligencia artificial. Yo dijo:Yo no estoy de acuerdo con este último párrafo, y en cierta medida se contradice al escribir sobre la "plasticidad del cerebro". Siempre podemos recuperar la lectura profunda, y nuestro cerebro se va a "reacomodar" FUENTE Una lectura sobre como podría evolucionar la Inteligencia Artificial y complementarse con la inteligencia humana. Extracto del libro "Las amenazas de nuestro mundo" de Isaac Asimov. A medida que los ordenadores y su «inteligencia artificial» asu¬man una mayor parte de las tareas rutinarias mentales del mundo, y después, quizá también, de las tareas mentales no tan rutinarias ¿podrán las mentes de los seres humanos deteriorarse por falta de uso? ¿Pasa¬remos a depender de las máquinas, y así, cuando no tengamos la inteligencia que permita utilizarlas adecuadamente, se hundirá nuestra especie degenerada y con ella la civilización? Con este mismo problema e iguales temores, debió de enfrentarse la Humanidad en épocas pasadas de su historia. Por ejemplo, es fácil imaginar el desprecio de los constructores primitivos cuando empezó a usarse el equivalente de la yarda de medir. ¿Degeneraría para siempre la ojeada hábil y el juicio práctico del arquitecto experimentado cuando cualquier necio podía decidir qué longitud de madera o de piedra encajaría en algún lugar, simplemente con la lectura de unos números en una vara? Y seguramente los antiguos vates debieron horrorizarse ante la invención de la escritura, un código de marcas que eliminaba el recurrir necesariamente a la memoria. Un muchacho de diez años que hubiese aprendido a leer podía recitar La Ilíada, aunque nunca la hubiese oído mencionar, simplemente traduciendo esas marcas. ¡Qué degeneración para la mente! Sin embargo, ni el criterio ni la memoria quedaron destruidas por la ayuda inanimada que recibían. Es verdad que hoy día no es fácil encontrar a nadie que posea una memoria tan buena como para recitar largos poemas épicos. Pero, ¿quién lo necesita? Si nuestros talentos han dejado de dar muestras de proezas que ya nadie necesita demos¬trar, ¿no superan las ganancias ventajosamente a las pérdidas? ¿Podrían el Taj Mahal o el Golden Gate Bridge haberse construido a ojo? ¿Cuántas personas conocerían las obras de Shakespeare o las novelas de Tolstoi si hubieran tenido que depender de alguien que las conociera de memoria y estuviese dispuesto a recitarlas, suponiendo, además, que hubiesen podido ser creadas sin la ayuda de la escritura? Cuando la Revolución industrial aportó la fuerza del vapor y más tarde la electricidad, grandes colaboradores de las tareas físicas de la Humanidad, ¿se hicieron fláccidos los músculos humanos como resul¬tado de esa ayuda? Las proezas en los campos de deporte y en los gimnasios demuestran que no es así. Hasta la persona que trabaja en una oficina de la ciudad puede mantenerse en forma corriendo, jugando al tenis, haciendo gimnasia, compensando voluntariamente el ejercicio que ya no le era imprescindible realizar por necesidades apremiantes del trabajo. Con los ordenadores podría ocurrir lo mismo. Ellos se encargarían de los trabajos rutinarios, cálculos aburridos, archivo, localización, ficheros, etc., dejando libres nuestras mentes para tareas más creati¬vas, podríamos construir Taj Mahales en lugar de chozas de barro. Naturalmente, con esto se afirma que la función de los ordena¬dores será siempre rutinaria y repetitiva. Pero, ¿y si los ordenadores continuaran desarrollándose infinitamente y nos siguieran hasta el último baluarte de nuestras mentes? ¿Qué sucedería si también los ordenadores pudieran construir Taj Mahales, escribir sinfonías, y con¬cebir nuevas y grandes generalizaciones científicas? ¿Qué ocurriría si aprendieran a imitar todas las habilidades mentales de los seres humanos? De hecho, ¿qué sucedería si los ordenadores pudieran ser utilizados para actuar como cerebros de robots, la analogía artificial de los seres humanos, haciendo todo lo que los hombres pueden hacer, pero construidos con materiales más fuertes y duraderos, más capaces de soportar los embates del medio ambiente? ¿No quedaría anticuada la Humanidad? ¿No podrían «imponerse» los ordenadores? ¿No podría producirse una catástrofe de cuarta clase (no simplemente de quinta) que elimina a los seres humanos dejando detrás de ellos a los herederos que ellos mismos han creado? Si consideramos esta posibilidad, cabe también hacer una pregunta cínica: ¿por qué no? La historia de la evolución de la vida es la historia de la lenta alteración de las especies, o de la sustitución corporal de una especie por otra, enteramente distinta, cuando ese cambio o sustitución encaja mejor en un determinado ambiente. Esa historia lar¬ga y cambiante, finalmente alcanzó al Homo sapiens, hace unos pocos centenares de años, pero, ¿por qué había de ser ése el paso final? Ahora que nosotros estamos aquí, ¿por qué hemos de creer que la obra ha terminado? De hecho, si estuviera en nuestra mano retroceder y contemplar el camino complicado de la evolución, un mundo detrás de otro, nos podría parecer que muy lentamente, por medio de pruebas y errores, aciertos y fracasos, la vida fue evolucionando hasta que finalmente surgió una especie con suficiente inteligencia para hacerse cargo y dirigir el proceso de la evolución. Podríamos pensar que únicamente entonces, cuando la evolución empezó a progresar en realidad como una inteligencia artificial, mucho mejor que lo que se había conocido hasta aquel momento, empezó verdaderamente a ser. En ese caso la sustitución de la Humanidad por ordenadores avanzados, sería un fenómeno natural que objetivamente tendría que aplaudirse, como nosotros aplaudimos la sustitución de los reptiles por los mamíferos, y sólo podríamos oponernos por motivaciones de amor propio, y por razonamientos esencialmente frívolos e inadecuados. De hecho, si todavía quisiéramos ser más cínicos, ¿no podríamos afirmar que la sustitución de la Humanidad no sólo no es algo malo, sino que sería positivamente una cosa buena? En los últimos capítulos he supuesto que la Humanidad adoptará medidas sanas para desterrar la guerra, limitar la población y estable¬cer un orden social humano, pero, ¿lo hará? A uno le gustaría pensar que sí, pero la historia de la Humanidad no es exactamente animadora al respecto. ¿Que sucederá si los seres humanos no dejan de sospechar eternamente, y no detienen la violencia de unos contra otros? ¿Qué sucederá si no ponen límite al crecimiento demográfico? ¿Qué sucederá si no se encuentra un medio para que la sociedad esté regida por el sentido común? En ese caso, ¿cómo podremos evitar la destrucción de la civilización y hasta de la propia Humanidad? Quizá la única salvación está precisamente en la sustitución de una especie que está casi al borde del abismo, por otra que quizá lo haga mejor. Desde ese punto de vista, nuestro temor no habría de ser que la Humanidad fuese remplazada por los ordenadores, sino más bien que la Humanidad no pueda progresar suficientemente y con la rapidez necesaria, en cuanto a ordenadores, para poder preparar a unos herederos dispuestos a tomar posesión cuando llegue el momento de la destrucción inevitable de la especie humana. Sin embargo, quizá los seres humanos resolverán los problemas actuales y durante el próximo siglo crearán otra sociedad más sensata, basada en la paz, la colaboración y en un avance tecnológico más cuerdo. Avance que podría hacerse con la ayuda de los ordenadores. A pesar del éxito humano, ¿podría ser suplantada la Humanidad por las cosas que ella misma ha creado? ¿No representaría esto una autén¬tica catástrofe? Cabe aquí preguntarse qué es lo que queremos decir al referirnos a una inteligencia superior. Es demasiado simplista comparar cualidades como si estuviéramos midiendo con una regla. Estamos acostumbrados a comparaciones unidimensionales y comprendemos perfectamente lo que queremos decir al explicar que una longitud es superior a otra, una masa mayor que otra, o una duración más larga que otra. Y nos acostumbramos a suponer que todas las cosas pueden ser comparadas con tan poca sutileza. Por ejemplo, una cebra puede llegar a un punto distante con mayor rapidez que una abeja, si ambas salen del mismo lugar a la misma hora. Desde ese punto de vista, parece justificarse que la cebra es mucho más rápida que la abeja. Sin embargo, una abeja es mucho más pequeña que una cebra, y, a diferencia de la cebra, es capaz de volar. Ambas diferencias son importantes al referirse a esa «mayor rapidez». Una abeja puede salir volando de una zanja de la que la cebra no puede salir; puede pasar a través de los barrotes de una jaula que tiene prisionera a la cebra. ¿Cuál de ellas es ahora más veloz? Si A sobre¬pasa B en una cualidad, B puede sobrepasar a A en otra. A medida que las condiciones cambian, una cualidad o la otra asumen la mayor importancia. Un ser humano dentro de un avión vuela más rápidamente que un pájaro, pero no puede volar tan lentamente como un pájaro, y algunas veces la lentitud puede ser necesaria para sobrevivir. Un ser humano en un helicóptero puede volar con tanta lentitud como un pájaro, pero no tan silenciosamente como éste, y algunas veces el silencio es necesario para sobrevivir. En resumen, la supervivencia requiere un com¬plejo de características y ninguna especie queda sustituida por otra solamente por una característica, aunque se trate de la inteligencia. A menudo lo comprobamos en los asuntos humanos. En el momento de una crisis, no es necesariamente la persona con el más alto coefi¬ciente de inteligencia la ganadora. Puede ser la persona que posee mayor decisión, o mayor fuerza, o mayor capacidad de resistencia, o mayor riqueza, o mayor influencia. La inteligencia es importante, sin duda alguna, pero no lo es todo. Además, la inteligencia no es una cualidad que se defina sencillamente; se presenta en diversas variedades. El profesor con una gran experiencia y súper erudito, que parece un niño en todas las otras cues¬tiones que no entran en su especialidad, es una figura estereotipada del folklore moderno. No nos sorprendería en lo más mínimo el espectáculo de un astuto hombre de negocios, con suficiente inteligencia para dirigir una organización de varios miles de millones de dólares con mano firme y segura, y, sin embargo, incapaz de aprender a hablar correcta¬mente. ¿Cómo podemos, por tanto, comparar la inteligencia humana y la inteligencia del ordenador, y qué queremos decir cuando nos referi¬mos a inteligencia «superior»? En este momento, el ordenador podría llevar a cabo trucos mentales que serían imposibles de realizar para un ser humano; sin embargo, eso no nos impulsa a decir que un ordenador es más inteli¬gente que nosotros. De hecho, no estamos dispuestos a admitir que un ordenador posea inteligencia alguna. Recordemos también, que el desarrollo de la inteligencia de los seres humanos, y de los ordenadores, recorre diferentes caminos: es conducida, y así ha sido siempre, por mecanismos distintos. El cerebro humano evolucionó a través de aciertos y fracasos, mutaciones casuales, utilizando cambios químicos sutiles, y con un impulso movido por la selección natural y por la necesidad de sobrevivir en un mundo determinado con sus cualidades y peligros. El cerebro del ordenador evoluciona por medio de un diseño deliberado fruto de una cuidadosa reflexión humana, utilizando cambios eléctricos sutiles y con un impulso movido por el avance tecnológico y la necesidad de servir determinados requerimientos humanos. Sería muy extraño, después de haber tomado dos caminos tan diferentes, que los cerebros y los ordenadores acabaran siendo tan similares que uno de ellos pudiera ser calificado de inequívocamente superior en inteligencia al otro. Es mucho más probable que, aunque los dos son igualmente inteligentes, considerados en conjunto, las propiedades de su inteligencia fuesen tan distintas en ambos que no hubiese comparación posible. Los ordenadores serían más adecuados para ciertas actividades, y lo mismo ocurriría con el cerebro humano. Lo que sería especialmente cierto si se utilizara deliberadamente la manipulación de la ciencia genética para mejorar el cerebro humano, precisamente en aquellos aspectos en los que el ordenador es débil. Sería conveniente mantener a ambos, ordenadores y cerebro humano, especializados en diferentes direcciones, puesto que una duplicación de sus facultades sería superflua y los convertiría a ambos en innecesarios. En consecuencia, no hay por qué hablar de sustitución; lo que sí podríamos contemplar sería una simbiosis o complementación; el cerebro y el ordenador trabajando juntos, cada uno de ellos suminis¬trando al otro lo que le falta, formando una pareja-inteligencia muy superior a la inteligencia de cada uno de ellos por separado; una colaboración que abriría nuevos horizontes y haría posible alcanzar nuevas alturas. De hecho, la unión de cerebros, el humano y el creado por el ser humano, podría servir como puerta abierta por la que el ser humano podría emerger de su infancia aislada entrando en su madurez combinada. Las 5 advertencias del cambio tecnológico. por Neil Postman. Neil Postman era un señor inteligente pero elitista y algo aristócrata. Llegó a ser condescendiente hacia Pink Floyd cuando estos dedicaron un disco a su obra "Amusing ourselves to death". Además no estoy de acuerdo en varias de las cosas que dice, porque el no era científico. Pero así como se equivoca en muchas cosas, señala cuales son los equivocaciones u omisiones de los científicos. http://www40.brinkster.com/celtiberia/neilpostman.html
Datos archivados del Taringa! original
68puntos
1,696visitas
0comentarios
Actividad nueva en Posteamelo
0puntos
0visitas
0comentarios
Dar puntos:

Dejá tu comentario

0/2000

No hay comentarios nuevos todavía

Autor del Post

k
kmk1729🇦🇷
Usuario
Puntos0
Posts15
Ver perfil →
PosteameloArchivo Histórico de Taringa! (2004-2017). Preservando la inteligencia colectiva de la internet hispanohablante.

CONTACTO

18 de Septiembre 455, Casilla 52

Chillán, Región de Ñuble, Chile

Solo correo postal

© 2026 Posteamelo.com. No afiliado con Taringa! ni sus sucesores.

Contenido preservado con fines históricos y culturales.