¿Se está volviendo mas inteligente la red?
El disparador puede venir de cualquier lado. En este caso fue una entrevista que me hicieron la semana pasada para un programa de la UBA que saldrá en Canal a el año que viene dedicado a las máquinas.
Parafraseando a Marvin Minsky esa inevitable pregunta mereceríarecibir antes la respuesta de los gurues económicos que la de los filósofos o científicos mas o menos serios -aunque no sea nuestro caso. Porque se puede contestar que eso acontecerá dentro de 30, 50, 100, 1000 años o nunca. ¿No les parece estar escuchando a Broda o a Melconian, que todavía tienen el tupe de seguir abriendo la boca?
Los entrevistadores, muy influenciados por la ciencia-ficcion, me preguntaron si algún día las maquinas sentirían, o pensarían, o aprenderían como nosotros.
Pero si pensamos las cosas con un poco mas de sensibilidad y detalle, lo que esta mal no es la respuesta sino la pregunta. ¿Cuando hablamos de inteligencia de que estamos hablando? ¿Cuando hablamos de aprendizaje a cual nos estamos refiriendo? ¿Al de las hormigas, al de las ciudades, al del software neuronal?
Descontando la estabilidad, la flexibilidad, la resiliencia y la capacidad autoorganizadora de la web podríamos hacernos la pregunta que oscila entre lo banal y lo metafísico ¿se está volviendo mas inteligente la red? ¿Podrá algún día alcanzar conciencia de si mismo como lo hizo Skynet en la saga Terminator en Octubre de 1997?)
Una cosa es matematizar a la red, como lo hemos dicho en distintos lugares, por ejemplo los teóricos de nuestra materia Procesamiento de Datos, y otra muy distinta es proclamar una metafísica de la red. ¿Podemos afirmar que la red se está autoorganizando y volviendo mas inteligente con el transcurso del tiempo?
Justamente la matematización pone en duda la aparición de un emergente metafísico, trátese de un cerebro global o de una supermáquina inteligente y/o sentiente. De hecho cada hora que pasa la red se desorganiza mas y mas.
Porque para que haya inteligencia (y el ejemplo de las ciudades y del cerebro humano así lo confirma, ver Steven Johnson Sistemas Emergentes (FGE, 2004)) lo que necesitamos no es tan solo conectividad (que en la red hay a raudales), sino también y sobretodo organización, conectividad organizada. Por otra parte los sistemas inteligentes convergen hacia tipos específicos de estructura «teledirigidos» por las leyes de la selección natural.
La ausencia de conectividad organizada
Los sistemas como la web son geniales cuando de multiplicar conexiones se trata. Pero en términos de agenciamiento y de estructuras son muy pobres. Las tecnologías que subtienden a Internet -y que enumeramos en los teóricos de datos- desde los microprocesadores en cada servidor web a los protocolos abiertos que gobiernan los datos- han sido diseñados para soportar enormes aumentos en la escala (la escalabilidad de la web es realmente formidable), pero son indiferentes -si es que no son directamente hostiles a la tarea de crear planos de nivel superior.
Todos los patrones que investigamos acerca de la fragmentación producida las power-laws como organizadores del trafico en la red, la convierten en un sistema mas navegable. Porque si bien estos patrones pueden ser autoorganizados no son adaptativos en sentido alguno.
Los patrones en los que encarna la actividad de la web se parecen mucho mas a los cristales en los copos de nieve que a un cerebro humano. Los esquemas de los cristales pueden ser muy intrincados o bellos, pero nunca son mas inteligentes o eficientes. Su gélida belleza es proporcional a su imperturbabilidad en cuanto a maquina computacional..
Hay un enorme poder y energía creativa en la autoorganizacion, eso nadie lo duda, pero debe ser canalizada en dirección de formas especificas si queremos que surja bajo la forma de algún tipo de inteligencia, parecida a la humana.
Sin embargo -lo veremos en el último capítulo de nustro libro dedicado a La Web Semántica– no es imposible imaginar un destino diferente para la red diseñando una nueva versión de Internet que se asemejara mucho mas a la capacidad autoorganizadora de las ciudades y del cerebro que al caos que es actualmente.
No hay nada ontologicamente desorganizado en la red, sino que se la diseñó para tales fines . Si cambiamos la arquitectura bien podría ser que la web fuera el antecedente de la noosfera postulado hace ya mas medio siglo por Teilhard de Chardin.
Caos y unidireccionalidad de los links
Porque lo que ha convertido a la red este caos es precisamente el carácter unidireccional de los links, la incapacidad de mantener feedbacks y la falta de afectación mutua de las distintas paginas entre si.
Porque los sistemas autoorganizados usan feedback para autoensamblarse en estructuras mas ordenadas. Y dado el sistema de linkeado unidireccional anti-feedback de la web actual, no existe forma de que la red aprenda mientras crece y por ello que depende tanto de los buscadores para organizar minimamente su estructura caótica subyacente.
Hay atajos y alternativas para el rediseño de la red. Y un ejemplo sensacional es precisamente lo que ha logrado hacer Brewster Kahle, el inventor de Alexa.
Archive.org
Desde 1996 Brewster con una clarividencia envidiable, imagino que como enorme fotocopiadora mutante que es, la red seguramente necesitaría de un museo de sus paginas.
Por eso en los sótanos en la zona de Presidio en California armo un gigantesco repositorio de servidores, que en el año 2000 almacenaban 30 Terbaytes de datos y hoy llegan a los 100 Terabytes, con fotos de páginas históricas que probablemente no existan almacenadas en ningún otro lado.
Esto es quizás la mejor síntesis de la Inteligencia Colectiva en cualquier lugar del mundo. Toneladas de datos que archivan tanto a la web histórica como a los patrones d trafico que la subtendieron y que ya no volverán.
Este repositorio no es aleatorio. Esta basado en el trabajo del software Alexa que utiliza técnicas de filtrado colaborativo para genera conexiones entre sitios basados en el trafico de los usuarios.
SI uno usa Alexa en el navegador cada vez que una pagina da error 404 -porque ya no existe- inmediatamente salta al museo para encontrar una anterior. Por otra parte el software también tiene la opción «¿Que viene ahora?», que sobre la base de millones de otros itinerarios reales realizados por otras personas, nos indica adonde deberíamos seguir nuestra búsqueda o navegación.
El poder de asociación de Alexa (este sitio es como aquel) empieza a brindarle a la web (inopinadamente) una estructura que naturalmente no posee. Con el uso, el software se vuelve cada vez mas «inteligente», crece mas organizadamente a medida que revisa progresivamente mas historias de surfeo.
Inteligencia no es aquí sinónimo de ciencia-ficcion. Alexa no simula ser inteligente. y mucho menos puede aspirar a cualquier tipo de autoconciencia. El software solo lee patrones en los números (la famosa pauta que conecta de Bateson a un nivel sumamente elemental, sintático). La inteligencia de Alexa no es nada mas que la sabiduría agregada de millones de personas que usan el sistema.
Por ahora Alexa no es un verdadero agente de recomendaciones. No nos está diciendo que nos gustarán los 5 sitios que nos están recomendando. Pero si nos advierte de que hay una relación entre el sitio visitado y los recomendados. Los clusters que se forman a través de Alexa son clusters de asociaciones.
A excepción del mundo de los videojuegos (sobre lo que volveremos en nuestra próxima obra) Alexa es una de la piezas de software emergente mas exquisitas que existen.
Durante un corto tiempo Abuzz.com -adquirido por la unidad digital de The New York Times– permitía encontrar a personas con un perfil de conocimiento o expertise determinado, usando patrones de filtrado- aunque fue discontinuado por falta de interés y apoyo económico.
Mientras en everything2 se usa un programa de redes neuronales para crear una enciclopedia multi-autoral, con temas afines agrupados automáticamente mediante las lecturas de patrones de trafico.
He aquí un corto inventario de la web inteligente que veremos emerger en poco tiempo mas . Quizá sea cierto -en contra de la ciencia-ficcion a veces facilista- que la Web nunca se volverá consciente en el sentido como lo somos los seres humanos, pero eso no significa que la red no sea capaz de aprender.
Nuestras redes se volverán mas inteligentes en los años por venir, pero mas inteligentes en el sentido en que el sistema inmunologico aprende, o que una ciudad aprende, o que los edificios aprenden, no en el sentido que un chico aprende.
Pero en vez de sonreírnos cinicamente, o alegrarnos de nuestra unicidad autoconsciente, podríamos ver las cosas con ojos renovados (y con menores temores narcisistas). Una red de información adaptativa capaz de reconocer patrones complejos podría ser una de las innovaciones mas extraordinarias de la historia. ¿Que importa si nunca puede llegar a pensar por si misma, mientras nos ayude a nosotros a pensarnos y a pensar mucho mejor? Lo que tanta falta nos hace.
Sé el primero en comentar