Tecnogénesis y coevolución
La propuesta de Katherine Hayles no se agota con la presunción de que pensamos distinto porque los medios con los que interactuamos son muy diferentes de los que predominaron durante los 500 años de hegemonía de la imprenta. Mas alla de este semitruismo mcluhaniamente plantea que estas diferencias son atribuibles a una tecnogénesis, dado que los humanos y la técnica hemos coevolucionado desde el fondo de la historia tal como se comprueba con la emergencia del bipedalismo junto con a manufactura de herramientas y al transporte en una causalidad recíproca continua.
A ello debemos sumarle el efecto Baldwin según el cual cada vez que ocurre una mutación genética su dispersión a través de la población se acelera cuando la especie reingenieriza su entorno de modo tal que la mutación sea mas adaptativa. Los cambios epigenéticos iniciados y trasmitidos a través del entorno en vez de a través del código genético tienen una fuerza notable y a su vez pueden ser acelerados por cambios en el entorno que los hacen mas adaptativos, lo que lleva recursivamente a producir mas cambios epigenéticos que al producirse en forma mucho mas acelerada que los biológicos, amplifican a su vez los procesos de transformación en curso.
Entre esos cambios epigenéticos uno que sobresale en términos de tecnologías cognitivas son las mutaciones en la capacidad de lectura (algo que que como bien explícitó Antonio Dehanae en Reading in the brain) al no tener inscripción genética permite cambios significativos mas alla de cualquier mutación), que después de haber estado centradas durante centenares de años (y muy particularmente a nivel crecientemente masivo desde el advenimiento de la imprenta) en la lectura exegética, interpretativa y/o hermeneútica, comenzó en las últimas décadas (otros dirán que el fenómeno viene desde mas atrás a partir del advenimiento de la cultura de masas de los años 1920 en adelante) a convertirse en nuevas modalidades y formatos y muy particularmente en algo que desde los años 1990 (con el advenimiento de la web) denominamos hiperlectura.
Hiperlecturas
La hiperlectura que incluye el escaneado, el «picoteo», la fragmentación y la yuxtaposición de textos, es una respuesta adaptativa a la proliferación de un entorno intensivo en información, que busca dirigir la atención en información a lo ipso facto relevante, de modo tal que lo leído es tan solo una parte minúscula de los disponible en la pantalla.
La hiperlectura viene acompañada de suyo con la hiperatención, una modalidad cognitiva con baja tolerancia hacia el aburrimiento, que presta atención en paralelo a distintos flujos informacionales y prefiere un alto nivel de estimulación. La lectura profunda (o cercana) va de consuno con una atención profunda, con el modo de conocimiento típico de las humanidades con su énfasis en una fuente de información única, que focaliza la atención en un solo objeto cultural durante largo tiempo, y que tiene una tolerancia infinita para con el aburrimiento.
Asi las cosas es hora de que admitamos la coexistencia de fortalezas y limitantes en cada modo cognitivo, la existencia de pedagogías diferenciales (algo que ni la escuela ni mucho menos la universidad tienden a aceptar por ahora) y la obligatoriedad de tender puentes entre estas estrategias disímiles y muchas veces contradictorias
Dado que la investigación y la enseñanza en las humanidades suponen un problema (o desafío) en diseño (una vez que nos liberamos de una epistemología de los contenidos y pasamos a una epistemología de los problemas), habrá que prestar especial a las dinámicas de la atención como un factor limitador para todo proyecto imaginable en un mundo hipercargado de datos e información .
Máquinas inteligentes de lectoescritura
Si a la hiperlectura le sumamos la capacidad diseñada de algunas máquinas que pueden leer por si mismas, habrá que reconceptualizar nuestra idea de los objetos a los que dejaremos de conceptualizar como entidades estáticas y empezaremos a tratar como ensamblajes mutantes. Los objetos devienen asi en individuos técnicos embebidos en redes de relaciones sociales, económicas, y tecnológicas, algunas de las cuales son humanas y otras no (tal como vienen balizando en las ultimas décadas este terreno «de lo mas que humano» autores como Gilbert Simondon, Adrian Mackenzie, Bruno Latour y Matthew Fuller).
Tanto la materialidad como los propios objetos no son datos a priori sino procesos dinámicos que cambian a medida que se altera el punto de vista. Como lo vio hace medio siglo atrás Henri Lefebvre las prácticas sociales producen espacios sociales. Los ejemplos son numerosos pero aun poco tematizados. Por ejemplo al incluir enormes bases de datos en los proyectos de historia espacial, en vez de utilizar a las narrativas como un modo primario de explicación, se hacen posible interacciones entre capas de sentido inesperados.
Mientras, los proyectos saltaron de las bases de datos relacionales (los elementos estaban coordinados por palabras claves) a bases de datos orientadas por objetos en las cuales las clases poseen rasgos heredables y potencial de agregación sorprendente y desentumecedor.
Si hay algo ajeno a la investigación humanística es el trabajo basado en la práctica prototípica de la ciencia. Hacer algo (gestar un producto que conlleva muchísimas horas de trabajo manual) tiene numerosas implicancias que van mas alla de hacer cosas con palabras. La práctica como habilidad encarnada está sumamente vinculada con la conceptualización (algo que autores como George Lakoff desarrollaron en sumo detalle en obras como Women, Fire and dangerous things (1990) y Philosophy in the flesh: the embodied mind and its challenge to western thought (1999) con Mark Johnson.)
La forma como está cambiando la investigación, la inclusión del programación como una práctica lingüística necesaria y los proyectos web de alto alcance de las humanidades, están mostrando como el comercio masivo con las tecnologías digitales está afectando de cabo a rabo los presupuestos y prejuicios de los académicos, incluyendo su definición profesional y su visión del futuro de su profesión.
Será cuestión de entrar en mas detalle en los orígenes de las humanidades digitales, en la identificación de sus centros de trabajo actuales mas destacados, en la mutación de la tescnoescritura digital hacia nuevas formas de arte, participación e intervención y en un relevamiento de las obras multidimensionales, si queremos repensar/rediseñar en qué consiste la investigacion en la era de la digitalizacion masiva.
Los orígenes terminológicos de la Nueva Ciencia de las Big Humanities
En términos institucionales el hilo narrativo de Hayles se focaliza principalmente en dos instituciones que han llevado mas lejos que ninguna otras el estandarte de las Digital Humanities. Se trata del Centre for Computing in the Humanities (CCH) en King’s College, Londres y The School for Literature, Culture and Communication en Georgia Tech.
El término ‘digital humanities’ fue creado a fines de los años 1990 por Johanna Drucker, John Unsworth, Jerome McGann, todos en ese momento en el Institute for Advanced Technology in the Humanities (IATH) de la Universidad de Virginia . La primera oleada de las humanidades digitales combinó un cambio teórico importante en los estudios textuales con dispositivos concretos para experimentar e implementar los análisis cuantitativos.
la primacía de entonces en los textos se ha desviado 10 años mas tarde hacia prácticas multimediales que incluyen la realidad virtual, mostrando una distancia grande respecto de las primeras instanciaciones de la década pasada. Esa evolución ha quedado testimoniada en el texto de John Unsworth “What Is Humanities Computing and What is Not?” (2002) al que se puede contraponer la versión aggiornada de Jeffrey Schnapp y Todd Presner (2009) “The Digital Humanities Manifesto 2.0”. Hemos pasado asi entre una decada y la otra del diseño computacional a la experiencia del usuario.
Para Hayles las humanidades digitales son un conjunto de prácticas asociadas a técnicas computacionales que van mucho mas alla de lo impreso en los modos de indagación, investigación, publicación y difusion tal como lo acota la Office of Digital Humanities (NEH).
De la lectura humana a la lectura de las máquinas
Si alguna vez hubo algún bibliómano compulsivo que quizo dedicar gran parte de su vida a leer al menos un libro por día, difícilmente haya logrado al final de sus 85 años de vida, y habiendo comenzando a leer fanáticamente desde los 15, la llamativa cifra de 25.000 textos digeridos. Pero con lo significativa que es esa cantidad se trata apenas de una caricatura de lo que son los textos examinados por los algoritmos de Google que rara vez bajan de un millón (sin hablar de los 130 millones de libros que se han publicado a lo largo de toda la historia humana y d elos cuales Google ha digitalziado al menos 15 millones).
Como bien decía Guyot la escala hace al fenómeno. Mientras tanto, las obras llamativas son las que rompen con las convenciones, los contextos de origen. Cambiemos la escala y las preguntas y los enfoques cambiarán correlativamente. Es lo que propone Franco Moretti con su noción de lectura a la distancia (distant reading), en donde ésta se convierte en una condición para el conocimiento al permitir focalizar en unidades que son mucho mas grandes o mas pequeñas que el texto convencional. Y si es posible practicar la lectura distante sin examinar ni siquiera un texto primario entonces tendría razón Timothy Lenoir cuando sostiene que los algoritmos de las máquinas también cuentan como una nueva forma de lectura.
Cuanto mas usemos las computadoras mas necesitaremos de análisis en gran escala para dar cuenta de estas bases de datos (de producción o consumo cultural) cada vez mas inabarcables a manos del análisis fino y detallado de los 100 libros que conforman el canon de la literatura occidental a la Harold Bloom (este contraste puede llevar en ciertos casos a una enemistad epistemológica irreconciliable como es la propuesta darwinista literaria de Moretti en contra de los críticos literarios del canon ver The Mechanic Muse – What Is Distant Reading?
De la tecnología a los sistemas tecnológicos
Lo que subyace en estas escaramuzas son concepciones acerca del carácter constitutivo de la tecnología rara vez discutidas. Porque las tecnologías digitales (y lo mismo cabe decir de las analógicas) no son solo herramientas sino que son herramientas del/para el pensamiento y como tales incluyen presupuestos acerca de lo naturaleza de los acontecimientos y del sentido de lo que significa leer (y escribir) en nuestra definición como humanos.
Abrirle paso a la «lectura maquinal» (machine reading) implica ipso facto devaluar el rol fundante de la lectoescritura como definición de lo humano. O al menos así creen quienes se sienten aludidos sin prestar debida atención al carácter mutante de lo humano como bien fue expuesto por Michel Foucault en el cierre de Las Palabras y Las cosas (1966).
Hayles quien lleva en ristre una búsqueda de síntesis sostiene (a diferencia del extremismo morettiano) que la «critica algorítimica presente en obras como la de Stephen Ramsay (2011) Reading Machines Toward an Algorithmic Criticism) conlleva siempre una interpretación hermenéutica. La computadora en vez de silenciar los debates y de tomar posición por alguno de los contendientes debería según su enfoque sincrético abrir permanentemente nuevas avenidas de indagación y de crítica. Del mismo modo opina Jay David Bolter quien aboga por una teoría productiva capaz de reconciliar «close» y «distant» reading.
Mientras en obras como Mobile Modernity: Germans, Jews, Trains (2012) Todd S Presner resalta esta voluntad de reconciliación. Tambien hay aportes cruzados como los que plantea Matthew Kirschenbaum en su obra impresa New Media and the Forensic Imagination (2008), donde insiste en que los análisis digitales deben integrar los métodos bibliográficos propios de la cultura impresa con su énfasis en la materialidad utilizando análisis micro y nanoscópicos de los objetos digitales y del código, para entender las historias, los contextos, los caminos de deriva. En el camino emerge una nueva disciplina la «forénsica digital«.
Para terminar recordemos provocativa afirmación de Timothy Lenoir «Olvídense del sentido, sigan los flujos de datos«, que es tan solo un extremo de un péndulo que viene a revivificar un ambiente ya saturado de hipeinterpretaciones, balizadas por las explicaciones totalizantes del marxismo y del psicoanálisis y permite imaginar el pasaje de la Big Science (catapultada por el proyecto Manhattan de mediados de los años 40) a las Big Humanities en pleno desarrollo en estos días.
A ellos le dedicaremos proximos posts y en programa de la materia de Datos del año 2013.
Referencias
ABC de las Digital Humanities
Bartscherer, Thomas, Coover, Roderick (Editores) Switching Codes: Thinking Through Digital Technology in the Humanities and the Arts
Berry, David M. (Editor) Understanding Digital Humanities (2012)
Gold, Matthew K.(Editor) Debates in the Digital Humanities (2012)
Schreibman, Susan; Siemens, Ray; Unsworth, John (Editores) A Companion to Digital Humanities (2004)
Conocimiento embebido y corporeizado
Lakoff, George Women, Fire and dangerous things (1987)
Lakoff, George & Johnson, Mark Philosophy in the flesh: the embodied mind and its challenge to western thought (1999)
Tecnogénesis y objetos técnicos
Fuller, Matthew Media Ecologies: Materialist Energies in Art and Technoculture
Fuller, Matthew Software Studies: A Lexicon. (2008)
Mackenzie, Adrian Cutting Code. Software and sociality (2006).
Simondon, Gilbert La individuación a la luz de las nociones de forma e información, Ed. Cactus y La Cebra Ediciones, Buenos Aires, 2009.
Algoritmos y machine reading
Ramsay, Stephen (2011) Reading Machines Toward an Algorithmic Criticism
Steiner, Christopher Automate This: How Algorithms Came to Rule Our World (2012)
Taleb, Nassim Nicholas Antifragile: How to Live in a World We Don’t Understand (2012)
Hiperlectura e hiperatención
Kirschenbaum, Matthew New Media and the Forensic Imagination (2008)
Presner, Todd S Mobile Modernity: Germans, Jews, Trains (2012)
Schnapp, Jeffrey y Presner, Todd (2009) “The Digital Humanities Manifesto 2.0”
Schultz, Kathryn The Mechanic Muse – What Is Distant Reading?
Unsworth, John “What Is Humanities Computing and What is Not?” (2002)
Centros de investigación en Digital Humanities
Centre for Computing in the Humanities (CCH) King’s College, Londres
The School for Literature, Culture and Communication en Georgia Tech.
De mucha información, gran contenido y no fácil comprensión pues recién me estoy involucrendo con las temáticas abordadas…soy «inmigrante digital»…no pretendo competir con mis alumnos «nativos» …aprendí temas nuevos.
Uauh!!!! Potente lo que se plantea, con profundidad, generosidad de fuentes, con riesgo para poner en tela de juicio las formas convencionales de pensar desde las disciplinas, con apertura a autores que poco circulan por las medievales universidades de América Latina, con desafíos epistemológicos para leer de otros modos las hoy cuestionadas verdades del siglo XXI y con invitaciones a dejarse seducir por lo que se propone pero con precaución por ser nacientes perspectivas. Mil gracias profesor Piscitelli
[…] Las “Digital Humanities” y como pensamos en la era de la análitica cultural. 2da Parte […]
[…] Las “Digital Humanities” y como pensamos en la era de la análitica cultural. 2da Parte, por Alejandro Piscitelli […]