«We think with the objects we love; we love the objects we think with» (Sherry Turkle, Evocative Objects)
“Estamos escribiendo un código que no sabemos leer, con unas consecuencias que no podemos controlar” (Kevin Slavin How algorithms shape our world)
1. Los labs se dicen de muchos modos
Desde la emergencia de la ciencia experimental y el método científico en los siglos XVI y XVII (Robert Blanche El método experimental y la filosofía de la física) se vienen creando laboratorios sin parar. Los laboratorios son solidarios de la emergencia de la ciencia moderna y de las sociedades científicas de fines del siglo XVII. Durante los siglos XVII y XIX los laboratorios estuvieron asociados a la industria y a las universidades mas prestigiosas.
Un laboratorio es una instalación que ofrece condiciones controladas en las que se puede realizar investigación científica o tecnológica, experimentos, y medición.
Los laboratorios utilizados para la investigación científica adoptan muchas formas, debido a las distintas necesidades de especialistas en los diversos campos de la ciencia y la ingeniería y se caracterizan básicamente por sus instrumentos que son teoría concretizada (Gaston Bachelard: La filosofìa del no y el nuevo espíritu cientifico, 1984).
Laboratorio de física: acelerador de partículas o cámara de vacío,
Laboratorio de la metalurgia: aparato para la fundición o refinación de metales o para probar su fuerza.
Laboratorio químico o un biólogo: laboratorio húmedo,
Laboratorio del psicólogo: una habitación con espejos unidireccionales y cámaras ocultas donde observar comportamientos.
Laboratorios de computación: simulaciones en superordenadores: análisis de los datos recogidos en otros lugares.
Laboratorios no convencionales: govlabs; metalabs; literary labs; labs de artes y ciencias; speculative Labs; procedural labs; neomateriuls labs;
2. Metamorfosis de los labs: Labs Big Science
A mediados del siglo XX con la Big Science (Alvin M. Weinberg, 1961, director Oak Ridge National Laboratory; Derek J. de Solla Price Little Science, Big Science and beyond, 1963) aparecieron los grandes laboratorios que prohijarian las mas grandes de las invenciones del siglo XX.
Big Science es Big budgets + Big staffs + Big machines (Ernest Lawrence’s cyclotron; Human Genome Project) + Big laboratories (Lawrence Berkeley National Laboratory or CERN)
Conjunción que fuera denunciada premonitariamente por el saliento presidente Dwight D. Eisenhower’s en su farewell address, (1960) advirtiendo acerca del Complejo militar industrial y que ve actualizada sus preocupaciones ante la posiblidad de un desmadre ético por parte de las nuevos monopolios del Big Data y el Deep Learning (Los algoritmos se apoderan de la economía )
En cuanto a un inventario de loss aportes de los Big Labs (como IBM, GE, Lucent, Intel, Microsoft, Xerox’s Palo Alto Research Center, Hewlett-Packard Agilent Technologies, Bell) tenemos interesantes síntesis en Robert Buderi Engines Of Tomorrow: How The Worlds Best Companies Are Using Their Research Labs To Win The Future (2000)
o mas monograficamente en Jon Gertner The Idea Factory: Bell Labs and the Great Age of American Innovation (2013).
A veces los megaproductos que cambian una época no nacen de un laboratorio en particular sino de una red de laboratorios, de forma inesperada pero mancomunada, como lo testimonian dos soberbios estudios de casdo en el caso de la computadura en la monografia de Tracy Kider The soul of a new machine y de la propia Internet en la obra de Katie Hafner Where Wizards Stay Up Late: The Origins Of The Internet (1998)
Otro recorrido posible de las grandes inovaciones puede hacerse por nombres propios combinando laboratorios (grandes y chicos),con talentos y espíritu de la época ,como hizo recientemente Walter Isaacson en The Innovators: How a Group of Hackers, Geniuses, and Geeks Created the Digital Revolution (2015)
3. El datascopio como teoría concretizada del Provocative Lab de Centro Diseño
Si las herramientas son teoría concretizada, las herramientas que conformarán el ADN del Provocative Lab son esenciales para definir sus funciones. Si definimos a las tecnologías como conversaciones en las que se inventan nuevas prácticas socioculturales para mejorar la vida humana (Fernando Flores), la idea de herramienta va mucho mas allá de la materialidad y de la funcionalidad.
Lo mismo ocurre con visiones potencialmente reduccionistas de las posibilidades de que el datascopio asociado a la simulación, la experimentación numérica, el uso de herramientas computacionales, e incluso el machine y el deep learning, como signo distintivo de la variedad de tareas a realizar en el Lab, agoten o definan adecuadamente su propósito.
Nociones como las de objetos evocativos, inner story of devices o simulation discontentment de Sherry Turkle (para no mencionar la propuesta de desobediencia tecnológica de Ernesto Oroza)
nos llevan a imaginar una fundamentación conceptual del Provocative Lab en cuatro fases:
1) Punto de partida situado en el Deep Learning como contexto indispensable para el lanzamiento toda investigación y formación posible y deseable en 2016;
2) Complemento y critica de la faz anterior a partir de un sólido anclaje en la curadoría humana (como acaba de recordarnos Michael Bhaskar en In the age of the algorithm, the human gatekeeper is back, desarrollado en su reciente libro Curation: The power of selection in a world of excess)
3) Consecuentemente como parte del desarrollo del provocative lab habrña que elaborar un anillo protector en ética hacker capaz de sacar el mayor provecho posible a los algoritmos, especialmente en áreas aplicadas, pero sin perder de vista riesgos y consecuencias (que tambièn pueden servir de orientación para desarrollos curriculares, alianzas, estratégicas, políticas de recursos humanos, etc)
4) Generar un trama reflexiva/productiva desde perspectivas multidimensionales y complejas tales como las que vienen proponiendo desde hace décadas desde la obra sociotécnica de Sherry Turkle hasta los estudios STS en Tecnología y Sociedad encarnados especialmente en la obra de Wiebe Bijker Of Bicycles, Bakelites, and Bulbs : Toward a Theory of Sociotechnical Change (1997)
4. Bases concoptuales
FASE 1 DEEP LEARNING COMO TRASFONDO DE TODA INVESTIGACION POSIBLE
La novedad central de los últimos 3/4 años han sido los saltos cuánticos en las tecnologías de la vida cotidiana: desde el speech-recognition en los celulares (Amazon’s Alexa, Apple’s Siri, Microsoft’s Cortana, or the many voice-responsive features of Google) al punto que el gigante chino Baidu ha registrado 3 veces mas el uso de interfases de habla que de clicks, que hace 18 meses atrás.
La traducción automática mejoró enormemente y Google Translate ofrece traducciones habladas en 32 pares de idiomas y traducción textual en 103 incluyendo Cebuano, Igbo y Zulu.
El reconocimiento de imágenes ha mejorado enormemente pudiendo organizar en poco tiempo en categorías semánticas millones de fotos no taggeadas. Extrapolando en poco tiempo las start-ups medicas podrán leer X-rays, MRIs, y CT scans mas rápido y eficientemente que los radiólogos, diagnosticar el cáncer y tratarlo a medida (entrevista a Pedro Domingos de ayer en El Pais). Y lo mismo sucederá en los territorios de la roóotica, los drones autónomos y los coches ídem.
Tanta diversidad de efectos cuasi mágicos esconde algo que los especialistas en IA saben desde hace rato, en todos los casos la baza ganadora es la misma: una familia de la IA llamada deep learning (o deep neural networks), cuya idiosincracia consiste en que ningún humano la ha programado sino que emergen de la combinación de algoritmos que aprenden y de big data (terabytes of data—hundreds of thousands of images or years’ worth of speech samples) con resultados que oscilan entre maravillarnos y espeluznarnos.
Se trata de computadoras que se enseñan a si mismas, es decir de software que escribe software. Las redes neuronales datan de los años 50, Minsky & Papert a fines de los 60 no les pronosticaron demasiado futuro, en los 80 fueron redescubiertas por David E. Rumelhart, James L. McClelland and PDP Research Group Parallel como quedó documentado en Distributed Processing, Volume 1 Explorations in the Microstructure of Cognition: Foundation)
Deep learning’s Cambrian explosion
Pero la explosión cámbrica equivalente a la emergencia de casi todas las especies actuales después de la quinta gran extinción en el cámbrico hace 450 millones de años atrás, es decir la gran novedad actual, proviene de una conjunción de factores: aceleración creciente de la capacidad de procesamiento, baja constante de las memorias necesitadas para almacenar datos, mejora en los lenguajes para procesar la información, y arquitecturas de almacenamiento (multimediales) cada vez ma sofisticadas y fáciles de inspeccionar (abanderadas por ls graphics processing units (GPUs) hechas por Nvidia).
Los inversores siguen cabeza a cabeza estos desarrollos. El Equity funding de las startups AI-focused llegó a 1.000 millones en el último trimestre. Hubo 121 funding rounds para las startups en el segundo trimestre de 2016 (contra 22 en 2016). No sabemos -si irónicamente- hace pocos días los cinco grande slideres corporativos de la AI —Amazon, Facebook, Google, IBM, and Microsoft -crearon la asociación AI Partnership, focalizada en la etica y las mejores prácticas
En 2012 Google tenia dos proyectos de deep-learning, hoy tiene 1,000. Cuando en 2011 Watson le ganó a los campeones mundiales de Jeopardy no usaba Deep learning, hoy sus 30 componentes si lo hacen. Las compañías de hardware no se quedan atrás, desde Nvidia que fabrica chips para viodeojuegos pasando por Intel que ha comprado Nervana Systems (en mas de U$S 400 millones) y Movidius (precio desconocido), para no quedarse atrás.
Google (is not evil) ha estando usando secretamente durante mas de un año chips a medida llamados tensor processing units (TPUs) para implementar aplicaciones enteras mediante el deep learning.
“AI is the new electricity,”
Para algunos investigadores como el multicitado Andrew Ng, chief scientist en Baidu Research de China, lo que cambiará al mundo no es como creía Nicholas Carr en The Big Switch: Rewiring the World, from Edison to Google (2013) sino la propia Internet sino el deep learning.
El deep learning opera como las mamushkas. Mientras que la inteligencia artificial (lógica tradicional y sistemas basados en reglas) permite que las computadoras y los robots resuelvan problemas en formas análogas a como lo hacemos los humanos, el machine learning usa técnicas matemáticas muy sofisticadas para mejorar rendimientos en el mundo real, mientras que el deep learning es una subcategoría del machine learning.
Como siempre hay que saber hacer preguntas y entender de traducciones y transposiciones, pero cuando las preguntas son buenas, y las transposiciones se hacen como se debe, los resultados son increíbles y ejemplifican en forma concreta y contundente de qué hablamos cuando hablamos de deep learning .
“You can input an audio clip and output the transcript. That’s speech recognition.” As long as you have data to train the software, the possibilities are endless, he maintains. “You can input email, and the output could be: Is this spam or not?” Input loan applications, he says, and the output might be the likelihood a customer will repay it. Input usage patterns on a fleet of cars, and the output could advise where to send a car next.
Las posiblidades son enormes, las variantes indefinidas, el mundo pareceria acercarse a un nirvana maravilloso. Pero tanta promesa deberìa preocuparnos y sobretodo forzarnos a hacernos las preguntas correctas. Nadie discute que las redes neuranales reconocen patrones en forma extraordinatia, siendo el pattern recognition uno de los rasgos humamos mas llamativos.
Pero las redes neuronales no razonan, no piensan, no disciernen, no saben que están haciendo, a quien están sirviendo, porque lo hacen y si el resultado de sus acciones es bueno o malo para las multitudes (obviamente que n o para las 320 compañías del mundo que son la sucias que pueden generarlas y gestionarlas, o eso creen). Por eso el segundo paos en la fudnamentacion del Lab debe estar en las definiciones, problematica y diseño de estrategias de curadoria humana.
FASE 2 EL RETORNO DE LO REPRMIDO. CURADORIA HUMANA EN LA ERA DE LOS ALGORITMOS
FASE 3 ETICA HACKER EN LA ERA DE LOS AUTOAMATISMOS DESATADOS
FASE 4 OBJETOS EVOCATIVOS, DESOBEDIENCIA TECNOLOGICA Y MUNDOS DESEADOS
5. Modelos para un provocative Lab
Antacedentes del modelo de doble entrada
Procedural Lab is a group of video games enthusiasts, seeking to create new gaming experiences using procedural content generation as our main approach.
http://polaris.gseis.ucla.edu/drucker/IntroToSpecLab_08.pdf
We build on a diverse range of creative and research practices originating in fields from the arts, humanities and technology. But we never lose sight of the power of a good story. The mass democratization of creative tools — code, data and algorithms — have changed the relationship between creator and audience. New stories are told here in new and unexpected ways.
3. Neolabs y sus antecedentes en los Labs de Arts and sciences
The Arts Lab was an alternative arts centre, founded in 1967 by Jim Haynes at 182 Drury Lane. Although only active for two years, it was influential in inspiring many similar centres in the UK and continental Europe, including the expanded Institute of Contemporary Arts (ICA) in London, the Milky Way/Melkweg in Amsterdam (where Jack Henry Moore was one of the founders) and the Entrepôt in Paris.
Funded by the European Commission Seventh Framework Programme in 2011, Studiolab is a European network that provides a platform for creative projects that bridge divides between science, art and design.
Modelos de Labs destacados a nivel mundial
Media Lab del MIT
Michael Gorman Science Gallery Dublin
Media Lab Prado Madrid
GovLab de NYU
Metalab de Harvard
Referencias (de los dos últimos dias)
Bhaskar, Michael In the age of the algorithm, the human gatekeeper is back The rise of algorithms has been relentless, but we need human input in our world of technological innovations
Bruner, Jon Artificial intelligence and the future of design How algorithms will optimize everything. September 12, 2016
Domingos, Pedro entrevista El Pais) 1/10/2016.
García Vega, Miguel Ángel Los algoritmos se apoderan de la economía El Pais, 1/10/2016.
Parloff, Roger Why Deep Learning Is Suddenly Changing Your Life. Decades-old discoveries are now electrifying the computing industry and will soon transform corporate America.
Sé el primero en comentar