2

Comienza el Curso de Verano 2018

La escala crea al fenómeno. Ver lo mismo con otros ojos.

 

Hace una década ya Christian Anderson redobló su apuesta por convertir a la revista Wired en un baremo de los futuros mundos digitales. En el número de octubre de 2008 anunció el fin de la teoría y dos años más tarde el fin de la web.

Su tesis arriesgada y provocativa sostenía que si hasta el año 2008 todos los modelos (desde las ecuaciones cosmológicas a las teorías del comportamiento humano) eran equivocados, con la aparición de las compañías de Big Data y las empresas GAFA a la cabeza, los datos antes escasos habían devenido abundantes y quizás no deberíamos tener que recurrir a modelo alguno.

El proceso de erosión del método científico convencional duró 60 años. Empezó primero con leer digitalmente la información, después con hacerla accesible a través de la web, más tarde en convertirla en una base de datos única gracias a los buscadores y por fin en transformar este bloque masivo de información en un laboratorio de la condición humana.

Históricamente el método científico se centró en las hipótesis testeables. Los científicos le escapaban como a la peste a la correlación y buscaban encontrar mecanismos que hilvanaran causas y efectos. Los datos sin modelos serían puro ruido. Pero ni la física ni la biología actuales están en condiciones de testear sus modelos porque no sabemos cómo llevar adelante los experimentos que justificarían las hipótesis, dado que son o muy caros o impracticables.

Hacer “ciencia-petabyte” es proclamar que a esta escala con la correlación alcanza. Podemos arrojar a los modelos en los claustros computacionales más poderosos del mundo, y dejar que los algoritmos estadísticos encuentran patrones que conecten lo que la ciencia ni siquiera alcanza a detectar.

Así Craig Venter, fundador de Celera (ahora parte de Quest Dynamics), ha descubierto miles de especies de bacterias y de otras formas de vida previamente desconocidas. Venter sabe poco y nada acerca de las especies que descubrió, ni a qué se parecen, ni cómo viven y desconoce casi completamente su morfología y también su genoma. Pero al mejor estilo Saussure, descubrió una secuencia que no se parece a ninguna otra en la base de datos (así como cada fonema es lo que todos los otros tampoco son), y por lo tanto debe corresponder a nueva especie. Nunca vista, y ni siquiera tampoco entrevista.

¿La ampliación exponencial del cálculo realmente vuelve inútil las hipótesis? A este nivel engelsiano de cantidad convertida en calidad ¿podemos prescindir de la heurística humana para poner orden (ingenio y descubrimiento) en ese magma de datos?

La pregunta es pertinente pero no será el camino que seguiremos en esta cursada. Donde retomaremos al Big Data como contexto, a la inteligencia artificial como el nuevo modo de generar sentido y de borrar las diferencias entre percepción e ilusión, pero sobretodo avanzaremos en los procedimientos de descanegrización y de diseño de pautas que conectan a través de cuatro ejes importantes que ubican a los cambios de escala del tiempo y el espacio como nuevos mediadores en la construcción de la realidad.

  1. Lectura aumentada
  2. Diseño especulativo
  3. Prototipado dirigido
  4. Aplicabilidad

Con este programa volvemos a los inicios, a la superación de los programas conexionistas y simbólicos a través del paradigma enactivo; a las intuiciones geniales de Francisco Varela y Humberto Maturana hoy actualizadas en Beau Lotto; a nuestra desconfianza de siempre frente al tecno-reduccionismo que ha alcanzado cotas inimaginables a través del mundo GAFA.

Esta tercera torsión (la primera fue nuestra incursión ingenuo-crítica en la inteligencia artificial, la segunda fue nuestra inmersión en el diseño de prototipos y conocimiento de las plataformas hasta llegar a la crítica del pensamiento algorítmico) nos devuelve a preocupaciones filosóficas ancestrales ligadas a la fenomenología de la percepción y la conciencia: desde Kant y Hegel hasta Merleau Ponty y Sartre; desde Bachelard y Simondon hasta Bifo; desde Byung-Chul Han hasta  Manuel de Landa y Graham Harman.

Pero como corresponde a este tercera fase no dialogaremos directamente con estos filósofos sino con sus versiones encarnadas, con los instrumentos cargados de teoría que han hecho posible, con sus instanciaciones en las plataformas sociales con un grado de pregnancia y naturalidad, que anulan toda capacidad crítica y todo diseño especulativo.

Al descajnegrizar las escalas de tiempo y espacio en las que estamos encapsulados, el programa se propone como un bisturí epistemológico capaz de encender nuevas miradas cuando todo ha devenido en una polarización, relatos contrapuestos e incapacidad sistemática de releer el pasado, obturando así la posibilidad de vivir en un presente múltiple. Resumida en una frase, este programa es una fenomenología liberadora del presente.

Nos vemos los martes y jueves de 17 a 21 hs en el aula SG 107. Pueden consultar el programa completo aquí.

Saludos,

Alejandro Piscitelli – Profesor Titular

Estela Dominguez Halpern – Profesora Adjunta

Comentarios

Deja un comentario