internetisnotevaluamos3evaluamos1Imagenes-con-textoIs Google the answer? Hackeando casi todo

Is Google the answer? Hackeando casi todo

IS GOOGLE THE ANSWER? HACKEANDO CASI TODO Primera Parte de Varias

Introito

Hackear ya no es una noble tarea que debamos justificar mostrándonos como chicos buenos. Hasta las charlas TEDx están siendo asoladas por este virus. No sabemos si empezamos nosotros cuando en TEDx Tigre anunciamos que íbamos a (hackear) casi todo. Lo cierto es que no hay que hacer muchos esfuerzo para encontrarnos con otros atrevidos que se han animado a hackear el espacio como Emiliano Kargieman TEDxRíodelaPlata; el aprendizaje del lenguaje como Benny Lewis at TEDxWarsaw, la política como Santiago Siri at TEDxCordoba; la comedia como Baratunde Thurston at TEDxKC; el trabajo como Josh Klein TEDxDUBLIN; los negocios como Chris Drake at TEDxNoosa y tantos otros tópicos, profesiones o actividades.

Mientras, nosotros seguimos nuestro camino y en el marco del nuevo proyecto de la cátedra @datosuba después de habernos aventurado en la construcción de un programa de trabajo sobre algoritmos (ver Del ciberespacio a la realidad aumentada: cuatro décadas de cultura digital y Acerca de la cuarta discontinuidad. Segunda vuelta) empezamos a testear algunas de nuestros hipótesis llevándolas a campos un poco mas agitados que las clases universitarias, por ejemplo a la premiación anual de tecnología que realizó evaluamos.com con un auditorio lleno de empresarios duros y de pocas pulgas.

Mas interesados en el negocio que en el ocio, mas preocupados por optimizar productos y servicios que por preguntarse por las consecuencias sociales y políticas de sus actos. Obsesionados por las inversiones, pero sobretodo en su rédito, enfocados hacia los usuarios mas que nada como consumidores, atentos al “desacople generacional”, pero buscando cerrar la brecha mas como un mandato organizacional que como una demanda existencial, a ellos los tuvimos como interlocutores recientemente.

Conociendo el paño, azorados por el desacople que hay entre productividad y ensimismamiento tecnológico, pero sobretodo advirtiendo el sucidio político que están cometiendo los estados al carecer de categorías y sobretodo de poder conversacional para poder dialogar con el sector privado acerca de como reinventar las condiciones, no solo de producción sino sobretodo de inteligibilidad del mundo dualizado, cada vez mas desigual y con una clara tendencia a destruir las clases medias adonde alguna vez reinaron y de impedir que se consolidan donde todavía no habían emergido, decidimos tomar el toro epistemológico por las astas y salimos al ruedo.

Y aunque nos faltó coser mejor las partes, articular mas finamente los intersticios, y sobretodo convertir nuestro diagnóstico en un plan de acción para mejorar la comunicación intergeneracional, por los comentarios recogidos y por las observaciones recibidas creemos haber dado en un clavo narrativo interesante. Asi que aquí va lo que comentamos escuetamente el pasado jueves en Bogotá y que está siendo retomado esta semana en sucesivas intervenciones en Barcelona y Valencia.

Is Google the answer? Hackeando casi todo

La charla se inició con la pregunta: Is Google the answer; Del poder de los algoritmos a los algoritmos del poder. Venía cargada por una cantidad sucesiva de lecturas que hicimos durante el invierno mexicano, y en particular retomaba una obsesión de Andrew Keen quien no cansado aun de vituperar a la red y de acusarla de ser responsable de todos los males del universo (formando parte de un triunvirato en el que descollan Nicholas Carr y Evgeny Morozov) acababa de publicar otra previsible endecha como es The Internet is not the answer.

Nosotros queríamos ser mas precisos, y además no nos llama demasiado la atención la critica política o sociológica de la red, sino la epistemológica o en términos de actor/red, y por eso preferimos centrarnos no ya en la red sino en Google como su sinécdoque, y además añadir un signo de pregunta a la diatriba de Keen.

Además si en verdad Internet no es la repuesta habría que determinar con mucho mas detalle ¿cuál es la pregunta? y para nosotros ésta debe remitir a constelaciones reflexivas mucho mas sofisticadas que el anecdotario donde trastabilla la tríada Keen/Carr/Morozov.

Porque de lo que se trata cuando comprobamos el enorme poder de destrucción que tiene Internet es de identificar que está haciendo con nuestras categorías cognitivas (John Brockman Is the Internet Changing the Way You Think? The Net’s Impact on Our Minds and Future (2011)), como está modificando el rol de la memoria y de la sociabilidad (Clive Thompson Smarter than you think (2013)), hasta qué punto está rediseñando anatómicamente nuestro cerebro (Gary Small iBrain Surviving the Technological Alteration of the Modern Mind), pero sobretodo ¿en qué medida está alterando nuestros regímenes de verdad, nuestras tecnologías del conocimiento y mas que nada nuestras nociones antropogénicas, de construcción de identidad y de valoración de la alteridad, y cómo puede llegar a modificar nuestras concepciones acerca de la política y de las tecnologías de la personalización y la libertad?

1 LA CUARTA DISCONTINUIDAD

Nuestro punto de partida fue volver a interrogantes que se vienen arrastrando desde mediados del siglo XX acerca del poder de los programas y de los algoritmos devenimos “bots” en cuanto a remedar la inteligencia humana. ¿Qué relación existe entre los programas fallidos en inteligencia artificial y el poder renoado de la red?

La máxima marxista de que la historia se repite primero como tragedia y después como farsa, aunque no necesariamente en ese orden, tiene resonancias en la problemática de la inteligencia artificial. Durante décadas creíamos estar cerca de poder satisfacer los requerimientos del Test de Turing para fallar una y otra vez cuando de responder a sus exigencias se trataba.

Pero a partir de mediados de la primer década del Tercer siglo algo cambió. La combinación de un hardware cada vez mas potente, de lenguajes de programación mas sofisticados, de nuevas categorías y conceptos para pensar/diseñar el procesamiento en paralelo; las redes neuronales, el machine learning; nuevas interfases (visuales); la adopción de una epistemología enactiva, el respeto por una fenomenología del conocimiento encarnada en el cuerpo, pero mas que nada la emergencia de Internet como un caldo de cultivo y de aceleración de la inteligencia colectiva, lograrían en una década o menos lo que no habíamos conseguido en el medio siglo anterior.

Lo retrogresivo

Por eso conviene recordar las tesis principales de una obra singular como fue La Cuarta Discontinuidad. La coevolución de hombres y máquinas de Bruce Mazlish publicada a principios de la década de 1990 cuando Internet recién empezaba a despegar en el imaginario colectivo. Desgranando esas intuiciones fundamos la cátedra @datosuba en 1996 y orientamos nuestros primeros programas académicos de esa época como Del paradigma del control al diseño de autonomía Introducción a las Tecnologías y Ciencias Cognitivas .

Para Mazlish uno de los pilares del fin del milenio giraba alrededor de la emergencia de un nuevo sacrilegio en contra del narcisismo humano. Así como el trinomio Copérnico/Galileo/Newton había reconciliado al mundo terrestre con el celeste, rompiendo la exclusividad humana en cuando a disociarnos de la historia natural del universo, Darwin haría lo propio dos siglos mas tarde suturando la discontinuidad entre nuestro linaje animal y nuestra prosapia humana. Freud terminaría de asestar un golpe equivalente al hundir nuestra fantasia de racionalidad extrema en el fango de un inconsciente implacable y básicamente desalmado abriendo así espacio para la liberación de nuestros peores impulsos criminals y antisociales.

Curiosamente las grandes figuras de la historia de la ciencia se convertirían en la aproximación de Mazlish en verdaderos destructores de la excepcionalidad humana y en embajadores de lo que autores como Bruno Latour, Kenneth McKenzie Wark, Ian Bogost y otros realistas denominarían la vuelta de lo reprimido de los objetos.

Un robot que no solo toca sinp que “compone” como Johann Sebastian Bach

Pero no habíamos ido a tocar la puerta del oído de los empresarios y de los recipientes de premios tecnológicos con estas fabulaciones de la historia de las ciencias. Porque esas tres discontinuidades ya han sido relativamente amortizadas, y si bien han supuesto golpes brutales al narcisismo humano, nuestra convivencia con sus asertos durante al menos un siglo no llamaría tanta la atención. Lo que si resultaría una sorpresa para muchos de los asistentes y enhebraría el nombre de estos científicos mas que famosos con otros menos conocidos sería “ la cuarta discontinuidad“. La pretensión de la inteligencia artificial de anular la distancia que existe entre la inteligencia humana y la de las máquinas.

Porque en esa dirección iba la obra de Mazlish cuando aun los resultados de numerosas investigaciones estaban lejos de confirmar sus supuestos, a saber de que la inteligencia artificial podía competir en un pie de igualdad con la humana.

En esta carrera del hombre contra la máquina (como la titularon Erik Brynjolfsson & Andrew McAfee en su obra La carrera contra la máquina. Cómo la revolución digital está acelerando la innovación, aumentando la productividad y transformando irreversiblemente el empleo y la economía) los hitos mas conocidos son la famosa batalla perdida de Gary Kasparov contra Deep Blue de IBM en 1996 y mas recientemente la derrota de los campeones mundiales humanos de Jeopardy a manos de Watson en 2011 devenido recientemente en una maquina de respuestas universal.

La pregunta del detective actuado por Eddie Murphy en Yo Robot “can a machine write a symphony” astutamente replicada por el supuesto asesino de … el robot “Can you?” adquiere hoy otro sentido.

La respuesta que podríamos darle hoy a Murphy hoy no va tanto por el lado de exhibir la capacidad de computación matemática capaz de ganarle a un campeón mundial de ajedrez, o a dos campeones mundiales de Trivias, sino con una respuesta mucho mas contundente como es lo que ha hecho David Cope con sus máquinas algorítmicas que convirtieron innumerables lineas de código, astutas reglas de programación y el masajeo de enormes bases de datos de composiciones anteriores y una pizca de talento y crueldad sin par en una obra de estas características….

Podremos discutir si a esta pieza o a las miles que generó el programa Emmie de Cope les falta o no alma, de lo que no cabe duda es de que ejemplos como éstos muestran que la cuarta discontinuidad se está suturando a una velocidad impar, y que la inteligencia humana está a un tris de ser si no absorbida al menos de ser “devaluada” o ”revaluada” a la altura de las nuestras creaciones mecánicas, lo cual plantea una serie de problemas mayúsculos, de desafíos inimaginables y nos saca del sopor en el que la cuarta discontinuidad -entre teológica y metacientifica- nos había sumido hace siglos.

Hitos recientes en la historia de la algoritimización

Entendemos por ALGORITMO a una lista de instrucciones que lleva a un resultado a partir de la información disponible, se trata de un árbol de decisiones binarias que en un número de pasos finitos generan un comportamiento o resultado, con grados crecientes de complejidad. Denominamos bots a un conjunto encadenado de algoritmos.

Lo curioso es que el desarrollo mas sofisticado que hayamos visto de los algoritmos no proviene como podríamos presumir de los laboratorios científicos, de las unidades de investigación y desarrollo de las compañías tecnológicas, ni siquiera de las startups mas recientes y resonantes, sino de una de las áreas mas castigadas por la incredulidad masiva y por sus desastres especulativos. Nos referimos a la banca y a las instituciones financieras que desataron la crisis especulativa sin precedentes de 2008 que aun seguimos padeciendo. O sea a ese teplo de la codicia llamado Wall Street.

Los protagonistas principales de la sutura de la cuarta discontinuidad han sido los quants (analistas cuantitativos), es decir los cool hunters de las nuevas industrias especializados en detectar puntos ciegos o “dulces” en los cuales los algoritmos pueden volver obsoletos paradigmas transactivos ancestrales y de paso generar toneladas de dinero en el ínterin. Y en particular su padre putativo Thomas Petterfy.

La clave de la evolución de estos algoritmos inteligentes que están ayudando a demostrar la inteligencia de lo artificial se basa en una combinación virtuosa entre machine learning + redes neuronales. Los algoritmos nacidos de una evolución acelerada en busca de ganancias monstruosas han derivado en bots que en este momento con capaces de:

– escribir sinfonías (muy gustosas al oído)
– analizar documentos legales (con una velocidad y una exactitud atroz y a un costo cercano al 1% de lo que cuestan (o costaban) los paralegales equivalentes
– diagnosticar pacientes (a mucha mas velocidad y con una exactitud solo cuestionada por el 1% de los hiperexpertos)
– escribir artículos periodísticos (en “tiempo real” en el caso de los espectáculos deportivos) combinando una tersa sintaxis con una precisión numérica que sobrepasa a cualquier comentarista humano
– manejar coches (dándose el lujo de no provocar un solo accidente a pesar de haber recorrido 1 millón de km)

Detrás de cada una de estas demostraciones de sutura de la cuarta discontinuidad están los hackers de elite, la mayoría de los cuales se venían desempeñando en el sector bancario y financiero (al menos hasta 2008 donde por bandadas han abandonando Wall Street llevando todo su talento a estas áreas que nos interesan mucho mas y que cierran por fin la Cuarta Discontinuidad desde Silicon Valley hasta Silicon Alley).

La conclusión es restallante: los nuevos imperios no son creados por MBA’s sino por engineering and computer science labs en los que queremos/debemos participar.

(Continuará…)

Comentarios

  1. MC

    Eddie Murphy no actuó en la película “Yo, robot”. Supongo que en el artículo se refiere a Will Smith. Slds

  2. 3 Antropoceno, de rebots creativos y espirituales

    […] Is Google the answer? Hackeando casi todo […]

Deja un comentario