Retomamos hoy en exactamente en el punto en el que dejamos la semana pasada, en que estuvimos definiendo cuantitativamente la big data, a través de nombres extraños como terabytes, petabytes, exabytes, etc Hoy seguimos con ese tema, intentando ordenarlo en algunas clasificaciones. Podríamos preguntarnos: ¿adónde van los datos cuando nacen? Y la respuesta sería, por supuesto, a un lugar muy provechoso y aprovechable al que llamamos “base de datos”. Es decir, que toda big data se almacena en una base de datos. Una base de datos es una colección de datos organizada. Los elementos que organizan esos datos, se llaman metadatos, o también índices.
En la bibliografía tienen ustedes el texto de Helen Nissenbaum, “Conocernos mejor que nosotros mismos: Bases de datos inmensas y profundas” que toca el tema de las grandes bases de datos desde varios puntos de vista. Conviene revisarlos.
Nissembaum rescata un primer momento histórico, entre los años 60 y 70, la era del mainframe, donde las grandes grandes bases de datos computarizadas eran compiladas por el gobierno y las grandes instituciones privadas. Aquí fotos imperdibles de las computadoras de aquellos años, y sus operadores y operadoras: http://plyojump.com/classes/mainframe_era.php. Luego, la capacidad de procesamiento y almacenamiento en constante crecimiento, inversamente a la caída de los costos de producción de medios de almacenamiento, y en tercer momento la conexión en red vía Worl Wide Web de esas bases de datos, hicieron posible la interconexión de datos. El big data es un concepto que atraviesa múltiples posibilidades de recolección de datos: los archivos telefónicos, las compras con tarjeta de crédito, los archivos telefónicos, los cruces de fronteras, y por supuesto, la actividad de los usuarios en la World Wide Web, donde, a diferencia del mundo off line, cada una de nuestras actividades deja una traza en una base de datos.
El crecimiento del big data dependió entonces de tres factores:
- Capacidad de almacenamiento,
- Capacidad de flujo
- Capacidad de análisis de datos
Estos tres factores dieron lugar a bases de datos inmensas y profundas, pero una cuarta posibilidad amplió el poder de las bases de datos: la capacidad de agregación de datos, que nos da la posibilidad de recopilar y relacionar varias bases de datos distintas. De esa relación surge un interesante poder de interpretación de datos. Entonces, las bases de datos pueden ser:
- Amplias (muchos sujetos, poca información)
- Profundas (mucha información sobre pocos sujetos)
- Agregadas (combinación de varias bases de datos, amplias o profundas)
Una aplicación muy interesante y muy fácil de usar para acercarse a la idea de estos tres tipos de bases de datos es la aplicación GapMinder, creada por Frank Rossling
Ver: www.bit.ly/1OaDIoQ: Gapminder.com trabajadores agrícolas/ingreso per capita
Entonces, vamos a usos posibles del big data:
- Segmentación de públicos
http://www.contunegocio.es/redes-sociales/facebook-da-un-paso-mas-en-la-segmentacion-de-audiencias/
- Algoritmos sociales
¿Jugamos a OK Cupid? https://www.okcupid.com/
- Gobierno abierto
http://opengovernmentdata.org/
http://gabierto.bahiablanca.gov.ar/
- Periodismo de datos
http://blogs.lanacion.com.ar/projects/data/investigating-argentinas-prisons/
- Data hacking y Crowdsourcing.
https://www.waze.com/es-419/livemap
http://www.streetmusicmap.com/
Es decir, no todos los usos del big data son iguales, e incluso algunos presentan posibilidades muy interesantes y constructivas, y otros no tanto. Seguiremos trabajando con este tema.
¿Cómo lidiar con la big data en las ciencias sociales? Cambios de escala: humanidades digitales y analítica cultural.
Antes de comenzar con este tema, vamos a ver un video sobre el mismo que nos envió Alejandro Piscitelli.
En los últimos años, una variedad de enfoques, tales como las humanidades digitales, la analítica cultural y la lectura distante procuraron reunir estas dos perspectivas en una sola. Desde el año pasado estamos bastante compenetrados con estas miradas que buscan integrar objetos culturales con métodos tecnológicos, de esto se trata este abordaje conocido con el nombre de Humanidades Digitales, y del que podemos decir que la lectura distante, concepto que recorreremos en esta clase, forma parte. Varios analistas de las relaciones entre cultura y tecnología han retomado el concepto y el abordaje de las humanidades digitales, que es muy reciente, habrá surgido hace no más de quince años en sus primeras manifestaciones. El texto de David Berry que tienen ustedes en la Bibliografía recorre tres etapas de las Humanidades digitales, que vinculan el uso de dispositivos tecnológicos digitales a las prácticas asociadas a las ciencias sociales y humanas, tradicionalmente vinculadas al soporte analógico del papel, y al pensamiento lineal del texto. Ahora bien, a lo largo de los últimos quince años, estas áreas del conocimiento han empleado en forma creciente tecnologías digitales para llevar a cabo sus tareas de investigación. Comenzando siendo tecnologías de apoyo que tenían un papel periférico en el diseño de las investigaciones (correo electrónico, búsquedas en Internet). A éstas se refiere Berry con Primera Ola de HD. Una segunda etapa consistió en la digitalización de repositorios y grandes cantidades de datos originalmente analógicos, para su preservación y consulta. Como ejemplo, es muy interesante en este sentido el proyecto que lleva adelante la Biblioteca de la Facultad de Humanidades de la Plata, que se encuentra en estos momentos digitalizando los archivos de manuscritos del gran escritor Manuel Puig. Finalmente, una tercera ola de HD se caracteriza por la interacción entre objetos de estudio y preguntas del campo de las humanidades y las ciencias sociales y la intervención activa de tecnologías digitales que determinan directamente el diseño de la investigación, y su capacidad de formular interrogantes y construir interpretaciones.
El mismo Manovich, de quien revisamos su perspectiva teórica sobre los estudios del software, tiene su metodología analítica completamente basada en grandes bases de datos, a la que dio el nombre de analítica cultural. Revisaron seguramente en los prácticos su artículo sobre Instagram cities.
Entonces, la analítica cultural, las humanidades digitales, cómo tratan estas grandes cantidades de datos? Leyendo patrones, repeticiones significativas en grandes recopilaciones de datos, y luego interpretando esos patrones, como un mix entre una metodología cuantitativa y una cualitativa. De la extensa investigación que Manovich produce en analítica cultural tomaremos uno como ejemplo: su selfiecity. Net. Aquí también una equisita selección de todo su trabajo http://manovich.net/index.php/exhibitions
¿De la big data a la algoritmización de todo?
Vamos a dejar planteado nuestro próximo tema, que es el pasaje de la big data a la algoritmización de casi todo. A partir de las grandes cantidades de información que se producen on-line, son dos temas que van de la mano, pero cada uno con su autonomía. Digamos que no todo algoritmo necesita de big data, pero seguramente la lectura de big data depende de la posibilidad de inventar algoritmos para leerlos.
¿En qué se diferencia un algoritmo de un programa? Aquí podemos volver a nuestra hora del código, y seguir haciendo algunos pasos. Ahí veremos la diferencia entre programa, como una instrucción escrita en un lenguaje particular, y algoritmo, como conjunto general de instrucciones codificables. Un algoritmo, se puede definir como una secuencia de instrucciones que representan un modelo de solución para determinado tipo de problemas. O bien como un conjunto de instrucciones que realizadas en orden conducen a obtener la solución de un problema. Por lo tanto podemos decir que es un conjunto ordenado y finito de pasos que nos permite solucionar un problema.
Los algoritmos son independientes de los lenguajes de programación. En cada problema el algoritmo puede escribirse y luego ejecutarse en un lenguaje de diferente programación. El algoritmo es la infraestructura de cualquier solución, escrita luego en cualquier lenguaje de programación. Existen diferentes tipos de algoritmos, algunos son computacionales, otros son no computacionales. Algunos son cuantitativos, otros son cualitativos.
¿La pregunta sería: todo es codificable? ¿La cantidad de sal que le ponemos a una receta, el modo en que volvemos todos los días a casa, los modos de conocer a una pareja? Y entonces allí encontramos que todo es más codificable de lo que pensamos. Dentro de la cultura del software hay una historia cultural de los algoritmos. Pero la revisamos en la próxima clase. Despidámonos ahora con mi algoritmo cualitativo no computacional favorito: la máquina de Rube Goldberg.
Comentarios
Teórico n° 4: De la big data a la al...
[…] Retomamos hoy en exactamente en el punto en el que dejamos la semana pasada, en que estuvimos definiendo cuantitativamente la big data, a través de nombres extraños como terabytes, petabytes, exabytes, etc Hoy seguimos con ese tema, intentando ordenarlo en… […]
Nahuel García Ocampo
Buen teórico, explicativo y acompaña la lectura de los textos.
Se va entendiendo muy bien
Comisión 15 Miércoles 19 a 21 hs
Stefanía Rodriguez
Muy bueno el video explicativo de cómo hacer un algoritmo social.
Nos viene bien para el trabajo que tenemos que hacer durante la cursada.
Si bien en clase venimos charlando con el docente sobre «algoritmos de la vida cotidiana» verlo ejemplificado con lo de «OkCupid» nos facilita la tarea (sobre todo para tener una idea de cómo configurar el puntaje y en base a eso hacer la conexión entre las distintas respuestas).
Stefanía – Comisión 15 (Miércoles 19 a 21 hs.)
Stefanía Rodriguez
Por suerte nos confirmaron la clase pasada que no habrá que inventarlo ya que la parte «matemática» es de gran complejidad !!
Muiño Chaves, Victoria
Un teórico muy divertido. Excelentes vídeos ejemplificadores. Como dice la compañera, el ejemplo de OkCupid nos servirá para el trabajo final de la materia. En el práctico ya improvisamos un algoritmo junto con el docente y sus ayudantes basado en la creación de una base de datos extensa para la creación de un nuevo software útil para estudiantes de la carrera. Un excelente ejercicio para poner en práctica los textos leídos.
Comisión Mié 19-21hs Prof. Mario Lucas Kiektik
Ornella Gonzalez
Me gusto mucho el teorico, entendi cosas que antes no me terminaban de cerrar del todo. Los ejemplos son muy buenos
com: miercoles de 19 a 21 hs
Inés Vazquez Noya
Muy interesante todo lo planteado, especialmente cuando se afirma que «todo es más codificable de lo que pensamos» y pensándolo un poco, es verdad.
Los videos y ejemplos facilitan la comprensión de los textos.
Comisión 15 – Miércoles 19 a 21 hs.
karina Reinoso
buenos ejemplos para visualizar la big data y la forma de emplearla.
comision miercoles 15 a 21
Josefina Susemihl
Estos videos ejemplifican perfectamente lo que fuimos viendo en las clases de practico. Como mencionaron mas arriba ya estuvimos realizando ejemplos practicos con el profesor lo que resulto sumamente interesante y estuvo bueno poner un poco en practica lo que uno va leyendo en los textos.
Comision 15.
Martina Aliano
Muy claro el teórico, nos deja pensando en que los algoritmos no son algo tan extraño y complicado, sino que con saber ver nos podemos dar cuenta de que nos rodean y hacen a nuestra vida.
Belén Cattaneo
Excelente teórico, muy dinámico.
Belén Cattaneo Miércoles 19 a 21 hs.
Ornella Pellecchia
(Comisión 15 – mié 15 a 21 hs)
Me pareció muy interesante, aprender a detectar en lo cotidiano todos estos conceptos.
Las acciones que llenan nuestro día, en su gran mayoría, son algoritmos.
«Integrar objetos culturales con métodos tecnológicos.»
melina
muy buenos ejemplos para entender los algoritmos!!!! Ok cupide es increible.
comision miercoles 19 a 21
Alberto Galmarini
Muy bueno el teorico, me ayudan mucho los ejemplos hacen que la clase sea dinámica y divertida!
Saludos
Comision 15
Miguel Bussani
Me quedé pensando en lo último que resalta el texto de este teórico: ¿todo es codificable? Creo que es un amplio debate donde seguramente se encuentren ejemplos de algo que no es codificable. No cre que debamos preocuparnos por las excepciones, sino conocer y entender el proceso que nos llevó a que hoy día CASI todo sea codificable. El factor humano puede que no sea codificable en un montón de aspectos (nada asegura que conozcamos al amor de nuestra vida en OkCupid) sin embargo en tiempos de poshumanidad nuestra vida entera se rige por algoritmos y código. Entonces quizás la pregunta no sea si es todo codificable, sino cómo optimizamos la codificación y los algortimos para nuestro favor. Sigo pensando. No creo que el debate esté terminado.
Saludos,
Miguel, comisión 15 – miércoles de 19 a 21hs
Catalina Saravia
Muy buenos los ejemplos, ayudan a la comprensión de los textos y a lo que vamos charlando en clase. Además, nos muestran que los algoritmos están más presentes en nuestra vida cotidiana de lo que pensamos
Camila Dolian
excelentes ejemplos para comprender sobre algoritmos! me resultaron híper útiles para el tp que tenemos que armar con el grupo de prácticos. sigo destacando lo interesante de las clases teóricas, que difieren de lo que nos tienen acostumbrados durante la carrera. Los textos se vuelven mas accesibles y llamativos a la hs de agarrarlos.
com.15 MIERCOLES DE 19 A 21 HS