Recuerden esta fecha: 4 de diciembre de 2009. Este día Google decidió cambiar la lógica de la web sin consultarnos. De un día para otro el “search-engine” más usado del planeta decidió personalizar los resultados de nuestras búsquedas. Ya nada volverá a ser como antes… The Filter Bubble, el nuevo libro de Eli Pariser, habla precisamente de este proceso que cambia las lógicas profundas de la World Wide Web. Este cambio tiene como telón de fondo la lucha entre titanes -Google, Facebook, Amazon, Microsoft, Apple, etc.- y el conflicto por la apropiación de nuestra información personal. El presente post puede leerse como una continuación de Facebook vs. Google: webs centrífugas, centrípetas y cloud computing (Julio 2009).
Personalización Vayamos por partes. Desde la llegada de la World Wide Web se coquetea con la idea de recibir contenidos personalizados. Más de uno en la segunda mitad de los años 1990 repetía incansablemente que tendríamos diarios personalizados donde podríamos leer sólo los contenidos que nos interesaran. La tecnología RSS fue otro paso en la personalización de los contenidos. La Web 2.0, con sus redes sociales y sofisticados sistemas de gestión de la información lleva este proceso aún más allá.
Veamos un ejemplo. Dos usuarios pueden buscar la palabra “banco” en Google al mismo tiempo y recibir resultados diferentes; si uno de ellos está “fichado” -en función de sus búsquedas anteriores y datos disponibles en línea- como empleado de una entidad financiera, Google le mostrará una lista donde aparecerá el Santander, BBVA, Caixa, etc.; si, por el contrario, el usuario es un carpintero que siempre ha buscado en Google materias primas, distribuidores o diseñadores para sus productos, el Page Rank generará una lista de aserraderos, empresas de bricolage, etc. que fabrican o venden “bancos” para sentarse. Google lo llama “Personalized search for everyone”. Algo similar pasa con Facebook, donde nos filtran las entradas de nuestros “Amigos” a menos que modifiquemos esta opción manualmente. Las ventajas de la personalización para el usuario son claras: menos tiempo de búsqueda, mayor focalización en los resultados, etc. Pero… ¿qué pasa si buscamos información sobre temáticas sociales o políticas?
Cada vez que entramos en una web nos deja de recuerdo una serie de cookies en nuestra computadora. Según Pariser una web como Dictionary.com (que utilizo a menudo) deja más de 200 cookies que servirán para rastrear nuestras visitas a la web, identificar las palabras que buscamos y trazar un perfil. Detrás de un servicio amigable y “free” hay un potente dispositivo informático de extracción de información. Este dispositivo es el que permite personalizar los contenidos y, al mismo tiempo, trazar un perfil de usuario que nos identificará en las bases de datos y marcará nuestras futuras interacciones y contenidos que recibiremos. Esta dinámica extracción/perfil/personalización es la estrategia central detrás de las cinco webs más visitadas: Yahoo, Google, Facebook, YouTube y Microsoft Live.
“In the view of the ‘behaviour market’ vendors, every ‘click signal’ you create is a commodity, and every move of your mouse can be auctioned off within microseconds to the highest commercial bidder” (Pariser, p. 7)
Burbujas Según Pariser se están construyendo “burbujas” (“bubbles”) que filtran la información y nos construyen un nicho a medida. En nuestra “filter bubble” sólo nos llegan los contenidos que deseamos. Potentes sistemas de tratamiento de datos nos “miman”, nos dan lo que queremos y erradican cualquier elemento molesto. Tres elementos caracterizan estos espacios: 1) Estamos solos en nuestras burbujas, 2) La burbuja es invisible, y 3) Nosotros no elegimos estar en la burbuja. Podríamos decir que nuestra vida digital se desarrolla en “interfaces personales”, ámbitos diseñados por el código que determinan nuestra dieta informativa.
El libro de Pariser esquiva bastante bien las posibles lecturas conspiracionistas o paranoicas, ya que prefiere dejar caer ejemplos y casos para ilustrar su visión de estos procesos. Una frase de Andrew Lewis sintetiza la idea:
“If you’re not paying for something, you’re not the customer: you’re the product being sold”.
Pariser describe el recorrido que llevó de los primeros “agentes inteligentes” a los actuales sistemas de gestión de la información de los usuarios. De la idea original -los “bots” trabajando para nosotros en la web- se pasó a dispositivos que están a las órdenes de las grandes empresas. Amazon es quizás uno de los mejores ejemplos; según Jeff Bezos su empresa “debería ser una especie de compañía de Inteligencia Artificial” dedicada a vincular clientes y productos. Por el lado de Google, la información no sólo proviene del buscador: todas las aplicaciones están orientadas a recavar la mayor cantidad posible de información. Google+ es un paso más, quizás el más fuerte, en esa dirección. Respecto a Facebook, la personalización de la página de inicio gracias al EdgeRank refuerza la lógica de la personalización. La prensa en línea -Washington Post- y los blogs -Huffington Post- van por el mismo camino.
Desintermediación Pariser también dedica una parte de su libro a los procesos de desintermediación, los cuales han desmontado el modelo del “broadcasting” y puesto al borde de la extinción sistemas consolidados (como la prensa de masas). Las consecuencias políticas de la personalización informativa están por verse. En mi artículo sobre la hipertelevisión me preguntaba:
“… ¿Qué sucede cuando la televisión estalla y se atomiza en millones de experiencias individuales de narrow y nanocasting? ¿Qué medio-institución se encargará de hacer circular el cemento ideológico – por usar la metáfora de Gramsci – que mantiene unida la sociedad? ¿Cómo se construye la hegemonía en un ecosistema mediático fragmentado?…”
Pariser se realiza las mismas preguntas respecto a la web personalizada: el filtraje de los contenidos informativos puede llevar a una ruptura del concepto de “opinión pública”, la cual se terminaría diluyendo en una combinación de selección amateur (“Me gusta”) y algoritmos (PageRank). Esta burbuja invisible y fuera de nuestro alcance -siempre según Pariser- termina por modelar nuestra cognición y toma de decisiones. Al desaparecer el contexto informativo y tener a nuestra disposición una versión pequeña y “ad hoc” del mundo nuestras opciones de acción son más limitadas.
Por otro lado estos dispositivos algorítmicos están orientados a la predicción de nuestros movimientos y acciones. Los propietarios de LinkedIn sostienen que pueden predecir dónde estaremos trabajando dentro de cinco años… Esta información basada en nuestra performance anterior implica grandes riesgos a nivel personal: una vez que hemos sido “fichados” y “perfilados” por los sistemas nuestras posibilidades profesionales o como ciudadanos pueden verse muy afectados. Podemos ser objeto de discriminación por parte de los algoritmos (o sea, nadie se hará responsable de la discriminación).
Serendipia Finalmente, también la creatividad peligra en un entorno formado por burbujas de información personalizada. Si la innovación proviene del cruce de ideas (ver mis reseñas de los últimos libros de Kevin Kelly y Steven Johnson, primera y segunda parte), las burbujas informativas, al filtrar los datos, impiden el surgimiento de nuevas relaciones entre elementos dispares.
“In the filter bubble there’s less room for the change encounters that bring insight and learning. Creativity is often sparked by the collision of ideas from different disciplines and cultures (….) A world constructed from the familiar is a world in which there’s nothing to learn” (Pariser, p. 15)
¿Apocalíptico o integrado? El libro de Pariser es interesante porque actualiza la discusión sobre la “personalización” (uno de los grandes mitos de las ciberculturas de los ’90 junto a la desintermediación y la realidad virtual) y la pone en discusión. A la hora de proponer vías de salida, en las últimas páginas del volumen el autor apela a nuestra conciencia como navegantes de la red. De frente a las estrategias “extractivas” que nos roban información a cada click, Pariser propone algunas tácticas de resistencia y sobre todo nos alerta sobre la necesidad de ser conscientes y más pro-activos a la hora de construir y gestionar nuestra información en la red. En este sentido el libro de Pariser se acerca mucho al artículo de Tim Berners-Lee (“Long Live the Web: A Call for Continued Open Standards and Neutrality“, 2010) donde defendía el carácter democrático de la red y la necesidad de no bajar la guardia al respecto.
Al final de “Hipermediaciones” (Gedisa, 2008) escribí que los procesos tecnológicos no son
“… procesos o actividades políticamente inertes o neutrales. Todos tienen lugar bajo relaciones sociales marcadas por el conflicto y deberían encuadrarse en las confrontaciones hegemónicas que atraviesan la sociedad”.
La red encierra esta dialéctica entre libertad y control, anarquía y poder, dominación y rebelión. Saber qué hay detrás de cada click es nuestra obligación como usuarios; si no lo hacemos podemos terminar reproduciendo la imagen del televidente embobado frente a la pantalla televisiva que siempre hemos criticado.
Bonus tracks – Beware Of Online “Filter Bubbles” – Eli Pariser en TED – Google working on a marketplace for advertisers to buy and sell your data
http://hipermediaciones.com/2011/07/22/the-filter-bubble-alguien-te-esta-mirando/