Los algoritmos, esos mayordomos silenciosos

Hace más de dos décadas Nicholas Negroponte vaticinaba el Daily Me como la gran innovación informativa: un periódico diario con las noticias que nos interesaran sin que otros decidieran por nosotros qué era lo más importante del día. A ellos ayudaba la eterna justificación de la escasez de espacio en el periódico o de tiempo en la radio y televisión. Pero llegó internet a ensanchar el mundo. ¿O no tanto?

https://stock.tookapic.com/photos/18438
Fuente: Stock Tookapic

En esta sociedad postindustrial nos parece una bendición la libertad de elección, decidir con el mando a distancia si vemos una serie en HBO, un vídeo de YouTube o un álbum de Google Fotos sin tener que estar sujetos a la tiranía del primetime. Así, las charlas de café del día siguiente no van de “viste anoche cuando…” sino “estoy viendo una serie que va sobre tal…” y hasta podríamos decir que es sumamente enriquecedor porque nos aporta nuevas visiones.

Huir de ese framing de los medios tradicionales parece que solo puede traer ventajas. La mala noticia es que también supone pérdidas y estas son más difíciles de evidenciar. Por un lado, en cierta medida flaquea una esfera pública compartida como repertorio de discusión común, pero por otro no nos damos cuenta de que esos viejos “censores mediáticos” se ven reemplazados por “otros” más discretos, los cada vez más cuestionados algoritmos. Y es que probablemente la propia serie de HBO, el vídeo de YouTube o la selección de nuestras fotos en la nube, no fue tanto una elección personal como sí una recomendación predictiva bajo esa nueva sofisticada tecnología que es la inteligencia artificial aplicada al consumo.

El algoritmo, ese silencioso mayordomo que nos facilita la vida, que nos dice qué nos gusta y qué no, que nos hace ser más eficientes sin perder tiempo buscando, ese algoritmo que nos limpia el muro de Facebook de aquello que considera menos relevante o que jerarquiza unos mensajes sobre otros en Instagram. Ese mayordomo desconocido que viene a facilitarnos la vida y del que nada sabemos. Ese intermediario que nos ordena el mundo, nos lo “personaliza” para liberarnos de la ardua tarea de pensar qué queremos consumir y nos pone el menú en la mesa. Ese invisible algoritmo que nos construye un mundo, un mundo a nuestra altura, pero a una altura que corre el riesgo de hacerse más pequeña, menos diversa, más pobre.

Así nos encontramos con grandes sesgos y tomas de decisiones que las máquinas hacen por nosotros como inferir que si hay una persona en una foto en un entorno doméstico será un mujer o confundir gorilas con personas negras en un buscador de imágenes. Sucede que en su aparentemente inocente “efecto espejo” vienen a reforzar nuestros peores comportamientos como humanos, pero lo importante sería que aprendiéramos a programarlos para que nos ayuden a ser mejores personas y con ello corregir nuestros defectos como sociedad (machismo, racismo, xenofobia, etc.).

¿Y qué sabemos de esos algoritmos? Prácticamente nada y lo peor es que probablemente ni quien los crea tenga todas las respuestas pues la criatura aprende a tomar sus propias decisiones, como decía Borja Adsuara hace unos días en el debate de #Nuestrosdatos, y como en cierta manera empiezan a apuntar las reservas de Google, Apple o Facebook cuando llaman la atención sobre esta deriva. Es lo que tiene el machine learning, y su base en inteligencia artificial, que aprende y aplica su propia inteligencia… artificial.

En el Seminario sobre Competencias Digitales en el que participé en septiembre en la Universidad de Coventry ya apuntábamos este fenómeno y la necesidad de empezar a introducir la alfabetización algorítmica como una competencia fundamental para entender el mundo en el que nos movemos. Quizás no seamos capaces de deconstruir el algoritmo y saber qué nos cuenta y qué nos oculta, pero al menos conviene señalar su poder y la burbuja informativa en la que vivimos en gran parte por su acción silenciosa e invisible. Ser conscientes como ciudadanos de que solo vemos una parte de la realidad, que quizás ni siquiera es tan real, es ya un poderoso avance.

En este sentido me resultó interesante cómo la propia María Sefiradi, vicepresidenta de Wikimedia Foundation destacaba hace unos días que Wikipedia no opere bajo algoritmos de recomendación, que no nos confine en burbujas y que se mantenga neutral en las búsquedas para que sean los usuarios y usuarias quienes exploren libremente lo que quieran consultar. Un comentario que parece inocente pero que hoy cobra mucho sentido. Sonaba a web libre de aditivos y me pregunto si no tendremos que empezar a destacarlos como en las etiquetas de las comidas procesadas.

¿Nuestros datos? ¿Para qué los necesitamos?

Hoy he participado en la Jornada Mis datos, tus datos, nuestros datos,  que organizaba Iniciativa Open Data en Medialab-Prado. Su objetivo era sumar distintos puntos de vista en torno a la importancia de la información accesible y reutilizable tanto desde las administraciones públicas como proveedoras y reguladoras, como en los ámbitos de su explotación económica, académica o ciudadana.

Mi contribución ha versado sobre el papel de la ciudadanía en este ámbito, fijándome concretamente en los aspectos que justifican su rol activo: contribuir a desarrollar una cultura democrática en una sociedad más crítica e informada, ejercer una presión como vigilante del poder y generar conocimiento libre produciendo ciencia ciudadana. Para ello, parece evidente que se necesitan apoyos en tres direcciones fundamentales: disponer de un marco de actuación que promueva estos usos tanto legal como social y económico, adquirir conocimientos y metodologías de trabajo hasta ahora vinculadas al saber experto (técnicas de periodismo de datos p.ej.) y finalmente datos accesibles para ejercer estos derechos.

Son muchas las ideas que se han compartido (aquí han publicado la crónica, el decálogo y los vídeos). Algunas que me han parecido interesantes y que resumo a modo de titulares:

  • Lo primero es negar la mayor del propio título de la jornada. Los datos no son de nadie. Sí cómo nos afectan. Esto lo ha desarrollado mejor Borja Adsuara en su artículo de hoy de Retina.
  • Lo contrario a la transparencia no es la opacidad, sino la falsa apariencia. Es más perjudicial ofrecer datos confusos, desestructurados, sin metadatos imprecisos, desactualizados, etc. que el hecho de no ofrecerlos. Intoxicación por saturación.
  • Debemos distinguir claramente entre Transparencia, como deber de ofrecer información pública para la rendición de cuentas, y la provisión de Open Data para la reutilización pública.
  • Los proveedores de información pública, fundamentalmente los portales de Open Data de las Administraciones, dedican mucho esfuerzo y recursos a la publicación de datasets pero se ven desconectados del mundo de los reutilizadores. Estos, en cambio, no perciben que haya suficiente información de valor para su explotación económica y social porque los datos que consideran que les pueden generar mayor valor no se publican, y esto puede ser por múltiples motivos: por falta de voluntad, conocimiento de su utilidad o celo de protección.
  • La anonimización de los datos puede ser una estrategia válida para ofrecer grandes volúmenes de información privada y hacerla pública (ej. Datos sanitarios, datos bancarios, etc.) con el fin de dar datos de valor y proteger al mismo tiempo la privacidad de las personas.

El objetivo de los organizadores es seguir el debate y continuar generando este tipo de espacios de encuentro sobre el tema, así que seguiremos atentos a su evolución. Gracias por empujar esta iniciativa.