Un estudio mide cómo Facebook influye en la manera en que se informan los argentinos

¿Quién define qué noticias leemos?

Durante toda la vida fueron los medios: periodistas dándole relevancia a ciertos hechos.

En los últimos años surgió un intermediario: Facebook , el sitio más visitado del país y el cual el 65 por ciento de los argentinos usan como fuente de información, según el Instituto Reuters para el Estudio del Periodismo. Facebook es un vehículo para ver lo que generan otros. Pero no todo lo que publica un medio en Facebook será visto, aún si el usuario eligió «seguir» el perfil de ese medio, aun si demostró un interés directo por el contenido de ese perfil.

Esto es un problema para los medios, porque pierden el control sobre su audiencia, que sólo verá las notas que Facebook selecciona (para ver el resto deberán ir a la Web del medio, o usar su aplicación). Pero lo es también para quienes creen que Facebook es un informante neutral, y que no decide qué notas se ven más y cuáles no. Esto último es lo que buscó hacer evidente un experimento hecho en nuestro país a fin del año pasado.

El experimento

El experimento lo hicieron Renata Ávila, Juan Ortiz Freuler, Craig Fagan, de la World Wide Web Foundation, la fundación que aboga por una Web abierta y por democratizar el acceso a la información, iniciada por Tim Berners-Lee, el creador de la Web ( que considera que la Web abierta está bajo amenaza). Recibieron la colaboración de Claudio Agosti en la recolección de datos.

En diciembre de 2017 crearon cuentas falsas en Facebook: seis mujeres de 30 años, sin ingresar más datos que esos. Todas siguieron a las mismas 22 fuentes de noticias dentro de Facebook, incluyendo La Nación, Clarín, Infobae, Página 12 y otros medios, y también los perfiles de Mauricio Macri y de Cristina Fernández de Kirchner. Todas se conectaron a la misma hora en forma periódica. Una semana después de su creación, el 15 de diciembre, hicieron un cambio: dos cuentas le dieron Me gusta a varias publicaciones de Mauricio Macri; dos hicieron lo mismo con posteos de Cristina Fernández de Kirchner; y otras dos permanecieron «neutrales». Querían medir cómo cambiaba el contenido que se le mostraba a cada perfil.

El resultado: de las 11.603 notas publicadas por las 22 cuentas noticiosas dentro de Facebook durante 11 días, sólo el 18 por ciento de esas notas fue mostrado a los seis perfiles. Facebook eligió contenido diferente incluso para las cuentas que tenían un perfil similar.

La medición es limitada y el alcance del experimento también lo es. Pero confirma en forma local estudios hechos en otros países: las redes sociales eligen qué noticias ven sus usuarios; el filtro noticioso, que antes era social y compartido, ahora depende de un algoritmo. Facebook no es un medio, pero termina actuando como tal.

«La amplitud de esta brecha entre lo que se ve y lo que se oculta representa el gran margen de discrecionalidad con el que cuenta la plataforma, y que se encuentra fuera del control de los usuarios», afirman los autores del experimento, al que accedió LA NACION, y que puede leerse en el sitio de la Fundación o junto a estas líneas.

Qué responde Facebook

«La sección de Noticias de cada persona en Facebook es única y está diseñada para que encuentren el contenido más relevante para cada una de ellas. Lo que cada persona ve es determinado por sus intereses e interacciones con otras personas, Páginas, noticias, negocios y contenidos», explica Ana Clara Prilutzky, Gerente de Comunicaciones de Facebook Argentina. Existe una fórmula que valora las publicaciones de amigos y familiares, primero (esto no era así cuando se hizo el experimento), luego las noticias y el contenido entretenido.

«No favorecemos ciertos tipos de fuentes ni ideas. Nuestro objetivo es entregar las historias que, según hemos aprendido, le interesan más a un individuo -dicen en Facebook-. Hacemos esto no solo porque creemos que es lo correcto, sino también porque es bueno para nosotros. Cuando la gente ve contenidos que le interesan, es probable que pasen más tiempo en el News Feed y disfruten de la experiencia.»

Las redes sociales generan así una suerte de diálogo, como oposición al monólogo de los medios tradicionales, que antes de la Web publicaban casi a ciegas. Facebook no esconde que hace una selección (en el caso analizado, no hubiera sido posible mostrar los 11 mil posteos completos; es muchísima información): pero, argumentan en la World Wide Web Foundation, es difícil determinar cómo y por qué decide qué muestra.

En enero, después de que se hiciera la medición del estudio, Facebook cambió cómo organiza las publicaciones, privilegiando las de amigos por sobre las noticias. También incorporó una herramienta llamada Artículos Relacionados (no disponible todavía en la Argentina) que muestra, en una publicación, cómo otros medios están tratando la misma noticia.

Lo hizo respondiendo a la tormenta en la que está envuelta la compañía en los últimos años por su papel como vehículo de noticias falsas y propaganda política.

Esta decisión afectó el número de visitas que Facebook le deriva a los medios, que tienen una relación ambivalente con la red social; les trae visitantes, pero en el medio se queda una parte creciente de la torta publicitaria. Algunos medios, que producían contenido sólo para este sitio, debieron cerrar; algo similar pasó cuando Instagram probó con cambiar el orden cronológico por uno algorítmico.

Qué piden los expertos

«Lo que intentamos mostrar es el margen de discrecionalidad de Facebook al definir qué contenido muestra y cuál oculta -sintetiza Craig Fagan, uno de los autores del estudio-. Estas plataformas tienen como objetivo maximizar el tiempo que pasamos conectados (para vendernos más publicidad), y son quienes definen qué noticias circulan y cuáles no. Alguien podría argumentar que los medios de comunicación tradicionales también tienen esta tensión. Pero en el caso de Facebook no es posible reclamarle a una persona en particular, ni conseguir una respuesta de por qué cierto contenido no fue visibilizado. Necesitamos más transparencia, y que el control el algoritmo esté en manos del usuario, y no de la plataforma.»

En este sentido, hace unos pocos días Facebook anunció la posibilidad de cambiar el orden de la lista de publicaciones (Noticias, o News Feed, en inglés) del orden algorítmico a uno cronológico: primero se ve lo más reciente. Pero es una configuración temporal: después de un tiempo volverá al formato predefinido: lo más popular primero.

Por qué importa este estudio

Los medios siempre eligen qué publicar y qué no. Pero la oferta completa está disponible para el lector: todas las notas de un sitio, la duración entera de un noticiero o programa de radio. En Facebook esa oferta es opaca: en el período que midió el experimento, por ejemplo, a las cuentas analizadas no se les mostró noticias sobre femicidios, aunque hubo notas publicadas sobre el tema en los perfiles que seguían. El algoritmo ( esa fórmula de aplicación automática, pero programada por personas, por lo que también tiene un sesgo) las consideró irrelevantes.

«Es como recibir un diario con notas recortadas -argumentan los autores del informe-. Los usuarios necesitan comprender mejor cómo la tecnología funciona y afecta a sus dietas informativas, y su percepción de la realidad».

El tema no es nuevo: ya en 2011 el activista estadounidense Eli Pariser utilizó el término «burbuja de filtros»  para dar cuenta de este fenómeno: un canal de información hecho tan a medida termina siendo una anteojera.

Las redes sociales no son la única fuente de información: mucha gente también lee noticias en los medios en forma directa, ve televisión, escucha radio. Pero no todos. En Estados Unidos, por ejemplo, el 50 por ciento de los adultos encuestados por el Pew Research Center en agosto último tenían a Facebook como única fuente de información.

«Hasta hace no tanto te informabas con la lógica de un medio; veías algo porque un grupo de gente lo había elegido. En lo que muestra Facebook influye lo que el medio publica en esa red social, lo que comparten tus amigos, y otro tanto lo que define el algoritmo. Se mezclan la lógica editorial, la de la recomendación social, y la algorítmica», describe Eugenia Mitchelstein, profesora de la Universidad de San Andrés y autora, junto a Pablo Boczkowski, de La brecha de las noticias.

Según Mitchelstein, esto cambia la jerarquización de la noticia: «en un medio tradicional sabés qué se consideró más importante por su ubicación en la página del diario, o el tiempo dedicado en el noticiero. En Facebook no está esa jerarquía: la noticia de la falta de quórum para un debate parlamentario aparece mezclada con el posteo del casamiento de un amigo.»

Así, explica la investigadora, se diluyen los límites entre la información pública masiva y la información personal, mezcladas en una línea infinita de publicaciones (aunque ciertas noticias sigan sin verse). Tener más en claro cómo se produce ese cruce es lo que busca esclarecer el estudio: y lograr una mayor transparencia para la elección y distribución de noticias que, para un número significativo de personas, llegan vía Facebook.