“Inclinación de derechas”: un macroestudio confirma que la desinformación de Facebook la consumen los conservadores
El 97% de las noticias falsas las ven usuarios de derechas, según un análisis de 208 millones de ciudadanos de EE UU en el que Meta se ha abierto a un equipo de académicos, aunque no establecen vínculos claros con la polarización
Jordi Pérez Colomé
JORDI PÉREZ COLOMÉ
27 JUL 2023 - 20:00 CEST
Facebook es una red dominada por noticias conservadoras y sus usuarios de derechas son quienes consumen de manera aplastante la información etiquetada como falsa. Los datos que han permitido confirmar estas dos hipótesis proceden de una investigación académica con un acceso sin precedentes a información interna de Facebook, proporcionada por la red de Meta. Las conclusiones se basan en la actividad agregada de 208 millones de usuarios estadounidenses durante varios meses alrededor de las elecciones en EE UU de 2020. El artículo, liderado por la investigadora española Sandra González-Bailón, de la Universidad de Pensilvania, forma parte de una serie de cuatro trabajos que analizan el impacto de las redes de Meta en la creciente polarización y que han sido publicados este jueves en las revistas Science y Nature.
“No esperaba encontrar algunos de los resultados que hemos hallado, con unos patrones tan radicales”, dice González-Bailón por videoconferencia desde Filadelfia a EL PAÍS. “Pero esto es lo que dicen los datos”, añade. El artículo estudia cómo la combinación del comportamiento de los usuarios y el algoritmo segregan el consumo de información entre progresistas y conservadores. Aunque esos dos grupos existen, no son simétricos, como se creía hasta ahora: “Las audiencias que consumen noticias políticas en Facebook tienen, en general, una inclinación de derechas”, dice el artículo. Pero la cifra más sorprendente es la diferencia en el alcance de noticias etiquetadas como falsas por los fact-checkers de Meta (que tan solo suponen el 3% del total de enlaces compartidos en la red): el 97% dentro de ese grupo de piezas circula entre usuarios conservadores.
“Es cierto que es el artículo más controvertido”, reconoce a EL PAÍS el profesor David García, de la Universidad de Konstanz (Alemania), que ha podido leer las piezas embargadas para escribir un breve comentario en Nature. “Pero es muy importante. La evidencia que teníamos no era tan sólida. Había un estudio de 2015 que tenía problemas. Lo han hecho bien, como todos hubiéramos querido hacerlo”.
MÁS INFORMACIÓN
De izquierda a derecha los perfiles de
InfoVlogger en Youtube, de Carla Galeote en TikTok y de Facu Díaz en Twitch.
Los nuevos ‘columnistas’: así crecen los ‘influencers’ que hablan de política
El impacto de toda la investigación va más allá: “No es tanto una sorpresa. Facebook es más conservador, pero lo que impresiona es que alguien haya ido capaz de verificarlo desde fuera de Facebook con acceso a datos internos”, explica García. “Aunque los resultados no son muy feos para Facebook”, añade, en referencia sobre todo a las otras tres investigaciones publicadas a la vez, que analizan los problemas de las cronologías (feeds) algorítmicas en Instagram y Facebook, los riesgos de la viralidad y el botón de compartir, y el contenido que se recibe de gente afín ideológicamente. Ninguno de los tres ha encontrado unos resultados claros que apunten a soluciones o culpables fáciles.
Una respuesta difícil
Durante años, expertos, tecnólogos y académicos han intentado entender cómo afectan las redes sociales a nuestras sociedades. En poco más de una década ha cambiado el modo en que nos informamos: eso debería tener consecuencias, pero ¿cuáles? Aunque estos artículos tratan de responder, no es fácil crear un mundo paralelo para comparar y ver dónde estaríamos hoy sin Facebook, Twitter (X desde este lunes) o YouTube. “Estos hallazgos no pueden decirnos cómo habría sido el mundo si no hubiéramos tenido las redes sociales durante los últimos 10 a 15 años”, admitió Joshua Tucker, profesor de la Universidad de Nueva York y uno de los líderes académicos del proyecto, durante una rueda de prensa virtual.
“No podemos desvincular lo que es algorítmico de lo que es social”
Sandra González-Bailón, Universidad de Pensilvania
“La pregunta de si las redes sociales están destrozando la democracia es muy complicada. Es un puzle y cada uno de estos artículos es una pieza”, dice González-Bailón. Estos cuatro artículos son solo los primeros de un total de 16, que deben seguir saliendo en los próximos meses y que son futuras piezas de ese rompecabezas enorme. El proyecto nace de un acuerdo de agosto de 2020 entre Meta y dos profesores, que seleccionaron luego al resto de investigadores. “Nunca había formado parte de un proyecto donde los estándares de rigor analítico, de chequeo de datos y código hayan sido tan robustos y, por tanto, de un proyecto de las garantías de calidad y de que los resultados son genuinos”, añade González-Bailón. Entre los autores figuran tanto miembros de la academia, completamente independientes de Meta, como empleados de la compañía. El líder interno de Meta para estos trabajos es el investigador español Pablo Barberá.
¿Y si quitamos el algoritmo?
Los otros tres artículos observaron qué pasaría en Facebook e Instagram si se cambiaran tres detalles que a menudo han sido culpados de polarizar y crear burbujas. Los artículos han pedido permiso a más de 20.000 participantes, que han visto modificado el contenido de su cronología y que eran comparados con un grupo de control. Los experimentos se hicieron durante tres meses, entre septiembre y diciembre de 2020, en torno la elección de Joe Biden como presidente. Aunque las cifras pueden parecer pequeñas, tanto la muestra como la duración del experimento fueron destacadas como algo insólito y muy valioso por los investigadores.
El primero de estos trabajos mide el impacto de reemplazar los algoritmos de Facebook e Instagram (que ordenan lo que vemos en nuestra pantalla) por una simple hilera cronológica: el último post publicado es el primero que vemos y así sucesivamente, sin que ningún algoritmo coloque lo más “interesante” arriba. Es un modo evidente de medir si el célebre “algoritmo” nos confunde. Si, por ejemplo, el contenido político más extremo es el que más vemos porque provoca más interés que el moderado, y así nos polariza. El resultado es que en realidad apenas afecta la polarización o el conocimiento político de los usuarios.
Eso no implica que el cambio no tenga otras consecuencias. La reducción del contenido algorítmico hace que los usuarios pasen menos tiempo en las dos redes de Meta, porque presuntamente el contenido es más aburrido o repetitivo, y hace que se vayan a TikTok o YouTube. También los usuarios con el contenido cronológico veían más contenido de fuentes no fiables y político.
Ahora evitamos los compartidos
En otro artículo, los autores eliminaron parte del contenido compartido en Facebook. La intención era reducir la importancia de la viralización. De nuevo, no hubo cambios sustanciales, pero sí “consecuencias inesperadas” difíciles de prever, según Andrew Guess, profesor de la Universidad de Princeton que lideró el estudio: “La gente pasa a no distinguir entre las cosas que sucedieron la semana pasada y las que no. ¿Por qué? La mayoría de las noticias que la gente recibe sobre política en Facebook provienen de compartir, y cuando eliminas esas publicaciones, ven menos contenido propenso a la viralidad y potencialmente engañoso, pero también ven menos contenido de fuentes fiables”, añade Guess. El cambio disminuía el conocimiento de la actualidad de los usuarios, sin afectar a otras variables. Tampoco parece, por tanto, un cambio positivo.
“Los usuarios tienen su propia iniciativa y que su comportamiento no está completamente determinado por algoritmos”
David García, Universidad de Konstanz
El tercer artículo, el único publicado en Nature, trata de reducir la presencia de contenido procedente de usuarios ideológicamente afines. De nuevo, tampoco revela cambios sustanciales, pero los usuarios a quienes les habían cortado el contenido afín acababan por interactuar más con el que sí acababan viendo: “Los usuarios encontraron otras formas de leer contenido de ideas afines, por ejemplo, a través de grupos y canales o bajando en el feed de Facebook. Esto demuestra que los usuarios tienen su propia iniciativa y que su comportamiento no está completamente determinado por algoritmos”, escribe García. Aunque los investigadores descartan lo que llaman “cámaras de eco extremas”, sí vieron que un 20% de usuarios de Facebook reciben un 75% de contenido de cuentas afines. La reducción de ese contenido de afines, escriben los autores, no provoca una variación sustancial en polarización o ideología.
Cómo separar las redes de la vida
Hay varios posibles problemas con estos estudios: las respuestas son autoimputadas y el periodo y el país pueden haber provocado un resultado no replicable tal cual en otras circunstancias. La conclusión más obvia: es difícil de aislar y medir un fenómeno con tantas ramificaciones como la polarización, aunque muestra que retoques sueltos no varían el impacto, positivo o negativo, de las redes sociales en la democracia.
Incluso en el artículo con más pruebas sólidas, liderado por González-Bailón y centrado en la observación de toda la red, los académicos detectan que liberales y conservadores consumen dietas informativas distintas. Pero no saben si esa dieta es provocada por el algoritmo o por las opiniones previas del individuo: “La gran contribución de nuestro artículo es que utilizamos todo lo que pasó en la plataforma, con el foco en los enlaces de noticias políticas, y eso es un punto muy fuerte”, dice González-Bailón. “Pero no podemos desvincular lo que es algorítmico de lo que es social. Los algoritmos al fin y al cabo aprenden del comportamiento de los usuarios y ese es el bucle que no podemos acabar de romper”, añade.
¿Sin ese algoritmo los usuarios vivirían menos polarizados? Quizá, pero no es seguro. El artículo de González-Bailón ha descubierto otra cosa interesante sobre la dieta informativa en Facebook: los grupos y las páginas son más importantes que los usuarios a quienes sigues. También han comprobado que tienen más peso los enlaces concretos que los dominios: las páginas y grupos crean una dieta concreta que favorece su ideología. Por ejemplo, pueden compartir muchos medios tradicionales, pero escogen solo los artículos que les favorecen o que quieren criticar: “Facebook ha creado un ecosistema informativo donde los grupos y las páginas son maquinarias particularmente eficientes en hacer este tipo de selección de bufé”, dice González-Bailón.
En su respuesta a los artículos, García hace una analogía con el cambio climático para aclarar el reto imposible que afrontaban estos artículos: “Imaginad una política que reduzca las emisiones de carbono en algunas ciudades. En comparación con un grupo de control de ciudades, es poco probable que hallemos un efecto sobre las anomalías de temperatura, pero la ausencia de un efecto no sería evidencia de que las emisiones de carbono no causan el cambio climático”, escribe. Igual puede ocurrir con las redes, añade, ya que estos experimentos no descartan que los algoritmos de las redes hayan contribuido a la polarización: los experimentos “muestran que existe un límite a la eficacia de las soluciones para individuos cuando se trata de modificar el comportamiento colectivo. Estos límites deben superarse mediante el uso de enfoques coordinados, como la regulación o la acción colectiva”, añade García.
La regulación es uno de los modos más reclamados por los académicos implicados para repetir y ampliar este tipo de experimentos, más allá de la buena voluntad o el interés en este caso de Meta. “Se necesita un enfoque proactivo para establecer estas colaboraciones en el futuro, para que los efectos de las tecnologías en el comportamiento político puedan investigarse sin que primero tengamos que soportar más de una década de preocupación”, escribe García, que añade que la nueva Ley de Servicios Digitales de la UE es un marco “factible” para estas colaboraciones entre la industria y la academia.