El odio como modelo de negocio de las redes sociales
Publicado por Youssef Ouled en 5 de abril de 2024
Cualquiera persona que haya usado las redes sociales sería capaz de señalar aspectos positivos de estas, uno común es el uso que les damos como plataformas de sensibilización y pedagogía social sobre diversas materias, ya sea antirracismo, feminismo, lucha contra la lgtbifobia, etc. También destaca como algo positivo la capacidad que tienen como plataformas de denuncia y de articulación de movilizaciones sociales por todo el globo. Ejemplo de ello fueron las protestas BlackLivesMatter. Mucho antes lo habían sido las conocidas como “primaveras árabes” (aunque también participaron otros pueblos como el amazigh), donde los apagones informativos de gobiernos poco o nada democráticos serían contrarrestados por una ciudadanía que alzaba la voz a través de la red. No obstante, igual que somos capaces de pensar efectos positivos, nos vienen a la cabeza otros muchos impactos negativos como las fake news, los insultos y humillaciones, la adicción, el acoso, amenazas, etc.
Se suele decir que son plazas públicas, pero aún con todos los usos antes mencionados, los cuales vendrían a “democratizar” la información y “ensanchar” la libertad de expresión, no debemos olvidar que son plataformas pensadas y desarrolladas por actores privados que tienen como fin la obtención del máximo beneficio mediante el uso de algoritmos que predeterminan su funcionamiento. El beneficio, como señala Susie Alegre, abogada británica especializada en DDHH en la era digital, se obtiene con la comercialización de la materia prima con la que funcionan: “fundamentalmente gracias a nuestros datos privados”. Hablamos de compañías que ofertan un servicio en apariencia gratuito pero que obtienen flujos de información constante que las y los usuarios aceptamos ceder desde el momento en el que descargamos, instalamos o participamos en estas aplicaciones.
Compartir lo que pensamos, nuestras opiniones y nuestros datos privados, muchas veces sin saber para qué o para quién y, sobre todo, para qué, genera la posibilidad de que se pueda inferir lo que podríamos desear o cuáles serían nuestras motivaciones, abriendo la puerta a la manipulación. Esto es visible a nivel publicitario, puesto que se ofrece a quienes usan estas plataformas servicios y productos para consumir, perfilados según la información que obtienen de sus interacciones. Incluyendo recopilación de información biométrica. ¿Os ha aparecido publicidad de productos sobre los que se escribe por chat, se habla con terceras personas o sobre lo que se busca información?
Estas prácticas no se limitan a la publicidad destinada al consumo de bienes y servicios, también buscan orientar opiniones hacia determinadas opciones políticas. Esto es lo que se extrae de las investigaciones sobre Cambridge Analytica, una compañía que obtuvo información de millones de usuarios de Facebook que usaba después para dirigirles anuncios políticos personalizados en 2016, durante las elecciones presidenciales de EEUU, en beneficio del Partido Republicano, así como para el voto favorable del Reino Unido en el Brexit. Estas mismas investigaciones señalaron que Facebook lo sabía, pero no hizo nada para proteger los datos personales de sus usuarios.
Unos años después, en 2021, exempleados de Facebook entre quienes se encontraba la ingeniera y científica de datos Frances Haugen, filtraron que la red social disponía de documentos internos que señalaban la ausencia de acciones por parte de la red social frente a mensajes de odio que se difundían especialmente en países del Sur global como Afganistán, Yemen, Etiopía o Myanmar. Es decir, que la compañía no hizo nada a sabiendas de la ausencia de recursos técnicos y humanos suficientes para identificar publicaciones de este tipo en países con una situación sociopolítica inestable. Además, esta filtración señaló que el movimiento ultraderechista que atacó el Capitolio ese año, se organizó y comunicó en esta red social con total impunidad, sin que Facebook actuara hasta que ya fuera tarde.
También en 2021, antes de pasar a llamarse X, la red social Twitter desarrolló un estudio que analizaba la conversación y el recorrido de los mensajes de representantes políticos en siete países (España, EEUU, Francia, Canadá, Reino Unido, Alemania y Japón), cuyas conclusiones señalaron que en seis de ellos la derecha disfrutaba de “mayor amplificación algorítmica”. Es decir, los algoritmos de Twitter tendían a amplificar el impacto del discurso ultra. Esto tiene que ver con lo que el escritor y experto en software Ben Tarnoff señala al defender que “las redes fomentan cierta información e interacción sensacionalista, provocativa y con una intensa carga emocional que favorece a fuerzas de derecha”, sirviendo como altavoz de postulados ultras, fomentando interacciones y respuestas que contribuyen a generar el engagement fundamental para que estas compañías vendan sus espacios a anunciantes y ser rentables económicamente. En resumen, el odio como modelo de negocio.
En ahí donde, como recoge el informe desarrollado por Novact, “Odio en Twitter: la intersección entre raza y género”, se ubica la proliferación del odio como herramienta discursiva económica y política. La “polarización de opiniones” como un mecanismo que aporta grandes beneficios, entendiendo por polarización la existencia de postulados abiertamente racistas y misóginos, frente a quienes desarrollan una labor en defensa de los derechos civiles y humanos. Esa maximización de los beneficios ubica en el centro a quienes son el foco de las narrativas del odio en línea, que en el Estado español se concentra especialmente en personas migrantes y racializadas. Así lo señala el informe que recoge las consecuencias a través de los testimonios de seis mujeres no blancas que hablan de prácticas que se recrudecen cuando las víctimas son ellas y, que tienen como fin el distanciamiento o abandono total de su actividad en la red. Incluso, propician dinámicas que no se limitan a lo virtual sino que a consecuencia de la impunidad generada por la ausencia de acción de las plataformas llega a trasladarse a la realidad.
Por acabar, resulta fundamental hablar de que estas compañías forman parte de una industria tecnológica que, por un lado, se alimenta del conflicto y, por otro, se sostiene sobre la desigualdad. En el primer informe de AlgoRace, “Una introducción a la IA y la discriminación algorítmica para movimientos sociales”, señalamos la prevalencia de una lógica colonial entre el Norte y el Sur global en la que operan estas compañías y que, entre otras cosas, se observa en la explotación de recursos materiales y humanos de lo que hasta hace poco fueron colonias europeas. La industria tecnológica no se entiende sin minerales como el cobalto extraído de República Democrática del Congo, cuyo comercio ha sumido a este país africano desde hace décadas en guerras civiles, desigualdad y una violencia constante. Tampoco se puede entender la existencia de estas compañías sin los moderadores de contenido, personas contratadas en países africanos en condiciones extremas, con salarios y jornadas laborales que aquí no aceptaríamos. Sin olvidar, que muchos de los residuos generados por lo que llamamos “revolución tecnológica” acaban en África generando un enorme impacto medioambiental.
Resulta indispensable que los análisis sobre el funcionamiento y el impacto de las RRSS tenga en cuenta todas estas derivadas. Al mismo tiempo, debemos conectar y aprender de las iniciativas sociales que surgen en respuesta y que van en contra de la lógica dominante del uso de la IA y los algoritmos en pro de la eficiencia económica, la productividad y la reducción de costes. Al contrario, la respuesta social debe garantizar el sustento y los derechos de los y las trabajadoras. Algunas de estas respuestas las encontramos en el Estado español, como es el caso de los Riders x Derechos, pero también hay referentes internacionales como el Sindicato Africano de Moderadores de Contenidos conformado por cientos de trabajadores que realizan tareas con sistemas de IA para Facebook, TikTok o ChatGPT. Compañías con un enorme poder y una enorme capacidad de imponer sus intereses a los Estados donde operan, algo que desde AlgoRace hemos visto en la tramitación de la AI Act, el reglamento que regulará el funcionamiento de la IA en la UE. Por ello, cuando exijamos la puesta en marcha de mecanismos de supervisión de estos espacios, así como de transparencia algorítmica y de rendición de cuentas, debemos hacerlo sin caer tecnosolucionismos, pero también siendo conscientes que la elaboración de los marcos regulatorios no puede ser una tarea que se deje únicamente en manos de la política partidista.