La gallina de los huevos de oro para una celebrity bien podría ser su universo de redes sociales, cuya fuerza algorítmica incrementa audiencia y catapulta su fama a niveles aún mayores. Siendo así, ¿a qué personaje público se le ocurriría apartarse de esta mina de seguidores y reconocimiento aunque sea un día? A Penélope Cruz, Kim Kardashian, Leonardo DiCaprio, Katy Perry, Ashton Kutcher y otros.
Apoyados en sus más de 352 millones de seguidores en Instagram (más de la mitad de la población de la Unión Europea) y bajo el marco de una de las campañas políticas más polarizadas en Estados Unidos, las celebridades han mantenido un activismo intenso contra esta red social y Facebook, acusando a ambas plataformas de permitir la difusión de la desinformación y el discurso del odio.
Desde conminar a no postear por un día en las referidas redes sociales hasta apoyar las campañas del movimiento #StopHateForProfit (en español #DetengaLosBeneficiosPorOdio), los artistas demandan que estos espacios se responsabilicen por los contenidos falsos, propagandísticos y de odio publicados ahí.
Aunque se trata de iniciativas simbólicas, lo cierto es que estas, junto a las últimas campañas de #StopHateForProfit habrían impactado en las plataformas de medios sociales. Al punto que sus ejecutivos están redefiniendo su rol en la sociedad, instaurando cambios en sus algoritmos de forma interna y estableciendo alianzas para iniciar una política única de autoregulación, como la que acaban de sostenes con la Asociación Mundial de Anunciantes. Todo esto para combatir el odio, la desinformación y las teorías conspiratorias, lo que incluso ya ha generado ataques o atentados.
En AIKA Educación compartimos un resumen de los cambios internos realizados este año por las redes sociales más populares, como son Facebook, Instagram, Whatsapp, Twitter, Youtube y Tik Tok, para hacer más efectivo el monitoreo de los contenidos que circulan en sus espacios. De igual forma, analizamos la política desarrollada con los anunciantes para acordar definiciones comunes sobre los contenidos tóxicos, de odio e intimidación.
Para una revisión más a profundidad de los cambios en cada una de estas redes sociales, haga clic en sus sendos enlaces, colocados en el párrafo anterior, y será derivado a un contenido más amplio sobre la plataforma seleccionada.
La popular red social anunció el pasado 17 de septiembre nuevas restricciones nuevas, como la eliminación de su sistema de recomendaciones a los grupos de la milicia y organizaciones anarquistas, restringiéndolos en las búsquedas, la reducción de la exposición de grupos que publican repetidamente contenido falso, notificando a los administradores de grupos; la eliminación de los grupos que violen las reglas de la comunidad o compartan estos contenidos, impidiendo a sus administradores y moderadores crear nuevos grupos por un tiempo. Además, Facebook ya no recomendará a los grupos de salud en su plataforma, aunque los usuarios podrán seguir buscándolos e invitando a sus amigos a estos grupos.
Del lado de Instagram, sus reglas son muy similares a las de Facebook, dado que son parte del mismo paraguas corporativo. Sus estándares de publicación no permiten las actividades ni personas que apoyen o elogien el crimen organizado, actos terroristas o grupos que promuevan el odio, removiendo cualquier contenido de esta naturaleza.
En cuanto a WhatsApp, su última y única regulación en abril de año para frenar el odio y la desinformación consistió en limitar el reenvío de mensajes a un chat a la vez, a fin de reducir el crecimiento de difusión de noticias falsas sobre el covid-19. No obstante, la desinformación y contenidos con mensajes de odio no han parado de circular en esta red de mensajería, como en el caso de tratamientos médicos o curas contra el coronavirus, conforme investigó CNN.
Twitter, un enfoque intenso contra el discurso del odio
Twitter hizo algunos ajustes a su algoritmo a lo largo de este año a fin de frenar la difusión de contenidos falsos, tóxicos y de odio. Entre estos, destacan la prohibición de fotos y videos manipulados; la ampliación del rango de las conductas del discurso del odio (incluyendo al lenguaje que deshumaniza por edad, discapacidad o enfermedad); la implementación del uso de etiquetas a los tweets que contienen información falsa o alientan la violencia; la herramienta que permite configurar quienes responden a los tweets para evitar el acoso; el veto a los contenidos sobre la teoría conspiratoria QAnon.
A su vez, lanzó el centro de transparencia, para comunicar sus acciones y los resultados en el control de la desinformación, el discurso del odio en su plataforma.
YouTube, entre IA, ajustes algorítmicos y fact-cheking
La campaña electoral estadounidense ha concentrado varios de los esfuerzos de Youtube este año, por lo que se enfatizó en eliminar el contenido manipulado técnicamente y las afirmaciones falsas sobre los políticos, se anularon canales de usuarios impostores y eliminaron cuentas para aumentar artificialmente las métricas. Asimismo, se impulsó el acceso de los usuarios a contenido electoral autorizado y se amplió el uso de paneles informativos de verificación de hechos a los Estados Unidos.
El coronavirus fue otro de los tópicos sobre los que la red social trabajó, apoyándose en el uso de la inteligencia artificial y moderadores humanos para detectar y eliminar los videos que generan desinformación y se reforzó el monitoreo de los contenidos difundidos en la plataforma live streaming, para remover u ocultar contenidos prohibidos en la búsqueda o recomendaciones.
Para combatir la desinformación usaron paneles de verificación de información, tanto en el contexto del coronavirus como el proceso electoral estadounidense, vinculando los contenidos de estos temas a fuentes autorizadas, como: artículos relevantes, además de las enciclopedias o autoridades sanitarias, dándoles más relevancia que a los resultados más populares.
El uso de paneles se vale de una red abierta de editores y organizaciones de Fact-Checking que funcionan bajo el Código de Principios de la Red Internacional de Verificación de Datos (IFCN). De igual manera, el sistema de recomendaciones de YouTube y los ajustes hechos en torno a esta área son los más significativo hecho por la plataforma de videos, dado que este es su punto débil con respecto a la desinformación y el odio, puesto que su algoritmo puntúa más alto los contenidos tóxicos, al ser estos los que más atraen a las audiencias.
TikTok: un algoritmo revelado y varios frentes
La aplicación de videos cortos TikTok tuvo un año agitado y revelador. Al igual que las demás redes sociales, ampliamente criticadas por no regular los contenidos tóxicos, también se enfrentó a recelos políticos en Estados Unidos y amenazas de cierre de mercado. Por tal razón, la popular red social apostó por una política en apariencia diáfana e hizo algunos cambios a su algoritmo para prevenir las publicaciones falsas y de odio, las que anotamos a continuación:
El anuncio del lanzamiento del Centro de Transparencia para la moderación de contenidos y práctica de datos, a fin de compartir con los expertos su política de monitoreo y seguridad en la gestión de datos (tecnología usada y el entrenamiento).
TikTok reveló en septiembre el funcionamiento de su famoso algoritmo y prácticas de datos, mostrando como usa el aprendizaje automático para personalizar los contenidos de los usuarios, en base a sus gustos, localización, procedencia configuración de la cuenta y del dispositivo, idioma y otros detalles de los videos como sonidos, subtítulos, hashtags. Según sus ejecutivos, el algoritmo de esta red evita la redundancia (ver varios videos de la misma música o autor) y en cuanto a las burbujas de filtro, manejan una evaluación constante, para actuar según la circunstancia.
En el caso de su política contra las teorías conspirativas, la desinformación, el discurso del odio, TikTok realizó algunas acciones: firmó el Código de conducta de la Unión Europea contra la desinformación y el código de conducta de la Unión Europea contra el discurso del odio online, las publicaciones de la teoría conspiratoria QAnon fueron removidas de los resultados de búsqueda, se eliminaron los contenidos y los perfiles de líderes de grupos de odio, siendo removidos de las búsquedas, y se invirtió en expertos y entrenamiento para detectar estos contenidos.
Tratándose de la campaña electoral estadounidense, aplicó ajustes para combatir la desinformación y la interferencia electoral. Así, se actualizaron las políticas sobre contenido engañoso, se amplió la alianza con organizaciones de verificación de contenidos y trabajo con expertos del gobierno estadounidense para eludir la influencia extranjera en el proceso electoral.
Redes y anunciantes, la lucha unificada contra el discurso del odio
En lo que podría ser llamada una respuesta a la campaña de #StopHateForProfit que convocó a más de 900 marcas a retirar su publicidad de las redes sociales como respuesta a una política indiferente de estas plataformas contra el discurso del odio, esta vez ambos actores han anunciado una alianza global para frenar este flagelo con una política unificada.
Según el acuerdo, Facebook, Twitter y Youtube se unieron a la Federación Mundial de Anunciantes (WFA por sus siglas en inglés) y la Alianza Global para Medios Responsables (GARM), a fin de establecer en conjunto las definiciones comunes al discurso del odio, la agresión y el acoso.
El acuerdo apunta a brindar a los anunciantes, respecto a este ámbito y sus términos, un marco para que no incluyan ni avalen este tipo de contenidos. Los detalles serán fijados por la GARM, que decidirá las definiciones consideradas como contenido dañino, partiendo de una línea base, a fin de establecer un criterio único que les permita a los primeros elegir en donde anunciar.
Los resultados de esta alianza se esperan para el 2021, cuando se presentará unas metodologías de reporte armonizados sobre el desenvolvimiento del discurso del odio en estas plataformas, en donde destacarán métricas unificadas sobre la seguridad, seguridad de los anunciantes, y la eficacia de las redes sociales para combatir el contenido tóxico.
Aunque se trata de un acuerdo enfocado a la gran industria y sus campañas publicitarias dentro de las plataformas y puede ser tomado más como una estrategia de relaciones públicas, lo cierto es que esta asociación marca un hito en la lucha contra el desapego de estas plataformas por combatir en serio la desinformación y el discurso del odio que campea y crece en sus redes.
Otro hito ha sido ese crecimiento descontrolado de este tipo de contenidos, que no solo estás desluciendo la imagen de las social media de Sillicon Valley ante la opinión pública sino que han incrementado su poder dañino contra la sociedad y los procesos democráticos. Ejemplos de esto son las publicaciones falsas de salud, eventos políticos y teorías conspiratorias que han afectado la gestión del coronavirus y el actual proceso electoral estadounidense.
Tales eventos han gestado un movimiento dentro las plataformas de redes sociales centrado en tomar medidas reales y eficaces contra el odio y la circulación de la falsedad, sea por presión o porque ya los está afectando más de lo que pueden manejar, los cambios anunciados por cada una de estas empresas y en conjunto con otros organismos, avizoran un panorama más esperanzador.
Habrá que observar los acontecimientos de los próximos meses para ver que tan efectivas pueden ser estas medidas, considerando que empezamos un poco tarde y que el activismo de la desinformación, los haters u odiadores y los seguidores de la conspiración tienen una militancia e intereses más fuertes que apalancan con más eficacia y adaptabilidad sus contenidos frente hasta lo que ahora han hecho las compañías de medios sociales por combatir a sus productos tóxicos.
Add Comment