News

Facebook busca combatir la desinformación y el discurso del odio con nuevos ajustes a sus algoritmos

Facebook y nuevas reglas
Imagen de Kaboompics .com en Pexels

De heroína a villana. Facebook, considerada hasta hace unos años como la red social que unía personas ha pasado a ser calificada como la plataforma del algoritmo diabólico que impulsa el odio y la desinformación, promoviendo una visión sesgada del mundo y debilitando los sistemas y procesos democráticos.

Y es que el derrotero no la ha ayudado. Empezando por el escándalo de Cambridge Analítica (CA), en donde se acusa a esta plataforma de impulsar la difusión de contenido falso para influir a en el proceso electoral estadounidense del 2016; y continuando con su rol pasivo con respecto al genocidio de la etnia Rohingya en el país asiático Myanmar, en donde permitió la circulación de contenidos falsos y de odio difundidos por representantes civiles y políticos de este país para desacreditar a la minoría musulmana.

La enorme crisis reputacional, que le ha costado contracampañas, boicot de sus propios anunciantes e influencers, junto a la enorme presión de organismos mundiales y la opinión pública, ha impulsado a la red de Mark Zuckerberg a tomarse más en serio el tema y aplicar algunos ajustes a su algoritmo a lo largo de este año, considerando el especial contexto de las elecciones presidenciales estadounidenses. No vaya a ser que se repita el plato o efecto CA.

Facebook ya no es neutral

Dejando a un lado la tantas veces esgrimida neutralidad como explicación para no censurar los contenidos falsos y de odio, la popular red social anunció el pasado 17 de septiembre una serie de restricciones nuevas que aplicará a los grupos que violen los estándares de publicación, las que colocamos a continuación:

  • Eliminación de su sistema de recomendaciones a todos los grupos ligados a la milicia y organizaciones anarquistas; reduciendo además su contenido en el News Feed y restringiéndolos en las búsquedas. Además de eliminar a estos grupos cuando polemicen sobre violencia potencial, sea que usen lenguaje o símbolos velados.
  • Reducirá la exposición de grupos que difundan repetidamente contenido calificado como falso por las organizaciones de verificación de contenidos, siendo los administradores de los grupos advertidos por notificación cuando se publique contenidos falsos.
  • Se eliminarán los grupos que violen las reglas de la comunidad o compartan contenidos que caigan en esa práctica. En este caso, sus administradores y moderadores no podrán crear nuevos grupos durante un tiempo, mientras que los miembros que violen alguna de las Normas de la Comunidad en un grupo deberán obtener la aprobación de sus publicaciones dentro de ese grupo durante los 30 días siguientes.
  • Facebook dejará de recomendar los grupos de salud en su plataforma, aunque los usuarios de este servicio podrán seguir buscándolos en esta red y seguir invitando a sus amigos a los grupos en referencia. En este caso, la compañía aduce que para este tipo de contenidos es mejor buscar en fuentes autorizadas.

Instagram, la hermana floja del universo Facebook

Colocar los reflectores sobre Facebook habría generado un olvido de su coqueta hermana Instagram. Esto, porque la plataforma del ícono de la cámara vio incrementarse la circulación de la desinformación, las teorías conspiratorias y el discurso del odio según reveló The Atlantic el año pasado.

No obstante esto, Instagram no ha tomado un liderazgo propio para combatir este tipo de publicaciones sino que mas bien se ha apoyado en el paraguas corporativo de Facebook, aplicando para sí los ajustes y las reglas de esta última.

Instagram no ha sido muy explícita al referirse a su política para combatir los contenidos de odio. Básicamente, sus estándares de publicación especifican que no están permitidas las actividades ni personas que apoyen o elogien el crimen organizado, actos terroristas o grupos que promuevan el odio, siendo removido cualquier tipo de contenido de esta naturaleza.

Vale resaltar que esta red social, junto a su partner Facebook, se han enfocado últimamente en una moderación un poco más semántica, prohibiendo algunos tipos de expresiones de odio implícitas, como las relacionadas con el antisemitismo y el polémico black face (personas que se maquillan el rostro de negro para asemejarse a la etnia negra).

Whatsapp y su encriptación ¿una fortaleza o su talón de Aquiles?

En cuanto a la red de mensajería WhatsApp, sus últimos ajustes de carácter significativo para frenar el odio y la desinformación consistieron en limitar de 256 a 20 personas (2018) y a 5 personas (2019) el envío de un único mensaje. Siendo que desde el año pasado, esta plataforma también etiquetó todos los mensajes reenviados más de cinco veces. Tales medidas fueron consideradas un avance para sus ejecutivos, porque redujo hasta en un 25% la tasa de reenvíos.

No obstante, la desinformación y contenidos con mensajes de odio no han parado de circular en esta red, sino que se han incrementado, como en el caso de tratamientos médicos o curas contra el coronavirus, conforme investigó CNN.

Además de que el coronavirus es crisis que genera incertidumbre y alienta a la circulación de contenidos tóxicos, lo que es una fortaleza de WhatsApp, su carácter encriptado, viene a facilitar la desinformación. En ese caso, la moderación de contenidos falsos en la red de mensajería del universo Facebook, se hace muy compleja, puesto que su chats se encuentran protegidos por un proceso de encriptación de extremo a extremo, conforme se notifica por la propia plataforma, lo que inclusive evita que WhatsApp visualice el contenido que comparten los usuarios.

Ante tales circunstancias, en abril de este año esta red limitó aún más el reenvío de mensajes. A partir de ese momento, los usuarios solo pueden compartir sus contenidos reenviados a un chat a la vez. El objetivo principal era facilitar la circulación de contenidos falsos y conspiratorios en el contexto del coronavirus.

Aunque han sido cambios importantes para WhatsApp, tampoco han significado la solución total para combatir la desinformación y el odio en esta plataforma, porque el intenso activismo de los interesados en difundir este tipo de contenidos hace que al ver bloqueados sus mensajes, recurren al envío hormiga de estos.

Como se observa el universo Facebook ha estado muy activo en cuanto a aplicar algunos ajustes necesarios para iniciar un real combate que detenga el crecimiento de la difusión de contenidos falsos, conspiratorios y de odio.

Aunque se ven avances, la red social necesita activar más recursos de inteligencia artificial para hacer un monitoreo más eficaz e inmediato, ampliar el trabajo de fact-checking y repensar el sistema de recomendaciones de sus plataformas, porque si bien medidas como retirar de los resultados de búsqueda los contenidos límites pueden ser efectivas, el activismo y quienes usan a la desinformación y el odio como estrategia de propaganda están mucho más motivados que los ingenieros de Sillicon Valley y son muy hábiles para tejer sus redes.