Facebook defiende el valor de la prevalencia y el papel de la IA en la eliminación del discurso del odio

Archivo - Facebook.
Archivo - Facebook. - PIXBAY/CREATIVE COMMONS - Archivo
Publicado: lunes, 18 octubre 2021 10:10

   MADRID, 18 Oct. (Portaltic/EP) -

Facebook ha defendido el valor de las herramientas y las métricas que utiliza para eliminar los contenidos que distribuyen discurso del odio y violencia en su red social, entre las que se encuentra la retirada automática mediante inteligencia artificial y la prevalencia.

   Un nuevo reportaje de The Wall Street Journal (WSJ) señala que la inteligencia artificial que Facebook emplea para eliminar el discurso del odio y las imágenes con contenidos violentos de la plataforma tiene solo un éxito mínimo.

   La compañía tecnológica ha negado estas acusaciones, en un escrito firmado por el vicepresidente de Integridad, Guy Rosen. "Lo que demuestran estos documentos es que nuestro trabajo en integridad es un viaje de varios años. Aunque nunca podremos ser perfectos, nuestros equipos trabajan continuamente por desarrollar nuestros sistemas, identificar problemas y crear soluciones", ha expresado.

   WSJ señala, a partir de documentos internos de Facebook, que la inteligencia artificial que emplean en la red social es capaz de eliminar solo una parte de las publicaciones que contienen discurso del odio, que se reduce a un porcentaje de un sólo dígito.

   En lo que respecta a las imágenes, tampoco es capaz, según los documentos, de identificar un tiroteo grabado en primera persona ni broncas racistas. Y destaca un episodio en concreto, que tampoco puede diferenciar peleas de gallos de accidentes automovilísticos.

   Ante esta situación, el medio citado apunta que cuando la inteligencia artificial no logra identificar los contenidos que violan las políticas de la plataforma por contener discurso del odio o violencia, reduce la frecuencia con la que los usuarios los ven.

   Rosen defiende el empleo de la prevalencia como métrica ya que recoge la cantidad de discurso del odio que realmente se ve en la plataforma, y señala que ésta ha caído hasta el 0,05 por ciento (5 visualizaciones por cada 10.000).

   "Centrarse en la eliminación de contenido es la forma equivocada de ver cómo combatimos el discurso del odio", indica el directivo, que explica que se debe a que "usar tecnología para eliminar el discurso del odio es solo una forma de contrarrestarlo".

   Rosen indica que para poder eliminar algo que contiene discurso del odio, primero tienen que "estar seguros" de que dicho contenido lo es, pero que en caso de duda, es decir, de que cumpla o no los requisitos que recogen sus políticas, la tecnología que emplean "puede reducir la distribución de contenido o no recomendar Grupos, Páginas o personas que publican regularmente" ese tipos de contenido.

   Otra métrica "malinterpretada", según Rosen, es la tasa de detección proactiva, que se refiere al porcentaje de contenido eliminado de forma automática por la inteligencia artificial antes de que sea denunciado por los usuarios.

   WSJ señala que para los grupos defensores de derechos civiles y académicos, Facebook no es transparente con las cifras que ofrecen, ya que en la compañía tecnológica no muestran cómo han obtenido el dato de que esta tasa de detección proactiva ronda el 98 por ciento.

   Rosen subraya el valor de la prevalencia sobre el resto de métricas, ya que es la que recoge qué es lo que se les ha escapado, y por eso llega a los usuarios. Aunque todas las formas de medidas la reducción del discurso del odio y el contenido violento son complementarias, la prevalencia "es la forma más objetiva" de evaluar el trabajo que hacen en la red social, "ya que proporciona la imagen más completa".

   "El hecho de que la prevalencia se haya reducido en casi un 50 por ciento en los últimos tres trimestres muestra que, en conjunto, nuestros esfuerzos están teniendo un impacto", concluye el directivo.

Leer más acerca de: