La red social Facebook presentó este jueves su último informe sobre el cumplimiento de las normas comunitarias en la plataforma, en el que aseguró que el 95 % de los discursos de odio son eliminados de forma proactiva sin necesidad de que los usuarios los denuncien.
La empresa de Menlo Park (California, EE.UU.) explicó que hace tres años, en 2017, la inteligencia artificial únicamente le servía para detectar de forma proactiva el 23,6 % de los mensajes de odio, de manera que el resto solo eran retirados cuando algún usuario denunciaba estos contenidos y por tanto aumentaba su exposición.
Sin embargo, entre julio y septiembre de este año, de las decenas de millones de contenidos de odio eliminados en Facebook e Instagram (de su propiedad), el 95 % fueron suprimidos de forma proactiva al ser detectados por sistemas de inteligencia artificial, reduciendo así significativamente su tiempo de exposición.
En concreto, la compañía retiró por este motivo 22,1 millones de mensajes en Facebook durante esos tres meses (una cantidad similar a la del trimestre anterior) y 6,5 millones en Instagram (el doble que en el trimestre precedente).
Cabe destacar que el período contenido en el informe de este jueves incluye parte de la campaña presidencial estadounidense, pero no la recta final (octubre) ni la jornada electoral en sí o los varios días que duró el escrutinio de los votos en noviembre.
La compañía que dirige Mark Zuckerberg añadió por primera vez en el informe datos sobre la 'prevalencia' de los mensajes de odio, es decir, el porcentaje de veces que los internautas ven contenidos que violan las normas comunitarias de la plataforma.
Para cuantificar esta variable, la empresa toma una muestra aleatoria de contenidos visibles en Facebook (es decir, que no han sido retirados) y analiza cuáles de ellos son mensajes de odio (que atentan contra grupos de personas por su raza, sexo, cultura, creencias religiosas, orientación sexual, etc).
Según este método, la prevalencia de contenidos de odio entre julio y septiembre fue de entre el 0,10 y el 0,11 %, lo que supone que de cada 10.000 veces que un usuario vio contenidos en Facebook, diez u once de ellos contenían mensajes de odio.
En una llamada telefónica con un grupo de periodistas -entre ellos, Efe- para responder a preguntas sobre el informe, el vicepresidente de Integridad de Facebook, Guy Rosen, defendió la decisión de la empresa de hacer regresar a la oficina a sus moderadores de contenido, pese a la pandemia de covid-19.
Rosen salió al paso de la carta publicada por 200 de estos moderadores que pedían seguir trabajando desde casa para evitar riesgos de contagio, y explicó que la razón por la que se les pide que vuelvan a la oficina es porque hay materiales muy sensibles que no pueden revisarse desde el hogar.