Un informe encargado por Meta, la empresa propietaria de Facebook, Instagram y WhatsApp, ha descubierto que los contenidos que incitan al odio y la violencia contra todas las partes del conflicto de mayo de 2021 entre Israel y el régimen de Hamás en Gaza no fueron eliminados adecuadamente por esas redes sociales.
El informe, publicado el jueves, afirma que la falta de aplicación de las políticas de Meta sobre la incitación a la violencia y el odio, y de las políticas relativas a las organizaciones y personas peligrosas, significó que tales contenidos permanecieron en línea mientras las cuentas infractoras quedaron impunes.
El documento también concluía que la aplicación excesiva de sus políticas, es decir, la eliminación injustificada de contenidos, también era un problema y afectaba negativamente a la libertad de expresión, la libertad de reunión y asociación, la libertad frente a la incitación y la seguridad corporal de sus usuarios.
El informe, encargado por Meta para evaluar el impacto de sus plataformas durante el conflicto de mayo de 2021, afirmaba que los contenidos en lengua árabe sufrían una aplicación excesiva y una aplicación insuficiente en mayor medida que los contenidos en lengua hebrea.
Así, el documento concluyó que las acciones de aplicación de la política de Meta tuvieron un efecto especialmente adverso en la libertad de expresión, la libertad de reunión y la participación política de los usuarios palestinos.
Esto restringió la capacidad de los palestinos de compartir información y opiniones sobre sus experiencias durante el conflicto, según el informe.
Al mismo tiempo, el informe afirmaba que Meta, como resultado de la falta de aplicación de sus propias políticas, no eliminó los contenidos en lengua árabe que incitaban a la violencia contra los israelíes y elogiaban a la organización terrorista Hamás.
También señalaba que los contenidos antisemitas seguían en línea a pesar de violar las políticas de expresión de odio de Meta.
En términos más generales, el informe señalaba que todas las plataformas de Meta se habían utilizado para publicar “discursos de odio e incitación a la violencia contra los palestinos, los árabes israelíes, los judíos israelíes y las comunidades judías de fuera de la región” durante todo el conflicto.
El informe atribuyó el hecho de no haber eliminado algunos de estos contenidos al elevado volumen de casos de este tipo durante el conflicto y a la falta de personal que hablara árabe y hebreo para supervisar y abordar adecuadamente el pico.
El informe no examinó si este tipo de contenidos tuvo consecuencias en el mundo real.
El miércoles, el jefe de la Policía de Israel, Kobi Shabtai, dijo que los contenidos de las redes sociales habían “sacado a la gente a la calle” durante los disturbios en Israel, tanto de árabes como de judíos.
Shabtai afirmó que el daño en el mundo real de tales contenidos publicados en las redes sociales justificaba un amplio cierre de las mismas para calmar futuras situaciones de graves disturbios civiles.
El informe publicado el jueves fue encargado por Meta en julio de este año a raíz de una recomendación de su Consejo de Supervisión para que llevara a cabo la debida diligencia sobre su impacto en los derechos humanos, en este caso en el conflicto palestino-israelí y, más ampliamente, en los conflictos mundiales.
Se trata del noveno informe de este tipo sobre las consecuencias de los contenidos en las redes sociales de Meta, tras informes similares sobre el impacto de Facebook en el genocidio de los musulmanes rohingya en Myanmar, así como el efecto de las plataformas de Meta en las violaciones de derechos humanos en Filipinas, Camboya, Indonesia y Sri Lanka, entre otros.
Aunque el documento hacía amplias afirmaciones y recomendaciones sobre el impacto de las políticas de aplicación de Meta, casi no citaba ejemplos concretos de aplicación excesiva o insuficiente de las políticas de Meta, lo que dificulta la evaluación de las conclusiones.
Sin embargo, se dio a conocer el caso que llevó a encargar el informe.
En él, un usuario de Facebook en Egipto compartió en mayo de 2021 un post de una página verificada de Al Jazeera que incluía citas atribuidas a un portavoz de la milicia terrorista paramilitar de las Brigadas Al-Qassam de Hamás.
El portavoz hacía comentarios en los que exigía a Israel que llevara a cabo determinadas acciones en Jerusalén y le advertía de las consecuencias en caso de que no las cumpliera.
El post fue retirado por infringir la política de Meta sobre Personas y Organizaciones Peligrosas (DOI), que prohíbe expresar elogios o apoyo a dichas entidades y personas, o crear contenidos que las representen, como páginas y eventos de Facebook.
Tras la apelación, el usuario insistió en que había compartido la publicación para poner al día a la gente sobre el desarrollo de la crisis, y que se limitaba a compartir la publicación de Al Jazeera, que no fue eliminada.
Tras revisar el caso, Facebook identificó la eliminación del post como un caso de exceso de aplicación y restauró el contenido.
Otro ejemplo clave de aplicación excesiva en las publicaciones en árabe que se citó en el informe real fue cuando el hashtag #AlAqsa se añadió a una lista de bloqueo de hashtags debido a la similitud del término con las Brigadas Al Aqsa, un grupo terrorista prohibido por la política de DOI de Meta.
Por ello, el hashtag #AlAqsa se ocultó de los resultados de búsqueda a pesar de que los usuarios de Meta lo utilizaban para hablar de la mezquita de Al-Aqsa en Jerusalén, uno de los lugares más sagrados del Islam y un punto central del conflicto de mayo de 2021.
Según el informe, los contenidos en árabe fueron objeto de una mayor sobrecarga -es decir, la eliminación errónea de contenidos que expresan la “voz palestina”- por usuario que los contenidos en hebreo.
Al mismo tiempo, los “índices de detección proactiva” en árabe eran también más elevados, probablemente debido a la obligación legal de Meta de eliminar contenidos relacionados con organizaciones terroristas extranjeras designadas por Estados Unidos, como Hamás y otras milicias terroristas palestinas.
Del mismo modo, el informe descubrió que los palestinos eran más propensos a violar la política de DOI de Meta, ya que Hamás, uno de estos grupos designados, dirige Gaza.
Dado que las violaciones de la DOI conllevan fuertes sanciones para los usuarios, los palestinos tenían más probabilidades de enfrentarse a consecuencias más duras “tanto por la aplicación correcta como por la incorrecta de la política”.
El informe también detectó casos de falta de aplicación de los contenidos en hebreo y árabe, lo que significa que algunos mensajes con incitación a la violencia no fueron eliminados.
Pero la falta de aplicación fue más frecuente en los contenidos en hebreo, lo que significa que la incitación a la violencia y otros contenidos contra los palestinos y los árabes israelíes se enfrentaron a niveles más bajos de eliminación y los usuarios que publicaban tales contenidos se enfrentaron a tasas más bajas de medidas disciplinarias.
Esto se debió en gran medida al hecho de que Meta no tenía en ese momento un “clasificador” hebreo, un algoritmo que identifica y clasifica el contenido, incluyendo las publicaciones que tienen una alta probabilidad de violar las políticas de Meta, según el informe.
Meta ha declarado que ya ha creado un clasificador de hebreo para hacer frente a este problema.
Otro de los problemas señalados en el informe es el mayor número de errores en los clasificadores de árabe para el dialecto palestino, y el hecho de que no se envíen los contenidos marcados para su revisión al personal que entiende ese dialecto.
El informe también señalaba que el volumen de casos de contenidos que posiblemente infringían las normas de Meta se disparó drásticamente, hasta diez veces el volumen normal, lo que dificultó la revisión y el cumplimiento efectivos.
Una de las principales consecuencias de la aplicación excesiva de las normas durante el conflicto de mayo de 2021 fue la pérdida de visibilidad y participación de los usuarios tras la eliminación errónea de las publicaciones, según el informe.
El informe señaló que Meta no distingue entre los diferentes tipos de discurso de odio, pero reconoció que las organizaciones que vigilan el antisemitismo “rastrearon contenido claramente antisemita que violaba las políticas de Meta y que no fue detectado y eliminado durante este período”, citando estudios del Congreso Judío Mundial y del Community Security Trust del Reino Unido.
Dijo que esto era el resultado de la “insuficiente competencia cultural por parte de los moderadores de contenido” y de la “insuficiente capacidad lingüística” por parte de los que establecían la política para los idiomas en los que aparecía el contenido antisemita.
El informe también señaló específicamente casos en los que WhatsApp fue utilizado por israelíes de derecha en Israel para incitar a la violencia y coordinar ataques contra israelíes árabes y judíos, así como contra periodistas israelíes.
Afirmaba que, a pesar de los errores en la moderación de contenidos en todas las plataformas de Meta, no había “prejuicios intencionados” en la empresa, ni había pruebas de “animadversión racial, étnica, de nacionalidad o religiosa en los equipos de gobierno, ni pruebas de que Meta hubiera buscado intencionadamente beneficiar o perjudicar a algún grupo en particular por su raza, religión, nacionalidad, etnia o cualquier otra característica protegida a la hora de desarrollar o aplicar las políticas”.
El informe, realizado para Meta por el grupo de consultoría BSR, formuló una serie de recomendaciones para abordar los problemas, que Meta dijo que está en proceso de aplicar, aplicar parcialmente o evaluar la viabilidad de la aplicación.
“No hay soluciones rápidas y de un día para otro para muchas de estas recomendaciones, como deja claro BSR”, dijo Meta en respuesta al informe.
“Aunque ya hemos realizado cambios significativos como resultado de este ejercicio, este proceso llevará tiempo -incluyendo tiempo para entender cómo se pueden abordar algunas de estas recomendaciones y si son técnicamente viables”.