2021-014-FB-UA

Violencia étnica en Etiopía
Para consultar la decisión completa, .

País:
Etiopía

Fecha:
14 de diciembre de 2021

Resumen:
En julio de 2021 un usuario de Facebook en Etiopía denunció en una publicación escrita en amhárico que el Frente de Liberación Popular de Tigray asesinó y violó mujeres y niños y saqueó propiedades de civiles en Raya Cobo y otras ciudades de la región ahmárica de Etiopía. El usuario además aseguraba que los miembros de la etnia tigray ayudaron al Frente en esas atrocidades. Según el usuario, había recibido la información por parte de habitantes de Raya Cobo.

Los sistemas de detección automática reportaron la publicación y un moderador de contenido decidió que debía eliminarse por incumplir la política de lenguaje que incita al odio. Ante una apelación, un segundo moderador revisó la publicación y confirmó la sanción. Cuando el Consejo asesor seleccionó el caso para su estudio, Meta consideró que había sido un error eliminar la publicación y la restauró el 27 de agosto.

Decisión:
Confirmar la medida original de eliminar el contenido.

Justificación:
El Consejo consideró que la política de violencia e incitación era la que aplicaba en este caso, pues se trataba de “información errónea y rumores que no se pueden verificar que contribuyan al riesgo de violencia o daños físicos inminentes”.
Aunque el usuario aseguró que sus fuentes eran habitantes de Raya Cobo, no ofreció ninguna evidencia que apoyara sus denuncias. El Consejo consideró que alegar que un grupo étnico es cómplice de atrocidades en masa es peligroso y aumenta significativamente el riesgo de violencia.
El Consejo tuvo en cuenta las condiciones del conflicto en Etiopía, en el que efectivamente miembros civiles de algunos grupos étnicos han estado involucrados en varias atrocidades en algunos lugares del país, entre los que no se encuentra Raya Kobo.

Normas relevantes:
Violencia e incitación
Search
Recomendaciones
Respuestas
1
Reescribir el valor de “seguridad” para reflejar que el discurso en línea puede ser un riego para la seguridad física y la vida de las personas, además de los riesgos de intimidación, exclusión y silenciamiento.
La implementará parcialmente.
Meta elimina contenido que puede contribuir a un daño en la vida real. Su meta es asegurar que la expresión y la seguridad personal sean protegidas y respetadas en sus plataformas. Meta actualizará su valor de “seguridad” de la siguiente manera:
“Estamos comprometidos con hacer de Facebook un lugar seguro. Eliminamos contenido que pueda contribuir a un riesgo de daño a la seguridad física de las personas. El contenido que amenaza a la gente tiene el potencial de intimidar, excluir o silenciar a otros y no está permitido en Facebook”.
Este valor será actualizado a finales de enero de 2022.
2
Las normas comunitarias de Facebook deberían reflejar que en los contextos de guerra y conflicto violento, los rumores sin verificar representan un mayor riesgo para los derechos a la vida y la seguridad de las personas.
No tomará acciones.
Meta considera que ya tiene en cuenta los riesgos asociados con un contexto de guerra o conflicto. La compañía dice haber trabajado con aliados locales para comprender limitar los rumores inverificables en un contexto crítico. En este sentido, no elimina los rumores sin verificar, sino los “inverificables”, que define como rumores que no pueden ser ver verificados en un lapso significativo, cuando se sabe que tienen el potencial de contribuir a un riesgo de daño físico inminente. Remover todo el contenido sin verificar podría llevar a eliminar denuncias ciertas de observadores o víctimas de crímenes contra poblaciones vulnerables. Si Meta eliminara contenido según sus propias consideraciones sobre el nivel de evidencia, probablemente habría eliminaciones arbitrarias de información que podría proteger a otros y concientizar sobre atrocidades en lugares donde la verificación en tiempo real es poco común. Meta seguirá apoyándose en aliados con conocimiento local para saber cuándo la información es falsa o inverificable y puede provocar un daño inminente.
3
Comisionar un análisis independiente de debida diligencia en derechos humanos para evaluar la forma en la que Facebook e Instagram han sido utilizados para difundir discurso de odio y rumores que han aumentado el riesgo de violencia en Etiopía. Los resultados deben ser publicados enteramente.
Evaluando viabilidad.
Meta ha llevado a cabo múltiples formas de debida diligencia en Etiopía y continuamente ajusta y mejora sus políticas para abordar problemas del mundo real. No todos los elementos de la recomendación pueden ser viables en términos de tiempos, ciencia de datos o enfoque. Meta trabajará para actualizar y compartir resultados y acciones de la debida diligencia alineada con los objetivos del Consejo, la Política de Derechos Humanos de la Compañía y los Principios Rectores sobre Empresas y Derechos Humanos de las Naciones Unidas.
En los próximos meses informará sobre estas medidas.
There are no rows in this table

Want to print your doc?
This is not the way.
Try clicking the ⋯ next to your doc name or using a keyboard shortcut (
CtrlP
) instead.