2021-007-FB-UA

Represión de los gobiernos de China y de Myanmar
Para consultar la decisión completa, .

País:
Myanmar

Fecha:
11 de agosto de 2021

Resumen:
En abril de 2021, un usuario de Facebook aparentemente ubicado en Myanmar se refirió en una publicación en su biografía a las distintas formas de limitar la financiación del ejército de Myanmar tras el golpe de estado de febrero de 2021. La publicación tuvo cerca de medio millón de visualizaciones y ningún usuario la reportó.

Un fragmento del texto, originalmente escrito en birmano, fue traducido como “los hongkonenses, debido a que los chinos de mierda los torturaron, trasladaron sus servicios bancarios al Reino Unido, y ahora (los chinos) no pueden entrometerse”.

Facebook eliminó la publicación por incumplir la política de lenguaje que incita al odio, al contener ataques contra una persona o grupo de personas basados en su raza, etnia o nacionalidad con términos ofensivos con la intención de insultar.

Los cuatro revisores de contenido que evaluaron la publicación estuvieron de acuerdo en que infringía las políticas de Facebook.

Al apelar ante el Consejo, el usuario aseguró que su publicación estaba orientada a “detener el brutal régimen militar”.

Decisión:
Revocar

Justificación:
En birmano, el término “ta-yote”, empleado por el usuario para referirse a los chinos, sirve para aludir tanto a un Estado como a sus ciudadanos.
Los traductores del Consejo indicaron que en este caso era claro que la publicación se refería al Estado chino.

El Consejo también tuvo en consideración que medio millón de personas vieron la publicación y ninguno la reportó, y, según los comentarios del público, el tono general era el de un debate político.
Como la publicación no se dirigía a una persona con base en su raza, el Consejo decidió que no infringía la política de lenguaje que incita al odio.

Normas relevantes:
Lenguaje que incita al odio
Search
Recomendaciones
Respuestas
1
Garantizar que las normas de implementación internas estén disponibles en el idioma en que los moderadores revisan el contenido.
Para esta recomendación, Facebook debe priorizar aquellos contextos en los que los derechos humanos corren mayor riesgo.
No la tendrá en cuenta.
Facebook aseguró que todos sus moderadores de contenidos dominan el inglés y se apoyan en las normas comunitarias, las pautas internas de aplicación y en listas complementarias de términos y frases específicas para ciertos contextos para asegurar la aplicación estandarizada de sus políticas.
Los moderadores están al tanto de que hay expresiones que pueden ser ofensivas en cierto lenguaje o contexto cultural. Para enfrentar esta situación, constantemente se actualiza una lista de términos y frases para contextos específicos.
There are no rows in this table

Want to print your doc?
This is not the way.
Try clicking the ⋯ next to your doc name or using a keyboard shortcut (
CtrlP
) instead.