2021-012-FB-UA

Publicación de arte indígena norteamericano
Para consultar la decisión completa, .

País:
Estados Unidos, Canadá

Fecha:
9 de diciembre de 2021

Resumen:
En agosto de 2021, un usuario de Facebook publicó una foto de un cinturón wampum, una pieza de arte indígena de América del Norte. El cinturón, hecho por el usuario, estaba inspirado en el reciente descubrimiento de cientos de tumbas de niños indígenas en el colegio Kamloops en Canadá. La publicación indicaba que el título de la obra era Kill the Indian/Save the Man (Mata al indio/salva al hombre) y se explicaba su sentido, la historia de los cinturones wampum y su propósito educativo. Al final, el usuario ofreció disculpas a los sobrevivientes del sistema de escuelas residenciales indígenas, que dejó miles de muertes de niños aborígenes durante el siglo XX, a los que podía ofender la publicación, pero aseguraba que lo hacía para generar conciencia alrededor de esta “horrorosa historia”.

Al día siguiente, los sistemas automatizados de Meta identificaron la publicación como una posible infracción a la política de lenguaje que incita al odio. Un revisor humano confirmó que el contenido estaba prohibido. Tras la apelación, un segundo revisor confirmó la decisión.

Cuando el Consejo seleccionó el caso, Meta dijo que había sido un error de aplicación de sus políticas y restauró el contenido. Sin embargo, no notificó al usuario de esto sino hasta un mes después.

Decisión:
Revocar

Justificación:
El Consejo consideró que la publicación era un claro ejemplo de “contradiscurso”, donde las personas se apropian del discurso de odio justamente para condenarlo y combatir la opresión o la discriminación. La política de lenguaje que incita al odio explícitamente dice que estos casos son una excepción a las normas comunitarias y no serán eliminados. Sin embargo, Meta no pudo explicar por qué dos de sus moderadores consideraron que el contenido constituía lenguaje de odio.

Aunque las palabras “Mata al indio” podrían ser discurso de odio, el contexto de la publicación deja claro que la frase se usa para generar conciencia y condenar el odio y la discriminación. El Consejo revisó las pautas internas de Facebook y consideró que ofrecían poca orientación a sus moderadores para que pudieran distinguir correctamente entre discurso de odio y “contradiscurso”. Además, encontró que no hay directrices para evaluar el contenido artístico que cita o usa términos de lenguaje de odio o el contenido que discute violaciones a derechos humanos y que cabe en las excepciones de las normas comunitarias.


Normas relevantes:
Lenguaje que incita al odio
Search
Recomendaciones
Respuestas
1
Ofrecer a los usuarios notificaciones precisas y oportunas sobre las acciones tomadas respecto a sus apelaciones. Cuando aplique en casos en los que se hayan aplicado las políticas por error, notificar al usuario que el contenido ha sido reestablecido como resultado del proceso de revisión del Consejo asesor.
La implementará plenamente.
Meta dejará que las personas sepan cuando se revierte una decisión inicial de eliminar contenido cuando, al apelar ante el Consejo, se de cuenta de un error en la aplicación de las políticas.
Facebook espera completar esta labor para el primer semestre de 2022.

2
Estudiar el impacto de ciertas modificaciones a los métodos de revisión secundaria. Meta debería evaluar los índices de precisión cuando se les informa a los moderadores de contenido que realizan una revisión secundaria, de modo que sepan que la decisión inicial se refutó. Además, los usuarios deben tener la oportunidad de ofrecer más contexto que pueda ayudar a los revisores a evaluar su contenido. Meta debe compartir los resultados de este estudio con el Consejo e incluirlos en el informe de transparencia que presenta trimestralmente al Consejo.
Meta ya lo hace.
Meta ha investigado los efectos de informar a los moderadores que están llevando a cabo una segunda revisión y le ha dado a los usuarios la oportunidad de ofrecer contexto adicional en la apelación. Asegura estar explorando experimentos adicionales para precisar y comprender su investigación. Según dice la compañía, un estudio en 2018 descubrió que por lo general los revisores no encontraban útil la información adicional dada por los usuarios y sólo el 2% de la información ayudó a revertir una sanción. En la mayoría de los casos, las apelaciones tenían frases o palabras incompletas y estaban llenas de expresiones de frustración o molestia. Aunque la información ofrecida por el usuario fuera relevante, el revisor no siempre podía verificarla.
Otro experimento en diciembre de 2020 permitió a los usuarios seleccionar las razones de su apelación de un rango de opciones, además de ofrecer un cuadro de texto para que las personas se explicaran. En ese estudio se descubrió que permitir que los usuarios ofrecieran información adicional en su apelación podía tener un impacto en la resolución de las decisiones, pero Meta todavía sigue explorando el formato que sea más útil para los revisores.
Los próximos experimentos de Meta buscarán (1) maximizar la precisión de las revisiones mientras se conserva la consistencia y la escalabilidad; (2) minimizar el tiempo de revisión necesario para considerar contexto adicional y; (3) minimizar sesiones adicionales de capacitación para el análisis del contexto adicional por parte de los revisores.
3
Evaluar la precisión de las excepciones de la política de lenguaje que incita al odio que amparan la expresión artística y la expresión sobre violaciones de derechos humanos. Esta evaluación deberá investigar específicamente si el lugar de residencia del revisor afecta su capacidad de evaluar con precisión el lenguaje que incita al odio y las respuestas al contenido. Los resultados deberán ser comunicados al Consejo y ser incluidos en el informe de transparencia que trimestralmente presenta al Consejo.
. Evaluando viabilidad.
Meta está evaluando la viabilidad de llevar acabo esta clase de investigación. En primer lugar, las Normas Comunitarias no tienen excepciones específicas para las expresiones artísticas o expresiones sobre violaciones a derechos humanos. Las Normas sólo contemplan una excepción para expresiones de condena, concientización, empoderamiento y lenguaje autorreferencial. Además, Meta no tiene una muestra identificable de contenido que se ampara bajo las excepciones, porque por lo general no se le pide a los moderadores de contenido que marquen la razón por la cual las publicaciones que revisan no infringen una política.
Facebook compartirá su progreso en esta materia en un futuro reporte trimestral.
There are no rows in this table


Want to print your doc?
This is not the way.
Try clicking the ⋯ next to your doc name or using a keyboard shortcut (
CtrlP
) instead.