2021-009-FB-UA

Noticia de Al-Jazeera durante la escalada del conflicto en la Franja de Gaza
Para consultar la decisión completa, .

País:
Egipto

Fecha:
14 de septiembre de 2021

Resumen:
El 10 de mayo de 2021, un usuario de Facebook con más de 15.000 seguidores compartió una foto de la página de Al Jazeera en la que aparecían dos hombres con insignias de las Brigadas Al-Qassam, un grupo armado palestino considerado como organización peligrosa. El texto en árabe que acompañaba la foto incluía una amenaza de Abu Obeida, vocero de ese grupo, para que las fuerzas de Israel se retiraran de una mezquita.
Ese mismo día la publicación fue reportada por un usuario, quien la señaló como terrorista. Al compartir la imagen, el usuario escribió la expresión “Ooh”.

Un moderador araboparlante revisó el contenido y lo eliminó por infringir la política sobre personas y organizaciones peligrosas. El usuario apeló y el contenido volvió a ser revisado por un moderador que no hablaba árabe, pero que tuvo acceso a una traducción automatizada. Este segundo revisor también consideró que la publicación infringía la política de personas y organizaciones peligrosas.

Como sanción, el usuario solo tuvo acceso de lectura a su cuenta durante tres días, se le restringió la posibilidad de transmitir en vivo y usar productos publicitarios durante 30 días.

Cuando el Consejo seleccionó el caso para su revisión, Facebook se percató de que era un error y restableció el contenido.
La publicación original de Al Jazeera nunca se retiró.

Decisión:
Confirmar

Justificación:
El Consejo confirmó la decisión de restaurar el contenido eliminado, teniendo en cuenta que la expresión “Ooh”, con la cual el usuario compartió la publicación, podía señalar su neutralidad para tratar un tema que involucra personas y organizaciones peligrosas.

De igual forma, el Consejo tuvo en cuenta que la publicación original de Al-Jazeera nunca fue eliminada, y señaló que las personas no tienen menos derecho a publicar las noticias que los medios de comunicación.

Normas relevantes:
Personas y organizaciones peligrosas
Search
Recomendaciones
Respuestas
1
Agregar ejemplos ilustrativos a la política sobre personas y organizaciones peligrosas para aclarar las excepciones sobre el debate neutral, actitudes de condena y fines periodísticos.
Evaluando viabilidad.
Facebook agregará ejemplos y lenguaje más claros en su política de personas y organizaciones peligrosas, pero explorará los beneficios de publicar ejemplos de contenido permitido sin comprometer la efectividad de la aplicación de la política.
Facebook añadirá ejemplos y lenguaje más claro a la norma en el primer semestre de 2022. Continuará evaluando la posibilidad de publicar ejemplos de contenido permitido y ofrecer una actualización en un futuro informe trimestral.
2
Garantizar que las actualizaciones de las Normas Comunitarias se traduzcan con celeridad a todos los idiomas disponibles.
Evaluando viabilidad.
Facebook está explorando formas de acortar el tiempo en el que publica las actualizaciones a las normas comunitarias en los 47 idiomas en los que actualmente están disponibles.
Facebook dice que los cambios a las normas comunitarias se hacen primero en inglés y mensualmente se envía a los equipos de traducción para que los actualicen en otros idiomas. Generalmente ese proceso tarda una semana, pero puede tomar más según la complejidad de los cambios. Mientras una traducción está pendiente, se incluye un aviso en las normas comunitarias en el que se explica que la versión más actualizada de las políticas es la que está en inglés. Facebook dice que puede tardar de cuatro a seis semanas en actualizar las normas comunitarias en todos los idiomas.
Facebook informará sobre avances en su esfuerzo por acortar estos tiempos en un futuro informe trimestral.
3
Contratar a una entidad independiente de Facebook y objetiva frente a los bandos del conflicto entre Israel y Palestina para evaluar si la moderación de contenido en árabe y en hebreo se aplicó sin sesgos.
La implementará plenamente.
Facebook contrató a la organización Business for Social Responsability para adelantar la debida diligencia en derechos humanos sobre el impacto de Facebook en la escalada del conflicto entre Israel y Palestina en mayo y junio de 2021.
Facebook planea publicar las conclusiones de la debida diligencia en el primer trimestre de 2022.
4
Detallar la forma en la que Facebook recibe solicitudes gubernamentales de eliminación de contenido y garantizar que se incluya en los reportes de transparencia. Los reportes de transparencia deben diferenciar entre las solicitudes gubernamentales de remoción por violaciones a las Normas Comunitarias, las solicitudes que llevaron a bloqueos geográficos de contenido por infracción de la legislación local, además de solicitudes que no tuvieron mayores consecuencias.
La implementará parcialmente.
Facebook dice que desde una recomendación del caso se comprometió a aumentar la transparencia sobre las solicitudes gubernamentales de remoción de contenido. En adición a la información que ya ofrece sobre solicitudes de bloqueo de contenido por violación de la ley local, ofrecerá información sobre contenido removido por violaciones a las normas comunitarias, así como de solicitudes en las que Facebook no tomó ninguna acción.
Facebook ofrecerá esta información respecto a todas las solicitudes gubernamentales en las que sea posible identificar que quien reporta actúa dentro de sus funciones oficiales en representación de un gobierno o una autoridad judicial. Facebook monitoreará el progreso de esta recomendación bajo la decisión .
There are no rows in this table

Want to print your doc?
This is not the way.
Try clicking the ⋯ next to your doc name or using a keyboard shortcut (
CtrlP
) instead.