2021-001-FB-FBR

Cierre de la cuenta del presidente Donald Trump
Para consultar la decisión completa, .

País:
Estados Unidos

Fecha:
5 de mayo de 2021

Resumen:
El 6 de enero de 2021, mientras tenía lugar la toma del Capitolio por parte de sus seguidores, Donald Trump publicó en su cuenta de Facebook un video en el que le pedía a quienes participaban en los disturbios que regresaran a sus casas, diciéndoles que eran "muy especiales" y que "los amaba". Una hora después, Facebook eliminó la publicación porque infringía su norma comunitaria sobre personas y organizaciones peligrosas.

Luego, el presidente Trump publicó una declaración en Facebook en la que llamaba a los manifestantes "grandes patriotas". Una vez más, Facebook eliminó la publicación porque infringía la misma norma, y le impidió a Trump publicar durante 24 horas en la plataforma y en Instagram . El 7 de enero, tras revisar los hechos, Facebook anunció que el bloqueo sería indefinido, "al menos durante las siguientes dos semanas hasta que el traspaso de poderes se haya completado de manera pacífica". El 21 de enero, Facebook remitió el caso al Consejo.

Decisión:
Confirmar

Justificación:
El Consejo determinó que las publicaciones de Trump infringían con gravedad las normas comunitarias. Las expresiones con las que dirigió a quienes participaban en los disturbios constituían una infracción a las reglas de Facebook que prohíben elogiar o apoyar a personas involucradas en actos de violencia. Para el momento en que Trump hizo las publicaciones, existía un riesgo claro e inmediato de daños, y sus palabras de apoyo legitimaron los actos de violencia, teniendo en cuenta el alto grado de influencia de Trump como presidente.

Sin embargo, el Consejo consideró que la exclusión indefinida de la plataforma no podía ser una sanción adecuada, pues esta clase de medidas no están descritas en sus políticas de contenidos.

Normas relevantes:
Personas y organizaciones peligrosas
Search
Recomendaciones
Respuestas
1
Actuar prontamente respecto a las publicaciones de personas influyentes que puedan tener un alto grado de probabilidad de causar daños inminentes.
La implementará plenamente.
Argumentó que durante eventos que puedan representar algún riesgo, como elecciones y protestas, se establece el IPOC (Integrity Product Operations Center), un grupo de trabajo compuesto de expertos en la plataforma, las políticas y las operaciones de la compañía. Con este grupo, los expertos pueden investigar y mitigar riesgos en la plataforma. Al revisar contenidos de figuras públicas, el equipo considera factores culturales y políticos y las consecuencias de las acciones.
Además, dice que para el contenido que tiene mayor alcance, se emplea un sistema de chequeo cruzado para asegurar que las políticas se aplican correctamente.
2
Considerar el contexto de las publicaciones de usuarios influyentes al evaluar su riesgo de causar daños.
La implementará plenamente.
Señaló que actualmente ya se tiene en consideración el contexto del contenido publicado por personajes públicos. Dijo que revisará sus procesos actuales para ver cómo se puede considerar más contexto al aplicar tomar sus decisiones y qué clase de contexto podría ser útil para evaluar el riesgo de las publicaciones.
3
Priorizar la seguridad sobre las expresiones al tomar decisiones sobre una amenaza de daños cuando el contenido es publicado por usuarios influyentes.
La implementará plenamente.
Sostuvo que la seguridad pública ya se prioriza al momento de imponer sanciones. Además, aclaró que el contenido publicado por figuras públicas es revisado rápidamente. Para el futuro, Facebook dice que trabajará para mejorar sus herramientas automatizadas y revisar proactivamente el contenido que puede impactar en la seguridad pública.
4
Suspender las cuentas de altos cargos del gobierno si sus publicaciones repetidamente contienen un riesgo de daños.
La implementará plenamente.
Al respecto, publicó información en el
5
Suspender las cuentas de altos cargos del gobierno durante un determinado periodo, suficiente para prevenir un daño inminente. En determinados casos, las sanciones pueden incluir la eliminación de la cuenta o página.
La implementará plenamente.
Al respecto, publicó información en el
6
Rechazar la presión del gobierno para callar a la oposición y, al evaluar el discurso político de usuarios influyentes, considerar el contexto político relevante, incluyendo el que es externo a la plataforma.
La implementará plenamente..
Facebook continuará evaluando el contexto amplio en sus revisiones del contenido de figuras públicas. Dice estar comprometido con encontrar formas de mejorar su responsabilidad externa e incorporar retroalimentación externa para su evaluación del discurso político de figuras públicas.
Explicó que cuando reciben un reporte formal del gobierno de un contenido que viola normas locales, se revisa primero según las normas comunitarias. Si las viola, el contenido se elimina. Si no, se hace una debida diligencia en DD.HH y una revisión legal para confirmar si el reporte es válido, conforme los compromisos adquiridos por Facebook como miembro del Global Network Initiative y su
.
7
Tener un proceso que utilice conocimiento político y lingüístico locales, con suficientes recursos para evaluar el discurso político de usuarios con un alto grado de influencia.
La implementará plenamente, de acuerdo con la respuesta a la recomendación anterior.

8
Explicar públicamente las reglas que utiliza para imponer sanciones de responsabilidad contra los usuarios influyentes.
La implementará plenamente.
Reconoció que sus sanciones de uno a treinta días podían no ser suficientes para reducir la probabilidad de que ocurran daños, especialmente durante episodios de disturbios o violencia.
En consecuencia, tendrá en consideración la gravedad de la violación y el historial del usuario en la plataforma; la influencia potencial de la persona sobre los individuos involucrados en los actos de violencia; y la gravedad de la violencia. Según estos aspectos se determinará la duración apropiada de la restricción, que puede ir de un mes a dos años.
Si el usuario continúa violando las normas comunitarias, una vez recupera el acceso a la plataforma, será objeto de restricciones para publicar cualquier clase de contenido durante dos años. En casos extremos, la cuenta será inhabilitada permanentemente. Si una cuenta persiste en publicar contenido prohibido, pese a las repetidas advertencias y restricciones, su cuenta también será inhabilitada.
9
Evaluar el riesgo de daño dentro y fuera de la plataforma antes de levantar la suspensión de la cuenta de un usuario influyente.
La implementará plenamente.
A esta recomendación, Facebook responde con las medidas descritas en el punto anterior.
10
Documentar cualquier proceso excepcional que aplique para usuarios influyentes.
La implementará plenamente...
Publicó en el Transparency Center información sobre el sistema de que aplica para revisar detalladamente el contenido que tendrá mayor visibilidad. Además, aclaró la naturaleza de su .
11
Explicar con mayor claridad la excepción de interés público o interés noticioso.
La implementará plenamente.
Eliminó una disposición adoptada en 2019 según la cual el discurso de los políticos era inherente al interés público.
Aseguró que en 2016 y 2019 había ofrecido información sobre esta excepción, pero que entendía que el Consejo creyera que aún había confusión al respecto. Para aclarar dudas, publicó un en el Transparency Center en el que desarrolla más este tema. Además, anunció que a partir de 2022 ofrecerá datos sobre el número de veces en que se aplique esta excepción.
12
Respecto al chequeo cruzado para usuarios influyentes, explicar claramente las razones, estándares y procesos de revisión, incluyendo los criterios para determinar las páginas y cuentas seleccionadas.
La impementará plenamente.
Publicó en el Transparency Center información sobre el sistema de que aplica para revisar detalladamente el contenido que tendrá mayor visibilidad.
13
Reportar la tasa de error relativo y la consistencia temática de las decisiones tomadas durante el proceso de chequeo cruzado, en comparación con los procedimientos ordinarios.
No la implementará.
Dijo que no es viable rastrear esta información, pues sus sistemas para medir su precisión no están diseñados para revisar el pequeño número de decisiones tomadas durante el proceso de chequeo cruzado.
14
Revisar su posible rol en la narrativa de fraude en las elecciones que detonó la violencia en Estados Unidos el 6 de enero de 2021, y reportar sus hallazgos.
La implementará parcialmente.
Aseguró que estaba comprometido con combatir la desinformación, y que sus políticas se ajustan constantemente para responder a los eventos del mundo real.
Anunció que han promovido investigaciones para entender el efecto que Facebook e Instagram han tenido en elecciones. Estos esfuerzos incluyen una alianza con 20 académicos externos para estudiar este asunto. Además, aseguró que seguirá cooperando con las autoridades en sus investigaciones relacionadas con los eventos del 6 de enero.
15
Aclarar en su política corporativa de Derechos Humanos la forma en que recolecta, guarda y comparte información relacionada con investigaciones y posibles acusaciones penales. Estas aclaraciones deben incluir la forma en la que los investigadores pueden acceder a esta información.
Evaluando viabilidad.
Se compromete a revisar su Política Corporativa de Derechos Humanos y analizar formas de mejorar los protocolos para administrar información.
16
Explicar en sus normas comunitarias sus proceso de faltas y penalidades para restringir perfiles, páginas, grupos y cuentas, de forma clara, comprensiva y accesible.
La implementará plenamente.
En el Transparency Center publicó sobre su sistema de faltas y penalidades.
17
Aclarar a los usuarios cuántas violaciones, faltas y penalidades tiene, así como las consecuencias de futuras infracciones.
La implementará plenamente.

A comienzos del 2021, Facebook lanzó la sección Account Status, que le permite a los usuarios conocer la información sobre las sanciones pasadas y presentes que se han impuesto a sus cuentas. Facebook anunció que continuaría trabajando para ser más transparente y ayudar a los usuarios a comprender las sanciones aplicadas a sus cuentas.
Además, en el Transparency Center
18
En sus reportes de transparencia, Facebook deberá incluir cifras sobre restricciones a perfiles, páginas y cuentas, incluyendo las razones y las formas en que las sanciones fueron impuestas, y segmentando la información por región y país.
Evaluando viabilidad.
Facebook está evaluando la forma en la que puede compartir información sobre sanciones de una forma que resulte coherente y comprensiva.
19
Desarrollar y publicar una política que regule su respuesta a crisis o situaciones inéditas en las que los procesos regulares de Facebook serían insuficientes para prevenir o evitar un daño inminente.
La implementará plenamente.
Facebook desarrollará un protocolo de crisis basado en los enfoques que utiliza para evaluar riesgos, daño inminente y desafíos de integridad.
There are no rows in this table

Want to print your doc?
This is not the way.
Try clicking the ⋯ next to your doc name or using a keyboard shortcut (
CtrlP
) instead.