Declaración sobre las normas internas de Facebook para la moderación de contenidos

Publicado el: 30 August 2017
 
A fines de mayo, The Guardian publicó los Facebook Files, documentos internos filtrados que revelan de qué manera la empresa modera contenidos. Somos muchas las personas y organizaciones que durante largo tiempo hemos reclamado una mayor transparencia en torno a la moderación de contenidos de Facebook, para entender mejor la violencia de género que sucede en la plataforma y aportar puntos de vista. Aunque Facebook ha mejorado1, estos documentos confirman que la plataforma suele dar un paso adelante y un paso atrás, en la medida en que continúa censurando la agencia de las mujeres, en especial las mujeres de color2, particularmente si guardan relación con el activismo, mientras permite que el acoso florezca.
 
Violencia basada en el género3
 
Muchas personas que padecen violencia en línea se contactan con nosotras en busca de asistencia y, según denuncian, Facebook y el Messenger de Facebook son, por lejos, las plataformas donde ocurren la mayoría de los casos. Los detalles de la moderación de contenidos de Facebook corroboran con precisión lo que nos cuentan las mujeres – ya sean hétero o LGTBQI – y las personas inconformistas respecto del género sobre su experiencia en la plataforma. El abuso, en particular la publicación no consentida de imágenes, es rampante y las denuncias suelen rechazarse con la explicación de que el abuso no viola las normas de la comunidad de Facebook aún cuando los documentos filtrados sea vean como violaciones evidentes. Para muchas usuarias equivale a que les digan que el abuso que sufrieron nunca sucedió. Sabemos por experiencia que, con frecuencia, la misma empresa silencia a defensoras de derechos humanos que, a su vez, deben enfrentar una amplia gama de abusos provenientes de otros usuarios, como la creación de perfiles falsos para desacreditarlas o difamarlas, alteración de fotos para crear falsas imágenes íntimas, lenguaje discriminatorio, amenazas y doxing.
 
Las políticas de Facebook no reflejan aún una comprensión plena de las experiencias de las personas que afrontan violencia. Una dificultad obvia es el uso de la expresión “violencia creíble”, afín a la expresión “violación legítima”, que en sí misma perpetúa la violencia. Otro problema es la política de permitir entradas que exhiben violencia contra menores, lo cual contribuye a la victimización de personas jóvenes y la normalización de la violencia.4
 
Resulta claro que las limitadas consultas de Facebook con grupos y activistas de los derechos de las mujeres no han sido lo suficientemente significativas como para producir cambios verdaderos. A menudo los aprendizajes de estas interacciones parecen quedarse en los representantes de la empresa allí presentes, pues una y otra vez hemos visto que un sector de la empresa nunca habla con el otro. Más aún, las personas que diseñan las funciones de Facebook deberían escuchar directamente a las usuarias o sus representantes, pero jamás hay ingenieros en las reuniones. Nos preguntamos si Facebook realiza un seguimiento de la efectividad de sus respuestas a la violencia de género y otros problemas que suceden en el sitio. Por lo pronto, no comunican al público lo que aprenden a pesar de la abundancia de información que poseen.
 
Lenguaje y contexto cultural
 
Muchas denuncias son rechazadas por la incapacidad de Facebook para mantenerse al día con la jerga y las tendencias del acoso, proveer soporte para los idiomas de las usuarias y entender los diferentes contextos culturales. Quienes hablan idiomas minoritarios enfrentan mayores perjuicios relacionados con el abuso en línea debido al rechazo de sus denuncias o a que los mecanismos de denuncia no están en su lengua. Las pautas sobre “pornovenganza” de Facebook no reflejan una comprensión del daño en diferentes contextos. Cuando requieren que la imagen involucre actividad sexual, no consideran qué se define como tal en diferentes comunidades. Imágenes que pueden ser perfectamente aceptables en una comunidad pueden constituir un riesgo para una mujer en otra comunidad. La plataforma falla en reconocer que lo más importante es si para la persona involucrada se trata de una imagen no consentida y por causa de ella corre riesgo de sufrir perjuicios.
 
Esta es un área en que la interacción con las distintas partes interesadas podría hacer una diferencia importante, pero sólo observamos éxitos en el nivel individual, que a su vez dependen de que haya una defensora que trabaje junto con representantes de Facebook para abordar denuncias individuales. De hecho, muchas de nosotras y de nuestras asociadas pueden contactarse con la empresa para trabajar directamente sobre un caso individual, pero este trabajo no es sostenible ni efectivo en general. No tenemos por qué hacer el trabajo de Facebook. La empresa debería involucrar a grupos de derechos de las mujeres de los países donde ofrece servicios para que asesoren sobre políticas y protocolos que produzcan un cambio sistémico en vez de recurrir a estos grupos para aplicarle vendas a un sistema roto.
 
Categorías protegidas
 
Desde un enfoque interseccional de género, cuestionamos el razonamiento detrás de las categorías de Facebook protegidas del discurso que incita al odio, que no sigue un marco de derechos humanos internacional. Las normas no hacen referencia a las castas, y si Facebook incluye erróneamente casta en “clase social”, no hay protección para dalits.5 La empresa afirma haber retirado su política de prohibir entradas que elogien o apoyen la violencia para resistir la ocupación de un Estado con reconocimiento internacional,” pero por testimonios de usuarios sabemos de cuentas de cachemires que publicaron fotos de Burhan Wani, por ejemplo, que siguen suspendidas o cerradas.
 
Las personas de cualquier país en particular constituyen una categoría protegida, pero las personas que migran de un país a otro sólo están cuasi-protegidas.6 Dado el alto índice de violencia física y en línea contra migrantes, ¿por qué no están plenamente protegidas? Porque Facebook las considera un tema candente: “Como categoría cuasi-protegida, no le corresponden todas las protecciones de nuestra política contra el discurso dicriminatorio porque deseamos permitir un debate amplio sobre migrantes e inmigración, un tema candente para las próximas elecciones.” Más aún, una categoría protegida combinada con una no protegida cancela la protección, como si los musulmanes que no son refugiados merecieran menos protección que los musulmanes refugiados. El alarmante ejemplo de la guía muestra que los niños negros (edad + raza) no están protegidos mientras los hombres blancos (edad + raza) sí lo están, en una clara muestra de algo más que normas enrevesadas. Estas políticas ignoran las formas en que múltiples opresiones se entrecruzan.
 
Moderadores/as
 
Resulta claro que Facebook no tiene suficientes moderadores/as y es probable que aquellos/as que emplea no provengan de trasfondos suficientemente diversos en sus características, como nivel económico, raza/etnicidad, casta, religión, lenguaje y región. De todos modos, un simple aumento en la cantidad de moderadores/as no alcanza para compensar políticas erróneas o capacitación y manejo inadecuado. Las filtraciones no revelaron lo que hemos solicitado por años. ¿Cuál es la demografía de las personas que se encargan de la moderación de contenidos? ¿Qué clase de capacitación reciben más allá de estas normas internas? ¿Qué clase de apoyo reciben?
 
Entendemos que las personas contratadas por Facebook para llevar adelante el intenso trabajo de analizar imágenes violentas y textos abusivos a cambio de una baja remuneración padecen traumas secundarios. Según admiten, este personal se encuentra con dificultades, por las que responsabilizamos a las políticas y protocolos de Facebook, no a los/as moderadores/as. Cuando el producto pone en riesgo a su propio personal,7 la empresa debe comenzar a abordar el problema de la violencia en un nivel sistémico. Por último, los documentos filtrados sólo se refieren a la moderación humana, pero la moderación algorítmica, aunque aminore la carga de la moderación humana, sufre el mismo sesgo que las políticas mencionadas más arriba.

Lecciones de los medios
 
Aplaudimos a The Guardian por su informe sobre la moderación de contenidos en Facebook y su abordaje de la problemática del acoso en línea y la violencia relacionada.8 Esperamos que otros medios sigan su modelo y analicen y compartan información sobre abuso en sus plataformas, trabajen para proteger a sus redactores/as y cubran el tema desde una perspectiva basada en los derechos.
 
Exigimos
 
Como organizaciones e individuos que trabajamos por los derechos de las mujeres, en la vida cotidiana y en línea, exigimos que Facebook:
 
1. Provea mayor transparencia e información responsable sobre:
  • La implementación de normas de moderación de contenidos;
  • El rechazo de denuncias de abuso en línea y datos desagregados de las denuncias recibidas;
  • Departamentos y personal responsable de responder a quejas sobre contenidos y privacidad.
2. Provea capacitación adicional a moderadores/as respecto de barreras culturales y de lenguaje, dinámica del poder y problemáticas como sesgos de género y sensibilidad LGBTQ.
 
3. Contrate más personas que hablen idiomas hoy subrepresentados entre moderadores/as de contenidos.
 
4. Mejore el mecanismo de denuncias para que cumpla con los siguientes criterios:
  • Legitimidad: el mecanismo resulte confiable y transparente para quienes lo usen.
  • Accesibilidad: el mecanismo sea fácil de encontrar, usar y entender.
  • Predictabilidad: un procedimiento claro y abierto, con indicación de plazos, claridad de proceso y medios para hacer un seguimiento de su implementación.
  • Justo: provea suficiente información y asesoramiento para que las personas hagan uso del mecanismo en forma justa e informada.
  • Transparente: se informe a las personas sobre el progreso de su caso.
  • Respetuoso de los derechos: los resultados y soluciones concuerdan con los derechos humanos internacionalmente reconocidos.
  • Fuente de aprendizaje continuo: facilita que la plataforma aproveche las experiencias para identificar posible mejoras al mecanismo y prevenir ofensas futuras.
5. Incremente la diversidad del personal en todos los niveles y adopte los Principios para el Empoderamiento de las Mujeres.
 
Firmantes:

Association for Progressive Communications
Association for Women's Rights in Development (AWID)
BlueLink
CITAD
Derechos Digitales
Fantsuam Foundation
Foundation for Media Alternatives
GreenNet
Heartmob
Hollaback
Inji Pennu
Japleen Pasricha, Feminism in India
Kéfir
LaborNet
Luchadoras
May First/People Link
Nana Darkoa Sekyiamah
Nica Dumlao
One World Platform
Persatuan Kesedaran Komuniti Selangor (EMPOWER)
Strategic Advocacy for Human Rights
 
1 Por ejemplo, véase el reciente anuncio sobre cómo la plataforma responderá a la divulgación no consensuada de imágenes íntimas.
2 Véase, por ejemplo, el caso de la escritora estadounidense Ijeoma Oluo, cuya cuenta fue suspendida luego de que publicara capturas de pantalla del hostigamiento racista, sexista y a menudo violento que recibía en el sitio y aunque Facebook no hiciera nada respecto de esos ataques. La plataforma restableció la cuenta de Oluo luego de que se extendieran las protestas públicas alegando que la suspensión había sido accidental. Suspensiones como ésta ocurren lo suficiente como para convertirse en un patrón preocupante.
3 La violencia de género en línea se refiere a toda acción que resulte en daño o perjuicio por razones de género e involucre el uso de tecnologías de la información y la comunicación. Los ejemplos incluyen – pero no se limitan a – el hostigamiento en línea, ciberacoso, extorsión sexual, divulgación no consensuada de imágenes íntimas y discurso discriminatorio.
4 La campaña “Yo no reenvío violencia” de ¡Dominemos la tecnología! aborda el problema de la violencia como espectáculo y la repetición de la victimización. Podría ser un aporte para mejorar las políticas de Facebook al respecto.
5 El Artículo 4 de la Recomendación general Nº 29 del Comité para la Eliminación de la Discriminación Racialseñala que los Estados deben “tomar medidas contra todo tipo de difusión de ideas de superioridad e inferioridad de castas o que intenten justificar actos de violencia, odio o discriminación contra las comunidades cuya condición se basa en consideraciones de ascendencia” y “tomar medidas estrictas contra toda incitación a la discriminación o a la violencia contra las comunidades, incluso por conducto de internet”.
6 El Artículo 3 de la Recomendación general Nº 30 del Comité para la Eliminación de la Discriminación Racial exhorta a los Estados a “11. Tomar medidas para combatir las actitudes y conductas xenófobas respecto de los no ciudadanos, en particular la incitación verbal al odio y la violencia racial, y comprender la comprensión más cabal del principio de la no discriminación respecto de la situación de los no ciudadanos” y "12. Tomar medidas decididas para combatir toda tendencia a atacar, estigmatizar, estereotipar o caracterizar sobre la base de la raza, el color, la ascendencia y el origen nacional o étnico a los miembros de grupos de la población “no ciudadanos”, especialmente por parte de los políticos, los funcionarios, los educadores y los medios e comunicación, en internet y otras redes de comunicaciones electrónicas y en la sociedad en general".
7 Véase, por ejemplo, el artículo de Fortune acerca de cómo se compartieron accidentalmente identidades de moderadores con sospechosos de terrorismo en la plataforma.
8 Véase las series de The Guardian “Web we want” y, en particular, su trabajo sobre comentarios.