Déclaration sur les directives internes de Facebook pour la modération de contenu

Publié le : 30 August 2017


À la fin du mois de mai, The Guardian a publié les « Facebook Files », des documents internes qui ont fuité, révélant comment la société modère le contenu. Beaucoup d'entre nous ont longtemps appelé à une plus grande transparence autour de la modération de contenu de Facebook afin que nous puissions mieux comprendre la violence basée sur le genre en œuvre sur la plate-forme et fournir des commentaires. Bien que Facebook ait apporté quelques améliorations1,  ces documents confirment que c'est souvent un pas en avant et deux en arrière, car la plate-forme continue de censurer l'action des femmes, en particulier les femmes racisé-e-s2 et surtout en ce qui concerne l'activisme, tout en laissant prospérer le harcèlement.
 
La violence basée sur le genre3
 
Les personnes confrontées à la violence en ligne contactent beaucoup d'entre nous pour obtenir de l'aide, et selon leurs rapports, Facebook et Facebook Messenger sont en général les plateformes où se produisent le plus de violations. Les détails de la modération du contenu de Facebook corroborent précisément ce que les femmes – qu’elles soient cishet ou LGTBQI - et les personnes non conformes du point de vue du genre nous disent qu'elles vivent sur la plateforme. L'abus, en particulier le partage non consensuel d'images, est répandu et les rapports sont souvent rejetés avec une explication selon laquelle l'abus ne viole pas les lignes directrices de la communauté Facebook même si ces documents divulgués montrent qu'ils sont des violations flagrantes. Pour de nombreux utilisateurs-trices, cela équivaut à dire que l'abus subi n'a pas eu lieu. Nous savons par expérience que les défenseur-e-s des droits humains sont fréquemment réduit-e-s au silence par Facebook et font face à une large variété d'abus de la part des autres utilisateurs, comme la création de faux profils qui discréditent ou diffament, une altération de la photo pour créer de fausses images intimes, des discours haineux, des menaces et du doxing.
 
Les politiques de Facebook ne reflètent toujours pas une compréhension complète des expériences des personnes qui font face à la violence. L’un des problèmes flagrants est l'utilisation du terme « violence crédible », semblable au terme communément tourné en ridicule de « viol légitime », qui perpétue en soi la violence. Un autre problème est la politique permettant de publier des messages montrant de la violence à l'égard des mineur-e-s, ce qui contribue à la victimisation de l'adolescent et à la normalisation de la violence4.
 
De toute évidence, la consultation limitée de Facebook avec les groupes et militant-e-s de défense des droits des femmes n'a pas été suffisamment significative pour créer des changements réels. Souvent, les apprentissages de ces interactions semblent rester avec les représentant-e-s de la société présent-e-s, car nous avons constaté à plusieurs reprises qu'une section de la société ne parlait pas à l'autre. En outre, les personnes qui créent les fonctions de Facebook doivent entendre directement les utilisateurs-trices et les défenseur-e-s, mais les ingénieurs ne sont jamais là. Nous nous demandons si Facebook surveille ou non l'efficacité de ses réponses à la violence basée sur le genre et à d'autres problèmes sur le site. Ils ne communiquent certainement pas publiquement sur ce qu'ils apprennent malgré la richesse de l'information qu'ils possèdent. 
 
Le contexte linguistique et culturel

Beaucoup de rapports sont rejetés en raison de l'incapacité de Facebook à suivre les tendances de l'argot et du harcèlement, à soutenir toutes les langues des utilisateurs-trices et comprendre les différents contextes culturels. Les locuteurs de langues minoritaires peuvent faire face à de plus grands dommages liés aux abus en ligne car leurs rapports sont rejetés ou le mécanisme de notification n'est pas dans leur langue. Les directives du « revenge porn » de Facebook ne reflètent pas une compréhension du préjudice dans différents contextes. Lorsqu'ils exigent que l'image implique une activité sexuelle, ils ne semblent pas considérer que la définition de cette activité peut se faire dans différentes communautés. Les images qui peuvent être parfaitement acceptables dans une communauté peuvent constituer un risque pour une femme dans une autre communauté. La plateforme ne reconnaît pas que ce qui est le plus important est de savoir si la personne dans l'image la considère comme non consensuelle et risque de lui porter préjudice.
 
Il s'agit d'un domaine où l'engagement significatif avec divers intervenant-e-s pourrait faire une différence significative, mais nous ne voyons que le succès à un niveau individuel, pas à un niveau systémique, et ce succès dépend des défenseur-e-s travaillant avec les représentant-e-s de Facebook pour aborder les rapports individuels des utilisateurs-trices. En fait, beaucoup d'entre nous et de nos partenaires dans différentes parties du monde sont en mesure de contacter directement la société pour travailler sur un cas individuel, mais ce travail n'est pas durable et n'est pas efficace dans l'ensemble. Nous ne devrions pas avoir à faire le travail de Facebook à leur place. Ils devraient engager des groupes de défense des droits des femmes dans les pays desservis par la plateforme  pour des consultations sur les politiques et les protocoles qui favorisent les changements systémiques plutôt que de s'appuyer sur ces groupes pour colmater un système déficient.
 
Les catégories protégées

En adoptant une approche intersectionnelle du genre, nous interrogeons le raisonnement qui sous-tend les catégories protégées de Facebook concernant les discours haineux, qui ne correspond pas à un cadre international des droits humains. Les lignes directrices ne parviennent pas à aborder la question de la caste, cependant si Facebook inclut à tort la caste dans «la classe sociale», il n'y a pas de protection pour les Dalits5. La société affirme qu'elle a retiré sa politique d'interdiction des articles louant ou soutenant « la violence pour résister à l'occupation d'un État internationalement reconnu », mais nous savons par le biais des utilisateurs-trices que les comptes Facebook des Kashmiris qui ont publié des photos de BurhanWani, par exemple, sont toujours suspendus ou fermés.
 
Les personnes d'un pays donné sont une catégorie protégée, mais les personnes qui migrent d'un pays à un autre sont uniquement quasi protégées6. Compte tenu du taux élevé de violence physique et en ligne contre les migrant-e-s, pourquoi ne sont-ils/elles pas entièrement protégé-e-s? Parce que Facebook les considère comme un sujet brûlant: «En tant que catégorie quasi protégée, ils/elles n'auront pas la protection complète de notre politique de discours haineux parce que nous voulons permettre aux gens d'avoir de larges discussions sur les migrant-e-s et l'immigration qui est un sujet brûlant lors des prochaines élections. » En outre, une catégorie protégée combinée à une catégorie non protégée annule la protection, comme si les musulman-e-s qui ne sont pas des réfugié-e-s méritent plus de protection que les musulman-e-s réfugié-e-s. L'exemple alarmant du guide montre que les enfants noirs (race + âge) ne sont pas protégés mais que les hommes blancs (race + genre) le sont, illustrant des directives plus que complexes. Ces politiques ignorent la façon dont les oppressions multiples se croisent.

Les modérateurs-trices

Il est clair que Facebook n'a pas assez de modérateurs-trices, et il est probable que les modérateurs-trices qu'il emploie ne sont pas assez variés en termes de caractéristiques telles que l'économie, la race/l'appartenance ethnique, la caste, la religion, la langue et la région. Pourtant, une simple augmentation des modérateurs-trices ne peut pas surmonter des politiques mal orientées ou une formation et une gestion inadéquates. Pourtant, les fuites n'ont pas révélé ce que nous avons réclamé depuis des années. Quelles sont les données démographiques des personnes qui font la modération du contenu? Quel type de formation ont-ils/elles reçu au-delà de ces directives internes? Quel type de soutien reçoivent-ils/elles?
 
Nous comprenons que les personnes engagées par Facebook pour faire le travail intense d'analyser des images violentes et des textes abusifs contre un faible salaire font face à un traumatisme secondaire. De leur propre aveu, ces modérateurs-trices éprouvent des difficultés, et ce sont les politiques et les protocoles de Facebook qui sont à blâmer, non pas les modérateurs-trices eux-mêmes. Lorsque le résultat met en péril7 même son propre personnel, la société doit commencer à résoudre le problème de la violence à un niveau systémique. Enfin, les documents qui ont fuité ne traitent que de la modération humaine, mais la modération algorithmique, tout en réduisant le fardeau sur les modérateurs-trices humains, souffre des mêmes biais qui sous-tendent les politiques décrites ci-dessus.
 
Les enseignements des médias

Nous félicitons The Guardian pour ses rapports sur la modération du contenu de Facebook et pour son approche de la question du harcèlement en ligne et de la violence associée8. Nous espérons que d'autres supports de médias suivront son modèle dans l'analyse et le partage des données sur les abus sur leurs plateformes, en œuvrant à protéger ses écrivain-e-s et en couvrant cette question du point de vue des droits.
 
Les revendications
 
En tant qu'organisations et individus œuvrant pour les droits humains des femmes en ligne et hors ligne, nous demandons que Facebook :

1. Fournisse une plus grande transparence et une plus grande responsabilité concernant ce qui suit:

  • La mise en œuvre de lignes directrices sur la modération du contenu;
  • Le rejet des rapports d'abus en ligne et des données désagrégées sur les rapports reçus;
  • Les services et le personnel chargés de répondre aux plaintes relatives au contenu et à la protection de la vie privée.

2. Fournisse une formation supplémentaire aux modérateurs-trices qui abordent les barrières culturelles et linguistiques, la dynamique du pouvoir et des problèmes tels que les préjugés de genre et la sensibilité LGBTQ.

3. Embauche  plus de locuteurs de langues actuellement sous-représentées parmi les modérateurs-trices de contenu.

4. Améliore le mécanisme de notification afin qu'il satisfasse aux critères suivants:

  • Légitimité: le mécanisme est considéré comme digne de confiance et responsable envers ceux qui l'utilisent;
  • Accessibilité: le mécanisme est facilement localisé, utilisé et compris;
  • Prévisibilité: il existe une procédure claire et ouverte avec des délais indicatifs, une clarté de processus et des moyens de suivi de la mise en œuvre;
  • Équitable: il fournit des informations et des conseils suffisants pour permettre aux individus de s'engager avec le mécanisme sur une base juste et informée;
  • Transparent: les individus sont informés de l'évolution de leur situation;
  • Respect des droits: les résultats et les voies de recours sont conformes aux droits humains internationalement reconnus;
  • Source d’un apprentissage continu: le mécanisme permet à la plateforme de s'appuyer sur les expériences pour identifier les améliorations du mécanisme et pour prévenir les futures réclamations.

5. Augmente la diversité à tous les niveaux de personnel et adopte les Women’s Empowerment Principles (Principes d'autonomisation des femmes).
 
Les signarataires :
 
Association pour le Progrès des Communications
Association pour les Droits des Femmes dans le Développement (AWID)
Asociación Trinidad
BlueLink
CITAD
Derechos Digitales
Fantsuam Foundation
Foundation for Media Alternatives
GreenNet
Heartmob
Hollaback
InjiPennu
Japleen Pasricha
Feminism in India
Kéfir
LaborNet
Luchadoras
May First/People Link
Nana Darkoa Sekyiamah
Nica Dumlao
One World Platform
Persatuan Kesedaran Komuniti Selangor (EMPOWER)
Strategic Advocacy for Human Rights
Sula Batsú
 
1 Par exemple, voir l'annonce récente de Facebook de la façon dont la plate-forme répondra mieux à la diffusion non consensuelle d'images intimes.
2 Voir, par exemple, le cas de l'écrivaine américaine Ijeoma Oluo dont le compte a été suspendu après avoir publié des captures d'écran sur des harcèlements racistes, sexistes et souvent violents auxquels elle a fait face, bien que Facebook n'ait rien fait au sujet du harcèlement. La plateforme a restauré le compte d'Oluo après un tollé général, affirmant qu'elle l'a accidentellement suspendu. De telles suspensions se produisent assez souvent pour constituer une tendance inquiétante.
3 La violence basée sur le genre en ligne se réfère à tout acte qui entraîne des préjudices en raison du genre et implique l'utilisation de la technologie de la communication et de l'information. Les exemples comprennent, sans s'y limiter, le harcèlement en ligne, le cyberharcèlement, la sextortion, la diffusion non consensuelle d'images intimes et les discours de la haine.
4Take Back the Tech! La campagne « Ne faites pas suivre la violence » aborde le problème de la violence en tant que spectacle et une victimisation  répétée et pourrait renseigner de meilleures politiques Facebook dans ce domaine.
5 Le paragraphe 4 de la Recommandation générale No.29 du Comité pour l'élimination de la discrimination raciale prévoit que les États doivent « r) Prendre des mesures contre toute diffusion d’idées prônant la supériorité ou l’infériorité liée à la caste ou tentant de justifier la violence, la haine ou la discrimination à l’encontre de communautés fondées sur l’ascendance » et « s) Prendre des mesures strictes contre toute incitation à la discrimination, à la violence contre les communautés, y compris par l’Internet ».
6 Le paragraphe 3 de la Recommandation générale No.30  du Comité pour l'élimination de la discrimination raciale oblige les États à «  11. Prendre des mesures pour lutter contre les attitudes et les comportements xénophobes à l’égard des non ressortissants, en particulier l’incitation à la haine et la violence raciales, et promouvoir  une  meilleure  compréhension  du  principe  de non-discrimination en  ce  qui concerne la situation des non ressortissants » et «  12. Prendre  des  mesures  énergiques  pour  combattre  toute  tendance  à  viser,  stigmatiser, stéréotyper  ou  caractériser  par  leur  profil  les  membres  de  groupes  de  population  «non ressortissants»  sur  la  base  de  la  race,  la  couleur,  l’ascendance  et  l’origine  nationale  ou ethnique,  en  particulier  de  la  part  des  politiciens,  des  responsables,  des  éducateurs  et  des médias, sur Internet, dans d’autres réseaux de communication électroniques et dans la société en général »
7 Voir, par exemple, Fortune’s story sur la façon dont les identités des modérateurs-trices ont été partagées accidentellement sur la plateforme avec des terroristes présumés.
8 Voir la série "Web we want" de The Guardian et en particulier son travail sur les commentaires.