La société d’externalisation Sama, basée au Kenya, a déclaré le 10 janvier qu’elle ne fournirait plus de services de modération de contenu pour le propriétaire de Facebook, WhatsApp et Instagram en mars, afin de se concentrer sur le travail d’étiquetage des données.
Sama a déclaré qu’elle allait licencier 3 % de son personnel, soit environ 200 employés, afin de rationaliser ses opérations et de gagner en efficacité. Elle continuera à fournir des services d’étiquetage de données à Meta.
Cette annonce intervient alors que Sama et Meta font l’objet d’une action en justice pour des abus présumés en matière de travail et pour avoir empêché des travailleurs de se syndiquer au Kenya. Une autre action en justice accuse Meta d’avoir permis à des messages violents de fleurir sur Facebook, attisant le conflit civil dans l’Éthiopie voisine. Les deux entreprises ont défendu leur bilan.
Les défenseurs des droits numériques ont déclaré que les efforts déployés par Meta pour limiter les contenus préjudiciables dans les pays africains étaient terriblement insuffisants par rapport aux nations plus riches, et ont appelé l’entreprise à améliorer radicalement ses processus de modération.
“Avec le départ de Sama, Meta aurait maintenant une bonne occasion de rectifier le tir et de garantir de meilleures conditions de travail pour les modérateurs africains dans la région”, a déclaré Bridget Andere, analyste de la politique africaine chez Access Now.
“Meta devrait augmenter le nombre de modérateurs pour la région afin de couvrir de manière adéquate les langues et dialectes locaux, et aussi être plus transparent sur leurs algorithmes qui favorisent les contenus nuisibles”, a-t-elle déclaré.
Meta n’a pas fourni de détails sur la question de savoir si elle avait trouvé un nouveau contractant tiers pour l’Afrique de l’Est, mais a déclaré que le retrait de Sama n’aurait pas d’impact négatif sur les utilisateurs de ses plateformes de médias sociaux.
“Nous respectons la décision de Sama de se retirer des services de révision de contenu qu’elle fournit aux plateformes de médias sociaux”, a déclaré un porte-parole de Meta.
“Nous allons travailler avec nos partenaires pendant cette transition pour nous assurer qu’il n’y a pas d’impact sur notre capacité à examiner le contenu.”
Défis juridiques
Les défis juridiques de Meta en Afrique de l’Est ont commencé en mai de l’année dernière après que l’ancien modérateur Daniel Motaung ait déposé une plainte concernant les mauvaises conditions de travail au Kenya.
La pétition, également déposée contre Sama, allègue que les travailleurs qui modèrent les posts Facebook étaient confrontés à des salaires irréguliers, à un soutien inadéquat en matière de santé mentale, à des activités antisyndicales et à des violations de leur vie privée et de leur dignité.
Sama nie ces allégations, tandis que Meta a déclaré qu’elle exigeait de “ses partenaires qu’ils offrent aux travailleurs des salaires, des avantages et un soutien de premier ordre”.
Un juge devrait se prononcer le 6 février sur la question de savoir si un tribunal kenyan peut entendre la plainte.
Le mois dernier, Meta a fait l’objet d’une autre action en justice qui l’accuse d’avoir permis à des messages violents de fleurir sur Facebook, attisant ainsi la guerre civile en Éthiopie.
L’action en justice, déposée par deux chercheurs éthiopiens et le groupe de défense des droits Katiba Institute du Kenya, fait valoir que les systèmes de recommandation de Facebook ont amplifié les messages haineux et violents en Éthiopie, dont plusieurs ont précédé le meurtre du père de l’un des chercheurs.
Les plaignants demandent à Meta de prendre des mesures d’urgence pour rétrograder les contenus violents, d’augmenter le personnel de modération à Nairobi et de créer des fonds de restitution d’environ 2 milliards de dollars pour les victimes mondiales de la violence incitée sur Facebook.
Meta a déclaré qu’elle avait des règles strictes décrivant ce qui est et n’est pas autorisé sur Facebook et Instagram.
“Les discours de haine et l’incitation à la violence sont contraires à ces règles et nous investissons massivement dans les équipes et la technologie pour nous aider à trouver et à supprimer ce contenu”, a déclaré le porte-parole de Meta.
“Notre travail de sécurité et d’intégrité en Éthiopie est guidé par les commentaires des organisations de la société civile locale et des institutions internationales.”
Mettre fin à l’externalisation, revoir les algorithmes
Dans le monde entier, des milliers de modérateurs examinent les messages des médias sociaux susceptibles de contenir de la violence, de la nudité, du racisme ou d’autres contenus offensants. Nombre d’entre eux travaillent pour des sous-traitants plutôt que directement pour des entreprises technologiques.
Meta a déjà fait l’objet d’un examen minutieux des conditions de travail des modérateurs de contenu et de critiques concernant son action visant à mettre fin aux discours haineux et aux contenus violents.
En juillet 2021, un juge californien a approuvé un accord de 85 millions de dollars entre Facebook et plus de 10 000 modérateurs qui accusaient l’entreprise de ne pas les avoir protégés des blessures psychologiques dues à leur exposition à des images graphiques et violentes.
La même année, des réfugiés rohingyas du Myanmar ont intenté une action en justice, réclamant à Meta 150 milliards de dollars au motif que l’entreprise n’aurait pas pris de mesures contre les discours de haine à l’encontre des Rohingyas, ce qui aurait contribué à la violence contre ce groupe minoritaire.
Les groupes de défense des droits affirment que les processus de modération ne comprennent pas les contextes culturels et sociétaux spécifiques et ne connaissent pas les langues et dialectes locaux, ce qui permet à des contenus problématiques de se répandre rapidement et d’être amplifiés, avec des conséquences graves.
Cori Crider, directrice de Foxglove – un groupe de défense de la justice technologique basé à Londres qui soutient les deux actions en justice au Kenya – a appelé Meta à mettre fin à ses pratiques d’externalisation et à augmenter les ressources “pitoyables” qu’elle consacre à la sécurité en Afrique.
“Facebook devrait prendre la modération en interne, embaucher chacun des 260 modérateurs de contenu à Nairobi qui font un travail de sécurité vital, et valoriser ces personnes avec des salaires décents, un soutien complet en matière de santé mentale clinique et la dignité et le prestige”, a déclaré Crider.
“L’externalisation est brisée et les travailleurs et les gens ordinaires en ont payé le prix”.
Alia Al Ghussain, chercheuse sur l’IA et les droits humains à Amnesty International, a déclaré que les algorithmes de Facebook – qui alimentent son fil d’actualité, son classement, ses recommandations et ses fonctions de groupes, façonnant ce que les utilisateurs voient sur la plateforme – devaient également être examinés de près.
“Le modèle économique de Meta, fondé sur l’engagement, signifie que les algorithmes sont programmés pour que des contenus nuisibles et incendiaires deviennent viraux”, a déclaré M. Al Ghussain, dont l’organisation soutient le procès concernant l’Éthiopie.
“Les litiges auxquels nous assistons à la fois dans le cas de l’Éthiopie et dans celui du Myanmar démontrent clairement que le problème est systémique et qu’il doit être traité de toute urgence par le biais de la réglementation.”