Plusieurs enquêtes montrent comment des entreprises de l’intelligence artificielle sous-traitent en Afrique, dans des conditions parfois déplorables.
Pour à peine deux dollars de l’heure, des travailleurs kényans œuvrent à « rendre ChatGPT moins toxique », indique une enquête édifiante du Time. L’application d’intelligence artificielle (IA) a révolutionné internet. Mais il serait faux de s’imaginer que de simples robots ont réussi à créer cette appli d’un nouveau genre : laissant échapper des propos violents, sexistes et racistes, il a fallu entraîner l’IA, qui piochait des informations sur un web truffé de propos discriminatoires. OpenAI, le créateur de ChatGPT, a envoyé des dizaines de milliers d’extraits de textes à une entreprise kényane. La mission de sous-traitance aurait débuté en novembre 2021.
Si Sama est une entreprise basée à San Francisco, elle emploie des travailleurs au Kenya, en Ouganda et en Inde. Et travaille pour Google, Meta et Microsoft. Alors qu’elle se présente comme une société qui œuvre pour une « IA éthique » et qu’elle assure avoir aidé à sortir de la pauvreté plus de 50 000 personnes, les faits sont différents : les sous-traitant d’OpenAI gagnent entre 1,32 et 2 dollars par heure.
« Notre mission est de garantir que l’intelligence artificielle générale profite à toute l’humanité, et nous travaillons dur pour construire des systèmes d’IA sûrs et utiles qui limitent les préjugés et les contenus préjudiciables », admet OpenAI. Mais ce dur travail est en réalité réservé à de « petites mains » africaines. La mission confiée à des Kényans n’est pas sans rappeler comment Facebook a exploité des salariés pour modérer ses contenus.
« De la torture »
« C’est de la torture », résume un employé de Sama chargé de lire du contenu zoophile. Si bien que, en février 2022, huit mois avant l’échéance du contrat, Sama a rompu son contrat de sous-traitance à cause des terribles conditions de travail. Selon Time, Sama a empoché 200 000 dollars pour sa mission, une quarantaine de Kényans ont dû lire des contenus bourrés d’abus sexuels, de discours de haine et de violences. Des conseilles en « bien-être » ont été mis à la disposition des salariés et Sama assure avoir embauché « des thérapeutes en santé mentale formés et agréés par des professionnels ». Ce que les salariés contestent.
Au-delà de la pénibilité psychique, ce sont les conditions de travail de la start-up qui ont pu choquer : alors qu’au Kenya, il n’y a pas de salaire minimum imposé, les sous-traitants d’OpenAI touchaient à peine autant qu’un réceptionniste à Nairobi, indique Time. « Les tâches chronophages et peu valorisées sont généralement externalisées par les entreprises technologiques à une foule de travailleurs précaires, généralement situés dans les pays des sud », indiquent Clément Le Ludec, sociologue du numérique, et Maxime Cornet, doctorant en sociologie de l’IA.
Eux ont trouvé une mission similaire à Madagascar, qui concernait le travail de la data. « Notre étude montre aussi la réalité de ‘l’IA à la française’ : d’un côté, les entreprises technologiques françaises s’appuient sur les services des GAFAM pour accéder à des services d’hébergement de données et de puissance de calcul ; d’un autre côté les activités liées aux données sont réalisées par des travailleurs situés dans les ex-colonies françaises, notamment Madagascar, confirmant alors des logiques déjà anciennes en matière de chaînes d’externalisation », écrivent-ils.
Invisibilisation des sous-traitants
Problème : les travailleurs africains « sont situés à l’extrémité d’une longue chaîne d’externalisation, ce qui explique en partie la faiblesse des salaires de ces travailleurs qualifiés ». Quant aux entreprises, elles sont généralement tenues par des étrangers. Sur les 48 entreprises proposant des services numériques dans des zones franches, étudiées par les deux chercheurs, à peine 9 sont tenues par des Malgaches contre 26 par des Français.
« Ce schéma rappelle ce que le chercheur Jan Padios désigne comme le ‘colonial recall’, selon les deux chercheurs. Les anciens pays colonisés disposent de compétences linguistiques et d’une proximité culturelle avec les pays donneurs d’ordres dont bénéficient les entreprises de services ». Un post-colonialisme économique, qui débouche bien souvent malheureusement sur une invisibilisation des travailleurs de l’intelligence artificielle qui, sans ces enquêtes, seraient toujours dans l’anonymat le plus total.