Le Kenya, un pôle crucial pour les tâches liées à l’IA

À Nairobi, dans un immeuble ancien, un annotateur nommé Michael Geoffrey décrit son quotidien: il prépare les données qui servent à entraîner des algorithmes. Son travail nourrit des systèmes d’intelligence artificielle et, selon lui, des bénéfices importants sont générés par ces données, alors que les conditions de vie des opérateurs restent souvent précaires. L’activité d’annotation et d’entraînement des IA est présentée comme une étape incontournable du progrès technologique, bien que peu visible.

Au-delà des pôles technologiques, le Kenya s’impose comme l’un des centres mondiaux pour ce type de tâches ingrates liées à l’IA. Des petites entreprises, mais aussi des géants comme Meta, ChatGPT, Tesla ou TikTok externalisent une part significative de ce travail d’ombre, nécessaire au fonctionnement des IA génératives en 2025.

Pour mémoire, voir aussi : En Inde, des travailleurs précisent les données alimentant l’IA.

UNE INTERVENTION HUMAINE INDISPENSABLE

Parmi les exemples cités figurent l’annotation de milliers d’images pour identifier des éléments précis, comme les parties de la tête d’un chien — oreille droite, côté droit, base de l’oreille droite… — ou l’analyse image par image de contenus filmés depuis un véhicule, avec des éléments tels que voiture, arbre, piéton. On peut aussi former un robot chirurgical à reconnaître des coupures et des points de suture. Le fil directeur reste identique: pour que l’IA sache reconnaître une catégorie, des humains décrivent des milliers de photos.

Selon le spécialiste Robert West, l’IA nécessite une intervention humaine pour « apprivoiser le modèle » et éviter que le système ne répète des contenus problématiques, comme des messages extrémistes ou des théories du complot. Il rappelle avoir mené une année de recherche chez Microsoft et précise que ce travail ne se fait pas en temps réel et ne couvre qu’une fraction des questions possibles, mais qu’il demeure une étape essentielle dans l’éducation des outils.

« Sans intervention humaine, ce serait la catastrophe », résume-t-il, aussi en soulignant la nécessité d’une curation humaine pour éviter la diffusion de contenus inappropriés sur Internet.

IMPACT SUR LA VIE PRIVÉE ET LA SANTÉ MENTALE

Le directeur du Data Science Lab de l’EPFL insiste sur l’importance des contributions humaines, même si leur ampleur relève d’un secret industriel. Il évoque une estimation selon laquelle annotateurs et rédacteurs de prompts investissent parfois plus de temps que les ingénieurs et les programmeurs dans ces outils.

Michael Geoffrey décrit une routine particulièrement pénible: pour subvenir aux besoins de sa famille, il cumule plusieurs emplois et peut être amené à annoter du matériel sensible pendant de longues heures, jusqu’à huit heures par jour, en plus d’un autre poste à temps plein. Il rappelle que l’exposition à certains contenus peut avoir des répercussions sur sa vie personnelle, et évoque une rupture difficile avec son épouse, conséquence perçue de ce travail.

Cette réalité est partagée par d’autres travailleurs, qui soulignent la difficulté de concilier ce type de mission avec une vie privée et familiale normale.

CONDITIONS DE TRAVAIL ET RÉALITÉS

Angela Chukunzira, sociologue associée à Mozilla, dénonce des conditions de travail indignes et des risques importants pour la santé mentale des annotateurs. Selon elle, l’exposition permanente à des contenus nocifs peut conduire à une certaine insensibilité et à une altération du sens des réalités humaines.

En parallèle, un autre groupe de travailleurs invisibles de l’IA est en première ligne: les modérateurs de contenus des réseaux sociaux. Sur TikTok, l’IA filtre déjà une grande part des contenus inappropriés (environ 85%), mais une intervention humaine demeure nécessaire pour corriger les erreurs de l’IA. Un annotateur, surnommé Ethan*, décrit le quotidien de traque de contenus sensibles venus du monde entier, avec une moyenne d’environ 250 vidéos par jour, et rappelle les limites de l’IA, qui peut distinguer mal certaines actions, comme fumer une cigarette ou lécher une sucette.

« Les gens ne voient que ce qui est bien », résume-t-il, ajoutant que certains contenus restent gravés dans la mémoire et peuvent hanter les travailleurs bien après l’exécution de la tâche. Plusieurs témoignages insistent sur le fait que ces conditions précaires rendent difficile la défense de droits et de protections, d’autant plus que les grandes entreprises passent par des intermédiaires sans emploi direct des travailleurs locaux.

UN MODÈLE BASÉ SUR L’EXPLOITATION ET LES RÉACTIONS LÉGALES

Mercy Mutemi, avocate à Nairobi, est l’une des voix qui militent pour une meilleure protection des salariés du secteur IA. Elle décrit ce secteur au Kenya comme reposant sur un modèle d’exploitation, où des cas de traite d’êtres humains ou de travail forcé peuvent être impliqués via des structures de sous-traitance. « Meta elle-même serait impliquée dans la traite d’êtres humains », affirme-t-elle, en expliquant que le système peut imposer des objectifs inatteignables et récompenser par une réduction salariale continue lorsque les objectifs ne sont pas atteints. Elle poursuit en indiquant qu’elle dirige plusieurs procédures contre Meta.

Selon elle, le schéma consiste à faire venir des travailleurs vulnérables pour les exploiter, et les plaintes portent actuellement devant la justice kényane. Par ailleurs, Michael Geoffrey poursuit son engagement au sein de la DLA, la Data Labelers Association, un courant syndical naissant qui cherche à fédérer les petites structures pour obtenir de meilleures conditions auprès des grands acteurs du secteur.

À ce stade, Meta, TikTok, OpenAI et Tesla n’ont pas répondu aux sollicitations de RTS concernant ces questions.

By