Les intelligences artificielles reproduisent et amplifient les stéréotypes ethniques et de genre. Si la prise de conscience des dérives est désormais acquise, peu d’améliorations ont été relevées par les experts. Le retour de Donald Trump à la présidence des États-Unis tue dans l’œuf tout espoir de voir les concepteurs d’algorithmes s’attaquer plus sérieusement au problème.
Des visages tristes, des vêtements sales et troués, une rue jonchée de déchets. Voici comment Midjourney représentait des enfants de banlieues françaises en 2023. Une image extrêmement négative et véhiculant des stéréotypes. Même constat à l’époque pour des requêtes demandant à cette intelligence artificielle de générer des images d’une « école dans une banlieue française » ou d’un « mariage en banlieue ».
D’autres « biais discriminatoires » ont été constatés dans les agents conversationnels de l’IA, notamment à l’encontre des personnes noires, des femmes ou encore des personnes en situation de handicap, explique Rémy Demichelis, journaliste et auteur de « L’Intelligence artificielle, ses biais et les nôtres » (éd. du Faubourg, juin 2024). Un phénomène qui trouve ses racines dans les données utilisées par ces IA, elles-mêmes empreintes de stéréotypes et donc biaisées.
Des études des bases de données sur les photos de mariage ont ainsi montré que près de la moitié des clichés proviennent uniquement de deux pays : les États-Unis et le Royaume-Uni. « L’IA se nourrit de ces bases de données qui ont un cadre culturel, de ce fonds constitué par des pays occidentaux », explique le spécialiste. Dès lors, on peut se retrouver avec une IA qui reconnaîtra des « costumes folkloriques » sur une image, alors qu’il s’agit en réalité d’un mariage pakistanais – la plupart des photos du fonds dont l’IA dispose montrant des mariées en robe blanche.
Une prise de conscience générale
Les algorithmes ne sont jamais innocents, rappelle Rémy Demichelis pour celles et ceux qui ne le sauraient pas encore. « L’algorithme non seulement reproduit le biais inhérent à la société mais en plus de ça, il le surpondère et va le renforcer. »
Un constat logique, mais pas acceptable pour autant, relève Jean Cattan, secrétaire général du Conseil national du numérique. Les choses ont changé ces dernières années, a-t-il constaté. « Il y a une prise de conscience très forte, il est désormais impossible de passer à côté. »
En 2023, les stéréotypes générés par Midjourney avaient été dénoncés dans une campagne de publicité par une entreprise de VTC opérant en banlieue.
https://platform.twitter.com/embed/Tweet.html?creatorScreenName=FRANCE24&dnt=false&embedId=twitter-widget-0&features=eyJ0ZndfdGltZWxpbmVfbGlzdCI6eyJidWNrZXQiOltdLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X2ZvbGxvd2VyX2NvdW50X3N1bnNldCI6eyJidWNrZXQiOnRydWUsInZlcnNpb24iOm51bGx9LCJ0ZndfdHdlZXRfZWRpdF9iYWNrZW5kIjp7ImJ1Y2tldCI6Im9uIiwidmVyc2lvbiI6bnVsbH0sInRmd19yZWZzcmNfc2Vzc2lvbiI6eyJidWNrZXQiOiJvbiIsInZlcnNpb24iOm51bGx9LCJ0ZndfZm9zbnJfc29mdF9pbnRlcnZlbnRpb25zX2VuYWJsZWQiOnsiYnVja2V0Ijoib24iLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X21peGVkX21lZGlhXzE1ODk3Ijp7ImJ1Y2tldCI6InRyZWF0bWVudCIsInZlcnNpb24iOm51bGx9LCJ0ZndfZXhwZXJpbWVudHNfY29va2llX2V4cGlyYXRpb24iOnsiYnVja2V0IjoxMjA5NjAwLCJ2ZXJzaW9uIjpudWxsfSwidGZ3X3Nob3dfYmlyZHdhdGNoX3Bpdm90c19lbmFibGVkIjp7ImJ1Y2tldCI6Im9uIiwidmVyc2lvbiI6bnVsbH0sInRmd19kdXBsaWNhdGVfc2NyaWJlc190b19zZXR0aW5ncyI6eyJidWNrZXQiOiJvbiIsInZlcnNpb24iOm51bGx9LCJ0ZndfdXNlX3Byb2ZpbGVfaW1hZ2Vfc2hhcGVfZW5hYmxlZCI6eyJidWNrZXQiOiJvbiIsInZlcnNpb24iOm51bGx9LCJ0ZndfdmlkZW9faGxzX2R5bmFtaWNfbWFuaWZlc3RzXzE1MDgyIjp7ImJ1Y2tldCI6InRydWVfYml0cmF0ZSIsInZlcnNpb24iOm51bGx9LCJ0ZndfbGVnYWN5X3RpbWVsaW5lX3N1bnNldCI6eyJidWNrZXQiOnRydWUsInZlcnNpb24iOm51bGx9LCJ0ZndfdHdlZXRfZWRpdF9mcm9udGVuZCI6eyJidWNrZXQiOiJvbiIsInZlcnNpb24iOm51bGx9fQ%3D%3D&frame=false&hideCard=false&hideThread=false&id=1721467618341552498&lang=fr&origin=https%3A%2F%2Fwww.france24.com%2Ffr%2F%25C3%25A9co-tech%2F20250208-quand-l-ia-renforce-les-pr%25C3%25A9jug%25C3%25A9s-un-probl%25C3%25A8me-reconnu-mais-pas-encore-r%25C3%25A9solu&sessionId=7f7633b685bb0924876b32caee6f59ab955c5637&siteScreenName=FRANCE24&theme=light&widgetsVersion=2615f7e52b7e0%3A1702314776716&width=550px
« On a constaté empiriquement des améliorations sur des agents conversationnels, du moins les plus fréquentés par le grand public », souligne Jean Cattan. Mais dans la foule des IA désormais disponibles, toutes ne sont pas modérées de la même manière, ni soumises aux mêmes exigences. « Donc vous avez potentiellement plein d’agents conversationnels en ligne qui emportent les mêmes biais que ceux qu’on pouvait constater hier, voire des biais encore plus graves, avec assez peu d’attention prêtée à la diversité des contenus représentés dans le stock de données utilisé. »
Un problème de diversité chez les concepteurs d’algorithmes
Mais le problème des biais préjudiciables n’est pas seulement lié aux données. Il faut se demander qui conçoit les algorithmes, alertent plusieurs experts. « Évidemment, si vous avez des personnes blanches et des hommes a fortiori qui sont les seuls à concevoir ces outils, ils ne vont pas être sensibilisés aux problèmes de discrimination », regrette Rémy Demichelis.
L’Algorithmic Justice League, une association américaine qui travaille sur les dangers de l’intelligence artificielle, dénonce ce phénomène de biais et de discrimination depuis plusieurs années. Elle prône le recours à des audits algorithmiques par les éditeurs d’IA.
Si des audits ont bien été effectués, ils restent cependant mal définis, déplore l’association. L’Algorithmic Justice League recommande notamment d’ »impliquer directement les parties prenantes les plus susceptibles d’être lésées par les systèmes d’IA dans le processus d’audit algorithmique ».
À voir aussi Les employés de DeepSeek tous jeunes et beaux ? Attention à ces photos d’IA
Or l’arrivée au pouvoir de Donald Trump aux États-Unis, accompagnée d’annonces fracassantes des dirigeants des géants américains de la tech qui l’ont rallié, n’est pas de bon augure pour la cause de la lutte contre les discriminations. « Quand vous entendez Mark Zuckerberg dire qu’il n’y a pas assez d’énergie masculine dans la tech, on peut se demander vraiment si le fond du problème a changé et s’il va y avoir des évolutions dans les nouvelles technologies sur ces questions-là », se demande Rémy Demichelis. « Toutes les luttes menées depuis plusieurs années sont remises en cause et on risque de se retrouver avec une amplification des discriminations. »
Des biais inévitables
Ces dernières années, il y a pourtant eu des tentatives d’amélioration, avec quelques ratés, comme avec Gemini. L’IA de Google s’était attiré les foudres d’internautes en février 2024 après avoir généré des images de soldats nazis de la Seconde Guerre mondiale à la peau noire. Une tentative de correction de ses biais, qui s’était soldée à l’époque par un rétropédalage de Gemini. Google avait alors décidé de suspendre la création d’images de personnes.
Elon Musk n’avait pas manqué de réagir. Le patron de X s’était empressé de taxer les concepteurs de Gemini de « racistes wokes », tout en profitant de la polémique pour faire la publicité de sa propre IA.
Si les IA peinent à atténuer leurs biais, c’est aussi parce que pour les ingénieurs, « il est techniquement très compliqué de cibler dans la machine où se trouvent les biais précisément », explique Rémy Demichelis. Et de rappeler que dans tous les cas, ils sont inévitables.
L’UE tente de réguler
Pour Jean Cattan, l’amélioration des travers de ces IA conversationnelles doit aussi passer par les retours des utilisateurs et par une obligation de « reporting » – ou communication de données – des éditeurs sur les signalements reçus.
Le secrétaire général du Conseil national du numérique appelle aussi les utilisateurs à avoir recours à des comparateurs d’IA, comme celui du ministère de la Culture, compar:IA.
Jean Cattan attend beaucoup du règlement européen sur l’IA (« AI Act »), dont les premières mesures sont entrées en vigueur dimanche dernier. Tout comme Rémy Demichelis, pour qui une réglementation contraignant les éditeurs à une évaluation continue de leurs outils était nécessaire, car « les problèmes évoluent constamment, on ne peut pas se contenter d’un audit à un moment donné ».
À voir aussiCourse à l’IA : « L’Europe a encore une carte à jouer »
À la veille du sommet d’action sur l’intelligence artificielle (IA), qui réunit à Paris les dirigeants mondiaux et les cadres du secteur de la technologie le 10 et le 11 février, Amnesty internationale alerte à son tour. L’ONG demande au gouvernement français de « saisir cette occasion cruciale de progresser de manière significative vers une réglementation mondiale de l’intelligence artificielle respectueuse des droits humains ». Amnesty demande aussi que « les individus et les groupes touchés par l’IA » puissent « pouvoir former des recours et obtenir des réparations ».
Beaucoup d’espoirs reposent sur l’AI Act, qui constitue le premier cadre réglementaire au monde portant sur l’intelligence artificielle – et donc à ce titre la réglementation la plus ambitieuse jusqu’à présent dans ce domaine. Mais malgré son entrée en application progressive jusqu’en 2027, elle reste encore fragile, tant elle est contestée. Notamment outre-Atlantique. L’UE parviendra-t-elle à tenir tête à la dérégulation prônée par Donald Trump et Elon Musk dans le secteur des nouvelles technologies ? Jusqu’où la Commission européenne va pouvoir pousser son exercice ? À l’heure où les services de l’IA générative s’imposent à une vitesse fulgurante, tous les regards sont tournés vers elle.
Source : France 24
Laisser un commentaire