Les intelligences artificielles sont aussi racistes et sexistes que l’être humain Les intelligences artificielles sont aussi racistes et sexistes que l’être humain

News

Les intelligences artificielles sont aussi racistes et sexistes que l’être humain par Antoine Ferreira-Mendes

Icône de voter Icône utilisée pour voir valoriser le contenu
Icône de voter Icône utilisée pour voir valoriser le contenu
Icône de visiteur Icône utilisée pour page visite

PLUS LUS

Icône de montre Icône utilisée pour voir le temps de lecture de ce contenu

Temps de lecture

3 minutes

Publié le Lundi 29 Avril 2019

Les intelligences artificielles s’immiscent peu à peu dans nos vies et promettent un jour de nous devancer. Mais pour le moment, elles ne font que reproduire les biais racistes et sexistes de l’être humain… Explications.

Aujourd’hui, les intelligences artificielles sont partout, de la reconnaissance faciale des smartphones dernier cri à l’assistance vocale de Google Home, en passant par Netflix et son algorithme de recommandation. Elles ont peu à peu envahi notre quotidien, nous remplacent parfois et pourraient même un jour nous devancer, selon certain.e.s analystes. Mais pour le moment, la machine n'est pas plus conscientisée que l’être humain, au contraire.

Une étude d'avril 2019, intitulée "Discriminating Systems" et menée par l’AI NOW Institute de l’Université de New York, met en évidence les biais racistes et sexistes des intelligences artificielles. Logique, quand on sait que leurs concepteurs sont majoritairement des hommes blancs... Selon les chiffres révélés par l’étude, seulement 15% de femmes travaillent dans la recherche sur l’intelligence artificielle chez Facebook et 10% chez Google. Quant aux personnes racisées, elles sont sous-représentées voire absentes dans ce domaine. En effet, chez Facebook et Microsoft, seulement 4% de l'effectif est composé de chercheur.se.s noir.e.s et chez Google, cette proportion dégringole à 2,5%.
 


Les intelligences articielles étant à l'image de leurs créateurs, de nombreux tests révèlent les conséquences de la sous-représentation des femmes et des personnes racisées côté conception. En 2015 déjà, l’application de photos Google identifiait deux personnes noires comme étant des gorilles, renvoyant à un horrible stéréotype raciste. En 2016, Microsoft testait @TayTweets sur Twitter, un chatbot (robot conversationnel) qui devait s’enrichir de conversations avec la communauté pour développer son sens de la répartie. Tay était capable d'échanger avec les twitto.as, sans l’aide de qui que ce soit, mais a rapidement été mise hors ligne. Après avoir été confrontée à des internautes tenant des propos haineux, Tay n’a fait que reproduire par mimétisme ce qui lui avait été écrit, déblatérant par la suite des tweets choquants. Cette fois-ci, les concepteurs ne sont pas directement fautifs, mais cet exemple démontre l'impact négatif que l'être humain a sur la machine : si Tay a tenu des propos racistes, sexistes et antisémites, c'est bien que quelqu'un les lui a enseignés...
 


Quant à Amazon, le géant souhaitait l'an dernier automatiser sa procédure de recrutement en la confiant à une intelligence artificelle, or, cette tâche était auparavant réalisée majoritairement par des hommes. En se fondant sur les données RH des dix dernières années, l’intelligence artificelle s'est mise à pénaliser les candidatures de femmes… Preuve que les IA absorbent les mauvais mécanismes de l’être humain et qu'une meilleure représentation des femmes et personnes racisées est nécessaire, afin de créer des machines universelles aux comportements impartiaux.

Icône de voter Icône utilisée pour voir valoriser le contenu
Icône de voter Icône utilisée pour voir valoriser le contenu

* champs obligatoires