L’intelligence artificielle est-elle sexiste ?


Publié le: 8 mars 2019 par Atos

L’idée selon laquelle l’intelligence artificielle (IA) serait sexiste défraie la chronique. C’est devenu un sujet d’importance dans le débat public autour des technologies numériques, porté par un certain nombre d’experts et d’expertes. Ils ont révélé que, sous l’apparence d’une technologie neutre, l’IA recèlerait de profonds biais sexistes. On en veut ainsi pour preuve que, dans les résultats de certains algorithmes de traduction, des genres sont davantage assignés à certains métiers qu’à d’autres (« une infirmière » pour traduire « a nurse »). Autre exemple : sur les moteurs de recherche, ce sont des images d’hommes et non de femmes qui sont très largement associées à la requête « CEO ».

« Garbage in, garbage out »

Une première manière d’expliquer cet état de fait est précisément de souligner que l’IA ne fait que reproduire l’état des choses. Les modèles d’intelligence artificielle qui sont les plus efficaces aujourd’hui sont ceux qui font appel à l’apprentissage machine : les algorithmes sont donc « entraînés » à partir de bases de données très importantes majoritairement issues des usages des internautes. C’est à partir de cette phase d’apprentissage que les algorithmes produisent leurs résultats : traductions, prévisions, mise en relation… Si les bases de données contiennent des biais, les algorithmes aussi : « garbage in, garbage out », selon le dicton ! Les dispositifs d’IA ne feraient ainsi que refléter un certain état de la réalité, tel qu’il est transcrit dans les bases de données. En résumé, notre monde étant pétri de sexisme et plus globalement de biais discriminatoires, l’IA le serait également et ne ferait que refléter cet état des choses. La seule question valable serait alors de savoir quelle est la marge de manœuvre des développeurs (faut-il et peut-on modifier les bases de données artificiellement pour les rendre plus égales à l’image du monde auquel on aspire ?) : en un mot changer le monde en « débiaisant » ou en « biaisant en sens inverse » les algorithmes d’IA.

« I’d blush if I could »

Néanmoins cette analyse, qui fait de l’IA un simple vecteur de transmission des préjugés sexistes, affronte un certain nombre de limites. Elle n’apporte en effet pas d’explication pour l’ensemble des problèmes sexistes liés à l’IA. L’exemple le plus frappant à cet égard est celui des assistants intelligents - le plus souvent des assistantes - qui avaient été programmées pour répondre qu’elles étaient flattées lorsqu’on les insultait ou qu’on leur proposait des actes sexuels... Ainsi Siri, l’assistante développée par Apple, répondait-elle « I’d blush if I could » (« je rougirais si je le pouvais ») lorsqu’on la traitait de garce.

De manière générale, on ne peut pas mentionner les bases de données sans aussi se poser la question des conditions de production de l'IA : qui fabrique l’IA et dans quel environnement culturel ? Seulement 33% des personnes travaillant dans le secteur numérique sont des femmes, chiffre qui descend à 12 % si l’on écarte les fonctions transversales et supports. Cette grande disproportion, surtout dans les fonctions techniques, a probablement des conséquences sur la manière dont sont constitués les dispositifs techniques et reproduits certains stéréotypes ? Le sexisme des IA viendrait donc d’un problème général lié à l’éducation, aux représentations, aux choix genrés de filière ; mais s'en tenir à cela restreindrait bien trop l'explication.

Thèse en informatique et voyage sur la lune

Pour compléter l'analyse, un chiffre peut mettre la puce à l’oreille : le taux d’attrition des femmes dans le secteur STEM (Sciences, Technologies, Sciences de l’ingénieur, Mathématiques), c’est-à-dire le taux de femmes quittant le secteur après 10 ans, est de 41% (contre 17% pour les hommes). De manière plus générale, et comme dans de nombreux secteurs, une ambiance de boy’s club règne dans certaines grandes entreprises technologiques ou dans les services informatiques des grandes entreprises. Certaines femmes dénoncent même une misogynie systémique dans certaines entreprises de la Silicon Valley, comme Ellen Pao dans Reset.

Pourtant, sans même remonter à Ada Lovelace, qui a été la « première programmeuse de l’histoire », l’informatique n’a pas toujours été une discipline masculine, loin s’en faut : la première thèse en informatique a été soutenue aux États-Unis par Mary Keller. Le premier compilateur ouvrant la voie aux langages de programmation a été créé par Grace Hopper. On doit également à des femmes la programmation du premier ordinateur entièrement électronique en 1946 ou encore l’atterrissage sur la lune à des équipes dirigées par Margaret Hamilton. Et il y avait beaucoup plus de femmes dans le milieu de la tech dans les années 1990 qu'aujourd'hui : la France a connu un véritable « exode des femmes », en 30 ans, le nombre de femmes ingénieures en informatique y est passé d’un tiers des effectifs à 15 %.

Heureusement, la situation n'est pas inexorable, et la prise de conscience se confirme. De nombreuses initiatives, très concrètes, à la fois externes et internes aux entreprises, séduisent femmes et hommes pour rétablir la situation : programme Étincelles de Social Builder auquel Atos participe, promotion d'un serment d'Hippocrate pour data scientists, communautés dédiées (Digital Ladies & Allies, Duchess France, Girls in Tech, Open héroïnes…). Bref, pour que les IA soient moins empreintes de stéréotypes, il faut s’attacher à redonner toute leur mixité et leur diversité aux équipes qui la programment !

Partager


Qui est Atos

Partenaire de Confiance de votre Transformation Digitale


Suivre ou contacter Groupe