IA : où sont les femmes ?
Ou comment passer d'un algorithme machiste à un algorithme en faveur de l'égalité
2016 : année de mon bac, et du début de mes études supérieures.
J'ai toujours été scientifique. Pourtant, au moment des choix, je choisis une filière économique. Alors pourquoi avoir abandonné les sciences sans même essayer ?
Petite, j'excellais en maths, physique, chimie… J’adorais comprendre ce qui régit notre monde. Alors, tout semblait tracé :
👉 mes profs me voyaient en prépa scientifique,
👉 ma famille vouait une "admiration" pour les ingénieurs,
👉 et moi, quelque part, je me plaisais à devenir “une femme dans un milieu d’hommes.”
Pourtant, au moment décisif, mon choix a été différent. Trop d’options, trop peu de confiance. Et puis bizarrement, dans les filières scientifiques, je ne m'y retrouve pas.
Des années plus tard, je comprends : ce n’était pas qu’une impression. Boys club, absence de rôles modèles, autocensure, stéréotypes… Autant de barrières invisibles qui, encore aujourd’hui, détournent les filles des sciences.
Résultat ? Elles manquent à l’appel dans le numérique, et surtout… dans l’intelligence artificielle. Un problème majeur, car ces mêmes biais invisibles se retrouvent maintenant dans les algorithmes. Non seulement l’IA perpétue les stéréotypes, mais elle les amplifie.
Il fut pourtant un temps où les femmes étaient majoritaires dans les sciences. Doit-on y revenir ? Comment ont-elles disparues ? Quelles sont les conséquences ? Et surtout, quelles solutions existent déjà ? C’est ce qu’on explore dans cette édition de La Golden Hour 🌅
Quand la science était un milieu de femmes
Les femmes sont largement absentes du domaine de l’IA, mais ce n’est qu’un symptôme d’un problème plus vaste : leur effacement progressif des sciences en général. Pourtant, il fut un temps où elles étaient aux premières loges…
Au début du XXe siècle, le terme computer ne désigne pas une machine, mais les humains chargés de faire des calculs complexes pour la science et l’armée par exemple. Et devinez quoi ? Ces ordinateurs étaient majoritairement des femmes. Pourquoi ? Parce que les tâches étaient jugées répétitives et laborieuses – parfaites pour la “minutie féminine” (et surtout, moins bien payées).
Le phénomène est si répandu que l’astrophysicien Edward Pickering, de Harvard, engage une équipe entière de femmes pour effectuer ces fastidieux calculs. Son labo finit par être surnommé le harem de Pickering… Charmant, non ?
Pendant la Seconde Guerre mondiale, les femmes jouent un rôle clé dans l’informatique, notamment pour le calcul des trajectoires de missiles. Puis, dans les années 70 et 80, leur présence dans le secteur explose.
Au milieu des années 80, coup de frein brutal. En 1984, les femmes représentaient encore 37% des effectifs en informatique aux États-Unis. Aujourd’hui ? À peine 10%. Que s’est-il passé ?
Avec l’essor des jeux vidéo, massivement marketés pour les garçons dans les années 90-2000. Les ordinateurs deviennent petit à petit un univers masculin. Résultat : les jeunes garçons y sont plongés très tôt, tandis que les filles restent à l’écart. Lorsqu’elles s’y intéressent plus tard, elles partent avec un retard énorme en termes d’expérience et de confiance. Elles sont évincées du jeu avant même d’avoir eu le temps de s’échauffer.
Ajoutez à cela un secteur de plus en plus attractif et lucratif : les barrières d’entrée se renforcent, et la sous-représentation des femmes devient un cercle vicieux. L’écart se creuse, tellement qu’aujourd’hui, même l’intelligence artificielle s’écrit au masculin.
L’IA : à la pointe de la tech, pas sur l’égalité des sexes
L’IA, c’est avant tout des algorithmes capables d’apprendre, de s’adapter, et de (re)produire des opérations cognitives. Autrefois cantonnée à battre des humains à des jeux “mathématiques”, elle s’immisce aujourd’hui partout : reconnaissance faciale et détection de cancers par images, prédiction de délits, converser avec des humains... L’IA façonne désormais notre quotidien, mais qui la façonne elle ?
La sous-représentation des femmes dans l’informatique est flagrante. Pourtant, elles apportent une vraie valeur ajoutée. Et le problème ne s’arrête pas à ceux qui conçoivent l’IA. Les technologies qui sont développées reproduisent et aggravent les biais sexistes.
Un algorithme de recrutement chez Amazon écartait systématiquement les CV de femmes pour des postes techniques.
Un système de rémunération basé sur l’IA proposait systématiquement des salaires inférieurs aux femmes.
Les publicités ciblées offraient des postes de direction aux hommes, et des jobs moins qualifiés aux femmes.
Bref, loin d'être neutres, les algorithmes aggravent les inégalités. Tant que les femmes seront sous-représentées dans la conception de l’IA, cette dernière continuera à refléter un monde conçu par et pour les hommes.
L’apprentissage des algorithmes : un mimétisme biaisé
"Nous avons des préjugés et l’intelligence artificielle les apprend." – Joanna Bryson, professeur agrégée au département d’informatique de l’université de Bath
Les algorithmes d’IA apprennent en ingérant une quantité colossale de données, qu’ils comparent et analysent pour identifier des schémas. Mais si les données utilisées sont biaisées, l’IA apprend et perpétue ces biais… sans jamais les remettre en question.
Les bases de données populaires sont loin d’être neutres : elles surreprésentent certains groupes et en invisibilisent d’autres.
Prenons ImageNet : 45 % des images proviennent des États-Unis, alors que ce pays ne représente que 4 % de la population mondiale. En revanche, la Chine et l’Inde, qui rassemblent 37 % de la population mondiale, ne fournissent que 3 % des images.
Autre exemple parlant : le mot "writer" (écrivain) est illustré par 26 % d’images de femmes, alors que 56 % des écrivains sont des femmes. En résumé, l’IA apprend un monde déformé… et le considère comme la norme.
Au-delà de la qualité des données, aucune technologie n’est infaillible, et un certain pourcentage d’erreurs est inévitable. Le problème, c’est quand ces erreurs concernent toujours les mêmes populations. Pire encore, même lorsque l’IA se trompe, il est souvent impossible d’expliquer pourquoi. Ces algorithmes fonctionnent comme une "boîte noire", où les mécanismes de décision restent opaques, rendant d’autant plus difficile la correction des biais.
Enfin, pour gagner du temps, certains concepteurs réutilisent des modèles et des jeux de données préexistants. Résultat : les biais initiaux sont copiés, répétés, et amplifiés. L’IA ne fait que recycler ce qu’elle a déjà appris, rendant les stéréotypes encore plus persistants. Si personne ne corrige le tir, chaque nouvelle génération d’algorithmes renforce les mêmes préjugés.
En clair, les IA reproduisent les biais de leurs créateurs, mais des solutions existent déjà pour corriger le tir.
Y mettre fin : est-ce (déjà) possible ?
Réguler les algorithmes
Avant de corriger quoi que ce soit, encore faut-il détecter les biais. Aujourd’hui, c’est devenu un terrain de jeu majeur pour les chercheurs et ingénieurs : scruter les données et les corriger avant qu’elles ne contaminent les algorithmes. Et puisque ce sont souvent les minorités concernées qui repèrent ces biais, on a une raison de plus de maximiser la diversité des équipes : un outil inclusif ne peut émerger d’une vision uniformisée.
Certains chercheurs essaient de réduire les biais en forçant les algorithmes à produire certains résultats. L’intention est louable, mais cela peut parfois nous éloigner de la réalité sociale. Ne plus associer "femme" et "ménage" dans les IA est éthique, mais ne reflète pas la répartition des tâches domestiques aujourd’hui. De plus, il est crucial de s’adapter au contexte : dans un diagnostic médical, les différences hommes-femmes sont essentielles. Mais dans une orientation professionnelle ? Pas du tout. La clé : des bases de données équilibrées et une adaptation fine selon les cas.
Tout commence dès l’enfance
Si l’on veut plus de femmes dans les métiers de l’IA, il faut les y amenerdès l’enfance. Ça passe par des jouets non genrés, des modèles féminins dans les manuels scolaires, et une attention égale en sciences entre les filles et les garçons.
Mais l’école ne fait pas tout : certaines universités, comme Carnegie Mellon, ont revu leurs cursus pour réduire les abandons féminins, passant de 60 % à 10 % en deux ans. Résultat ? La proportion de femmes en licence informatique est montée de 9 % à 42 %. Comme quoi, quand on veut…
Visibilité et statistiques : des leviers essentiels
Parce que "ce qui ne se mesure pas n’existe pas", combler le gender data gap est crucial. Aujourd’hui, les femmes sont encore absentes de nombreuses statistiques : travail, salaire, violences… Certaines initiatives, comme le WikiProject Women Scientists, contribuent à leur visibilité. Des chercheuses envisagent aussi de transformer l’IA en détecteur de discriminations : analyser les offres d’emploi, étudier les écarts dans les promotions, et bien plus.
Le rôle des entreprises
L’éducation, la formation, et les initiatives dans les entreprises forment un trio prometteur. Mais même si on oriente plus de filles vers le numérique dès aujourd’hui, il faudra encore 20 ans pour voir des promotions équilibrées, et 30 ou 40 ans pour dépasser les 10 % de femmes décisionnaires dans l’IA. Malheureusement, les biais algorithmiques se jouent maintenant. La solution : agir vite, via des formations spécifiques, des quotas, et un accompagnement renforcé pour les femmes déjà en poste.
Des programmes comme Femmes@Numérique ou des formations adaptées aux congés maternité montrent qu’on peut agir dès aujourd’hui. Même les géants de la tech (GAFAMI) s’y mettent avec des politiques pro-diversité.
Conclusion
L’intelligence artificielle façonne notre futur, mais elle est encore coincée dans les biais du passé. Tant qu’elle sera pensée par une majorité d’hommes, elle continuera à refléter – et amplifier – un monde qui leur est favorable. Bonne nouvelle ? Rien n’est gravé dans le code.
Les solutions existent déjà : former plus de femmes aux métiers du numérique, rendre visibles celles qui y excellent, réguler les algorithmes, combler le gender data gap…
Il m’arrive encore aujourd’hui de me demander si j’aurais pu me plaire dans une filière scientifique. Aujourd’hui, il est “trop tard”. Lorsque l’on a passé des années sur les bancs de l’école, il faut une forte volonté pour décider d’y retourner. Mais il existe d'autres façons d'agir sur ce sujet sans passer par une réorientation. Prendre la parole, mettre en lumière ces problématiques et œuvrer pour qu'elles n'aient plus lieu, c'est une démarche qui me parle. Autrement dit : sans regrets, mais pas sans contribuer 😉
PS : Cette newsletter m’a été inspirée du livre L’intelligence artificielle, pas sans elles, écrit par Aude Bernheim et et Flora Vincent que j’ai dévoré en l’espace de quelques heures ! La plupart des données proviennent de ce livre, que je vous conseille d’acheter. Il en vaut clairement le détour pour mesurer l’ampleur des dégâts mais aussi comprendre comment avec un peu de bonne volonté on peut déjà y mettre fin.
Tu restes sur ta faim ?
Envie d’aller plus loin ? Tu peux…
Lire les précédentes éditions de La Golden Hour (et t’abonner 😉)
Me suivre sur LinkedIn ou sur Instagram pour suivre toutes mes aventures entrepreneuriales
Découvrir un des épisodes de DIVE, le podcast qui deep dive pour élargir ta zone de confort et enfin passer à l’action (c’est pas parce que je l’arrête que les épisodes sont obsolètes !)
M’écrire un retour, ils me sont très précieux pour la suite !