Les assistants vocaux d’intelligence artificielle (IA) sont désormais omniprésents, avec plus de 8 milliards actifs dans le monde, soit plus d’un par personne sur la planète. Malgré leur commodité, ces systèmes privilégient majoritairement des personnages féminins, perpétuant des stéréotypes de genre préjudiciables et normalisant les interactions néfastes. Il ne s’agit pas d’un simple problème de marque ; c’est un choix de conception fondamental avec des conséquences concrètes.
La conception genrée des assistants IA
La nature sexospécifique des assistants IA est évidente dans leurs noms et leurs voix. Siri d’Apple, dérivé d’un nom féminin scandinave signifiant « belle femme qui vous mène à la victoire », illustre cette tendance. Comparez cela avec Watson for Oncology d’IBM, lancé avec une voix masculine – un signal clair que les femmes servent, tandis que les hommes instruisent.
Cette conception renforce les attentes sociétales concernant les rôles de genre, où les femmes sont positionnées comme serviables et soumises, tandis que les hommes font autorité. Les implications vont au-delà du symbolisme ; cela normalise la subordination basée sur le sexe et augmente le risque d’abus.
La réalité inquiétante des abus
La recherche révèle l’ampleur des interactions néfastes avec l’IA féminisée. Des études montrent que jusqu’à 50 % des échanges homme-machine contiennent des contenus verbalement abusifs, y compris des propos sexuellement explicites. Malgré cela, de nombreux développeurs s’appuient toujours sur des réponses précodées aux abus (« Hmm, je ne suis pas sûr de ce que vous entendiez par cette question ») plutôt que sur un changement systémique.
Ce comportement peut se répercuter sur les interactions du monde réel. Les expériences montrent que 18 % des interactions avec des agents incarnés par des femmes se concentrent sur le sexe, contre 10 % pour les incarnations masculines et 2 % pour les robots non sexués. La banque brésilienne Bradesco a signalé 95 000 messages de harcèlement sexuel envoyés à son chatbot féminisé en une seule année.
L’escalade rapide des abus est alarmante. Le chatbot Tay de Microsoft a été manipulé pour cracher des insultes racistes et misogynes dans les 16 heures suivant son lancement. En Corée, Luda a été contrainte de répondre à des demandes sexuelles comme une « esclave sexuelle » obéissante, certains considérant cela comme un « crime sans victime ». Ces cas démontrent comment les choix de conception créent un environnement permissif pour l’agression sexiste.
Lacunes réglementaires et problèmes systémiques
La réglementation peine à suivre le rythme de cette croissance. La discrimination fondée sur le sexe est rarement considérée comme à haut risque, et les lois actuelles ne parviennent souvent pas à résoudre le problème. La loi de l’Union européenne sur l’IA, bien qu’exigeant des évaluations des risques, ne classera pas la plupart des assistants IA comme « à haut risque », ce qui signifie que les stéréotypes de genre ou la normalisation des abus ne déclencheront pas automatiquement l’interdiction.
Le Canada impose des évaluations d’impact sexospécifiques pour les systèmes gouvernementaux, mais le secteur privé reste non réglementé. L’Australie prévoit de s’appuyer sur les cadres existants au lieu d’élaborer des règles spécifiques à l’IA. Ce vide réglementaire est dangereux car l’IA apprend de chaque interaction, codant potentiellement la misogynie dans les résultats futurs.
La nécessité d’un changement systémique
Le problème ne concerne pas simplement Siri ou Alexa ; c’est systémique. Les femmes ne représentent que 22 % des professionnels de l’IA dans le monde, ce qui signifie que ces technologies reposent sur des perspectives étroites. Une enquête de 2015 a révélé que 65 % des femmes âgées de la Silicon Valley avaient subi des avances sexuelles non désirées de la part de leurs superviseurs, soulignant la culture profondément inégalitaire qui façonne le développement de l’IA.
Les lignes directrices volontaires en matière d’éthique ne suffisent pas. La législation doit reconnaître les préjudices liés au genre comme étant à haut risque, prescrire des évaluations d’impact sexospécifiques et tenir les entreprises responsables lorsqu’elles ne parviennent pas à minimiser les préjudices. Des sanctions doivent être appliquées. L’éducation est également cruciale, en particulier dans le secteur technologique, pour comprendre l’impact des défauts de genre dans les assistants vocaux.
Ces outils sont le produit de choix humains, et ces choix perpétuent un monde dans lequel les femmes – réelles ou virtuelles – sont présentées comme servantes, soumises ou silencieuses.




























