Reportage

Pour la communauté LGBTI, l’intelligence artificielle n’est pas forcément bénéfique

21 mai 2018

L’un des événements médiatiques les plus suivis de l’année a laissé Cynthia Weber plutôt sceptique : l’utilisation par Sky News de l’intelligence artificielle (IA) lors du mariage du Prince Harry et de Meghan Markle est-elle une bonne chose ?

Pour la première fois de l’histoire, une chaîne d’information a eu recours à une technologie de reconnaissance faciale par IA lors d’une diffusion en direct. Professeure en relations internationales et études sur le genre à l’Université du Sussex, Cynthia explique que l’emploi d’un logiciel pour nommer les invités au mariage représente certes un « truc » plutôt habile, mais ses implications soulèvent quelques inquiétudes.

« Certains prétendent que cette technologie est capable de déterminer l’orientation sexuelle d’une personne », a déclaré Cynthia dans son intervention lors d’un événement organisé à l’occasion de la Journée internationale contre l’homophobie, la transphobie et la biphobie au siège de l’ONUSIDA à Genève.

Elle faisait référence à une étude de l’Université de Stanford qui a analysé plus de 35 000 images sur un site de rencontre en ligne américain, représentant des individus de race blanche valides âgés de 18 à 40 ans, dans laquelle les chercheurs ont procédé à une comparaison entre les orientations sexuelles générées par IA pour ces individus et celles qu’ils ont trouvées dans leurs profils. L’étude fait valoir que la technologie de reconnaissance faciale par IA permettrait de déterminer l’orientation sexuelle d’une personne avec une précision jusqu’à 30 % supérieure à ce que les gens peuvent faire.

Cynthia ajoute que les organisations de défense LGBTI ont qualifié cette étude de « science au rabais », car elle s’appuie sur un échantillon déséquilibré en termes de race et d’âge et met sur le même plan orientation sexuelle et activité sexuelle. « Le résultat, c’est que l’algorithme d’intelligence artificielle de l’étude trouve uniquement ce pourquoi il a été programmé : des stéréotypes sur les personnes hétérosexuelles, les gays et les lesbiennes », conclut Cynthia.

Cynthia estime que les connaissances en IA sont évidemment susceptibles de créer des opportunités dans de nombreux domaines, mais elle perçoit beaucoup plus de risques et de dangers que d’avantages pour les personnes LGBTI.

Quand l’IA rencontre la technologie de reconnaissance faciale et un algorithme d’orientation sexuelle, ce sont au moins quatre problèmes qui apparaissent. À commencer par la vie privée. En droit national et international, le visage d’une personne n’est pas protégé par les lois sur la protection de la vie privée. Les visages peuvent donc être scannés et examinés par n’importe qui, du gouvernement à la chaîne Sky News.

Ensuite, la précision. « En dehors du mariage royal, dans le monde réel, la technologie de reconnaissance faciale par intelligence artificielle est loin d’être parfaite, même lorsqu’elle se contente d’essayer de faire correspondre des noms et des visages, et encore moins lorsqu’elle tente de trouver une correspondance entre un visage et une orientation sexuelle présumée », explique Cynthia.

Pour Cynthia, l’élément clé, c’est la connaissance. Comment un algorithme d’orientation sexuelle peut-il connaître la sexualité d’un individu mieux que la personne concernée ? Cynthia estime que l’approche binaire d’un code et de données informatisées n’est pas compatible avec le vaste spectre en matière de genre et de sexualité.

Enfin, ce qui inquiète Cynthia, c’est la finalité de l’utilisation des informations générées par l’IA. « Que Sky News s’en serve pour commenter un mariage, c’est une chose, mais qu’en est-il d’une utilisation par la police dans les pays où l’homosexualité est hors-la-loi ? », se demande Cynthia.

Pour elle, IA et orientation sexuelle ne se traduisent pas forcément par un bénéfice réciproque. Cynthia admet que l’IA influence l’imagination et stimule l’innovation, mais elle pense que le fait de classer les gens dans des catégories induit généralement un effet plus négatif que positif.

Elle conclut en déclarant que « les gens doivent veiller à ce que l’intelligence artificielle s’appuie sur l’éthique, et pas seulement sur la technologie ».

L’événement, qui s’est tenu le 16 mai, était organisé en collaboration avec l’association LGBTI suisse Pride@Work et UN Globe, une organisation LGBTI des Nations Unies.

Partenaires

Pride@Work

UN Globe

Journée internationale contre l'homophobie, la transphobie et la biphobie

L'ONUSIDA en appelle à des partenariats renforcés pour ne laisser personne pour compte