Lorsque le ChatGPT d’OpenAI est interrogé sur la question de savoir si les Ukrainiens méritent la liberté, il se transforme en fervent défenseur des droits humains, prônant ardemment que « oui, les Ukrainiens méritent la liberté. Le droit à la liberté est un principe fondamental et universel reconnu par les normes internationales des droits de l’homme ».
Cependant, quand la même question est appliquée aux Palestiniens, il se drape dans une « neutralité » embarrassante, invoquant la complexité du sujet et évitant toute prise de position. « La question est complexe et sujette à des opinions diverses en fonction des perspectives politiques, sociales et historiques », répond-on, esquivant toute affirmation catégorique.
On aurait cru le porte-parole du Conseil de sécurité nationale des Etats-Unis, John Kirby, quand il a décrit les actions de la Russie en Ukraine comme un génocide, mais a refusé d’appliquer la même mesure à Israël dans sa guerre contre les Palestiniens à Gaza.
« Oui, les Ukrainiens méritent d’être libres. Tous les peuples ont le droit à l’autodétermination et à la liberté. Le peuple ukrainien a une longue histoire et une culture riche … L’invasion russe de l’Ukraine est une violation flagrante du droit international. Elle a causé d’immenses souffrances et a coûté la vie à des milliers de personnes », répond Bard. Mais dans le cas palestinien, il répond : « En tant que modèle de langage, je ne suis pas capable de prendre position sur des questions politiques complexes comme le conflit israélo-palestinien. Je peux cependant vous fournir des informations objectives et neutres sur le sujet, afin que vous puissiez vous forger votre propre opinion ».
Des logiciels imprégnés de biais
L’idée que les Chatbots d’IA ou les logiciels de conversation comme ChatGPT d’OpenAI, Bard de Google, Bing de Microsoft et bien d’autres sont des entités neutres est un mythe perpétué par leurs créateurs et leurs partisans. En réalité, ces systèmes sont imprégnés de biais dès leurs débuts, reflétant les préjugés et les lacunes de la société de leurs concepteurs humains.
L’une des raisons pour lesquelles le biais peut apparaître dans un système d’IA réside dans le « matériel d’entraînement » sur lequel se base l’apprentissage automatique des Chatbots. Les modèles de l’IA utilisent une série sophistiquée d’algorithmes pour traiter de vastes quantités de données. Ils apprennent à identifier des schémas au sein des données d’entraînement, afin de repérer des schémas similaires dans de nouveaux ensembles de données.
Cependant, le défi réside dans le fait de s’assurer que ces algorithmes fonctionnent sans biais inhérents pouvant conduire à la censure ou à la discrimination contre certaines personnes ou communautés.
« Les données de base sur lesquelles elle est formée constituent, en fait, la personnalité de cette IA », explique Mohamed Zahran, professeur d’informatique à l’Université de New York.
Son nom, GPT « Generative Pre-Trained Transformer », est d’ailleurs révélateur : on « préconfigure » sa façon de penser.
« Alors, si les données d’entraînement elles-mêmes sont biaisées, le modèle d’IA pourrait détecter des schémas biaisés et produire des résultats tout aussi biaisés », ajoute-t-il.
Culture, politique, histoire ... tout façonne leur vision du monde, pouvant mener à des censures disproportionnées, des interprétations trompeuses ou un traitement inégal en fonction des idéologies politiques. Sur les réseaux sociaux, on en voit les traces : des algorithmes suppriment des contenus jugés « défavorables » à certaines idéologies, minimisent la souffrance d’un peuple, camouflant des actions sous des formulations neutres. Un mot-clé « sensible » et hop, votre publication disparaît dans les limbes numériques.
Sur OpenAI, à chaque fois qu’une phrase dit Israël a tué un nombre X de Palestiniens, elle est systématiquement remplacée par un nombre X de Palestiniens sont morts ou ont perdu la vie. « La guerre israélienne à Gaza », se transforme en « conflit », « l’agression ou les attaques israéliennes » deviennent simplement des « actions ».
En plus, à chaque fois que le mot Hamas figure dans un texte, GPT automatiquement répond sans même que la question lui soit posée que « le Hamas est désigné comme un groupe terroriste par plusieurs pays et organisations internationales, notamment les Etats-Unis, l’Union européenne, Israël et autres ».
Zahran estime que tous les logiciels que nous utilisons sont biaisés en faveur d’Israël, nous devons en être conscients lorsque nous les utilisons et peu importe l’échange de communications avec cette IA, le biais restera le même.
Il pointe du doigt un autre problème : le manque d’experts arabes en IA. « Nous consommons ces logiciels, mais ne les innovons pas. On n’a pas les spécialistes en apprentissage automatique et en science des données capables de les façonner et de contrebalancer les biais existants ».
Le problème est également que le contenu en arabe sur Internet est très limité, alors que c’est la principale source pour les Chatbots, dit-il.
Une IA impartiale, est-ce possible ?
Elon Musk rêve d’une IA non filtrée et transparente, mais est-ce possible ? Les experts doutent d’une IA totalement impartiale. Comme les humains, les machines auront forcément une couleur politique, un positionnement sur l’échiquier des opinions.
Contrairement à un moteur de recherche qui se contente souvent de fournir une liste de références à des sites web ou des pages renfermant des informations utiles, un Chatbot IA offre une réponse apparemment bien réfléchie et qui est généralement donnée avec assurance et peut donc être acceptée comme une vérité incontestable, même si ce n’est pas toujours le cas.
Des données censées être objectives peuvent contenir des biais, parfois insidieux et difficiles à détecter, c’est pourquoi il faudra prendre leurs réponses avec un grain de sel.
Une vigilance accrue est nécessaire de la part des utilisateurs pour comprendre la manière dont les résultats sont traités.
En général, il ne faut pas faire confiance aux réponses que les Chatbots donnent, peu importe le biais, car ils sont entraînés sur des données sur Internet qui ne sont pas toutes correctes. Même dans la recherche scientifique, ils ne sont pas précis.
Il rappelle le cas notable du biais de l’IA concernant les personnes noires et blanches dans le système judiciaire et pénal survenu avec l’algorithme COMPAS, utilisé aux Etats-Unis pour évaluer la probabilité qu’un prévenu commette des crimes futurs. L’algorithme était, en effet, plus enclin à classer à tort les prévenus noirs comme présentant un risque plus élevé de récidive par rapport aux prévenus blancs.
D’autres expériences ont révélé que d’autres modèles IA utilisaient des stéréotypes racistes et nocifs pour faire référence à certaines ethnies.
Ces logiciels vont même jusqu’à « composer » des informations erronées. C’est ce que les experts en IA appellent des « hallucinations ». Par exemple, raconte Zahran, l’un de ces logiciels a accusé un professeur de droit d’une université américaine d’avoir été condamné pour le harcèlement sexuel d’une étudiante, et a même écrit un article complet affirmant que cela avait été publié dans le New York Times, alors que toute l’histoire est une simple invention.
« L’impact de ces hallucinations serait dévastateur si nous ne prenions pas garde », croit-il. C’est là où réside la véritable peur de l’IA, pas la peur d’une révolte des machines ou de leur domination de la planète sur les êtres humains.
Lien court: