Al-Ahram Hebdo : Au cours de vos 15 ans de carrière, vous avez aidé plus d’une centaine d’institutions internationales, telles que la NASA, à intégrer l’Intelligence Artificielle (IA). Quels sont à votre avis les secteurs ou industries de l’IA qui ont le plus d’impact ?
Omar Maher : Les applications de l’IA ont un impact dans de nombreux secteurs. Dans le domaine médical, par exemple, il y a une application qui prédit, à la sortie du patient de l’hôpital, dans combien de temps il sera réadmis, pour voir si le patient restera plus longtemps à l’hôpital. Il y a aussi des traitements sur mesure générés par l’IA, très sollicités par les hôpitaux, notamment pour les patients du cancer. L’IA se base dans ce cas sur l’historique des patients et sur une analyse de leurs génomes. Dans le domaine industriel, il y a par exemple la maintenance prédictive où l’IA a la capacité de détecter les défaillances dans les équipements, de prédire les pannes et de proposer les protocoles de maintenance. Ce qui permet bien sûr de faire des économies. L’IA est également utilisée par les institutions gouvernementales qui ont affaire à énormément de documents. L’IA a la capacité de lire ces documents, de les comprendre et de les analyser en quelques secondes. Dans le tourisme, par exemple, les applications de AI Chatbot (assistant virtuel) peuvent conseiller et guider les touristes. En finance, l’IA peut être utilisée pour évaluer les risques d’un crédit par exemple et pour savoir si une personne a la capacité de le rembourser. Il y a donc une multitude d’applications d’IA qui ont connu un véritable boom ces deux dernières années.
— Pourquoi ce boom a-t-il eu lieu ces deux dernières années en particulier ?
— Ce boom a été engendré par l’apparition d’un nouveau type d’IA qui est l’IA générative (la création par l’IA de contenus comme texte, image, musique, etc.). Lorsque le ChatGPT a été lancé en novembre 2022, en l’espace de deux mois, il a attiré 100 millions d’utilisateurs. Il s’agit d’un record historique, du jamais-vu avec n’importe quelle application précédente. Il y a en effet différents types d’IA. Avec le type génératif, nous sommes passés d’une forme étroite de l’IA, qui existe depuis le début, à une forme générale. L’IA étroite est spécialisée dans un certain domaine comme les banques ou l’industrie. C’est-à-dire qu’on lui fournit des informations et la machine extrait les modèles pour nous donner les réponses. La forme générale de l’IA comme le ChatGPT, en revanche, traite tous les sujets et n’importe quelle tâche. Ceci est dû à la façon dont elle est construite. La machine, lors de son entraînement, intègre toutes les données d’Internet. Son apprentissage est basé sur des milliards de pages web, de sites, de livres en ligne. Elle a donc une culture et une intelligence générales. On lui a fourni toutes les données disponibles ; elle apprend la sémantique, comprend ce que les données signifient, les relations entre elles. C’est précisément ce qui fait la force de ce type d’IA. Une application comme Midjourney, par exemple, permet de tout dessiner avec perfection et de générer des images réalistes à tel point qu’on peut croire qu’elles sont réelles. L’important est que ce type d’IA se base sur les contenus « ultraréalistes », sur une langue naturelle. Il peut même générer des vidéos et des musiques. On se rapproche donc de l’intelligence humaine.
— C’est justement ce rapprochement de l’intelligence humaine qui suscite des craintes quant à son possible détournement ...
— Tout à fait. Ces craintes existent également au sein même de l’industrie de l’IA. Geoffrey Hinton, considéré comme un parrain de l’IA, a récemment démissionné de son poste à Google pour pouvoir s’exprimer librement sur les dangers de l’IA. Selon lui, cette technologie présente un danger existentiel aux êtres humains. Si certains pensent que cette option relève de la science-fiction, pour moi elle demeure une possibilité.
— Quels sont les dangers de l’IA ?
— Les dangers incluent les fraudes comme l’usurpation d’identité. Récemment, il y a eu un incident où une mère a reçu un appel de sa fille pour lui demander de lui transférer une certaine somme d’argent. A l’origine de cette fraude, la personne a utilisé l’IA générative qui imite non seulement la voix et le ton mais également la façon de parler de la fille. Un autre abus concerne la falsification de photos ou de vidéos à tel point qu’on ne peut plus distinguer le vrai du faux. Un autre danger concerne la divulgation de fausses informations. On peut générer par exemple un article parfaitement écrit sur une personne ou un sujet. Les fraudes peuvent également atteindre les gouvernements. Il y a des modèles d’IA « Open source », c’est-à-dire disponibles. Du point de vue technique, ils peuvent modifier et détourner à des fins frauduleuses. Les personnes peuvent se faire passer pour des fonctionnaires et accéder ainsi à des données importantes. C’est de cette façon que le hacking peut se produire. Il est à craindre dans le futur que l’apprentissage de l’IA ne lui donne des capacités à renseigner sur la création d’armes biochimiques ou de virus comme le Covid-19.
— Comment prévenir un tel scénario ?
— Les compagnies prennent des mesures pour éviter de tels dangers. OpenAI (développeur de ChatGPT), par exemple, recrute un grand nombre de personnes appelées Red teams (équipes rouges). Ces dernières ont pour mission de créer justement ces modèles dangereux pour ensuite intégrer des solutions dans leur programme pour les contrer. Le danger réside dans les modèles qui n’ont pas été sujets aux Red teams.
— L’IA générative a été critiquée pour produire des informations biaisées et par conséquent de ne pas être véritablement artificielle...
— L’entraînement des modèles ne se fait pas seulement à travers l’intégration de données du Net. Avant que le modèle ne soit fonctionnel, on lui donne des instructions par exemple sur certains types de questions et comment y répondre. Donc là, on peut faire face à une partialité sur deux niveaux. Le premier est dans les données d’origine qui se trouvent sur le Net. Le second est l’intervention humaine au niveau des instructions dans la phase de l’entraînement.
— Qu’en est-il de l’automatisation des emplois et d’un éventuel remplacement du travail humain ?
— Certaines compagnies ont déjà commencé à supprimer certains emplois. Le ChatGPT par exemple peut générer des textes, des articles, des photos et donc peut remplacer les employés dans plusieurs domaines. Plus la technologie devient intelligente, plus on arrive à une vraie Intelligence Artificielle Générale (IAG), c’est-à-dire une intelligence similaire à celle de l’être humain. On n’en est toujours pas là, mais on peut s’interroger si l’IA ne va dépasser l’intelligence humaine par exemple d’ici cinq ou dix ans. Il faut comprendre que nous avançons à un rythme très rapide. On pensait pouvoir atteindre le stade où l’on est aujourd’hui d’ici une cinquantaine d’années. Mais le ChatGPT a changé la donne. Cette technologie change à un rythme rapide plus que toutes les technologies précédentes. Et, pour la première fois, elle touche à l’intelligence humaine. Plus elle deviendra intelligente, plus elle sera capable d’apprendre toute seule et plus elle remplacera le travail humain. Reste à savoir si nous pourrons, en tant qu’êtres humains, nous adapter à cette technologie pour créer à travers elle de nouveaux emplois. Je l’espère mais cela risque de ne pas pouvoir se faire à cause de la rapidité du rythme avec lequel cette technologie progresse.
Lien court: