Lundi, 02 décembre 2024
Dossier > Intelligence Artificielle >

IA et guerres : Pour le meilleur et pour le pire

Abir Taleb , Mercredi, 07 février 2024

Nouveau paradigme des conflits de l’avenir, l’IA et son usage militaire soulèvent de nombreuses inquiétudes. La place de l’humain, les questions éthiques et le droit de la guerre sont au coeur de ces interrogations. Décryptage.

IA et guerres : Pour le meilleur et pour le pire

« Habsora ». Le nom est apparu il y a quelques semaines en pleine guerre contre Gaza. Il s’agit d’une nouvelle plateforme israélienne de génération de cibles développée par l’Intelligence Artificielle (IA). « Une usine à cibles fonctionnant 24 heures sur 24 », comme le décrit l’armée israélienne elle-même dans un article publié sur son site web le 2 novembre 2023. Selon l’armée israélienne, il s’agit d’un « système qui permet d’utiliser des outils automatiques pour produire des cibles à un rythme rapide ». Le système génère des cibles à attaquer en traitant une énorme quantité de données d’entrée recueillies par les différentes branches des services de renseignement israéliens travaillant dans la bande de Gaza. Des outils algorithmiques développés par l’armée israélienne ou par des entreprises privées qui lui ont permis de mener une guerre totale à Gaza. L’IA est mise au service du bombardement de Gaza dans l’un des conflits des plus destructeurs et meurtriers du XXIe siècle.

Fin novembre, deux médias israéliens, le magazine +972 et Local Call, ont consacré une longue enquête conjointe à la manière dont Israël déterminait ses cibles. Un ancien officier de l’armée, interrogé sous couvert d’anonymat, y décrit une « usine d’assassinats de masse », qui privilégie « la quantité à la qualité ». En s’appuyant sur des témoignages de militaires et d’ex-militaires, l’article de +972 détaille les rouages de la campagne aérienne sans précédent menée par l’armée israélienne sur Gaza depuis le 7 octobre et l’usage, par l’armée, d’outils d’IA. Selon ce média, l’utilisation des solutions technologiques liées à l’IA explique comment l’armée israélienne a pu bombarder la bande de Gaza à un rythme aussi effréné. Il affirme aussi que ces solutions sont utilisées pour favoriser la quantité des cibles, en sachant pertinemment que pour toucher une cible particulière, des centaines de civils sont tués. Le Guardian a également consacré un article à cet outil de ciblage assisté par l’IA, qui explique en grande partie le nombre élevé de frappes dans l’enclave palestinienne.

Du bon et du mauvais usage de la technologie

Mais comment donc fonctionne l’IA dans le domaine militaire ? « D’une manière très simplifiée, l’IA, grâce à la data science qui gère et analyse des données à une très grande échelle, permet d’offrir les meilleures hypothèses et de prévenir d’où vient le danger. On utilise les algorithmes pour détecter les mouvements ennemis. Elle sert à la collecte, au traitement, à l’analyse automatique des données, des images satellites, etc. », répond Alaa Khalil, CEO de la compagnie ITechs Data Intelligence.

La réalité de cette course aux algorithmes pousse les armées à opérationnaliser rapidement ces technologies pour garantir un avantage significatif. L’IA permet donc d’améliorer les performances militaires. Si la guerre électronique remonte à des décennies, comme l’explique Alaa Khalil, elle est en progrès constant et l’IA représente le dernier développement en date. « C’est ce qui fait la différence aujourd’hui. C’est une vraie révolution dans le domaine militaire ». Aujourd’hui, ajoute-t-il, « les opérateurs de drones s’appuient sur les algorithmes pour corriger automatiquement les trajectoires ». « Par exemple, grâce à l’IA, il est possible de détruire à grande échelle un périmètre donné, sans pour autant qu’il y ait un impact sur les régions environnantes. Lorsque les bombes atomiques ont été larguées sur Hiroshima et Nagasaki, la destruction était totale. Avec l’IA, ce ne sera plus le cas ».

Dans les guerres du XXIe siècle, l’IA est ainsi utilisée sur le champ de bataille pour accroître les capacités de ciblage ou de prise de décision du commandement. Les applications militaires de l’IA s’inscrivent dans toute la largeur du spectre opérationnel, disent les spécialistes. Pourquoi donc autant de pertes civiles dans la guerre actuelle contre Gaza malgré la précision que devrait apporter l’IA ? « Comme toute chose, l’IA peut être utilisée d’une bonne ou d’une mauvaise manière. Et comme dans tout domaine, il doit y avoir une éthique dans son usage », estime Khalil.

C’est justement pour cela qu’Israël est pointé du doigt. Prenons un exemple. Avec l’IA, lorsque l’armée israélienne vise un immeuble de plusieurs étages pour abattre une cible particulière, elle sait donc à l’avance combien de victimes elle risque de faire. Ce qui signifie que les pertes collatérales ne sont plus collatérales, même si elles ne constituent pas en soi des cibles à viser. Quant aux cibles, elles sont déshumanisées : face à un écran, l’opérateur humain perçoit une « cible », pas un être humain. Il ne la voit pas, ne l’entend pas. Comme le dit le philosophe français Grégoire Chamayou dans son livre Théorie du drone : « On n’est pas éclaboussé par le sang de l’adversaire. A cette absence de souillure physique correspond sans doute un moindre sentiment de souillure morale ».

L’art de la guerre bouleversé

Force est de constater donc que l’IA est en train de refaçonner les conflits et de transformer leurs modèles traditionnels, ce qui soulève d’importantes questions sur l’avenir des conflits, l’éthique et le droit de la guerre et la place de l’homme dans la prise de décision. Nombreux sont ceux qui estiment que la responsabilité de l’homme est toujours là, puisque la méthode d’emploi et les décisions relèvent toujours de l’humain. D’autres, en revanche, s’inquiètent des systèmes d’armes autonomes. Des systèmes qui, une fois activés, fonctionnent de manière autonome sur la base de mécanismes de déclenchement.

D’où le scepticisme de nombreuses instances. Alors que l’utilisation de l’IA dans l’armement est censée rendre les armes plus précises dans l’atteinte des cibles et donc limiter les dommages non désirés et le meurtre de non-combattants, ce n’est pas toujours le cas. Les Nations-Unies et le Comité International de la Croix-Rouge (CICR) ont exprimé leur inquiétude quant à l’utilisation de l’IA et de l’apprentissage automatique dans les conflits armés. En octobre dernier, le CICR a mis en lumière trois domaines qui soulèvent d’importantes questions : l’intégration de l’IA dans des systèmes d’armement, notamment des systèmes d’armes autonomes, son utilisation dans des cyber-opérations et des opérations d’informations et son rôle sous-jacent dans les systèmes militaires d’aide à la décision. Mais ce sont les systèmes d’armes autonomes qui inquiètent le plus. Et c’est pour cela que le CICR a exhorté les gouvernements à adopter de nouvelles règles internationales interdisant ou limitant l’emploi de certaines d’entre elles, notamment celles contrôlées par une IA. Dès le début de l’année dernière, le CICR déclarait, dans un rapport, que « les obligations juridiques et les responsabilités éthiques en temps de guerre ne doivent pas être confiées à des machines et à des logiciels ».

Vers une réglementation internationale ?

Dans le même temps, les scénarios encore inexplorés de l’IA dans la guerre font craindre le pire au sein de la communauté internationale où les appels se multiplient pour adapter les réglementations internationales actuelles et le droit humanitaire international à cette technologie qui avance à pas de géant. En juillet 2023, le Conseil de sécurité des Nations-Unies tenait sa première réunion consacrée à l’IA. Son secrétaire général, Antonio Guterres, avertissait qu’un certain usage de l’IA risquait d’avoir « des conséquences très graves pour la paix et la sécurité mondiales », citant, entre autres, les principes directeurs sur les systèmes d’armes létaux autonomes. Il s’est dit favorable à la création d’un conseil spécifique à l’IA ayant pour objectif de réguler et gérer l’usage de l’IA militaire à l’échelle mondiale et de réglementer ses dérives potentielles. « Contrairement aux matières nucléaires et aux agents chimiques et biologiques, les outils de l’IA peuvent être expédiés partout dans le monde en laissant très peu de traces », a-t-il prévenu. Lors de cette réunion, l’ONU a exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026. Mais les trois premières puissances militaires (Etats-Unis, Chine et Russie) ont alors indiqué, l’une après l’autre, qu’elles se réservaient le droit de développer des systèmes d’armes intégrant de l’IA tout en précisant que ces systèmes devaient rester sous le contrôle humain. Derrière ces déclarations, il faut comprendre qu’aucune de ces trois puissances n’a l’intention ni de signer un texte limitant l’usage de l’IA militaire ni de freiner ses investissements massifs (en dizaines de milliards de dollars) réalisés au titre de la recherche et du développement.

Loin des fronts, une autre bataille s’annonce donc sur l’usage militaire de l’IA. Et pas des moindres.

Lien court:

 

En Kiosque
Abonnez-vous
Journal papier / édition numérique