Alors que la société Palantir a présenté un projet d’intelligence artificielle capable de faire la guerre, tout laisse penser à croire que nous allons vivre, dans les prochaines années, une véritable révolution en la matière.
Le mois dernier, Palantir, la société de l’homme d’affaires Peter Thiel, faisait la démonstration qu’une intelligence artificielle (IA) pourrait très prochainement partir en guerre. Une IA qui serait capable de traiter en temps réel des données classées secret défense ou non, mais surtout de respecter « l’éthique » et la « légalité ». C’est une démonstration de force que Thiel a faite, avec son offre de « plateforme d’intelligence artificielle Palantir », baptisée AIP.
La démo, en vidéo, montre comment un opérateur militaire, chargé de surveiller le théâtre d’Europe de l’Est, découvre les forces ennemies massées aux abords d’une frontière. L’humain demande alors à l’IA de l’aider à déployer des drones de reconnaissance, mais surtout des réponses tactiques à ce qui est perçu comme une agression de la part de l’ennemi. L’IA est même chargée d’organiser le brouillage des communications ennemies, d’estimer les capacités de l’ennemi et de suggérer des réponses appropriées au moment de la découverte d’un élément blindé.
L’humain incapable de traiter la masse d’informations
Reste cependant encore quelques problématiques à régler, notamment les leurres. En 2019, dans la revue Défense nationale, deux spécialistes du secteur, Ève Gani et Mohammed Sijelmassi, se demandaient si l’intelligence artificielle allait pouvoir désormais « dissiper le brouillard de la guerre », une expression inventée par le général prussien Carl von Clausewitz, qui s’intéressait au flou entourant les informations pour des participants à des opérations militaire.
Il y a quatre ans déjà, l’article affirmait que « l’homme n’est plus en mesure de traiter la masse d’informations générées par des capteurs toujours plus nombreux et performants » et que « les états-majors, submergés par un volume inédit d’informations numérisées, ne parviennent plus à jouer leur rôle de fédérateurs de l’information ». Autant dire que l’intelligence artificielle était déjà attendue comme le messie, étant prédestinée à « aider à analyser, exploiter, maîtriser et protéger cette extraordinaire somme de données ».
Ève Gani et Mohammed Sijelmassi, pointant l’inquiétude des humains, qui craignaient de devenir « des sujets de l’IA qui combattra à notre place », affirmaient alors que le maître-mot serait la collaboration entre l’homme et l’IA. « Plutôt que d’imaginer une IA toute-puissante qui agirait en lieu et place de l’homme, nous devons présenter l’IA comme une alliée qui peut contribuer à l’augmentation des capacités humaines, accélérer et faciliter la prise de décision ».
Un humain « dans la boucle », mais pour combien de temps ?
Pour Palantir, d’ailleurs, il s’agira de laisser « un humain dans la boucle » pour éviter les débordements. Mais pour combien de temps ? L’IA est « entraînée » par ce qu’on appelle le « machine learning ». Une méthode d’apprentissage qui permet à l’IA d’intégrer du savoir, mais aussi des choix éthiques et des valeurs. Cet aspect philosophique réglé, force est de constater que l’IA prendra forcément à son compte la guerre moderne.
Car la guerre s’est complexifiée au fil des décennies, et l’IA permet « d’exploiter des données plus conséquentes (interarmées, interalliées, diplomatiques, industrielles) », écrivent les deux experts. Il s’agit donc, avec la technologie moderne, « de répondre aux besoins tactiques d’immédiateté et de précision ». L’IA aura également un rôle dans le reporting et le suivi des capacités opérationnelles.
L’avènement de l’IA, c’est également, une fois les règles éthiques et juridiques intégrées, l’arrivée d’une guerre qui s’éloignerait des considérations humaines. « Avec un opérateur humain, il y a toujours la possibilité, en théorie, qu’un humain puisse faire preuve de compassion, d’empathie et de jugement humain, alors qu’un système formé à partir de données et préprogrammé pour faire quelque chose n’a pas cette possibilité », résume Anna Nadibaidze, du Centre d’études sur la guerre, au Danemark.
« Le pays qui sera leader dans le domaine de l’IA dominera le monde »
Mais l’experte prévient : si les pays ou les entreprises privées développent actuellement l’IA pour que cette dernière parte en guerre, il faut accompagner ces avancées technologiques d’une règlementation. Les Nations unies ont débuté leur réflexion sur le sujet, mais aucune avancée n’a été enregistrée. « Quand il y a la nécessité de réglementer des armes avec un haut niveau de technologie, indique Paola Gaeta, professeure de droit international à l’IHEID, en Suisse, les États qui détiennent cette technologie n’ont pas un intérêt à le faire. Par contre, les États trouvent plus facilement un intérêt à réglementer les armes des plus pauvres, comme les mines antipersonnel ».
Derrière ce message, il y a de quoi s’inquiéter de l’aggravation d’une fracture Nord-Sud. Vladimir Poutine, le président russe, prévenait il y a six ans déjà que « le pays qui sera leader dans le domaine de l’intelligence artificielle dominera le monde ». Il n’imaginait peut-être pas encore qu’une intelligence artificielle pourrait bientôt faire la guerre à la place des humains. On le sait : les guerres deviennent de plus en plus complexes au fur et à mesure que passe le temps. Mais cette fois, la technologie pourrait bien prendre à son compte cette évolution. « Il est possible de développer des armes encore plus intelligentes, c’est-à-dire qui peuvent apprendre elles-mêmes dans un environnement pour prendre des décisions qui ne sont ni contrôlées, ni préprogrammées par l’être humain », assure Paola Gaeta. Une véritable révolution dans le domaine de la guerre.