fbpx

L’impact de l’intelligence artificielle (IA) sera à la longue sans précédent dans le domaine de la sécurité internationale. Il y a déjà une forte concurrence pour la suprématie technologique mondiale. Les projets de défense des puissances militaires cherchent à assurer l’avantage stratégique sur le champ de bataille. La rivalité ne fait qu’accroître les investissements en recherche et développement. Cependant, malgré les inquiétudes suscitées par des conflits majeurs entre ces puissances, des conséquences se feront sentir ailleurs plus tôt au Sud global. Il faudrait donc demander qu’elle soit la perception du pays en développement face à la militarisation accélérée de l’IA.

Les effets d’une course à l’armement numérique

Sans aucune forme de contrôle, des armes sophistiquées équipées d’IA, totalement autonomes, finiront par être développées et deviendront une menace pour la stabilité stratégique.[1] Sa rapidité surprenante peut provoquer une escalade dangereuse du conflit, des tirs amis ou des affrontements indésirables en cas de fausses alarmes ou d’accidents. Ces armes feront grandir l’incertitude en raison de leur manque de flexibilité vis-à-vis des circonstances changeantes ou si elles se comportent de manière imprévisible.

Une course à l’armement numérique peut conduire les États à négliger les critères moraux, juridiques ou de sécurité, afin d’obtenir des résultats plus rapides pour surpasser leurs rivaux. Les risques sont graves, urgents et inquiétants. Les systèmes d’armes létales autonomes (SALA) pourraient effectuer des missions de manière indépendante, sélectionner des cibles et utiliser la force sans intervention humaine. Les erreurs de calcul peuvent engendrer des résultats imprévus. Il sera extrêmement difficile de prédire ce qu’un logiciel d’auto-apprentissage peut faire sur le terrain s’il est laissé à lui-même. Il existe de nombreux exemples d’algorithmes, capables d’apprentissage par réseaux de neurones, qui arrivent à des conclusions surprenantes, que même leurs créateurs n’auraient pas pu anticiper.[2]

Les machines peuvent aussi présenter des défauts techniques (dysfonctionnement, pannes ou erreurs de programmation) ou subir des cyberattaques de la part d’adversaires, avec des conséquences imprévisibles. Encore pire, dans un scénario de prolifération incontrôlée, ces armes peuvent tomber entre des mains hostiles, des acteurs non étatiques, des insurgés et des groupes extrémistes.

Les pays du Sud : terrain d’essai et cible de l’IA militaire

Le fossé technologique existant dans les capacités militaires entre les grandes puissances et les pays du Sud global peut s’élargir beaucoup plus au cours des prochaines décennies. Peu de pays en développement seront en mesure de mener à bien une stratégie de rattrapage pour renforcer leur levier technologique pour une défense crédible.

Certes, les disparités de puissance ont toujours existé, mais parfois un tel déséquilibre devient structurellement si grand au point de générer des effets durables et disproportionnés. Un exemple classique est l’avènement de l’ère nucléaire, redéfinissant le rôle de la guerre conventionnelle. Les armes nucléaires sont si destructrices qu’il existe généralement de sérieuses contraintes de ne pas les utiliser. L’un des problèmes de la militarisation des systèmes d’IA est l’appel à les déployer pour atteindre des avantages stratégiques ou tactiques, dans la conviction qu’il y aura toujours un menu de choix pour chaque occasion et leur utilisation sera de toute façon justifiée par la nécessité militaire.

De nombreuses études examinent la concurrence internationale, la dissuasion et ses enjeux géopolitiques impliquant les puissances militaires, en particulier les États-Unis, la Chine et la Russie. Mais le risque le plus immédiat ne réside pas dans des guerres de grande intensité entre les principaux acteurs. Si la course aux armements de l’IA est vue souvent comme une lutte globale pour l’hégémonie mondiale, les retombées de cette course peuvent avoir un impact sérieux sur les théâtres de guerre éloignés de leurs capitales, c’est-à-dire, dans les conflagrations intraétatiques de faible intensité et à petite échelle, les guerres civiles ou par procuration, et dans les situations de contre-insurrection ou de guerre urbaine.

Les forces d’élite seront parmi les premières unités militaires à être compatibles avec l’IA. Il s’avère que des opérations secrètes et spéciales se déroulent fréquemment dans des régions troublées, en dehors des règles d’engagement traditionnelles. Les SALA seraient probablement déployées pour la première fois dans des théâtres de conflits situés dans les pays en développement, comme terrain d’essai, avec les risques associés d’engagements mortels imprévus, de dommages collatéraux et de rencontres asymétriques des machines contre des adversaires biologiques.

En effet, le recours à une guerre à distance et dépersonnalisée se poursuivra sans relâche, tant que les forces armées chercheront à protéger leur propre personnel militaire. Les armes autonomes renforcent l’asymétrie en créant une séparation physique qui protège davantage leurs commandants et opérateurs.[3] Quelques pays peuvent déployer des armes autonomes dans une myriade de missions à l’étranger, car le risque de pertes de leur côté sera réduit. Un conflit entre les grandes puissances semble distant à l’horizon, mais le caractère déséquilibré de la guerre robotisée augmenterait la probabilité que des machines tuent des gens, soldats ou civils, plutôt dans les pays pauvres.

Les armes autonomes et l’argument de la bienveillance

Certains prétendent que les armes autonomes ont l’avantage d’être plus précises lors de l’utilisation de la force, contribuant ainsi à rendre la guerre plus « humaine » — en protégeant les civils, par exemple. Les machines, disent-ils, seraient plus rapides, n’auraient ni émotion, ni peur, ni fatigue, ni désir de vengeance, contrairement aux combattants humains. On peut l’appeler l’argument de la bienveillance. La précision numérique pourrait, théoriquement, rendre les armes plus discriminantes et moins susceptibles de causer des dégâts collatéraux ou de violer les lois de la guerre.

Néanmoins, il n’est pas évident si les systèmes d’IA auront telle remarquable compétence dans des environnements volatils. Comment réagiront-ils face à des attaques adverses pour tromper la machine et la faire commettre des erreurs fatales, en frappant les mauvaises cibles ? De même, le biais algorithmique peut conduire à des faux positifs et à la mort d’innocents ou à la destruction d’objets et de lieux spéciaux protégés par les conventions de Genève. Nous sommes encore loin de construire une IA suffisamment flexible pour comprendre le contexte plus large dans des situations de la vie réelle et pour adapter son comportement de manière fiable, avant de prendre des décisions qui mettent des vies humaines en danger.

C’est souvent la douleur morale du meurtre qui peut remettre en question les horreurs de la guerre, augmenter son coût politique et servir de contrainte aux excès et aux souffrances que le droit international humanitaire cherche à prévenir. Sa déshumanisation ouvre la porte à l’acceptation de la banalité du mal comme prix à payer pour une plus grande « efficacité ».

Les engagements militaires à distance causent souvent des dommages importants aux civils, bien qu’ils soient présentés comme principalement « chirurgicaux ». Le commandant qui lance une action militaire calculera normalement le degré d’exposition de ses propres forces afin d’évaluer quel est le niveau de risque acceptable. S’il n’y a pas des pertes humaines pour l’attaquant, les seuls dommages collatéraux seront le nombre de victimes civiles que l’initiateur a considéré a priori comme justifié. Dans ce contexte, justifier une intervention militaire en prétendant qu’elle présente « moins de risques » est forcément un discours unilatéral qui peut être remis en question par des interprétations plus critiques.

C’est pour cette raison que, du point de vue du Sud global, l’argument bienveillant selon lequel les armes fondées sur l’IA « sauvent des vies » peut également sembler une justification de l’interventionnisme. Là encore, une guerre déshumanisante pourrait encourager les dirigeants politiques à autoriser le recours à la force pour régler les différends, loin de leurs territoires nationaux, au détriment de la négociation et de la diplomatie, tandis que leurs troupes seraient de toute façon en sécurité.

Ne pas déléguer les décisions de vie ou de mort à des machines

Le Secrétaire général des Nations unies, António Guterres, a averti plusieurs fois à propos des risques associés à l’arsenalisation de l’AI. La perspective d’avoir des machines ayant le pouvoir d’elles-mêmes de tuer sans intervention humaine est « politiquement inacceptable et moralement répugnante », a-t-il déclaré.[4] Ingénieur électricien de formation, Guterres a exhorté les États Membres à utiliser l’ONU comme une plate-forme pour négocier les questions cruciales de l’avenir de l’humanité. Il a convoqué le Groupe de haut niveau sur la coopération numérique, qui dans son rapport de 2019 a formulé la recommandation 3C sur l’IA et les systèmes intelligents autonomes, en mettant l’accent sur le principe de base que « les décisions de vie ou de mort ne devraient pas être déléguées à des machines ».[5]

En tant que technologie à double usage, l’IA doit être disponible à des fins pacifiques dans tous les pays au bénéfice de toute l’humanité. Dans la guerre, il y a aussi des règles à respecter. Le droit international humanitaire est assez clair en déclarant que le droit des parties à un conflit de choisir des méthodes ou des moyens de guerre « n’est pas illimité », conformément à l’article 35 du Protocole I aux Conventions de Genève de 1949. Il est également interdit d’utiliser des armes, des projectiles, des matériaux et des méthodes de combat d’une nature telle qu’ils causent « des maux superflus ou des souffrances inutiles ».[6]

Il existe de sérieux doutes quant à la capacité des armes autonomes à se conformer aux exigences du jus in bello. Elles ne seraient pas en mesure de faire la distinction entre les combattants et les non-combattants ni comprendre le contexte pour apprécier si une action militaire est proportionnelle ou non. De plus, les SALA ne pouvaient pas décider par eux-mêmes de ce qui est réellement nécessaire en termes militaires, car cette évaluation exige un jugement politique qui n’appartient qu’aux humains.

Même si les robots de guerre pouvaient devenir de plus en plus performants, déléguer à des machines le fardeau moral de tuer pose des problèmes éthiques fondamentaux. L’éthique est liée aux valeurs humaines et à l’organisation des sociétés. Les décisions morales appartiennent uniquement à l’individu concerné et ne peuvent être déléguées à d’autres. C’est pour ça que sous-traiter l’éthique à une machine qui n’est pas ancrée dans un réseau de dialogue humain est contraire aux principes de base de la moralité. Même si un jour l’IA développe une agence morale à part entière, remettre les jugements moraux à un logiciel d’ordinateur revient toujours à transférer l’éthique d’une personne à une autre entité externe.[7]

Vers une nouvelle ère d’hégémonie algorithmique?

Dans les discussions sur la gouvernance de l’IA, il ne faut jamais oublier la dimension militaire et ses dilemmes. Bien que la justification la plus courante dans plusieurs pays pour investir dans l’IA militaire soit de surperformer leurs rivaux majeurs, la possibilité que les armes autonomes soient d’abord déployées dans le Sud global semble plus vraisemblable. Comme indiqué précédemment, si les SALA sont considérés comme tactiquement efficaces pour des missions spécifiques, le seuil pour les utiliser sera considérablement plus bas, posant ainsi une menace directe contre les pays dépourvus de moyens pour dissuader la coercition et l’agression.

Voilà un réel danger pour les pays en développement : la perspective profondément troublante d’un combat asymétrique tout court entre des machines et des humains. Dans de telles situations, les forces humaines pourraient avoir peu de chances et être surclassées de manière décisive. En termes d’équilibre mondial des pouvoirs, une nouvelle ère d’hégémonie algorithmique et de néocolonialisme numérique pourrait se profiler si les asymétries technologiques à grande échelle, alimentées par l’IA, atteignent un niveau comparable à l’écrasante supériorité militaire dont jouissaient autrefois les puissances européennes par rapport à leurs possessions coloniales à travers le monde.

On parle de la domination occidentale dans le domaine de l’éthique en IA, et avec raison, mais il faut parler aussi de la domination du débat stratégique par les plus armés. On revendique plus de diversité culturelle dans les forums internationaux de l’IA, mais il faut revendiquer aussi, et pour cause, plus d’attention à la perspective des pays les moins favorisés dans l’aspect militaire et aux victimes potentielles des algorithmes qui tuent. Les armes autonomes présentent moins de risques ? Posez la question aux cibles.

 

 

* Diplomate, Docteur spécialisé en relations internationales et chercheur en gouvernance de l’intelligence artificiel. Basé actuellement à Conakry, République de Guinée. Les opinions exprimées ici sont celles de l’auteur. Courrier électronique : egarcia.virtual@gmail.com

 

 

 

[1] Brabant, Stan. Robots tueurs : bientôt opérationnels ? Bruxelles, Groupe de recherche et d’information sur la paix et la sécurité (GRIP), 29 mars 2021, https://grip.org/robots-tueurs-bientot-operationnels

[2] Plaidoyer contre les robots tueurs, Human Rights Watch, Clinique internationale des droits humains de la Faculté de droit de Harvard, 2016, https://www.hrw.org/sites/default/files/report_pdf/arms1216fr_web.pdf

[3] Bode, Ingvild et Huelss, Hendrik. The future of remote warfare? Artificial intelligence, weapons systems and human control, in : McKay, Alasdair et al. (eds.). Remote warfare: interdisciplinary perspectives. Bristol: E-International Relations Publishing, 2021, p. 219, https://www.e-ir.info

[4] Le chef de l’ONU exhorte à interdire les armes autonomes qui tuent, ONU Info, 25 mars 2019, https://news.un.org/fr/story/2019/03/1039521

[5] Rapport du Groupe de haut niveau sur la coopération numérique crée par le Secrétaire général de l’ONU, 2019, https://www.un.org/sites/www.un.org/files/uploads/files/Ere_Interdependance_numerique.pdf

[6] Protocole additionnel aux Conventions de Genève du 12 août 1949 relatif à la protection des victimes des conflits armés internationaux, 1977, https://ihl-databases.icrc.org/applic/ihl/dih.nsf/INTRO/470

[7] Boddington, Paula. Towards a code of ethics for artificial intelligence. Cham: Springer, 2017, p. 90.

Contact

Phone

Tel: +32 (0) 2 801 13 57-58

Email

info@behorizon.org