Prévenir une apocalypse nucléaire liée à l'intelligence artificielle

Jeudi 9 Novembre 2023

Ce n’est désormais plus de la science-fiction : une course a débuté autour de l’application de l’intelligence artificielle aux systèmes d’armements nucléaires – une évolution susceptible d’accentuer la probabilité d’une guerre nucléaire. Les gouvernements à travers le monde agissant toutefois pour que l’IA soit développée et appliquée de manière sûre, une opportunité d’atténuation de ce risque existe. Pour que les dirigeants mondiaux la saisissent, il va néanmoins leur falloir réaliser combien la menace est sérieuse.


Ces dernières semaines, le G7 a convenu du Code de conduite du processus d’Hiroshima pour les organisations développant des systèmes d’IA avancés, afin de « promouvoir une IA sûre, sécurisée et fiable à travers le monde », et le chef d’État américain Joe Biden  a pris un décret présidentiel  établissant de nouvelles normes autour de la « sécurité » de l’IA. Le Royaume-Uni a également organisé le tout premier Sommet sur la sécurité de l’IA, avec pour objectif de veiller à ce que cette technologie soit développée de manière « sûre et responsable ».

Or, aucune de ces initiatives n’est à la hauteur des risques soulevés par l’application de l’IA aux armes nucléaires. Le Code de conduite du G7 et le décret présidentiel de Biden évoquent seulement brièvement la nécessité de protéger les populations contre les menaces chimiques, biologiques et nucléaires susceptibles de résulter de l’IA. De même, bien qu’il ait expliqué  qu’une compréhension commune des risques soulevés par l’IA avait émergé lors du Somment sur la sécurité de l’IA, le Premier ministre Rishi Sunak  n’a mentionné nulle part la menace élevée que représentent les applications d’IA relatives aux armes nucléaires.

Personne n’ignore les risques existentiels que soulève l’utilisation des armes nucléaires. Leur emploi provoquerait une destruction incommensurable pour l’humanité et la planète. Une guerre nucléaire même régionale entraînerait directement la mort de plusieurs centaines de milliers de personnes, puis un nombre important de décès et de souffrances de manière indirecte. Les changements climatiques  qui en résulteraient menaceraient à eux seuls de famine plusieurs milliards d’individus.

L’histoire nucléaire abonde de catastrophes évitées de justesse. Bien souvent, si l’apocalypse n’a pas eu lieu, c’est parce qu’un être humain a choisi de faire confiance à son propre jugement, plutôt que de suivre aveuglément les informations fournies par les machines. En 1983, l’officier soviétique Stanislav Petrov reçoit une alerte du système de satellites de détection précoce qu’il surveille : des missiles nucléaires américains semblent se diriger vers l’Union soviétique. Plutôt que d’en informer immédiatement ses supérieurs, ce qui aurait très certainement déclenché une « riposte » nucléaire, Petrov détermine intelligemment qu’il s’agit d’une fausse alerte.
Petrov aurait-il pris la même décision – aurait-il tout simplement eu la possibilité de le faire – si l’IA était entrée en jeu ? En effet, l’application de l’apprentissage automatique aux armes nucléaires risque de limiter le contrôle humain sur les décisions de leur déploiement.

Bien entendu, un nombre croissant de tâches de commandement, de contrôle et de communication ont été automatisées depuis l’invention de l’arme atomique. Seulement voilà, à mesure que progresse l’apprentissage automatique, le processus par lequel les machines avancées prennent des décisions se fait de plus en plus opaque – c’est ce que l’on appelle le « problème de la boîte noire » de l’intelligence artificielle. Il devient alors difficile pour les êtres humains de contrôler le fonctionnement de la machine, et encore plus de déterminer si celle-ci a été compromise, si elle dysfonctionne, ou si elle a été programmée de manière à produire des résultats illégaux ou non souhaités.

Se contenter de veiller à ce qu’un être humain prenne la décision finale de lancement ne suffirait pas à réduire ces risques. Comme l’a conclu le psychologue John Hawley dans une étude  de 2017, « L’humain se montre peu efficace dans la réponse aux exigences de contrôle et d’intervention qu’impose une véritable surveillance ».

Par ailleurs, comme l’a démontré  en 2020 le programme de l’Université de Princeton relatif aux sciences et à la sécurité mondiale, les processus décisionnels des dirigeants en cas de crise nucléaire se révèlent déjà très expéditifs. Même si l’IA était uniquement utilisée pour la détection et le ciblage – pas dans les décisions de lancement – elle réduirait le délai déjà extrêmement serré pour la décision de frappe. Cette pression supplémentaire sur les dirigeants pourrait accentuer le risque de calculs erronés et de choix irrationnels.

Un autre risque réside dans l’utilisation de l’IA pour les systèmes de détection du renseignement par satellite et autres. Cette évolution rendra plus difficile la dissimulation d’armes nucléaires telles que les sous-marins lanceurs de missiles de croisière, historiquement indétectables, ce qui pourrait inciter les pays dotés de l’arme atomique à déployer tous leurs armements nucléaires de manière précoce lors d’un conflit, avant que leurs adversaires n’aient la possibilité d’immobiliser les systèmes nucléaires connus.

À ce jour, aucune initiative – qu’il s’agisse du décret présidentiel de Biden ou du Code de conduite du G7 – ne s’étend au-delà d’un engagement volontaire  garantissant le maintien d’un contrôle humain sur les décisions liées aux armes nucléaires. Or, comme l’observe  le secrétaire général des Nations Unies, António Guterres, un traité juridiquement contraignant d’interdiction des « systèmes d’armes autonomes létales » est indispensable.

Un tel traité constituerait une première étape essentielle, même si beaucoup resterait à accomplir. En matière d’armements nucléaires, les efforts d’anticipation, d’atténuation ou de régulation des nouveaux risques soulevés par les technologies émergentes ne seront jamais suffisants. Nous devons éliminer totalement ces armes de l’équation.

Cela signifie que tous les gouvernements doivent s’engager à réprouver, interdire et supprimer les armes nucléaires en ratifiant le Traité sur l’interdiction des armes nucléaires, qui fixe une trajectoire claire en direction d’un monde sans arme atomique. Cela signifie également que les puissances dotées doivent immédiatement cesser d’investir dans la modernisation et l’expansion de leur arsenal nucléaire, y compris sous prétexte de les rendre plus « sûres » ou plus « sécurisées » face aux cyberattaques. Compte tenu des risques insurmontables que soulève la simple existence des armes nucléaires, les efforts de ce type sont fondamentalement futiles.

Nous savons  que les systèmes autonomes sont susceptibles d’abaisser le seuil  d’engagement dans un conflit armé. Appliquée aux armes nucléaires, l’IA vient ajouter une couche de risque supplémentaire à un niveau de danger déjà inacceptable. Il est indispensable que les dirigeants politiques et les populations le comprennent et œuvrent non seulement pour éviter que l’IA ne soit appliquée aux armes nucléaires, mais également pour les éliminer totalement.
Melissa Parke, ancienne ministre australienne du développement international, est directrice exécutive de la Campagne internationale pour l’abolition des armes nucléaires, coalition qui a été récompensée par le prix Nobel de la paix en 2017.
© Project Syndicate 1995–2023
 
chroniques


Dans la même rubrique :
< >

Lundi 21 Octobre 2024 - 00:26 Débloquer l'apprentissage par l'IA

chroniques | Editos | Analyses




En kiosque.














Inscription à la newsletter