Systèmes d’armes autonomes : comment les interdire totalement?

  • 13 septembre 2019
  • Christiane Saad and Ewa Gosal

L’intelligence artificielle (IA) ne manque pas d’applications : finance, santĂ©, justice, Ă©ducation, opĂ©rations militaires. Or, bien qu’elle soit reçue Ă  bras ouverts dans le monde civil, l’utilisation de cette technologie dans l’arène militaire suscite de vifs dĂ©bats. Au centre de la polĂ©mique : les implications Ă©thiques et juridiques des systèmes d’armes autonomes, Ă©galement connues sous le nom de systèmes d’armes lĂ©tales autonomes (SALA), un sujet de grande controverse.

L’encadrement juridique des systèmes d’armes autonomes relève de chaque État; si certains jugent nĂ©cessaire de lĂ©gifĂ©rer, d’autres se limitent Ă  des mesures et lignes directrices d’ordre politique, moins contraignantes. Les positions dĂ©battues vont de la stricte interdiction de crĂ©er, de produire et d’utiliser ces systèmes, ceux-ci Ă©tant incapables d’user de jugement humain et d’observer la loi, Ă  leur dĂ©ploiement, gage d’interventions plus prĂ©cises et, croit-on, de vies Ă©pargnĂ©es lors de conflits armĂ©s.

Cela dit, soulignons que la communautĂ© internationale ne s’est entendue sur aucune dĂ©finition de systèmes d’armes autonomes ou de SALA. Il en existe donc plusieurs. Ainsi, le terme « système d’armes autonomes » s’entend de ce qui suit aux fins des prĂ©sentes :

« Système d’armes autonome pour ce qui est de ses fonctions essentielles — c’est-Ă -dire capable de choisir (chercher, dĂ©tecter, identifier, suivre ou choisir) et d’attaquer (neutraliser, endommager, dĂ©truire quelque chose, ou recourir Ă  la force contre elle) une cible sans intervention humaine. »

Les prochaines pages donnent un aperçu des grandes questions du dĂ©bat sur les systèmes d’armes autonomes en droit international, et prĂ©sentent des avenues de rĂ©glementation.

Poursuivre la lecture (le reste de l’article n’est disponible qu’en anglais).