Réalisé
par le site Ban
Lethal Autonomous Weapons pour sa campagne de
sensibilisation Stop Killer Robots, le court métrage
Slaughterbots
a été présenté à Genève à l'occasion d'une rencontre sur les
armes conventionnelles en novembre 2017 et a obtenu un succès
fracassant sur les réseaux/médias sociaux.
À
mi-chemin de la série Black Mirror et du film Matrix, cette
fiction met en scène un essaim de minuscules drones dotés d'une
technologie de reconnaissance faciale et munis de charges
perforantes, qui sont ensuite utilisés par un mystérieux groupe
terroriste pour commettre un massacre dans un amphithéâtre. Des
centaines d'étudiants sont précisément identifiés, inlassablement
traqués et froidement assassinés par des petits quadcoptères dans
les couloirs d'une université. Pas de quartier. Aucune issue
possible.
Vétéran
mondialement reconnu de la recherche en intelligence artificielle et
professeur à l'université de Berkeley, Stuart
Russell conclut la vidéo coup de poing par un cri
d'alarme : « Je travaille sur l'intelligence
artificielle depuis 35 ans et ce film montre le potentiel
qu'apportent la miniaturisation et la militarisation pour des
technologies qui existent déjà. Il est énorme, car elles peuvent
tuer des humains et mettraient en péril notre sécurité et notre
liberté. »
Malheureusement,
ce film verse dans l'approche purement spectaculaire et émotionnelle
en imaginant des quadcoptères armés et intelligents qui éliminent
efficacement des foules candides et innocentes. Il n'enrichit guère
le débat sur les petites armes létales et autonomes, évite la
complexité des enjeux et ne suscite que très peu de questions
sensées.
En
filigrane, Slaughterbots tente d'abord d'associer intelligences
artificielles (IA), petites armes létales et autonomes et armes de
destruction massive, puis de reléguer les micro-drones armés et
intelligents parmi les armes de destruction massive ; qui
seraient de facto appelées à être strictement réglementées
ou interdites par des traités internationaux - à l'instar des armes
nucléaires, biologiques et chimiques. Quiconque n'adhère point à
cette vision n'est qu'un apôtre des « robots tueurs ».
Toutefois,
la stricte réglementation ou l'interdiction d'une arme n'empêche
guère les terroristes ou les dictateurs de les utiliser.
Malgré
l'interdiction des mines antipersonnel, des groupes terroristes ou
insurgés fabriquent eux-mêmes des mines artisanales – communément
appelés Improvised
Explosive Devices (IED) ou
engins explosifs improvisés. Les Talibans et Al-Qaïda ne s'en
privent guère contre l'armée afghane et les troupes
américaines/européennes. Les dictateurs Saddam Hussein (Irak) et
Bachar El-Assad (Syrie) n'ont eu aucun scrupule à
recourir aux armes chimiques en temps de paix ou de guerre (1)
contre des populations civiles, des factions rebelles ou des
organisations terroristes... Et ces dernières ont fait
de même (2) pendant
les guerres d'Irak et de Syrie. En effet, l'Etat islamique avait
également développé une
passion particulière pour la chlorine et le gaz moutarde (3).
En
bref, les vrais méchants n'ont que faire de la loi.
Parallèlement,
des états comme l'Inde, le Pakistan, la Corée du nord et Israël
ont acquis l'arme nucléaire, peu importe qu'ils soient signataires
ou non du Traité de Non-Prolifération (TNP) ou soumis à un embargo
international. Ces états voulaient la Bombe, ils ont eu la Bombe...
qui nécessite pourtant des moyens conséquents en recherche &
développement (science, technologie, logistique, finances).
Dans
le cas des micro-drones armés et intelligents, aucune réglementation
ou interdiction n'entravera leur développement car les coûts de
fabrication sont très faibles et les technologies embarquées sont
librement accessibles à tous.
Aujourd'hui,
plusieurs modèles de quadcoptères (autonomes, programmables ou
télécommandés par smartphone/tablette) et leurs divers composants
sont disponibles en grande surface et dans l'e-commerce pour 300
euros et plus. Ces engins peuvent être assemblés dans une chambre
ou dans un garage et dérivés vers des myriades de fonctions
possibles et imaginables : photographie, vidéo sportive,
livraison de matériel, peinture de bâtiments, lance-flammes
aérien,
tronçonneuse
volante, etc.
En
effet, un slaughterbot repose essentiellement sur l'innovation
combinatoire car il exploitera de plus en plus des
« solutions et technologies sur étagère » :
microcontrôleur, châssis, hélice, bras rotor, élément 3D
imprimé, app de reconnaissance faciale, etc.
Ce
n'est qu'une question de temps avant qu'un bricoleur ou un ingénieur
incorpore une arme à feu à un micro-drone artisanal, commercial ou
militaire dans un garage ou dans un laboratoire.
Ainsi,
le futur de la dronautique sera similaire ou comparable à celui de
la cybersécurité : rien n'empêche ou n'interdit au hacker
de développer en catimini un malware ou de pirater un serveur
gouvernemental ou commercial avec son ordinateur personnel, sauf la
peur éventuelle de l'uniforme. Rien n'empêchera ou n'interdira au
bricoleur d'acheter, d'assembler ou de dériver un quadcoptère pour
un usage létal, sauf la peur éventuelle de l'uniforme.
Rien
n'empêche ou n'interdit à un état de développer en catimini des
malwares, de pirater des serveurs gouvernementaux ou
commerciaux, d'acheter, d'assembler ou de dériver des quadcoptères
pour un usage létal, sauf la peur éventuelle... de quoi, au fait ?
Un
accord de réglementation ou un traité d'interdiction des petites
armes létales et autonomes incitera peut-être quelques états
signataires (et seulement ceux signataires) à la retenue ou à la
prohibition mais n'aura que très peu voire aucun effet sur les
acteurs non-étatiques. Bienvenue chez les fous
volants et leurs drôles de micromachines !
Par
ailleurs, la stricte réglementation ou l'interdiction des petites
armes létales et autonomes implique une restriction drastique de
leurs premiers facteurs d'autonomie : l'électronique, l'informatique
et l'intelligence artificielle grand public.
Faut-il
pour autant ralentir ou restreindre l'innovation technologique afin
de barrer la route aux « robots tueurs » ? Les
états, les chercheurs, les ingénieurs, les inventeurs, les
bricoleurs, les entreprises et les populations de tous bords
seront-ils réellement enchantés par cette perspective ?
Par
ailleurs, une arme létale et autonome est-elle moins éthique qu'une
arme identique contrôlée par un humain ou dotée d'une informatique
moins évoluée ? Et si les étudiants du film Slaughterbots avaient
été tués par des micro-drones télécommandés, par un
chasseur-bombardier F-16 ou par un drone Predator ?
Des
armes létales et autonomes telles que le missile de croisière
Tomahawk,
le missile air-air Sidewinder,
le missile air-sol Hellfire,
le système de défense anti-aérien Phalanx
et la torpille MU-90
– pour ne citer qu'elles – existent depuis belle lurette et font
souvent la une des médias. Cependant, elles ne sont guère équipées
d'une app de reconnaissance faciale, ne sont guère
contaminées par la vogue « intelligence artificielle »
et ne peuvent être fabriquées ni dérivées dans une chambre ou
dans un garage du fait de leur lourdeur, de leur volume, de leur
complexité et de leur coût.
Vous
n'êtes pas prêts de fabriquer un missile
fire and forget ou une
torpille intelligente dans votre salon, et ne courez guère le risque
d'être victime d'une telle arme dans un pays riche en temps de paix,
sauf accident ou cas exceptionnel. Votre
grande et belle armée emploie ces onéreux et affreux joujoux dans
des contrées pauvres et lointaines. En quelques mots, vous êtes nettement mieux loti qu'un
civil irakien en ville ou son homologue afghan à la campagne.
C'est
probablement pour toutes ces raisons que les exégètes de Stop
Killer Robots n'ont pas bruyamment vilipendé ces armes
létales et autonomes qui réunissent pourtant toutes les conditions
pour figurer parmi les « robots tueurs » et autres
incarnations du diable.
D'où
quelques questions qui fâchent... savamment ignorées ou éludées
par Stuart Russell et compagnie.
Quels
critères (volumes/masses physiques, fonctions offensives ou
défensives, degrés de complexité, d'autonomie et d'efficacité
opérationnelle, etc) permettent de classer les « robots
tueurs » ? Comment réglementer ou interdire les petites armes
létales et autonomes sans distinction claire de leurs
caractéristiques et sans définition nette de leurs usages
autorisés ?
Le
film Slaugherbots a tout de même l'immense mérite d'alerter le
public – sur une éventuelle et chaotique course aux
micro-armements intelligents et sur la prolifération consécutive de
« robots tueurs » artisanaux ou industriels, de surcroît
utilisés à des fins de répression ou de génocide par des régimes
tyranniques ou par des individus malveillants. Corollairement, les
forces de l'ordre seraient confrontées à l'expansion de
technologies
nivelantes (dronautique et IA grand public,
impression 3D, géolocalisation, crimeware,
etc) qui amoindriraient leurs atouts technologiques et tactiques face
à d'ingénieux terroristes ou criminels.
Néanmoins,
aucun être humain n'a été tué par un slaughterbot
supervisé par un terroriste, à ce jour. Dès lors, comment
interdire une arme inexistante ou probable et potentiellement
létale ? Quels critères seraient appliquées en vue d'une
prohibition préventive ? Les gouvernements devraient-il
attendre que des petits « robots tueurs » fassent
« suffisamment » de victimes avant de décréter leur
interdiction ?
La
formation et l'expérience très poussées des unités
policières/militaires d'élite (RAID, GIGN, SWAT, etc) au combat en
milieu urbain ou rural (tactique, technologie, armement) ont prouvé
leur efficacité globale contre des commandos terroristes. Pourquoi
n'en serait-il pas de même avec des petites armes létales et
autonomes ? Des micro-drones armés et intelligents (létaux ou
non-létaux) spécialisés ou dérivés vers la lutte antiterroriste
sont-ils envisageables ? Doit-on freiner ou prohiber leur recherche &
développement et donc priver les états d'un éventail de
contre-mesures peu ou prou adéquates en cas « d'attaque
terroriste classique ou robotisée » ?
À
quoi bon prôner d'emblée l'interdiction des petites armes létales
et autonomes au nom d'un vague principe de précaution et sur la base
d'une fiction ?
Et
si de nombreux profils issus de divers horizons (chercheurs,
ingénieurs, policiers, militaires, prospectivistes, juristes,
sociologues, philosophes, médecins, responsables politiques, société
civile, etc) produisaient des analyses transversales et des échanges
réalistes sur les « robots tueurs », leurs formes et
leurs fonctions ?
Annexes :
3 commentaires:
si vis pacem ...
Comment se fait-il qu'il n'y ait pas, pour ne pas faire de jaloux, un gendarme, un policier et un soldat derrière chaque citoyen pour le protéger ?
Les vidéos sur les possibilités et réalisations "amateurs", remarquablement abouties, d'armes intégrées aux drones fleurissent de toutes part y compris sur les grands sites.
A quand un "deuxième amendement" en France, en Europe ?
J'ai traduit et sous-titré cette fameuse vidéo :
http://www.blueman.name/Des_Videos_Remarquables.php?NumVideo=8774
Celui ou ceux qui cesseront d'innover dans les domaines des armements seront en grand danger
Enregistrer un commentaire