Québec Science BUZZons
Reportages

Bientôt la guerre des robots?

Propos recueillis par Mélissa Guillemette - 19/09/2014


Kathleen Lawand est chef de l’unité Armes au Comité international de la Croix-Rouge (CICR), à Genève. Cette Montréalaise d’origine, avocate de 
formation, surveille de près les changements technologiques des forces armées. Si elle appelle les États à la prudence, elle apporte tout de même quelques nuances au discours qui diabolise les outils de guerre du XXIe siècle. Entrevue.


La guerre sans soldats, c’est pour quand ?

La guerre en l’absence de soldats existe depuis longtemps. C’est une simple question de définition. Par exemple, en 2011, l’OTAN n’a pas déployé de troupes au sol en Libye; elle a plutôt mené des frappes aériennes. Et ce n’était pas la première fois : elle avait déjà bombardé l’armée serbe au Kosovo, en 1999. Elle avait d’ailleurs été très critiquée, car elle ne s’exposait pas aux risques. Et c’est ce même argument qu’on sert aujourd’hui aux armées qui utilisent des drones pour faire la guerre à distance : le soldat s’éloigne de plus en plus du champ de bataille.

Vous parlez des drones.  Y a-t-il aussi d’autres outils de pointe dans ces guerres technologiques ?

Les drones font partie d’une catégorie d’armes dites « contrôlées à distance ». Une équipe se trouve devant un ordinateur et pilote un avion. L’humain demeure toujours présent dans le cycle d’identification et de surveillance de la cible et, dans le cas des drones armés, c’est lui qui choisit d’attaquer; pas la machine.

On trouve ensuite des systèmes fixes, autonomes, qui agissent en général contre des objets. En Israël, l’Iron Dome – le Dôme de fer – en est l’exemple parfait. Un radar détecte les roquettes venant de la bande de Gaza et envoie les données à un ordinateur qui calcule la trajectoire de chaque roquette pour prévoir où elle va tomber. Si elle risque d’aboutir dans une zone habitée, un missile intercepteur est immédiatement envoyé pour la détruire. Des navires de guerre sont aussi équipés de tels systèmes. Les données sont toujours envoyées à un centre de contrôle où un militaire les soumet à un monitorage. Mais en réalité, la vitesse de réaction du système est si grande que le soldat est superflu

À ce jour, existe-t-il des armes capables de faire feu de façon autonome ?

Il existe en effet des sentinelles automatiques qui peuvent tirer sur des êtres humains. Il semblerait – mais nous avons peu d’information à ce sujet – qu’elles soient utilisées dans la zone démilitarisée entre les deux Corées. Ces sentinelles sont fixes, dotées de mitrailleuses et peuvent viser un individu qui entre dans leur zone. Des capteurs visuels et auditifs leur permettent de faire certaines distinctions, mais de manière extrêmement rudimentaire. En principe, un soldat surveille le système et valide l’attaque avant que la machine puisse entrer en action.

On peut imaginer dans l’avenir des systèmes beaucoup plus complexes, mobiles, qui opéreront dans des environnements dynamiques. La caricature, c’est Terminator; le robot tueur programmé pour être déployé là où des combattants côtoient la population. Il serait capable de distinguer sa cible des civils innocents. Mais on est encore très loin de ça.

Une attaque informatique est-elle un acte de guerre ?

Le protocole additionnel aux Conventions de Genève définit une attaque comme un acte de violence offensif ou défensif contre un adversaire. La question devient alors : qu’est-ce qu’un acte de violence ? À notre avis, si l’objet ciblé n’est plus fonctionnel après l’attaque, cela ne fera pas de différence qu’il se soit agi d’une cyberattaque plutôt que d’une opération armée.

Dans le cas des attaques informatiques, le problème est que les réseaux sont aujourd’hui très intégrés. Quand des virus sont lancés contre une cible militaire, les risques qu’ils se propagent également dans des réseaux civils sont très élevés.

Le droit international encadre-t-il la guerre des robots ?

Le droit humanitaire est encadré par les Conventions de Genève, par les protocoles additionnels et par le droit international coutumier. Mais rien dans les règles existantes n’interdit explicitement l’usage d’une arme autonome. Lorsque ces textes ont été écrits, on ne pouvait pas imaginer que des robots pourraient un jour devenir indépendants !

Ces règles ne sont pas désuètes pour autant. C’est un de nos messages principaux au CICR : le même cadre juridique s’applique à toutes les nouvelles technologies de guerre. Les États qui veulent développer ces armes doivent encore et toujours s’assurer que leur utilisation sera compatible avec le droit international humanitaire.

Un robot tueur qui saurait respecter les lois de la guerre serait donc légal?

Exactement. On peut penser que, dans 50 ou 100 ans, on aura créé une machine capable de discernement. Elle déterminerait alors si une attaque est proportionnée ou non, à partir des calculs de risques de pertes civiles par rapport à l’avantage militaire concret attendu. Mais la vraie question que l’humanité doit se poser est la suivante : sommes-nous à l’aise avec ce concept visant à déléguer à une machine la décision de vie ou de mort dans les combats ?

Est-ce le cas, selon vous ?

Il s’agit en fait d’un débat culturel. Au Japon, par exemple, le rapport entre l’homme et la machine est beaucoup plus facile qu’ailleurs. Aujourd’hui, des robots dotés de visages presque humains sont utilisés dans les maisons d’accueil pour les vieillards. Cela choquerait en Europe ou en Amérique du Nord. On peut imaginer que l’acceptation des robots de guerre diffère d’une culture à l’autre.

La guerre de demain fera-t-elle moins de morts ?

A priori, les nouvelles technologies peuvent présenter certains avantages. Le fait de garder une distance entre les opérateurs des systèmes et le théâtre des opérations militaires préservera des vies chez qui les utilise. Et si un système arrive à distinguer de manière très précise les cibles légitimes des cibles civiles et des lieux protégés, ce sera une amélioration qui pourrait théoriquement mener à des guerres moins meurtrières. Car il ne faut pas se leurrer : les êtres humains eux-mêmes ont parfois de la difficulté à faire ces distinctions quand tout se passe très vite, quand ils sont dans le brouillard ou sous l’emprise du stress. La machine, elle, ne subit pas de stress.

La situation s’annonce plus inquiétante dans les conflits asymétriques où un groupe de combattants n’arrive pas à riposter contre une attaque parce que, technologiquement, il en est resté au XXe siècle alors que l’adversaire utilise les armes du XXIe siècle. Faute de pouvoir se mesurer à l’armée adverse, la partie la plus faible pourrait décider de s’en prendre à la population civile de l’ennemi.

Le Canada compte se procurer une flotte de drones armés d’ici 2021, qui s’ajoutera à ses drones de surveillance. Est-ce un bon investissement ?

Le Canada suit certainement la tendance. On verra de plus en plus ce type d’annonce. Les avions de combat habités par un être humain vont devenir l’exception. Les drones sont moins coûteux, en plus d’offrir l’avantage de protéger les troupes.

La Croix-Rouge pourrait-elle suivre la tendance et se procurer des drones, elle aussi ?

Dans les médias, on parle des drones avec une connotation très négative, car on les voit seulement comme des armes d’attaque. Mais les organisations humanitaires, dont le CICR, s’intéressent de plus en plus à ces technologies dans le but d’accéder à certaines zones. Par exemple, après un tremblement de terre ayant endommagé les routes, un drone pourrait rapidement livrer des vivres et des tentes. Mais nous continuerons toujours à donner la priorité au contact humain.






Facebook


   Le magazine scientifique des 14-17 ans