On est encore loin de « L’attaque des clones » et de « La revanche des Sith »… Mais des entreprises de robotique s’en inspirent. Ainsi, ECA Dynamics, fruit d’une alliance entre les entreprises françaises ECA Group (engins robotisés terrestres et navals) et Wandercraft, qui développe notamment un « exosquelette », a présenté à la Direction générale de l’armement (DGA) un projet de robot humanoïde à l’occasion du dernier salon Milipol, en novembre.
Si les financements suivent, ECA Group espère pouvoir présenter un premier prototype de robot humanoïde d’ici deux à trois ans et compterait sur une mise en service au sein des forces armées à l’horizon 2020-2025. Il ferait appel à des technologies dites duales (c’est à dire civiles et militaires).
Les applications de telles machines sont nombreuses : on peut imaginer qu’un droïde puisse aller chercher des blessés sous le feu ennemi, aider les soldats à porter de lourdes charges ou encore intervenir dans des zones contaminées, difficiles d’accès ou trop dangereuses.
Aux États-Unis, où la Darpa, l’agence de recherche et de développement du Pentagone, finance de multiples projets dans le domaine de la robotique, l’US Navy travaille actuellement sur le programme SAFFIR (Shipboard Autonomous Firefighting Robot), un droïde qui, doté de 3 caméras (dont deux à infrarouge) et d’un Lidar (télédétection par laser), aura vocation à intervenir en cas d’incendie à bord d’un navire.
Ces droïdes auront-ils vocation à être armés pour remplacer les soldats sur le champ de bataille? Avec les progrès accomplis dans le domaine de l’intelligence artificielle, ce serait tentant. pour une armée. D’autant plus que de tels systèmes seraient financièrement abordables et qu’ils permettraient d’éviter d’exposer la vie de ses soldats.
Pour autant, et alors que, justement, cette perspective effraie de nombreux scientifiques et ingénieurs, ECA Group précise que ses projets ne visent pas à développer des systèmes de combat.
En tout cas, il s’agit d’une vraie question. Les principes de la robotique édictés par l’écrivain de science fiction Isaac Asimov précisent qu’un « robot doté d’une intelligence artificielle ne peut porter atteinte à un être humain » et qu’il « doit obéir aux ordres sauf si ces derniers entrent en conflit avec la première règle. »
Dans le dernier numéro de la revue « Pour la science », Jean-Paul Delahaye, chercheur au Centre de recherche en informatique, signal et automatique de Lille, rappelle qu’il n’est actuellement pas possible de « donner aux robots la consigne de respecter les lois de robotique d’Asimov, dont l’énoncé leur échappe totalement ». Car, poursuit-il, « pour appliquer ces lois, il faudrait aussi que nos systèmes informatiques disposent d’une faculté d’analyse et de raisonnement s’appliquant à tout, et soient capables d’anticiper les conséquences de telle ou telle action pour déterminer si un ordre contredit ou non la première loi, ou la deuxième, etc… Aucun de nos robots ne sait mener de telles analyses. »