Publié par Guy de Laferrière le 23 janvier 2023
Auteur : Pierre-Alain Depauw
L’édition 2023 du Forum économique mondial de Davos s’achève ce vendredi. Parmi les nombreux thèmes abordés, il a beaucoup été question de l’intelligence artificielle et de la place des nouvelles technologies connectées dans le monde de demain. Le Forum économique mondial, qui compte en ses rangs de nombreux patrons de sociétés de ce secteur, se montre naturellement très favorable à l’essor de l’intelligence artificielle, du tout connecté et du transhumanisme qui en est un aboutissement. Pour faire bonne figure, les débats et discours du Forum économique mondial sur le sujet s’accompagnent de quelques mots sur les aspects éthiques liés au développement de l’intelligence artificielle. Ainsi, il a rapidement été rappelé qu’en novembre 2022 la police de San Francisco se préparait à incorporer des robots maniant des armes potentiellement mortelles. Devant le tollé suscité parmi la population, la ville de San Francisco a renoncé à ses robots policiers armés s’est-on contenté de noter à Davos.
Le projet de la ville de San Francisco et le débat qu’il a suscité sont très révélateurs et méritent qu’on s’y attarde. La question posée est la suivante : peut-on laisser à des robots travaillant aux côtés des forces de l’ordre le soin de décider sur base d’algorithmes d’une intelligence artificielle l’utilisation d’une arme à feu ?
L’idée que les robots soient légalement autorisés à tuer a entraîné une importante controverse il y a quelques semaines qu’il faut résumer aux lecteurs de Médias Presse Info.
C’est en 2016 qu’un robot a été utilisé pour la première fois par les forces de l’ordre en tant que force meurtrière aux États-Unis. Le département de police de Dallas a utilisé un robot de déminage armé d’un engin explosif pour tuer un suspect qui avait tué cinq policiers.
Paul Scharre, auteur du livre Army Of None: Autonomous Weapons And The Future Of War, a souligné la différence entre l’utilisation de robots armés par les forces militaires ou par les forces de police. « Pour les militaires, ils sont utilisés au combat contre un ennemi et le but est de tuer l’ennemi. Ce n’est pas et ne devrait pas être le but des forces de police. Ils sont là pour protéger les citoyens, et il peut y avoir des situations où ils doivent utiliser une force mortelle, mais cela devrait être absolument un dernier recours. »
« Une fois que vous avez autorisé ce type d’utilisation, il sera très difficile de revenir en arrière. », dit-il.
Ryan Calo, spécialiste de la robotique, considère que l’idée de « robots tueurs » est une rampe de lancement pour une discussion plus large sur notre relation à la technologie et à l’Intelligence Artificielle. Et il se demande ce qui se passera si la technologie commet un « bug » et qu’un robot tue ou blesse accidentellement une personne. « Il deviendra très difficile de démêler qui est responsable. Est-ce que ce sont les personnes qui utilisent la technologie ? Est-ce que ce sont les personnes qui conçoivent la technologie ?«
Ryan Calo soulève une question supplémentaire : « Nous devons nous demander si nous voulons une société où la police tue des gens avec des robots ? C’est profondément déshumanisant. »
Source : medias-presse.info