ARCHIVES
Un appel pour faire interdire les armes autonomes
« L’intelligence artificielle a atteint un point où le déploiement de tels systèmes sera – matériellement, si pas légalement – faisable d’ici quelques années, et non décennies, et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires. »
Dans une lettre ouverte publiée en juillet 2015, plus d’un millier de personnalités [1], dont une majorité de chercheurs en IA et en robotique, ont demandé l’interdiction des armes autonomes capables « de sélectionner et de combattre des cibles sans intervention humaine ».
Cette lettre ouverte a été diffusée le 28 juillet 2015 lors de l’ouverture de la conférence IJCAI 2015.
Armes autonomes : une lettre ouverte de chercheurs en IA et robotique
Des armes autonomes sélectionnent et engagent des cibles sans intervention humaine. Il peut s’agir, par exemple, de quadriplaces armés qui peuvent rechercher et éliminer des personnes répondant à certains critères prédéfinis, mais pas de missiles de croisière ou de drones pilotés à distance pour lesquels les humains prennent toutes les décisions de ciblage. La technologie de l’intelligence artificielle (IA) a atteint un point où le déploiement de tels systèmes est - pratiquement sinon légalement - réalisable en quelques années, et non en quelques décennies, et les enjeux sont élevés : les armes autonomes ont été décrites comme la troisième révolution dans la guerre, après la poudre à canon et les armes nucléaires.
De nombreux arguments ont été avancés pour et contre les armes autonomes, par exemple que le remplacement de soldats humains par des machines est une bonne chose en réduisant les pertes pour leur propriétaire, mais une mauvaise chose en abaissant ainsi le seuil d’intervention au combat.
La question clé pour l’humanité aujourd’hui est de savoir s’il faut lancer une course aux armements IA à l’échelle mondiale ou l’empêcher de démarrer. Si une grande puissance militaire poursuit le développement d’armes IA, une course aux armements mondiale est pratiquement inévitable, et le point d’arrivée de cette trajectoire technologique est évident : les armes autonomes deviendront les Kalachnikovs de demain.
Contrairement aux armes nucléaires, elles ne nécessitent pas de matières premières coûteuses ou difficiles à obtenir, de sorte qu’elles deviendront omniprésentes et peu coûteuses à produire en masse pour toutes les grandes puissances militaires.
Ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et aux mains de terroristes, de dictateurs désireux de mieux contrôler leur population, de seigneurs de guerre désireux de perpétrer un nettoyage ethnique, etc.
Les armes autonomes sont idéales pour des tâches telles que les assassinats, la déstabilisation des nations, la soumission des populations et l’assassinat sélectif d’un groupe ethnique particulier. Nous pensons donc qu’une course aux armements militaires de l’IA ne serait pas bénéfique pour l’humanité. L’IA peut rendre les champs de bataille plus sûrs pour les humains, en particulier les civils, sans créer de nouveaux outils pour tuer les gens.
Tout comme la plupart des chimistes et des biologistes n’ont aucun intérêt à fabriquer des armes chimiques ou biologiques, la plupart des chercheurs en IA n’ont aucun intérêt à fabriquer des armes IA - et ne veulent pas que d’autres ternissent leur domaine en le faisant, ce qui pourrait créer une réaction publique majeure contre l’IA qui réduirait ses futurs bénéfices sociétaux.
En effet, les chimistes et les biologistes ont largement soutenu les accords internationaux qui ont réussi à interdire les armes chimiques et biologiques, tout comme la plupart des physiciens ont soutenu les traités interdisant les armes nucléaires basées dans l’espace et les armes à laser aveuglantes.
En résumé, nous pensons que l’IA a un grand potentiel pour profiter à l’humanité de nombreuses façons, et que l’objectif du domaine devrait être de le faire.
Lancer une course aux armements militaires de l’IA est une mauvaise idée, et devrait être empêchée par une interdiction des armes offensives autonomes échappant à tout contrôle humain significatif.
Traduction en français : DeepL.
[1] Parmi les signataires on retrouve Elon Musk, le PDG de Tesla et de SpaceX, l’astrophysicien Stephen Hawking - décédé en 2018 - mais aussi le cofondateur d’Apple, Steve Wozniak, Jaan Tallinn, fondateur de Skype, Jack Dorsey de Twitter, Noam Chomsky du MIT ou encore Demis Hassabis, le fondateur de DeepMind, racheté par Google, spécialisée dans l’intelligence artificielle.
Vos commentaires
Espace réservé
Seules les personnes inscrites peuvent accéder aux commentaires.