Intelligence artificielle : le Pentagone adopte des principes éthiques

Le Pentagone. (AFP)
Temps de lecture estimé : 2 minutes

Le Pentagone a annoncé lundi l’adoption de «principes éthiques» pour l’usage par les forces armées de l’intelligence artificielle, une mesure notamment destinée à convaincre les employés des géants technologiques américains de collaborer avec les militaires.

«L’intelligence artificielle changera beaucoup de choses sur le champ de bataille du futur, mais rien ne fera changer l’engagement inébranlable des États-Unis à se comporter de façon responsable et légale», a noté le secrétaire américain de la Défense Mark Esper.

Le Pentagone, qui critique régulièrement l’utilisation qu’elle juge policière de la reconnaissance faciale par la Chine, s’engage notamment à attribuer à l’intelligence artificielle des utilisations «explicites et bien définies», selon un communiqué.

Ces équipements «intelligents», qui acquièrent eux-mêmes, par l’expérience, les capacités nécessaires pour accomplir les tâches qui leur sont assignées, seront aussi «fiables» et leurs spécifications seront transparentes, assure l’armée américaine.

Ils seront enfin «gouvernables», c’est-à-dire qu’ils pourront être désactivés en cas de fonctionnement aberrant.

DOD Adopts Ethical Principles for Artificial Intelligence

  1. Responsible. DoD personnel will exercise appropriate levels of judgment and care, while remaining responsible for the development, deployment, and use of AI capabilities.
  2. Equitable. The Department will take deliberate steps to minimize unintended bias in AI capabilities.
  3. Traceable. The Department’s AI capabilities will be developed and deployed such that relevant personnel possess an appropriate understanding of the technology, development processes, and operational methods applicable to AI capabilities, including with transparent and auditable methodologies, data sources, and design procedure and documentation.
  4. Reliable. The Department’s AI capabilities will have explicit, well-defined uses, and the safety, security, and effectiveness of such capabilities will be subject to testing and assurance within those defined uses across their entire life-cycles.
  5. Governable. The Department will design and engineer AI capabilities to fulfill their intended functions while possessing the ability to detect and avoid unintended consequences, and the ability to disengage or deactivate deployed systems that demonstrate unintended behavior.

(Source U.S. DoD)

L’humain doit «rester dans la boucle»

La question des armes autonomes reste un sujet de débat au sein du Pentagone, où le principe de base est que l’être humain doit «rester dans la boucle», une formule qui implique que la machine elle-même ne peut pas prendre la décision de tirer sur une cible.

Ces principes ont été définis à l’issue de 15 mois de consultations avec des représentants des géants technologiques américains, des grandes universités et de l’administration sous la présidence d’Eric Schmidt, ancien président du conseil d’administration de Google.

Sous la pression de ses employés, Google avait renoncé en 2018 à un contrat avec le Pentagone destiné à aider les drones à mieux distinguer les objets des humains grâce à l’intelligence artificielle, un projet baptisé «Maven».  

«Si nous avions eu les principes éthiques sur l’intelligence artificielle il y a trois ans [lors du lancement du projet Maven] et si nous avions été transparents sur ce que nous tentions de faire, peut-être que le résultat aurait été différent», a commenté le général Jack Shanahan, responsable de l’intelligence artificielle au Pentagone, en présentant ces nouveaux principes à la presse.