L'IA dans le ciel : Le pari de l'armée de l'air américaine (traduction)


Résumé (chat gpt) : L'armée de l'air américaine demande un budget important pour développer jusqu'à 2 000 drones XQ-58A Valkyrie pilotés par l'IA, conçus pour des scénarios de combat à haut risque. Ces drones suscitent des préoccupations éthiques, car ils pourraient introduire un élément imprévisible dans la guerre et remettre en question les décisions de vie ou de mort prises par des machines. Malgré leurs capacités avancées et leur coût relativement bas par rapport aux avions pilotés, le débat sur l'utilisation de l'IA dans la guerre soulève des inquiétudes morales et politiques.

Cherchant à révolutionner l'avenir de la guerre aérienne, l'armée de l'air américaine a officiellement demandé une enveloppe budgétaire de plusieurs milliards de dollars. Les fonds demandés sont destinés à la production de 2 000 drones dotés d'une intelligence artificielle, les XQ-58A Valkyrie.

Le Valkyrie est plus qu'un simple drone télécommandé ; il est conçu pour servir d'assistant de combat automatisé. Équipés d'une technologie de pointe, les drones peuvent exécuter des manœuvres de combat périlleuses qui seraient trop risquées pour des aviateurs humains. Un rapport du New York Times suggère que ces drones pilotés par l'IA sont optimisés pour des scénarios dans lesquels les chances de survie humaine sont faibles.

Dans le courant de l'année, un test décisif permettra d'évaluer la capacité du drone à localiser et à éliminer de manière autonome une cible dans le golfe du Mexique, sans guidage humain pour la planification tactique. Selon Insider, le XQ-58A Valkyrie attire déjà l'attention par ses caractéristiques extraordinaires. Capable d'atteindre une vitesse de 885 kilomètres par heure et de voler à une altitude de 13 716 mètres, il a un rayon d'action estimé à 5 556 kilomètres. Cette autonomie dépasse de loin celle de son prédécesseur, le XB-70 Valkyrie, qui nécessitait un équipage humain et dont la production était beaucoup plus limitée.

Sous réserve de l'approbation du Congrès, le budget estimé de cette initiative avant-gardiste s'élève à 5,8 milliards de dollars sur une période de cinq ans. Ce budget considérable fait suite à une série de vols d'essai expérimentaux au cours desquels le drone a servi de relais de communication entre des avions de combat ultramodernes tels que le F-22 et le F-35. En outre, le Valkyrie a été testé dans le cadre de l'initiative Skyborg de l'armée de l'air, une plateforme d'intelligence artificielle conçue pour contrôler les aéronefs sans pilote.

En ce qui concerne le coût par drone, le New York Times indique que chaque unité devrait coûter entre 3 et 25 millions de dollars. Il s'agit d'une solution plus rentable que les avions de combat conventionnels avec équipage . L'armée de l'air américaine et le ministère de la défense n'ont pas encore fait de commentaires sur ce projet, bien qu'ils aient été sollicités pour des informations.

Malgré les aides financières et le fort soutien des autorités militaires à la "nouvelle génération de domination aérienne", l'évolution vers des drones de combat autonomes tels que le XQ-58A Valkyrie suscite de sérieuses discussions éthiques. Les organisations de défense des droits de l'homme et les organismes de surveillance éthique affirment que la course à la guerre assistée par l'IA pourrait ouvrir la voie à un avenir moralement troublant, souvent assimilé aux scénarios dystopiques de la science-fiction, comme la série "Terminator".

Implications éthiques

Dans une récente interview accordée au New York Times, Mary Wareham, directrice de la division Armes de Human Rights Watch, a tiré la sonnette d'alarme sur les conséquences éthiques de cette avancée technologique. Wareham : "On franchit une ligne morale en confiant le soin de tuer à des machines - en permettant à des capteurs informatiques plutôt qu'à des humains d'ôter la vie à des êtres humains".

Le Future of Life Institute, une organisation à but non lucratif qui s'intéresse aux risques existentiels pour l'humanité, a qualifié ces systèmes de combat pilotés par l'IA de "robots d'abattage". Il affirme que la vitesse de décision des algorithmes pourrait non seulement accélérer les conflits militaires, mais aussi introduire un niveau d'imprévisibilité qui pourrait être aussi dangereux que les armes de destruction massive.

Le débat éthique autour de l'IA dans l'armée n'est pas nouveau. Le secrétaire général des Nations unies, António Guterres, avait déjà fait part de ses préoccupations en 2019, affirmant que les machines autonomes capables de prendre des décisions de vie ou de mort sans surveillance humaine sont "des machines ayant le pouvoir et la discrétion de prendre des vies sans implication humaine sont politiquement inacceptables, moralement répugnantes et devraient être interdites par le droit international."

source :

https://www.ghacks.net/2023/08/28/ai-in-the-sky-the-u-s-air-forces-gamble/

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne