L'IA pourrait provoquer une catastrophe de type nucléaire, selon un tiers des experts (traduction)


Plus d'un tiers des chercheurs pensent que l'intelligence artificielle (IA) pourrait conduire à une "catastrophe de niveau nucléaire", selon une enquête de l'université de Stanford, soulignant les inquiétudes du secteur quant aux risques posés par cette technologie qui progresse rapidement.

Cette enquête fait partie des conclusions du rapport 2023 AI Index, publié par le Stanford Institute for Human-Centered Artificial Intelligence, qui explore les derniers développements, les risques et les opportunités dans le domaine en plein essor de l'IA.

"Ces systèmes démontrent des capacités de réponse aux questions et de génération de texte, d'image et de code inimaginables il y a dix ans, et ils surpassent le niveau actuel de l'art sur de nombreux points de référence, anciens et nouveaux", affirment les auteurs du rapport.

"Cependant, ils sont sujets aux erreurs, sont régulièrement biaisés et peuvent être utilisés à des fins malveillantes, ce qui met en évidence les défis éthiques complexes associés à leur déploiement.

Le rapport, qui a été publié au début du mois, s'inscrit dans un contexte d'appels croissants à la réglementation de l'IA à la suite des controverses allant d'un suicide lié à un chatbot à des vidéos truquées du président ukrainien Volodymyr Zelenskyy semblant se rendre aux forces d'invasion russes.

Le mois dernier, Elon Musk et Steve Wozniak, cofondateur d'Apple, figuraient parmi les 1 300 signataires d'une lettre ouverte appelant à une pause de six mois dans l'entraînement des systèmes d'IA au-delà du niveau du chatbot GPT-4 d'Open AI, car "les systèmes d'IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables".

Dans l'enquête présentée dans le rapport 2023 AI Index, 36 % des chercheurs ont déclaré que les décisions prises par l'IA pourraient entraîner une catastrophe nucléaire, tandis que 73 % ont affirmé qu'elles pourraient bientôt conduire à un "changement sociétal révolutionnaire".

L'enquête a été menée auprès de 327 experts en traitement du langage naturel, une branche de l'informatique essentielle au développement de chatbots tels que GPT-4, entre mai et juin de l'année dernière, avant que le lancement du ChatGPT d'Open AI, en novembre, ne prenne d'assaut le monde de la technologie.

Dans un sondage IPSOS auprès du grand public, également mis en avant dans l'index, les Américains semblaient particulièrement méfiants à l'égard de l'IA, avec seulement 35 % d'entre eux convenant que " les produits et services équipés d'IA présentaient plus d'avantages que d'inconvénients ", contre 78 % des sondés chinois, 76 % des sondés saoudiens et 71 % des sondés indiens.

Le rapport de Stanford note également que le nombre d'"incidents et de controverses" associés à l'IA a été multiplié par 26 au cours de la dernière décennie.

Les initiatives gouvernementales visant à réglementer et à contrôler l'IA gagnent du terrain.

L'administration chinoise du cyberespace a annoncé cette semaine un projet de réglementation de l'IA générative, la technologie qui sous-tend GPT-4 et des rivaux nationaux comme Tongyi Qianwen d'Alibaba et ERNIE de Baidu, afin de garantir que la technologie adhère à la "valeur fondamentale du socialisme" et ne porte pas atteinte au gouvernement.

L'Union européenne a proposé la "loi sur l'intelligence artificielle" pour régir les types d'IA dont l'utilisation est acceptable et ceux qui devraient être interdits.

La méfiance du public américain à l'égard de l'IA ne s'est pas encore traduite par une réglementation fédérale, mais l'administration Biden a annoncé cette semaine le lancement de consultations publiques sur la manière de garantir que "les systèmes d'IA sont légaux, efficaces, éthiques, sûrs et, d'une manière ou d'une autre, dignes de confiance".

source :

https://www.aljazeera.com/economy/2023/4/14/ai-could-cause-nuclear-level-catastrophe-third-of-experts-say

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne