L'IA pourrait bientôt échapper à notre contrôle - et les scientifiques qui l'ont créée sont inquiets (traduction)


Les plus grands spécialistes mondiaux concernant l'IA exhortent les gouvernements à collaborer pour réglementer cette technologie avant qu'il ne soit trop tard.

Trois lauréats du prix Turing (le prix Nobel de l'informatique), qui ont contribué à la recherche et au développement de l'IA, se sont joints à une douzaine d'éminents scientifiques du monde entier pour signer une lettre ouverte appelant à la mise en place de meilleurs garde-fous pour faire progresser l'IA.

Les scientifiques affirment que les progrès rapides de cette technologie pourraient entraîner de graves conséquences pour l'humanité en cas d'erreur ou d'utilisation malveillante.

« La perte de contrôle humain ou l'utilisation malveillante de ces systèmes d'IA pourrait avoir des conséquences catastrophiques pour l'ensemble de l'humanité », écrivent les scientifiques dans la lettre. Ils préviennent également qu'avec le rythme rapide du développement de l'IA, ces « conséquences catastrophiques » pourraient survenir à tout moment.

Les scientifiques ont présenté les mesures suivantes pour commencer à s'attaquer immédiatement au risque d'utilisation malveillante de l'IA :

Engagements des développeurs en matière de sécurité de l'IA

Une autre idée consiste à demander aux développeurs de garantir volontairement la sécurité de leurs modèles, en promettant qu'ils ne franchiront pas de lignes rouges. Les développeurs s'engageraient à ne pas créer d'IA « capable de se reproduire de façon autonome, de s'améliorer, de rechercher le pouvoir ou de tromper ses créateurs, ou permettant de fabriquer des armes de destruction massive et de mener des cyberattaques », comme l'ont souligné d'éminents scientifiques lors d'une réunion à Pékin l'année dernière. 

Recherche indépendante et contrôles technologiques de l'IA

Une autre proposition consiste à créer une série de fonds mondiaux de sécurité et de vérification de l'IA, financés par les gouvernements, les philanthropes et les entreprises, qui parraineraient des recherches indépendantes pour aider à développer de meilleurs contrôles technologiques de l'IA.

Parmi les experts qui ont imploré les gouvernements d'agir en faveur de la sécurité de l'IA figuraient trois lauréats du prix Turing : Andrew Yao, le mentor de certains des entrepreneurs technologiques les plus prospères de Chine, Yoshua Bengio, l'un des informaticiens les plus cités au monde, et Geoffrey Hinton, qui a formé le cofondateur et ancien scientifique en chef d'OpenAI, Ilya Sutskever, et qui a passé une décennie à travailler sur l'apprentissage automatique au sein de Google.

Coopération et éthique en matière d'IA

Dans leur lettre, les scientifiques se félicitent de la coopération internationale qui existe déjà dans le domaine de l'IA, notamment de la réunion qui s'est tenue en mai à Genève entre les dirigeants des États-Unis et de la Chine pour discuter des risques liés à l'IA. Ils ajoutent toutefois que la coopération doit être renforcée.

Le développement de l'IA devrait s'accompagner de normes éthiques pour les ingénieurs, semblables à celles qui s'appliquent aux médecins ou aux avocats, affirment les scientifiques. Les gouvernements devraient considérer l'IA non pas comme une nouvelle technologie passionnante, mais plutôt comme un bien public mondial.

« Collectivement, nous devons nous préparer à éviter les risques catastrophiques qui pourraient survenir à tout moment », peut-on lire dans la lettre.

source :

https://fortune.com/2024/09/17/ai-humans-control-computer-scientists-warnings-regulations-governments/

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne