Résumé : Geoffrey Hinton, l'un des trois informaticiens de renom qui sont devenus les parrains de l'IA, met une nouvelle fois en garde contre la menace que représente pour l'humanité l'industrie de l'IA, qui se développe rapidement et n'est que très peu réglementée. Selon lui, les gens ne comprennent pas ce qui les attend et il y a 10 à 20 % de chances que l'IA finisse par prendre le contrôle de la société.
Lors d'une interview accordée au début du mois et diffusée samedi matin sur CBS, M. Hinton, qui a reçu conjointement le prix Nobel de physique l'année dernière, a lancé un avertissement sur la façon dont le développement de l'IA évolue.
« La meilleure façon de le comprendre émotionnellement, c'est que nous sommes comme quelqu'un qui aurait un petit tigre très mignon », a déclaré M. Hinton. « À moins d'être certain qu'il ne voudra pas vous tuer une fois adulte, vous devriez vous inquiéter.
« Les gens n'ont pas encore compris ce qui se prépare », a-t-il averti.
Ce sont les idées de M. Hinton qui ont permis de créer les conditions techniques rendant possibles des modèles à grande échelle tels que ChatGPT, y compris le tout premier moyen pratique d'entraîner de bout en bout des empilements profonds de neurones artificiels.
Malgré ses contributions à cette technologie, M. Hinton a depuis longtemps mis en garde contre ce qui pourrait arriver si le développement de l'IA se poursuivait à un rythme effréné et sans garde-fous. Il a quitté Google en 2023 pour pouvoir aborder les dangers de l'IA sans que l'entreprise pour laquelle il travaillait n'en subisse les conséquences. « Regardez ce qu'il en était il y a cinq ans et ce qu'il en est aujourd'hui », a déclaré M. Hinton à propos du stade de développement de l'IA à cette époque. « Notez cette différence et faites une extrapolation vers le futur. C'est effrayant », a-t-il ajouté.
Il a également réitéré ses craintes que l'IA ne provoque un phénomène d'extinction, d'autant plus que cette technologie se retrouve de plus en plus dans les armes et les véhicules militaires. Selon M. Hinton, le risque est que les entreprises technologiques renoncent à la sécurité pour devancer leurs concurrents sur le marché et franchir des étapes technologiques.
« Je suis malheureusement d'accord avec Elon Musk sur ce point, à savoir qu'il y a 10 à 20 % de chances que ces technologies prennent le dessus, mais ce n'est qu'une simple supposition », a déclaré M. Hinton.
Bien qu'il passe plus de temps à combattre l'IA devant les tribunaux et à promouvoir son propre chatbot Grok, Elon Musk avait auparavant l'habitude de parler de la menace existentielle que représente l'IA.
M. Hinton a réitéré ses inquiétudes quant au fait que les entreprises spécialisées dans l'IA donnent la priorité aux profits plutôt qu'à la sécurité. « Si vous regardez ce que font les grandes entreprises en ce moment, elles font pression pour réduire la réglementation de l'IA. Il n'y a pratiquement pas de réglementation à l'heure actuelle, mais elles en veulent encore moins », a-t-il déclaré.
M. Hinton estime que les entreprises devraient consacrer une part beaucoup plus importante de leur puissance de calcul disponible, soit environ un tiers, à la recherche sur la sécurité, au lieu de l'infime fraction qui est actuellement consacrée à cette fin.
M. Hinton est également particulièrement déçu que Google soit revenu sur sa promesse de ne jamais accepter que son IA soit utilisée pour des applications militaires. L'entreprise, qui n'utilise plus la devise « Don't be evil », a modifié sa politique en matière d'IA au début de l'année, ouvrant ainsi la voie à l'utilisation de sa technologie dans les armes militaires.
Le parrain de l'IA n'est bien sûr pas opposé à l'IA ; comme Bill Gates, il pense que la technologie pourrait transformer l'éducation, la médecine, la science et, éventuellement, résoudre le problème du changement climatique.
Le professeur Yann LeCun, un autre des trois parrains de l'IA, est moins inquiet quant à la rapidité du développement de l'IA. Il a déclaré en 2023 que la menace présumée pour l'humanité est « ridiculement absurde ».
traduction de :
https://www.techspot.com/news/107706-godfather-ai-geoffrey-hinton-warns-there-10-20.html
Enregistrer un commentaire
Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.