AP- Des scientifiques et des leaders de l’industrie technologique, y compris des cadres de haut niveau chez Microsoft et Google, ont lancé mardi un nouvel avertissement sur les dangers que l’intelligence artificielle pose à l’humanité.
« Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire », indique le communiqué.
Sam Altman , PDG du fabricant de ChatGPT OpenAI, et Geoffrey Hinton , un informaticien connu comme le parrain de l’intelligence artificielle , figuraient parmi les centaines de personnalités qui ont signé la déclaration, qui a été publiée sur le site Web du Center for AI Safety.
Les inquiétudes concernant les systèmes d’intelligence artificielle qui déjouent les humains et se déchaînent se sont intensifiées avec la montée en puissance d’une nouvelle génération de chatbots IA hautement performants tels que ChatGPT. Il a envoyé des pays du monde entier se bousculer pour élaborer des réglementations pour la technologie en développement, l’ Union européenne ouvrant la voie avec sa loi sur l’IA qui devrait être approuvée plus tard cette année.
Le dernier avertissement était intentionnellement succinct – une seule phrase – pour englober une large coalition de scientifiques qui pourraient ne pas s’entendre sur les risques les plus probables ou les meilleures solutions pour les prévenir, a déclaré Dan Hendrycks, directeur exécutif du Centre à but non lucratif basé à San Francisco. pour AI Safety, qui a organisé le déménagement.
« Il y a une variété de personnes de toutes les meilleures universités dans différents domaines qui sont concernées par cela et pensent qu’il s’agit d’une priorité mondiale », a déclaré Hendrycks. « Nous avons donc dû amener les gens à sortir du placard, pour ainsi dire, sur cette question, car beaucoup parlaient en quelque sorte en silence entre eux. »
Plus de 1 000 chercheurs et technologues, dont Elon Musk, avaient signé une lettre beaucoup plus longue plus tôt cette année appelant à une pause de six mois sur le développement de l’IA , affirmant qu’elle pose « des risques profonds pour la société et l’humanité ».
Cette lettre était une réponse à la publication par OpenAI d’un nouveau modèle d’IA, GPT-4 , mais les dirigeants d’OpenAI, son partenaire Microsoft et son rival Google n’ont pas signé et ont rejeté l’appel à une pause volontaire de l’industrie.
En revanche, la dernière déclaration a été approuvée par les responsables technologiques et scientifiques de Microsoft, ainsi que par Demis Hassabis, PDG du laboratoire de recherche sur l’IA de Google DeepMind, et deux dirigeants de Google qui dirigent ses efforts en matière de politique sur l’IA. La déclaration ne propose pas de remèdes spécifiques mais certains, dont Altman, ont proposé un régulateur international sur le modèle de laAgence nucléaire de l’ONU.
Certains critiques se sont plaints quede terribles avertissements sur les risques existentielsexprimés par les fabricants d’IA ont contribué à augmenter les capacités de leurs produits et à détourner l’attention des appels à des réglementations plus immédiates pour maîtriser leurs problèmes réels.
Hendrycks a déclaré qu’il n’y avait aucune raison pour que la société ne puisse pas gérer les «dommages urgents et continus» des produits quigénérer un nouveau texteou des images, tout en commençant à aborder les « catastrophes potentielles au coin de la rue ».
Il l’a comparé aux scientifiques nucléaires des années 1930 avertissant les gens de faire attention même si « nous n’avons pas encore tout à fait développé la bombe ».
« Personne ne dit que GPT-4 ou ChatGPT aujourd’hui causent ce genre de problèmes », a déclaré Hendrycks. « Nous essayons de faire face à ces risques avant qu’ils ne surviennent plutôt que d’essayer de faire face aux catastrophes après coup. »
La lettre a également été signée par des experts en science nucléaire, en pandémies et en changement climatique. Parmi les signataires figure l’écrivain Bill McKibben, qui a sonné lealarme sur le réchauffement climatiquedans son livre de 1989 « The End of Nature » et a mis en garde contre l’IA et les technologies associées il y a deux décennies dans un autre livre.
« Étant donné que nous n’avons pas tenu compte des premiers avertissements sur le changement climatique il y a 35 ans, j’ai l’impression qu’il serait judicieux de réfléchir à celui-ci avant que tout ne soit conclu », a-t-il déclaré par e-mail mardi.
Un universitaire qui a aidé à faire pression pour la lettre a déclaré qu’il avait l’habitude d’être moqué pour ses inquiétudes concernant le risque existentiel de l’IA, même si les progrès rapides de la recherche sur l’apprentissage automatique au cours de la dernière décennie ont dépassé les attentes de nombreuses personnes.
David Krueger, professeur adjoint d’informatique à l’Université de Cambridge, a déclaré qu’une partie de l’hésitation à s’exprimer est que les scientifiques ne veulent pas être perçus comme suggérant l’IA « la conscience ou l’IA faisant quelque chose de magique », mais il a dit que les systèmes d’IA ne n’ont pas besoin d’être conscients d’eux-mêmes ou de fixer leurs propres objectifs pour constituer une menace pour l’humanité.
« Je ne suis pas attaché à un type particulier de risque. Je pense qu’il y a beaucoup de façons différentes pour que les choses tournent mal », a déclaré Krueger. « Mais je pense que celle qui est historiquement la plus controversée est le risque d’extinction, en particulier par les systèmes d’IA qui deviennent incontrôlables. »
Donner votre avis
Des articles similaires
Barcelone frappée par la sécheresse étanche sa soif avec un dessalement coûteux
Environnement : La glace de l’Antarctique fond plus vite que jamais
Parmi les crânes recensés au musée de Paris, il y a 70 crânes de résistants de Zaâtcha