{"id":14597,"date":"2024-11-01T02:57:51","date_gmt":"2024-11-01T01:57:51","guid":{"rendered":"https:\/\/www.quieryavenir.fr\/blog\/?p=14597"},"modified":"2024-10-30T14:06:56","modified_gmt":"2024-10-30T13:06:56","slug":"intelligence-artificielle-vue-par-charlie","status":"publish","type":"post","link":"https:\/\/www.quieryavenir.fr\/blog\/2024\/11\/01\/intelligence-artificielle-vue-par-charlie\/","title":{"rendered":"Intelligence Artificielle vue par Charlie"},"content":{"rendered":"<p style=\"text-align: justify;\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-14588 aligncenter\" src=\"https:\/\/www.quieryavenir.fr\/blog\/wp-content\/uploads\/2024\/10\/Gaza-zt-Cisjordanie-1-214x300.jpg\" alt=\"\" width=\"363\" height=\"509\" srcset=\"https:\/\/www.quieryavenir.fr\/blog\/wp-content\/uploads\/2024\/10\/Gaza-zt-Cisjordanie-1-214x300.jpg 214w, https:\/\/www.quieryavenir.fr\/blog\/wp-content\/uploads\/2024\/10\/Gaza-zt-Cisjordanie-1.jpg 592w\" sizes=\"auto, (max-width: 363px) 100vw, 363px\" \/><\/p>\n<p style=\"text-align: justify;\">Un danger pour l\u2019humanit\u00e9 d\u00e9nonc\u00e9 par des Nobel<\/p>\n<p><!--more--><\/p>\n<p style=\"text-align: justify;\">Ce n\u2019est absolument pas banal. Voici des laur\u00e9ats du prix Nobel qui d\u00e9noncent les dangers de leurs propres d\u00e9couvertes\u00a0!<\/p>\n<p style=\"text-align: justify;\">Je coirs m\u00eame que c\u2019est une premi\u00e8re. Le 8 octobre le Nobel de physique 2024 a \u00e9t\u00e9 d\u00e9cern\u00e9 \u00e0 l\u2019Am\u00e9ricain John Hopfield et au Britanno-Canadien Geoffrey Hinton pour leurs travaux sur \u00ab\u00a0l\u2019apprentissage automatique avec des r\u00e9seaux de neurones artificiels\u00a0\u00bb. Des travaux qui ont, notamment, men\u00e9 au d\u00e9veloppement de l\u2019intelligence artificielle (IA).<\/p>\n<p style=\"text-align: justify;\">En g\u00e9n\u00e9ral, les laur\u00e9ats exultent, et on les comprend. Or, d\u00e8s leur cons\u00e9cration, John Hopfield et Geoffrey Hinton donnent plut\u00f4t de cracher dans la soupe. Le premier a d\u00e9clar\u00e9\u00a0: <em>\u00ab En tant que physicien, je suis tr\u00e8s troubl\u00e9 par quelque chose qui n\u2019est pas contr\u00f4l\u00e9, quelque chose que je ne comprends pas assez bien pour savoir quelles sont les limites que l\u2019on peut imposer<\/em>\u00a0\u00bb. Et le second\u00a0: \u00ab\u00a0<em>Je crains que la cons\u00e9quence globale de tout cela ne soit des syst\u00e8mes plus intelligents que nous, qui finissent par prendre le contr\u00f4le<\/em>\u00a0\u00bb. Geoffrey Hinton a tout de m\u00eame boss\u00e9 une dizaine d\u2019ann\u00e9es chez Google, mais il a d\u00e9missionn\u00e9 en mai 2023 pour, dit-il, <em>\u00ab\u00a0pouvoir alerter sur les dangers de l\u2019IA<\/em>\u00a0\u00bb. Ce qu\u2019il a effectivement fait, notamment dans un article du <em>New York Times<\/em>, o\u00f9 il d\u00e9non\u00e7ait les \u00ab\u00a0<em>profonds risques pour la soci\u00e9t\u00e9 et l\u2019humanit\u00e9<\/em>\u00a0\u00bb, dus \u00e0 l\u2019IA\u00a0: suppressions d\u2019emplois, robots meurtriers, utilisation par des acteurs malveillants, et m\u00eame \u00ab<em>\u00a0g\u00e9n\u00e9rateurs de conneries<\/em>\u00a0\u00bb, en rendant quasiment impossible \u00ab\u00a0<em>la capacit\u00e9 \u00e0 discerner ce qui est vrai de ce qui ne l\u2019est plus<\/em>\u00a0\u00bb\u2026<\/p>\n<p style=\"text-align: justify;\">Ce n\u2019est pas la premi\u00e8re fois que des scientifiques \u00e0 la pointe de l\u2019IA alertent sur ses dangers. Entre autres, il y a eu cette d\u00e9claration, le 30 mai 2023, sign\u00e9e par 350 personnalit\u00e9s du secteur, dont Sam Altman, cr\u00e9ateur de ChatGPT, et Demis Hassabis, directeur de Google DeepMind\u00a0: \u00ab Limiter<em> les risques d\u2019extinction<\/em> [de l\u2019humanit\u00e9] <em>pos\u00e9s par l\u2019IA devrait \u00eatre une priorit\u00e9 mondiale, aux c\u00f4t\u00e9s d\u2019autres risques de grande ampleur comme les pand\u00e9mies ou la guerre nucl\u00e9aire<\/em>\u00a0\u00bb. On peut \u00e9videmment se demander quelle est la part d\u2019hypocrisie dans ce genre de discours (surtout quand on sait qu\u2019Elon Musk lui-m\u00eame s\u2019est fendu d\u2019un couplet alarmiste sur l\u2019IA, alors qu\u2019il en est l\u2019un des principaux propagateurs).<br \/>\nQuoiqu\u2019il en soit, les craintes de John Hopfield et de Geoffrey Hinton ne sont pas des paroles en l\u2019air. En th\u00e9orie, le prix Nobel est d\u00e9cern\u00e9 aux chercheurs \u00ab\u00a0<em>ayant apport\u00e9 le plus grand b\u00e9n\u00e9fice \u00e0 l\u2019humanit\u00e9<\/em>\u00a0\u00bb. Quand des laur\u00e9ats eux-m\u00eames s\u2019inqui\u00e8tent des dangers de leurs travaux, la moindre des choses serait de les \u00e9couter. Pendant la seconde moiti\u00e9 du XX<sup>\u00e8<\/sup> si\u00e8cle, c\u2019\u00e9tait la bombe atomique qui incarnait les d\u00e9rives les plus meurtri\u00e8res de la science. Le risque nucl\u00e9aire n\u2019a \u00e9videmment pas disparu, mais l\u2019IA pourrait \u00eatre tout aussi toxique, quoique de fa\u00e7on plus sournoise, puisque ses dangers sont masqu\u00e9s par les services qu\u2019elle rend au quotidien. Les scientifiques s\u2019en alarment, pendant que les politiques s\u2019en foutent.<\/p>\n<p style=\"text-align: justify;\">Antonio Fischetti\u00a0; Charlie Hebdo<\/p>\n<p style=\"text-align: justify;\">\n","protected":false},"excerpt":{"rendered":"<p>Un danger pour l\u2019humanit\u00e9 d\u00e9nonc\u00e9 par des Nobel<\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-14597","post","type-post","status-publish","format-standard","hentry","category-non-classe"],"_links":{"self":[{"href":"https:\/\/www.quieryavenir.fr\/blog\/wp-json\/wp\/v2\/posts\/14597","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.quieryavenir.fr\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.quieryavenir.fr\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.quieryavenir.fr\/blog\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.quieryavenir.fr\/blog\/wp-json\/wp\/v2\/comments?post=14597"}],"version-history":[{"count":2,"href":"https:\/\/www.quieryavenir.fr\/blog\/wp-json\/wp\/v2\/posts\/14597\/revisions"}],"predecessor-version":[{"id":14601,"href":"https:\/\/www.quieryavenir.fr\/blog\/wp-json\/wp\/v2\/posts\/14597\/revisions\/14601"}],"wp:attachment":[{"href":"https:\/\/www.quieryavenir.fr\/blog\/wp-json\/wp\/v2\/media?parent=14597"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.quieryavenir.fr\/blog\/wp-json\/wp\/v2\/categories?post=14597"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.quieryavenir.fr\/blog\/wp-json\/wp\/v2\/tags?post=14597"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}