En direct
A suivre

IA : pourquoi cette technologie pourrait se révéler catastrophique, selon un ex-dirigeant de Google

L'IA dépasse déjà les performances humaines dans certains domaines, et les dépassera bientôt dans d'autres, selon des experts. [©Dado RUVIC/REUTERS]

L'intelligence artificielle menace l'humanité selon Mo Gawdat, ancien cadre supérieur de Google, dont les craintes sont partagées par un groupe d'experts comprenant de très grands chefs d'entreprise du secteur.

Une technologie source d'angoisses. A l'occasion d'une interview donnée au podcast «The Diary of a CEO», animé par Stephen Bartlett, Mo Gawdat a fait part de sérieuses craintes quant à l'émergence de l'intelligence artificielle (IA).

Selon cet ancien cadre supérieur de Google, l'IA pourrait en effet avoir des effets dévastateurs sur la société humaine.

Cet expert est rejoint en cela par un groupe d'autres savants qui, la semaine dernière, ont mis en garde contre un «risque d'extinction» de l'humanité, dans une lettre ouverte publiée sur le site du Center for AI Safety.

«C'est plus grand que le changement climatique»

Les craintes de Mo Gawdat sont d'autant plus légitimes que l'homme est connu pour avoir été l'un des pionniers en la matière.

Ayant été l'un des responsables de la division «moonshot» de Google X, une unité de recherche et de développement de produits futuristes, Mow Gowdat estime ainsi qu'«il y a une probabilité qu'il se produise quelque chose d'incroyablement perturbateur dans les deux prochaines années qui puisse affecter l'ensemble de la planète».

S'il ne sait pas encore exactement quelle forme prendra cette menace, elle constitue pourtant dit-il, un péril «plus grand encore que le changement climatique.»

Mo Gawdat a déclaré à Stephen Bartlett que ses inquiétudes immédiates comprennent, entre autres crises potentielles, l'apparition d'outils favorisant la cybercriminalité tels que les deepfakes ou une automatisation poussée à outrance synonyme de licenciements massifs.

Au regard de ses craintes, Mo Gawdat est donc très favorable à de plus fortes réglementations gouvernementales de la technologie. Parmi les pistes évoquées, une forte taxation, allant jusqu'à 98% de certaines applications, à même de ralentir le développement de l'intelligence artificielle et de prévoir suffisamment d'argent pour indemniser toutes les personnes qui seront affectées par l'IA.

Des humains dépassés sur tous les fronts ?

Ces inquiétudes sont partagées par certains leaders d'OpenAI, Google DeepMind, Anthropic et d'autres laboratoires du secteur, comme le mentionne la lettre ouverte publiée par le Center for AI Safety. La missive a été signée par plus de 350 dirigeants, chercheurs et ingénieurs travaillant dans le domaine de l'IA.

Parmi les signataires figurent les principaux dirigeants de trois des principales entreprises d'IA : Sam Altman, PDG d'OpenAI ; Demis Hassabis, PDG de Google DeepMind ; et Dario Amodei, PDG d'Anthropic.

Cette lettre ouverte met en garde contre la technologie de l'intelligence artificielle qu'ils sont en train de développer, qui pourrait un jour représenter une menace existentielle pour l'humanité et devrait être considérée comme un risque sociétal comparable aux pandémies et aux guerres nucléaires.

Si certains sont plus sceptiques et soutiennent que l'IA est encore trop immature pour constituer une menace existentielle, d'autres en revanche craignent que la technologie s'améliore si rapidement qu'elle dépassera les humains dans de nombreux domaines. 

Pour ces derniers, l'IA montre déjà des signes de capacités et de compréhension fulgurantes, à même d'aboutir à une «intelligence artificielle générale» (A.G.I.). En d'autres termes, un type d'intelligence artificielle capable d'égaler ou de dépasser les performances humaines dans une grande variété de tâches.

À suivre aussi

Ailleurs sur le web

Dernières actualités