L’ex-patron de Google compare l’intelligence artificielle à une bombe nucléaire

28Juil

Au forum de la sécurité d’Aspen (Etats-Unis), Eric Schmidt, ex-patron de Google, a alerté sur les dangers de l’intelligence artificielle qu’il compare à l’arme nucléaire.

« Dans les années 50 et 60, nous avons finalement créé un monde où il y avait une règle de ‘sans surprise’ concernant les essais nucléaires. […] Il faut commencer à mettre en place un système dans lequel, parce que vous vous armez ou que vous vous préparez, vous déclenchez la même chose alors l’autre côté. Nous n’avons personne qui travaille là-dessus, et pourtant l’IA est si puissante ».

Voilà dans quels termes Eric Schmidt, ancien patron de Google, parle de l’intelligence artificielle. Selon lui, l’IA est aussi dangereuse dans nos sociétés modernes que l’était la bombe atomique dans les années 50. Il recommande donc aux puissances mondiales comme les États-Unis ou la Chine de trouver des accords. Il va même jusqu’à parler de traités de dissuasion comme il en existe aujourd’hui entre les pays détenteurs de l’arme nucléaire.

Encadrer l’intelligence artificielle

Grosso modo, ces traités sont nés des suites de la Seconde Guerre mondiale. Alors que les grandes puissances s’équipaient de bombes nucléaires comme armes de dissuasion, des accords ont été passés entre les Nations. Depuis, il est interdit d’effectuer des essais nucléaires sans prévenir les autres puissances étrangères.

Selon Eric Schmidt, les États devraient s’unir pour appliquer une politique similaire en matière d’intelligence artificielle. Il estime en effet que cette technologie peut, à l’avenir, représenter une vraie menace pour l’Humanité. Un point de vue partagé par Sundar Pichai qui déclarait en 2018 à Recode :

Les progrès de l’intelligence artificielle n’en sont encore qu’à leurs débuts, mais je considère qu’il s’agit de la technologie la plus profonde sur laquelle l’humanité travaillera et nous devons nous assurer que nous l’exploitons au profit de la société (…) Le feu tue aussi des gens. Nous avons appris à le contrôler pour le bien de l’humanité, mais nous avons aussi appris à en maîtriser les mauvais côtés.

Sundar Pichai à Recode, 2018.

Plutôt que d’attendre que les autorités s’en chargent, Eric Schmidt a donc pris (un peu) les choses en main. En février dernier, il créait le fonds AI2050. Réservé aux universitaires, il vise à financer « la recherche sur les ‘problèmes difficiles’ en matière d’intelligence artificielle ». Parmi ces « problèmes », les chercheurs se concentreront sur les biais de programmation des algorithmes, les dérives de la technologie ou encore les conflits géopolitiques. Un premier don de 125 millions de dollars permettra d’initier les recherches.

Source: Presse Citron

Tags:

Dernières actualités

septembre 20th, 2022 08:52

Copyright © 2021 - 2030 Tous droits Réservés. Agence web Corse : E-Dev Multimedia.