Actualités

L’ex-patron de Google compare l’intelligence artificielle à une bombe nucléaire

Au forum de la sécurité d’Aspen (Etats-Unis), Eric Schmidt, ex-patron de Google, a alerté sur les dangers de l’intelligence artificielle qu’il compare à l’arme nucléaire.

« Dans les années 50 et 60, nous avons finalement créé un monde où il y avait une règle de ‘sans surprise’ concernant les essais nucléaires. […] Il faut commencer à mettre en place un système dans lequel, parce que vous vous armez ou que vous vous préparez, vous déclenchez la même chose alors l’autre côté. Nous n’avons personne qui travaille là-dessus, et pourtant l’IA est si puissante ».

Voilà dans quels termes Eric Schmidt, ancien patron de Google, parle de l’intelligence artificielle. Selon lui, l’IA est aussi dangereuse dans nos sociétés modernes que l’était la bombe atomique dans les années 50. Il recommande donc aux puissances mondiales comme les États-Unis ou la Chine de trouver des accords. Il va même jusqu’à parler de traités de dissuasion comme il en existe aujourd’hui entre les pays détenteurs de l’arme nucléaire.

Encadrer l’intelligence artificielle

Grosso modo, ces traités sont nés des suites de la Seconde Guerre mondiale. Alors que les grandes puissances s’équipaient de bombes nucléaires comme armes de dissuasion, des accords ont été passés entre les Nations. Depuis, il est interdit d’effectuer des essais nucléaires sans prévenir les autres puissances étrangères.

Selon Eric Schmidt, les États devraient s’unir pour appliquer une politique similaire en matière d’intelligence artificielle. Il estime en effet que cette technologie peut, à l’avenir, représenter une vraie menace pour l’Humanité. Un point de vue partagé par Sundar Pichai qui déclarait en 2018 à Recode :

Les progrès de l’intelligence artificielle n’en sont encore qu’à leurs débuts, mais je considère qu’il s’agit de la technologie la plus profonde sur laquelle l’humanité travaillera et nous devons nous assurer que nous l’exploitons au profit de la société (…) Le feu tue aussi des gens. Nous avons appris à le contrôler pour le bien de l’humanité, mais nous avons aussi appris à en maîtriser les mauvais côtés.

Sundar Pichai à Recode, 2018.

Plutôt que d’attendre que les autorités s’en chargent, Eric Schmidt a donc pris (un peu) les choses en main. En février dernier, il créait le fonds AI2050. Réservé aux universitaires, il vise à financer « la recherche sur les ‘problèmes difficiles’ en matière d’intelligence artificielle ». Parmi ces « problèmes », les chercheurs se concentreront sur les biais de programmation des algorithmes, les dérives de la technologie ou encore les conflits géopolitiques. Un premier don de 125 millions de dollars permettra d’initier les recherches.

Source: Presse Citron

admin

Développeur webmaster mais aussi gérant de la société E-Dev Multimedia.

Actualités recentes

GPT-3: la puissance de l’IA au service du monde professionnel

Le Chat GPT-3 (Generative Pre-trained Transformer 3) est une plate-forme de traitement du langage naturel…

1 an ago

4 avantages indispensables d’avoir un site web en 2023

En tant que professionnel en Corse, vous savez certainement combien il est important de disposer…

1 an ago

Euro numérique : qu’est-ce que c’est?

A l’instar du passage des anciens aux nouveaux Francs qui s’était fait dans la douleur…

2 ans ago

Une refonte de Facebook est sur le point de révolutionner son réseau social

Facebook va multiplier par deux le nombre de publications recommandées à partir de comptes que…

2 ans ago

Pourquoi utiliser le drone dans sa communication digitale ?

De plus en plus d'entreprises commandent des drones et leurs pilotes télécommandés pour prendre des…

2 ans ago

« le Monde », « New York Times » et d’autres grands sites touchés par une panne mondiale

Plusieurs sites comme ceux de la BBC, du Guardian, de la Maison Blanche, du gouvernement…

3 ans ago