Actualités

L’ex-patron de Google compare l’intelligence artificielle à une bombe nucléaire

Au forum de la sécurité d’Aspen (Etats-Unis), Eric Schmidt, ex-patron de Google, a alerté sur les dangers de l’intelligence artificielle qu’il compare à l’arme nucléaire.

« Dans les années 50 et 60, nous avons finalement créé un monde où il y avait une règle de ‘sans surprise’ concernant les essais nucléaires. […] Il faut commencer à mettre en place un système dans lequel, parce que vous vous armez ou que vous vous préparez, vous déclenchez la même chose alors l’autre côté. Nous n’avons personne qui travaille là-dessus, et pourtant l’IA est si puissante ».

Voilà dans quels termes Eric Schmidt, ancien patron de Google, parle de l’intelligence artificielle. Selon lui, l’IA est aussi dangereuse dans nos sociétés modernes que l’était la bombe atomique dans les années 50. Il recommande donc aux puissances mondiales comme les États-Unis ou la Chine de trouver des accords. Il va même jusqu’à parler de traités de dissuasion comme il en existe aujourd’hui entre les pays détenteurs de l’arme nucléaire.

Encadrer l’intelligence artificielle

Grosso modo, ces traités sont nés des suites de la Seconde Guerre mondiale. Alors que les grandes puissances s’équipaient de bombes nucléaires comme armes de dissuasion, des accords ont été passés entre les Nations. Depuis, il est interdit d’effectuer des essais nucléaires sans prévenir les autres puissances étrangères.

Selon Eric Schmidt, les États devraient s’unir pour appliquer une politique similaire en matière d’intelligence artificielle. Il estime en effet que cette technologie peut, à l’avenir, représenter une vraie menace pour l’Humanité. Un point de vue partagé par Sundar Pichai qui déclarait en 2018 à Recode :

Les progrès de l’intelligence artificielle n’en sont encore qu’à leurs débuts, mais je considère qu’il s’agit de la technologie la plus profonde sur laquelle l’humanité travaillera et nous devons nous assurer que nous l’exploitons au profit de la société (…) Le feu tue aussi des gens. Nous avons appris à le contrôler pour le bien de l’humanité, mais nous avons aussi appris à en maîtriser les mauvais côtés.

Sundar Pichai à Recode, 2018.

Plutôt que d’attendre que les autorités s’en chargent, Eric Schmidt a donc pris (un peu) les choses en main. En février dernier, il créait le fonds AI2050. Réservé aux universitaires, il vise à financer « la recherche sur les ‘problèmes difficiles’ en matière d’intelligence artificielle ». Parmi ces « problèmes », les chercheurs se concentreront sur les biais de programmation des algorithmes, les dérives de la technologie ou encore les conflits géopolitiques. Un premier don de 125 millions de dollars permettra d’initier les recherches.

Source: Presse Citron

admin

Développeur webmaster mais aussi gérant de la société E-Dev Multimedia.

Actualités recentes

L’Europe face à une escalade des cyberattaques : Analyse du Security Navigator 2025

L'Europe face à une escalade des cyberattaques : Analyse du Security Navigator 2025 Dans un…

4 jours ago

Avancées et défis en cybersécurité : Bilan et perspectives pour 2025

Avancées et défis en cybersécurité : Bilan et perspectives pour 2025 L'avènement du numérique a…

4 jours ago

Guide 2025 des Meilleurs Logiciels de Conception Web

Choisir un logiciel de conception web adapté en 2025 peut sembler déroutant avec toutes les…

7 jours ago

Veille Quotidienne sur la Cybersécurité : Nouvelles Préoccupations et Enjeux du 5 Août 2025

Veille Quotidienne sur la Cybersécurité : Nouvelles Préoccupations et Enjeux du 5 Août 2025Les hackers…

2 semaines ago

Les 10 Tendances Révolutionnaires du E-commerce pour 2025

Les 10 Tendances Révolutionnaires du E-commerce pour 2025 À l'approche de 2025, le secteur du…

2 semaines ago

Tendances Web Design en 2025

L'exploration des tendances web design en 2025 révèle un futur où l'innovation, la personnalisation, l'accessibilité…

2 semaines ago