Au début de cette semaine, une initiative sans précédent a vu le jour, réunissant plus de 200 anciens chefs d’État, diplomates, lauréats du prix Nobel, leaders en IA, scientifiques et autres : tous unis par une cause commune – établir des lignes rouges que l’intelligence artificielle ne devrait jamais franchir. Parmi ces limites, l’interdiction pour l’IA de se faire passer pour un humain ou de se répliquer elle-même figure en tête de liste. Ces discussions s’inscrivent dans un contexte de progrès rapides de l’intelligence artificielle en 2025 qui amplifient autant les opportunités que les risques.
Parmi les figures notables ayant endossé l’initiative mondiale pour des lignes rouges à l’IA, on trouve des scientifiques et des experts de renom tels que le Canadien Geoffrey Hinton, cofondateur d’OpenAI Wojciech Zaremba, le CISO d’Anthropic Jason Clinton, et l’expert de Google DeepMind Ian Goodfellow. Ces experts, associés à plus de 70 organisations focalisées sur l’IA, plaident pour un accord politique international sur les interdictions absolues en matière d’IA d’ici fin 2026.
Charbel-Raphaël Segerie, directeur exécutif du Centre français pour la sécurité de l’IA (CeSIA), a souligné lors d’un point presse que l’objectif n’était pas de réagir après un incident majeur, mais bien de prévenir les risques potentiellement irréversibles avant qu’ils ne surviennent. “Si les nations ne peuvent s’accorder sur l’usage qu’elles souhaitent faire de l’IA, elles doivent au moins convenir de ce que l’IA ne doit absolument pas faire,” a-t-il ajouté. Cette approche rejoint l’impératif d’intégrer la cybersécurité dès la phase de conception des projets d’innovation.
L’annonce intervient juste avant la 80ème Assemblée générale des Nations Unies à New York, où l’initiative a été mise en avant par Maria Ressa, lauréate du prix Nobel de la paix, dans ses remarques d’ouverture, appelant à mettre fin à l’impunité des grandes technologies à travers une responsabilité mondiale. Un enjeu clé reste l’impact de la concentration du marché de l’IA sur la concurrence, qui complique la régulation des géants du numérique.
Alors que certaines lignes rouges régionales en matière d’IA existent déjà – comme l’Acte sur l’IA de l’Union Européenne qui interdit certaines utilisations de l’IA jugées inacceptables – un consensus global fait encore défaut. À terme, les engagements volontaires et les politiques de mise à l’échelle responsable au sein des entreprises d’IA s’avèrent insuffisants pour une véritable application, d’où la nécessité d’une institution globale indépendante pour définir, surveiller et faire respecter ces lignes rouges, selon Niki Iliadis, directeur de la gouvernance mondiale de l’IA à The Future Society. De même, les tendances 2025 en cybersécurité soulignent le rôle croissant des réglementations et de l’IA pour réduire les risques systémiques.
Stuart Russell, professeur d’informatique à l’UC Berkeley et éminent chercheur en IA, insiste sur la possibilité de concilier développement économique et innovation sans franchir les dangers d’une IA générale incontrôlable (AGI). “Vous pouvez avoir de l’IA pour le développement économique sans devoir accepter une AGI dont nous ne contrôlons pas les risques,” explique-t-il. Ce cadre ambitieux… Pour aller plus loin sur les approches de gestion des risques, consultez le bilan des avancées et défis en cybersécurité en 2025.
La nouvelle a secoué l'écosystème technologique : Block, la start-up de technologie financière dirigée par…
Gamevestor est une nouvelle plateforme de financement participatif qui permet aux joueurs d'investir directement dans…
L'intelligence artificielle continue de redéfinir les frontières de l'industrie technologique, et la cybersécurité est sa…
L'écosystème technologique européen est en pleine effervescence. La start-up britannique Ineffable Intelligence vient de pulvériser…
L'écosystème des cryptomonnaies franchit une nouvelle étape vers l'accessibilité grand public. Pour des millions de…
La scène technologique saoudienne, en pleine effervescence, vient de marquer un nouveau point stratégique. La…