
L'édition 2026 du rapport international sur la sécurité de l'IA fait état de changements rapides et de risques émergents
News provided by
Bureau du président du Rapport international sur la sécurité de l'IAFeb 03, 2026, 10:46 ET
MONTRÉAL, 3 février 2026 /PRNewswire/ -- Le rapport international de 2026 sur la sécurité de l'IA est publié aujourd'hui. Il fournit une évaluation actualisée, partagée à l'échelle internationale et fondée sur des données scientifiques des capacités de l'IA à usage général, des risques émergents et de l'état actuel de la gestion des risques et des mesures de protection.
Présidée par Yoshua Bengio, lauréat du prix Turing, cette deuxième édition du rapport international sur la sécurité de l'IA rassemble plus de 100 experts internationaux et bénéficie du soutien d'un comité consultatif d'experts composé de représentants de plus de 30 pays et organisations internationales, dont l'UE, l'OCDE et les Nations unies. Les conclusions du rapport alimenteront les discussions lors du sommet sur l'impact de l'IA organisé par l'Inde à la fin du mois.
Les points clés du rapport sont les suivants :
- Les capacités générales de l'IA ont continué à s'améliorer rapidement, en particulier dans les domaines des mathématiques, du codage et des opérations autonomes. En 2025, les principaux systèmes d'IA ont obtenu la médaille d'or aux Olympiades internationales de mathématiques, ont dépassé les performances d'experts de niveau doctorat dans les tests de référence scientifiques et sont devenus capables d'accomplir de manière autonome certaines tâches d'ingénierie logicielle qui prendraient plusieurs heures à un programmeur humain. Les performances restent néanmoins « irrégulières », les systèmes échouant encore à effectuer certaines tâches apparemment simples.
- L'adoption de l'IA a été rapide, bien qu'inégale au niveau international. L'IA a été adoptée plus rapidement que des technologies antérieures telles que l'ordinateur personnel, avec au moins 700 millions de personnes qui utilisent aujourd'hui des systèmes d'IA de pointe chaque semaine. Dans certains pays, plus de la moitié de la population utilise l'IA, mais dans une grande partie de l'Afrique, de l'Asie et de l'Amérique latine, les taux d'adoption estimés restent inférieurs à 10 %.
- Les incidents liés aux deepfakes sont en augmentation. Les deepfakes d'IA sont de plus en plus utilisés pour la fraude et l'escroquerie. Les images intimes non consensuelles générées par l'IA, qui touchent de manière disproportionnée les femmes et les jeunes filles, sont également de plus en plus courantes. Par exemple, une étude a révélé que 19 des 20 applications « nudify » les plus populaires se spécialisent dans la simulation du déshabillage des femmes.
- Les inquiétudes relatives à l'utilisation abusive de produits biologiques ont conduit à renforcer les mesures de protection pour certains des principaux modèles. En 2025, plusieurs entreprises spécialisées dans l'IA ont mis sur le marché de nouveaux modèles assortis de mesures de protection renforcées, après que les tests de pré-déploiement n'ont pas permis d'exclure la possibilité que les systèmes puissent aider de manière significative des novices à mettre au point des armes biologiques.
- Les acteurs malveillants, tels que les criminels, utilisent activement l'IA à usage général dans les cyberattaques. Les systèmes d'IA peuvent générer du code nuisible et découvrir des vulnérabilités dans les logiciels que les criminels peuvent exploiter. En 2025, un agent d'IA s'est classé parmi les 5 % d'équipes les plus performantes lors d'un grand concours de cybersécurité. Les marchés clandestins vendent désormais des outils d'intelligence artificielle prêts à l'emploi qui abaissent le seuil de compétence pour les attaques.
- De nombreuses mesures de protection s'améliorent, mais les techniques actuelles de gestion des risques restent faillibles. Si certains types de défaillances, comme les « hallucinations », sont devenus moins fréquents, certains modèles sont désormais capables de faire la distinction entre les contextes d'évaluation et de déploiement et peuvent modifier leur comportement en conséquence, ce qui crée de nouveaux problèmes en matière d'évaluation et de tests de sécurité.
Le président du rapport, Yoshua Bengio, professeur titulaire à l'Université de Montréal, directeur scientifique de LawZero et conseiller scientifique de Mila - Institut québécois de l'IA, a déclaré :
« Depuis la publication du premier rapport international sur la sécurité de l'IA il y a un an, nous avons constaté des progrès considérables dans les capacités des modèles, mais aussi dans leurs risques, et l'écart entre le rythme du progrès technologique et notre capacité à mettre en œuvre des mesures de protection efficaces demeure un problème majeur. Le rapport vise à fournir aux décideurs les données rigoureuses nécessaires pour orienter l'IA vers un avenir sûr, sécurisé et bénéfique pour tous. Avec cette deuxième édition, nous mettons à jour et renforçons notre compréhension commune, fondée sur la science, de l'évolution rapide de l'IA d'avant-garde à l'échelle mondiale. »
Le ministre britannique de l'intelligence artificielle, Kanishka Narayan, a déclaré :
« La confiance dans l'IA est essentielle pour révéler tout son potentiel. C'est une technologie qui permettra d'améliorer les services publics, de créer de nouvelles opportunités d'emploi et de réaliser des innovations qui changeront des vies. Mais nous sommes également déterminés à assurer la sécurité des personnes au fur et à mesure que cette technologie se développe. Le développement responsable de l'IA est une priorité commune, et ce n'est qu'en travaillant ensemble que nous pourrons façonner son avenir et apporter des changements positifs. C'est exactement ce que ce rapport nous aide à faire, en réunissant des experts du monde entier pour nous assurer que nous disposons d'une base de données scientifiques solide pour prendre aujourd'hui les bonnes décisions, qui jetteront les bases d'un avenir plus radieux et plus sûr. »
À propos du rapport international sur la sécurité de l'IA
Le rapport international sur la sécurité de l'IA est une synthèse des données relatives aux capacités et aux risques des systèmes d'IA avancés. Il est conçu pour soutenir l'élaboration de politiques éclairées à l'échelle mondiale en fournissant une base de données aux décideurs. Présidé par le professeur Yoshua Bengio et rédigé par un groupe diversifié de plus de 100 experts indépendants, le rapport est soutenu par un groupe consultatif d'experts composé de représentants désignés de plus de 30 pays et d'organisations internationales, dont l'UE, l'OCDE et les Nations unies. Tout en reconnaissant les immenses avantages potentiels de l'IA, le rapport met l'accent sur l'identification des risques et l'évaluation des stratégies d'atténuation afin de garantir que l'IA soit développée et utilisée en toute sécurité pour le bénéfice de tous. Le rapport a été commandé par le gouvernement britannique et le secrétariat a été confié à l'Institut de sécurité de l'IA du Royaume-Uni pour fournir un soutien opérationnel.
Share this article