Delinea : Perspectives 2026

Delinea : Perspectives 2026

L’année 2026 marque l’avènement d’une société où l’Intelligence Artificielle redéfinit fondamentalement la cybersécurité. D’une part, elle agit comme un catalyseur de puissance géopolitique. D’autre part, l’adoption rapide et souvent non encadrée de ces outils au sein des entreprises laisse la porte ouverte à de nouvelles vulnérabilités. Face à l’évolution rapide de ces menaces, capables de surpasser la détection humaine, la sécurité axée sur l’identité devient un impératif stratégique.

Art Gilliland (PDG), Phil Calvin (CPO), Gal Diskin (VP, Menaces d’identité et recherche), Pierre Mouallem (RSSI), et Spence Young, (SVP International) nous donnent leurs perspectives pour l’année à venir.

L’IA comme allié des petits États-nations: des cyberpuissances en devenir? – Art Gilliland, PDG

L’IA facilitant l’exécution de cyberattaques sophistiquées, certains états pourraient devenir plus présents dans le cyberespace géopolitique. L’Ukraine nous a déjà donné un aperçu de ce à quoi cela pourrait ressembler : une plus petite puissance disposant de ressources matérielles moins importantes, capable d’infliger des dommages importants à une plus grande puissance, en ciblant ses infrastructures critiques à distance et ce, à l’aide de tactiques de guerre informatique avancées.
Les petites puissances et les groupes agissant par procuration (proxy groups) pourraient bientôt instrumentaliser des identifiants volés, des identités de synthèse et des deepfakes pour mener des guerres d’influence asymétriques et des attaques sur l’identité. En offrant un accès facile à des capacités d’attaque de pointe aux pays et organisations disposant de peu de ressources, l’IA va, en substance, rebattre les cartes et équilibrer le rapport de force.

L’IA fantôme à l’origine de violations de données massives en 2026 – Art Gilliland, PDG

Certaines des cyberattaques majeures de 2026 devraient être le résultat d’une utilisation non contrôlée de l’IA fantôme (Shadow AI). De nombreux dirigeants poussent leurs organisations à adopter l’IA pour stimuler productivité et innovation. Par conséquent, presque toutes les entreprises adoptent l’IA, élargissant ainsi la surface d’attaque. Une grande partie de cette utilisation de l’IA, bien qu’approuvée, reste non réglementée : 56 % des organisations sont confrontées à des problèmes liés à l’IA fantôme au moins une fois par mois. La gouvernance de l’IA est encore à la traîne par rapport à son taux d’adoption. Les acteurs malveillants profitent déjà de cette lacune pour accéder aux organisations par le biais de ces surfaces d’attaque IA non gérées.
Ces outils non gérés stockent ou transmettent souvent des clés API, des jetons de service et des accès privilégiés, transformant l’IA fantôme en un risque direct pour la sécurité des identités. Il est fort probable que certaines des violations les plus médiatisées de l’année soient la conséquence d’une utilisation des outils d’IA non gérés par les collaborateurs, même s’il s’agit d’outils et de cas d’usage approuvés, dès lors que ces agents IA ne sont pas correctement sécurisés.

L’identité dans la cyberdéfense : quand sécurité des entreprises rime avec sécurité nationale – Art Gilliland, PDG

À mesure que les attaques commanditées par des États s’intensifient, la frontière entre cybersécurité des entreprises et défense nationale devrait continuer de s’estomper. Les gouvernements reconnaissent que le contrôle des identités et des accès privilégiés est fondamental pour la résilience nationale. Ils renforcent la collaboration entre les secteurs public et privé afin de consolider la gouvernance des identités machines, la responsabilité de l’IA et l’adoption du modèle « zero trust » dans les infrastructures critiques. La cyber-résilience devrait dépasser le cadre de la conformité pour devenir un impératif stratégique. Cela permettra de stimuler les investissements pour développer des cadres de sécurité centrés sur les identités, qu’elles soient humaines, machines ou relevant de l’IA.

La prolifération des identités machines atteint un point critique – Phil Calvin, CPO

Les identités machines, des charges de travail (workloads) et comptes de service jusqu’aux équipements IoT, sont désormais largement plus nombreuses que les identités humaines au sein des entreprises. La plupart opèrent de manière invisible tout en disposant de droits excessifs. Elles constituent déjà la principale source d’abus de privilèges, entraînant la nécessité d’étendre le périmètre de détection des menaces aux comptes non-humains. L’IA et l’IoT entraînent une prolifération rapide des identités machines, dépassant la capacité des organisations à les gérer. Ce manque de contrôle crée des failles de sécurité majeures, exploitables par les cybercriminels pour cibler des identités numériques non gérées, ou oubliées. En 2026, les équipes de cybersécurité seront contraintes de faire face à la réalité : la sécurité axée sur l’identité (Identity-First Security) ne peut plus se limiter à l’humain.

Gouvernance de l’IA et des systèmes automatisés : un encadrement à renforcer – Pierre Mouallem, RSSI

Les régulateurs mondiaux devront aller au-delà de la confidentialité des données et de l’identité humaine pour imposer la responsabilité des identités machines et de l’IA. À mesure que les entreprises s’appuient sur des agents IA, elles devront se soumettre à une surveillance accrue quant aux autorisations, contrôles et audits associés. Les réglementations telles que la loi SOX, le Corporate Governance Code britannique et l’AI Act européen, ainsi que les normes en constante évolution du NIST et de l’ISO, devraient à l’avenir couvrir la gestion des identités machines et la transparence décisionnelle de l’IA. Les RSSI devront démontrer qu’ils exercent un contrôle vérifiable sur le comportement et les résultats de l’IA, élevant ainsi la gouvernance des machines au rang de responsabilité du conseil d’administration, avec un impact direct sur l’intégrité financière, le risque opérationnel et la responsabilité de l’entreprise.

Une adoption de l’IA encouragée par les CISO – Pierre Mouallem, RSSI

En 2026, les CISO et les équipes de sécurité deviendront des champions de l’IA. En 2025, ils ont adopté l’IA avec prudence : ils en percevaient la valeur, mais beaucoup se méfiaient encore des risques associés. Ils ne souhaitaient pas que les fournisseurs activent automatiquement l’IA dans leurs environnements et préféraient garder un œil attentif sur le sujet, ce qui est moins le cas désormais. Les CISO ont constaté par eux-mêmes qu’un soutien rapide aux technologies émergentes est essentiel au succès commercial des entreprises et à une sécurité efficace.

En 2026, nous devrions observer des CISO plus confiants, à mesure qu’ils deviendront plus compétents dans l’utilisation de l’IA en termes de cybersécurité. Cependant, intégrer l’IA signifie qu’ils vont également devoir l’encadrer et la sécuriser. Chaque agent d’IA ou script d’automatisation deviendra une nouvelle identité à protéger.

 

La détection humaine surpassée par les cyberattaques AI-natives – Gal Diskin, VP, Identity Threat & Research

Alors que l’intelligence artificielle devient pleinement intégrée dans les cyberattaques, 2026 marquera un tournant: ce devrait être la première année où les attaques générées par l’IA dépasseront systématiquement la détection et la réponse humaines. Les attaquants ne se contenteront plus d’utiliser l’IA pour faciliter leurs campagnes, ils concevront des attaques AI-natives : des chaînes d’exploitation dynamiques et auto-apprenantes qui évolueront en temps réel, s’ajusteront aux défenses mises en place et s’exécuteront à la vitesse de la machine. Par conséquent, les organisations vont devoir toujours plus s’appuyer sur de l’IA défensive, non seulement en ce qui concerne l’analyse, mais aussi l’automatisation des réponses défensives et la validation continue des identités.

 

Quand les identités synthétiques brouillent les frontières entre l’homme et la machine – Gal Diskin, VP, Identity Threat & Research

Ce qui était à l’origine une fraude financière se transforme aujourd’hui en une menace multidomaine. Les cybercriminels créent de faux employés, fournisseurs et partenaires à l’aide de l’IA. Ils leur créent des profils sur les réseaux sociaux, des documents RH et des références vérifiables, l’idée étant d’infiltrer les organisations et les chaînes d’approvisionnement. Ces identités peuvent passer au travers de nombreuses formes de vérification classiques, permettant aux attaquants d’obtenir des accès, d’établir une certaine confiance et d’agir avant d’être détectés. Dans ce contexte, il sera essentiel de surveiller les fausses identités (personas) créées par l’IA, les fraudes d’identités hybrides, l’espionnage via influence synthétique, ainsi que les validations assistées par deepfakes.

IA agentique: une amplification des risques liés aux fournisseurs, et une implication accrue des directeurs financiers (CFO) en termes de cybersécurité – Stephanie Reiter, CFO

En 2026, les directeurs financiers (DAF) devraient être plus impliqués pour évaluer l’influence de l’IA sur la résilience opérationnelle et celle des fournisseurs. Ces décideurs de la finance vont désormais devoir collaborer avec les RSSI pour modéliser le risque de manière plus dynamique, en intégrant de l’IA dans l’analyse de l’exposition aux risques au sein de l’entreprise. Cette évolution devrait pousser les directeurs financiers à quantifier la cyber-résilience en termes financiers, c’est-à-dire en termes de retours sur investissement (ROI) mesurables, notamment via des indicateurs comme la réduction des temps d’arrêt, un retour à la normale plus rapide et des coûts d’assurance plus prévisibles. Alors que la gouvernance de l’IA devient une priorité au niveau du conseil d’administration, les directeurs financiers devraient être à la croisée entre responsabilité financière et maturité cyber, transformant ainsi la résilience en un indicateur clé de performance commerciale.

 

Déploiement mondial de l’identité numérique: une nouvelle ère pour la sécurité des identités – Spence Young, SVP International

Le portefeuille d’identité numérique de l’UE(EUDI Wallet), le Digital AI Bill australien, le SingPass 3.0 de Singapour et les initiatives britanniques en faveur d’identités numériques garanties par l’État devraient redéfinir les attentes en matière de vérification et de confidentialité en ligne.

À mesure que les systèmes nationaux d’identité numérique mûrissent, les entreprises seront soumises à une pression croissante pour se mettre en conformité et assurer une certaine interopérabilité. Ces modèles établiront une norme mondiale que d’autres pays suivront.

Avec l’arrivée de ce système d’identité centralisé, les organisations vont devoir gérer de manière plus ciblée les accès privilégiés de tous les utilisateurs, aussi bien humains que machines, et ce, de manière plus ciblée.

CATEGORIES