5min

Intelligence artificielle et cybersécurité : les prédictions de nos experts pour 2026

La guerre informationnelle aura marqué 2025. Manipulation et désinformation font partie des pratiques des dirigeants de grandes puissances mondiales, et l’intelligence artificielle est pleinement intégré à leur arsenal de communication. Distinguer le vrai du faux devient de plus en plus complexe.

Outre les images, les vidéos et les audio, les LLM (Large Language Models) font aussi l’objet d’attaques par empoisonnement des données d’entraînement en vue d’orienter ou fausser les réponses.

Pourtant, “la confiance envers les outils du champ de l'IA ne peut qu'être le résultat de garanties technologiques, de mesures de transparence, de règles claires, de contrôles indépendants et de débats ouverts impliquant l'ensemble de la société. Si un seul de ces piliers manque, les discrètes vulnérabilités d'hier deviendront sans doute les risques systémiques de demain”, comme le souligne Pierre Delcher, Head of Threat Research chez HarfangLab.

Quid des enjeux de l’IA en 2026, et plus précisément dans la cyber où elle est déjà omniprésente, aussi bien côté attaque que défense ? Quels pourraient être les usages à venir et les perspectives de développement pour les éditeurs de solutions de sécurité ? Nous avons posé la question à notre équipe IA.

L’empoisonnement des infos et des données 

Sans surprise, la manipulation des informations à l’aide de l’intelligence artificielle générative restera de mise en 2026, et celle des LLM également. Des études de Palo Alto Networks et Pillar Security ont déjà rapporté des attaques visant le code généré par des LLM en 2025, faisant des agents IA les complices malveillants d’attaques qui reposent sur l’injection de code malveillant et l’exploitation des vulnérabilités qui en découlent. Ces pratiques sont amenées à se poursuivre et à augmenter pour l’année à venir.

Des arnaques de plus en plus crédibles   

L’IA rend facilite l’industrialisation et la personnalisation des attaques, notamment par phishing (par e-mail), par smishing (par SMS) ou encore par vishing (messages ou appels vocaux) - les variantes sont nombreuses.

Les technologies continuent de se perfectionner pour créer des deep fakes qui semblent de plus en plus vrais, et pour les diffuser en toujours plus grand nombre. En somme, les tentatives d’arnaque en ligne vont également se poursuivre et se perfectionner en 2026.

Le développement de malwares pour tous, et des attaques par IA agentique

L'intelligence artificielle permet à des attaquants aussi peu scrupuleux qu’expérimentés de développer des outils pour mener leurs actions, à l’image du groupe ransomware Funksec. La tendance devrait se poursuivre.

Au-delà du cybercrime, les attaques sophistiquées pourraient aussi être amenées à se développer. En 2025, la première campagne de cyber espionnage rapportée comme étant 100% orchestrée par l’IA, aura probablement donné le ton.

L’explosion des “Non Human Identity Attacks” 

Les identités non humaines  telles que les clés API, tokens et agents IA, dépasseront de loin en nombre les identités humaines en 2026. Des agents IA autonomes seront en mesure de générer leurs propres identités et s’auto-attribueront des privilèges. De ce fait, les équipes de sécurité devront faire la chasse aux accès qu’elles n’ont pas créés, ce qui rendra les investigations pour attribuer l’origine des attaques encore plus complexes.

“Compte tenu de nos observations en ce qui concerne l’utilisation d’outils d’intelligence artificielle, l’année 2026 ne devrait pas marquer de rupture : l’IA sera toujours omniprésente dans la cybersécurité, tant côté menaces que côté défense. 

Néanmoins, la mise en application de l’AI Act l’été prochain ajoutera un volet conformité important pour toutes les organisations développant, ou utilisant de l’IA. Il s’agira alors de s’assurer que les modèles d’IA existants respectent l’éthique imposée par l’IA Act. C’est notre rôle à nous également, en tant qu’éditeur, de garantir à la fois la transparence des modèles, la précision des cas d’usages et la sensibilisation des utilisateurs.” 

 Hugo Michard, Lead IA chez HarfangLab


Après avoir abordé les tendances en matière d’attaque, voyons ce qui se profile du côté de la défense en matière d’IA.

Automatisations et assistance avancée par l’IA 

Comme nous l’avons vu, l’intelligence artificielle offre la possibilité d’accélérer les procédés, notamment en automatisant un certain nombre d’actions. C’est valable pour les attaquants, mais aussi pour se défendre !

L’intelligence artificielle est vouée à devenir un véritable assistant pour les analystes, autant pour détecter les menaces – comme c’est déjà le cas depuis plusieurs années avec des moteurs de détection intégrant l’IA pour identifier les menaces inconnues - que pour y répondre.

En effet, alors que la menace se diversifie et s’intensifie, comprendre et limiter le nombre d’alertes à traiter devient une priorité. Les éditeurs seront donc amenés à poursuivre le perfectionnement de leurs copilotes IA pour inclure :

  • La génération de playbooks
  • La recherche au sein de la console
  • La traduction de règles en langage naturel
  • L’aide au triage, à la priorisation et l’automatisation des tâches en réponse aux incidents
  • La traduction et le résumé de campagnes d’attaques et de vulnérabilités en langage naturel
  • La corrélation des sources pour faciliter l’investigation...

Découvrez les applications de l’intelligence sur notre plateforme
et comment elle augmente concrètement les performances des équipes de sécurité :