Méthodologie

Cybersécurité : IA offensive vs. défensive

L’intelligence Artificielle peut être utilisée par les organisations pour se prémunir et réagir face aux menaces, mais aussi par les attaquants pour commettre leurs méfaits.
2 min

Si elle peut être vue comme un risque – une étude IBM réalisée en 2023 indiquait que près de la moitié des dirigeants interrogés craignaient que l’adoption de l’IA générative ne conduise à de nouveaux écueils en matière de sécurité -, c’est aussi une perspective pour le perfectionnement des outils de sécurité et l’automatisation de certaines tâches. 

Alors, en pratique, quels sont les usages potentiels de l’IA dans un contexte cyber ? Faisons le point. 
 

IA offensive : une évolution constante de la menace 

  • Aide à la génération de code ou de scripts malveillants 
  • Aide à la rédaction de messages de phishing, au clonage de voix ou deepfakes 
  • Aide au traitement de données volées 

IA défensive : anticipation et apprentissage pour rester à la pointe 

  • Automatisation de tests d’intrusion 
  • Aide à la rétroingénierie  
  • Classification et hiérarchisation automatisée de événements de sécurité 
  • Analyse des fichiers et des comportements malveillants  
  • Réponse automatisée aux menaces  
  • Apprentissage continu pour s’adapter et renforcer la sécurité 
     

L’IA apporte des gains de productivité à tous les étages, et elle aide pour le moment davantage les défenseurs que les attaquants. 
 
Les modèles généralistes largement répandus aujourd’hui, tels que ChatGPT, sont encore coûteux et manquent de la précision nécessaire pour accomplir des tâches cruciales en matière de cybersécurité.
 
Mais les modèles se spécialisent, deviennent plus petits et plus efficaces pour des tâches spécifiques… et le fine-tuning va continuer à se développer pour des applications cyber. 

Cybersecurity - AI - Offensive vs Defensive

Vous vous demandez comment nous utilisons concrètement
l’Intelligence Artificielle chez HarfangLab ? C’est par ici :