5min

IA et cybersécurité : menaces, ripostes et perspectives

IA et sécurité sont amenées à se rencontrer pour le meilleur et pour le pire : les cybercriminels s’en servent pour attaquer plus vite, plus fort et différemment, et l’IA est aussi utilisée pour faire progresser la protection contre les menaces et les usages des experts cyber.

Dans cet épisode de L’innovation décryptée consacré aux interconnexions entre IA et cybersécurité, Gérôme Billois reçoit Guillaume Ruty, Chief Product Officer de HarfangLab, et Paul-Arthur Joinville, CEO de Mindflow.  
Résumé, et lumière sur l’IA en cybersécurité ainsi que sur son intégration dans la plateforme d’HarfangLab. 

 

Des deux côtés du bouclier cyber : l’IA pour attaquer et pour défendre 

L’Intelligence Artificielle fait partie de notre vie numérique sur le plan privé comme professionnel. Les attaquants s’en sont saisis pour développer des deepfakes ou encore industrialiser des campagnes de phishing. Dorénavant, elle joue aussi un rôle clé en matière de cyberdéfense afin de mieux détecter les menaces et automatiser les réponses. 

L’IA prédictive permet notamment de découvrir de nouvelles menaces, et l’IA générative permet quant à elle d'accélérer l’usage des outils de détection et de remédiation. 

Et concrètement, comment HarfangLab tire parti de l’IA pour protéger un espace de travail ? 

 

Workspace Security : l’IA pour protéger les endpoints 

Pour assurer la protection des postes de travail et des serveurs, une solution de cybersécurité telle que l’EDR d’HarfangLab détecte les signatures mais aussi les comportements.  
C’est-à-dire qu’il peut détecter des menaces d’une part sur la base d’heuristiques, autrement dit des règles de détection qui visent à identifier des menaces (code, fichier malveillant…) ; et il peut aussi alerter sur des comportements suspects.  
Et quel est le rôle de l’IA dans tout ça ? 

Comme le précise Guillaume Ruty : “Grâce à l’IA, l’EDR peut détecter des menaces inconnues [des bases de données de virus et des règles configurées dans la solution]. En pratique, l’industrie de la cyber utilise des algorithmes d’IA prédictive depuis une dizaine d’années pour évaluer si un logiciel ou un fichier est malveillant. L'IA prédictive est une famille très vaste qui inclut des techniques avancées telles que le Deep Learning et le Machine Learning.” 

En effet, l'utilisation de l'IA en cybersécurité est loin d’être récente, elle est largement adoptée pour le filtrage d’e-mails, les antispam… Et chez HarfangLab ? 

La plateforme intègre des algorithmes qui sont développés en interne. Cette intelligence est un véritable trésor de guerre !  
Il faut tout d’abord déterminer les algorithmes pertinents parmi tous ceux existants avant de passer au développement ; puis une nouvelle étape consiste à travailler la donnée pour la rendre digestible par ces algorithmes. Ils doivent être réentraînés régulièrement pour rester en phase avec le paysage de la menace. 

Ashley est le moteur IA de l’EDR d’HarfangLab. C'est un moteur qui combine en réalité plusieurs modèles qui interagissent pour assurer la protection des espaces de travail. Il analyse des centaines de caractéristiques pour prédire le caractère malveillant de fichiers ou de scripts et ses modèles sont entraînées régulièrement parce que la menace évolue. La cybersécurité est ainsi un éternel jeu du chat et de la souris car de nouveaux logiciels malveillants émergent, ils évoluent...  

Guillaume Ruty ajoute : “A l’heure actuelle, un entraînement prend seulement quelques heures, ce qui nous permet d’ajouter régulièrement de nouvelles familles de malwares pour entraîner nos modèles.  
Comme ces modèles sont embarqués sur les machines de nos utilisateurs, ils doivent être aussi efficaces que léger, distribués et mis à jour. C’est cette phase de packaging qui demande en réalité le plus d’effort, en vue de préserver les performances des endpoints protégés.” 

 

L’IA au service de la productivité 

Comme le rappelle Paul-Arthur Joinville : “L’IA renforce les capacités de protection mais n’a pas vocation à remplacer le travail des analystes. L’intervention humaine reste centrale pour la détection et la remédiation, pour traiter les cas de faux positifs, lever des doutes...” 

Les données collectées par un EDR sont extrêmement nombreuses et riches, et il faut pouvoir naviguer à travers en cas d’alerte. C’est un travail complexe même pour des analystes cyber expérimentés. L’IA aide ainsi à contextualiser et filtrer les données pour gagner du temps et faciliter le travail des analystes. Dans ce sens, HarfangLab propose les services de Kio, son assistant basé sur une IA générative qui répond aux requêtes des utilisateurs en langage naturel. 

“Notre objectif est d’aller au-delà de l’aide à la navigation avec l’IA et de renforcer aussi les capacités d’interprétation. Le temps des analystes est une ressource précieuse, surtout vu le nombre de terminaux à protéger à l’échelle d’un parc informatique. La mission d’HarfangLab est d’optimiser ce temps. L’enjeu est de permettre aux experts cyber de se consacrer à la définition des politiques de sécurité, plutôt que faire office de “scribes de la cyber” qui analysent des milliers d’alertes, de configurations produit ou de droits d’accès”, conclut Guillaume Ruty. 

Dans cette perspective, comme le rappelle Gérôme Billois en citant le CEO de Nvidia : les DSI (et les RSSI) pourraient bien être amenés à devenir les DRH des agents IA. 

 

Envie d’en savoir plus sur Ashley, notre moteur IA ? 
Découvrez son fonctionnement: