Intelligence artificielle - Fondamentaux en cybersécurité et gestion des risques
Formation créée le 24/07/2025.
Version du programme : 1
Version du programme : 1
Type de formation
Formation présentielleDurée de formation
35 heures (5 jours)Intelligence artificielle - Fondamentaux en cybersécurité et gestion des risques
Objectif de formation : Comprendre les principes fondamentaux de l’intelligence artificielle (IA) et ses usages en cybersécurité, tout en identifiant les risques associés et en apprenant à les mitiger. Cette formation propose une introduction opérationnelle aux outils d’IA générative, au prompt engineering, à l’éthique et aux bonnes pratiques de déploiement dans des contextes professionnels sensibles.
Objectifs de la formation
- Comprendre les bases du fonctionnement des IA et des IA génératives
- Utiliser efficacement les IA dans leurs tâches métiers, notamment en cybersécurité
- Optimiser les résultats grâce au prompt engineering
- Identifier les risques liés à l’usage de l’IA et les mitiger
- Évaluer et cadrer des projets d’intégration d’IA en environnement professionnel
- Respecter les contraintes éthiques, réglementaires et sécuritaires de l’IA
Profil des bénéficiaires
Pour qui
- Professionnels IT, cybersécurité, analystes SOC, chefs de projets numériques
- Responsables innovation, conformité, stratégie digitale
- Toute personne souhaitant comprendre l’impact de l’IA sur la sécurité
Prérequis
- Culture numérique de base, curiosité pour les technologies IA
Contenu de la formation
Comprendre les fondamentaux de l’intelligence artificielle (4 heures)
- Définition de l’IA, Machine Learning, Deep Learning, IA générative
- Exemples concrets d’IA dans différents secteurs
- Modèles de langage (LLM), réseaux de neurones, NLP, modèles diffusion
- Différences entre IA classique, IA générative, IA explicable (XAI)
- Travaux pratiques : Test interactif de modèles IA générative (textes, images, code)
- Travaux pratiques : Exploration visuelle d’un modèle de machine learning simple
- Travaux pratiques : Utilisation guidée d’un LLM open source (GPT, Claude, Mistral…)
Utilisation de l’IA générative dans les tâches quotidiennes (6 heures)
- Cas d’usage professionnels : rédaction, synthèse, classification, traduction, assistance technique
- L’IA comme copilote pour la cybersécurité (aide à l’investigation, rédaction de rapports, alerting)
- Limites et risques dans l’automatisation des tâches critiques
- Notions d’apprentissage par renforcement et personnalisation de modèle
- Travaux pratiques : Création d’un assistant IA de réponse aux alertes SOC
- Travaux pratiques : Génération de scripts d’automatisation (bash, PowerShell, Python) via IA
- Travaux pratiques : Automatiser un rapport d’audit de sécurité à partir de données brutes
Initiation au prompt engineering (5 heures)
- Principes d’un bon prompt : clarté, structure, contraintes, formats
- Techniques : few-shot, chain-of-thought, rôle assigné
- Outils d’amélioration des prompts : playgrounds, notebooks, interfaces spécialisées
- Limites et risques : hallucinations, dérives, injection de prompt
- Travaux pratiques : Comparer les résultats d’un même prompt avec et sans optimisation
- Travaux pratiques : Créer des prompts robustes pour des tâches de cybersécurité (analyse de logs, détection d’IoC)
- Travaux pratiques : Test de résistance d’un prompt à des attaques simples (prompt injection)
Identifier les risques liés à l’usage de l’IA (5 heures)
- Risques techniques : hallucinations, biais, opacité, falsification
- Risques cyber : prompt injection, attaques adversariales, vol de modèle
- Risques juridiques : RGPD, confidentialité des données, réutilisation
- Risques organisationnels : perte d’expertise, dépendance, qualité des résultats
- Travaux pratiques - Étude de cas : audit d’un cas d’usage problématique d’IA (hallucination + fuite)
- Travaux pratiques : Cartographie de risques d’un projet IA fictif (analyse collaborative)
- Travaux pratiques : Simulation d’une attaque par exfiltration via prompt d’un assistant IA
Stratégies de mitigation et bonnes pratiques d’intégration (4 heures)
- Gouvernance de l’IA : chartes, lignes directrices, comité éthique
- IA responsable : transparence, supervision humaine, explication des décisions
- Méthodes de déploiement sécurisé : sandbox, tests, supervision, politique d’usage
- Surveillance post-déploiement : détection des dérives, validation des résultats
- Travaux pratiques : Rédaction d’une charte d’usage IA pour un service métier
- Travaux pratiques : Simulation d’un comité d’évaluation d’un projet IA
- Travaux pratiques : Test d’un outil d’IA open source dans un cadre sandboxé avec journalisation
Panorama des usages de l’IA en cybersécurité (6 heures)
- IA pour la détection des menaces : anomalies, comportements, corrélation
- IA dans le Threat Intelligence (classification de rapports, extraction d’indicateurs)
- IA côté attaquants : spear phishing, deepfakes, automation offensive
- Positionnement stratégique : IA dans les SOC, SIEM, SOAR
- Travaux pratiques : Plateforme IA de détection d’anomalies réseau
- Travaux pratiques : Outil IA Blue Team vs outil IA Red Team
- Travaux pratiques : Classification de logs ou d’alertes à l’aide d’un modèle IA open source
Évaluer un projet IA – Critères, faisabilité, conformité (5 heures)
- Méthodologie d’évaluation d’un projet IA (besoin, données, cadre)
- Critères de choix d’un modèle ou d’une solution IA
- Grilles d’analyse : valeur métier, risques, contraintes réglementaires
- Bonnes pratiques d’expérimentation : POC, pilotes, critères de succès
- Travaux pratiques : évaluation complète d’un projet IA proposé par les participants
- Travaux pratiques : Construction d’une matrice avantages / risques / mesures compensatoires
- Travaux pratiques : Présentation orale du diagnostic IA avec recommandations
Équipe pédagogique
Professionnel expert technique et pédagogique.