Intelligence artificielle - Fondamentaux en cybersécurité et gestion des risques

Formation créée le 24/07/2025.
Version du programme : 1

Type de formation

Formation présentielle

Durée de formation

35 heures (5 jours)

Intelligence artificielle - Fondamentaux en cybersécurité et gestion des risques


Objectif de formation : Comprendre les principes fondamentaux de l’intelligence artificielle (IA) et ses usages en cybersécurité, tout en identifiant les risques associés et en apprenant à les mitiger. Cette formation propose une introduction opérationnelle aux outils d’IA générative, au prompt engineering, à l’éthique et aux bonnes pratiques de déploiement dans des contextes professionnels sensibles.

Objectifs de la formation

  • Comprendre les bases du fonctionnement des IA et des IA génératives
  • Utiliser efficacement les IA dans leurs tâches métiers, notamment en cybersécurité
  • Optimiser les résultats grâce au prompt engineering
  • Identifier les risques liés à l’usage de l’IA et les mitiger
  • Évaluer et cadrer des projets d’intégration d’IA en environnement professionnel
  • Respecter les contraintes éthiques, réglementaires et sécuritaires de l’IA

Profil des bénéficiaires

Pour qui
  • Professionnels IT, cybersécurité, analystes SOC, chefs de projets numériques
  • Responsables innovation, conformité, stratégie digitale
  • Toute personne souhaitant comprendre l’impact de l’IA sur la sécurité
Prérequis
  • Culture numérique de base, curiosité pour les technologies IA

Contenu de la formation

Comprendre les fondamentaux de l’intelligence artificielle (4 heures)
  • Définition de l’IA, Machine Learning, Deep Learning, IA générative
  • Exemples concrets d’IA dans différents secteurs
  • Modèles de langage (LLM), réseaux de neurones, NLP, modèles diffusion
  • Différences entre IA classique, IA générative, IA explicable (XAI)
  • Travaux pratiques : Test interactif de modèles IA générative (textes, images, code)
  • Travaux pratiques : Exploration visuelle d’un modèle de machine learning simple
  • Travaux pratiques : Utilisation guidée d’un LLM open source (GPT, Claude, Mistral…)
Utilisation de l’IA générative dans les tâches quotidiennes (6 heures)
  • Cas d’usage professionnels : rédaction, synthèse, classification, traduction, assistance technique
  • L’IA comme copilote pour la cybersécurité (aide à l’investigation, rédaction de rapports, alerting)
  • Limites et risques dans l’automatisation des tâches critiques
  • Notions d’apprentissage par renforcement et personnalisation de modèle
  • Travaux pratiques : Création d’un assistant IA de réponse aux alertes SOC
  • Travaux pratiques : Génération de scripts d’automatisation (bash, PowerShell, Python) via IA
  • Travaux pratiques : Automatiser un rapport d’audit de sécurité à partir de données brutes
Initiation au prompt engineering (5 heures)
  • Principes d’un bon prompt : clarté, structure, contraintes, formats
  • Techniques : few-shot, chain-of-thought, rôle assigné
  • Outils d’amélioration des prompts : playgrounds, notebooks, interfaces spécialisées
  • Limites et risques : hallucinations, dérives, injection de prompt
  • Travaux pratiques : Comparer les résultats d’un même prompt avec et sans optimisation
  • Travaux pratiques : Créer des prompts robustes pour des tâches de cybersécurité (analyse de logs, détection d’IoC)
  • Travaux pratiques : Test de résistance d’un prompt à des attaques simples (prompt injection)
Identifier les risques liés à l’usage de l’IA (5 heures)
  • Risques techniques : hallucinations, biais, opacité, falsification
  • Risques cyber : prompt injection, attaques adversariales, vol de modèle
  • Risques juridiques : RGPD, confidentialité des données, réutilisation
  • Risques organisationnels : perte d’expertise, dépendance, qualité des résultats
  • Travaux pratiques - Étude de cas : audit d’un cas d’usage problématique d’IA (hallucination + fuite)
  • Travaux pratiques : Cartographie de risques d’un projet IA fictif (analyse collaborative)
  • Travaux pratiques : Simulation d’une attaque par exfiltration via prompt d’un assistant IA
Stratégies de mitigation et bonnes pratiques d’intégration (4 heures)
  • Gouvernance de l’IA : chartes, lignes directrices, comité éthique
  • IA responsable : transparence, supervision humaine, explication des décisions
  • Méthodes de déploiement sécurisé : sandbox, tests, supervision, politique d’usage
  • Surveillance post-déploiement : détection des dérives, validation des résultats
  • Travaux pratiques : Rédaction d’une charte d’usage IA pour un service métier
  • Travaux pratiques : Simulation d’un comité d’évaluation d’un projet IA
  • Travaux pratiques : Test d’un outil d’IA open source dans un cadre sandboxé avec journalisation
Panorama des usages de l’IA en cybersécurité (6 heures)
  • IA pour la détection des menaces : anomalies, comportements, corrélation
  • IA dans le Threat Intelligence (classification de rapports, extraction d’indicateurs)
  • IA côté attaquants : spear phishing, deepfakes, automation offensive
  • Positionnement stratégique : IA dans les SOC, SIEM, SOAR
  • Travaux pratiques : Plateforme IA de détection d’anomalies réseau
  • Travaux pratiques : Outil IA Blue Team vs outil IA Red Team
  • Travaux pratiques : Classification de logs ou d’alertes à l’aide d’un modèle IA open source
Évaluer un projet IA – Critères, faisabilité, conformité (5 heures)
  • Méthodologie d’évaluation d’un projet IA (besoin, données, cadre)
  • Critères de choix d’un modèle ou d’une solution IA
  • Grilles d’analyse : valeur métier, risques, contraintes réglementaires
  • Bonnes pratiques d’expérimentation : POC, pilotes, critères de succès
  • Travaux pratiques : évaluation complète d’un projet IA proposé par les participants
  • Travaux pratiques : Construction d’une matrice avantages / risques / mesures compensatoires
  • Travaux pratiques : Présentation orale du diagnostic IA avec recommandations

Équipe pédagogique

Professionnel expert technique et pédagogique.