Menaces IA : phishing dopé, deepfakes, supply chain, fuites. Les mesures concrètes à mettre en place en 2026 pour réduire le risque.
En 2025, l’intelligence artificielle a fait une entrée fracassante dans nos vies pro. Elle rédige, elle résume, elle code, elle répond plus vite que votre collègue qui « revient vers vous » depuis 2022. Sauf que, sans surprise, les attaquants ont aussi pris un abonnement. Et eux, quand ils « reviennent vers vous », c’est rarement pour prendre des nouvelle. On fait le point sur les menaces IA observées en 2025 et surtout sur ce que les entreprises peuvent mettre en place en 2026 pour éviter de servir de terrain de jeu.
Sommaire
- Ce que l’ANSSI observe en 2025
- Comment l’IA aide les attaquants
- Quand l’IA devient la cible
- Les risques les plus crédibles pour PME et collectivités
- Les protections à mettre en place en 2026
- Conclusion
Menaces IA en 2025 : ce que l’ANSSI observe
Commençons par poser le décor. Dans sa synthèse sur l’IA générative face aux attaques informatiques, l’ANSSI explique deux points essentiels :
- L’Agence n’a pas connaissance de cyberattaques menées contre des acteurs français grâce à une IA capable de tout faire toute seule, du premier message à la prise de contrôle finale.
- L’ANSSI n’identifie pas non plus de système d’IA capable de réaliser de manière autonome l’intégralité des étapes d’une attaque.
Mais, et c’est là que ça pique, l’ANSSI ajoute que ces technologies sont plausiblement utilisées par des profils très variés, et qu’elles améliorent le niveau, la quantité, la diversité et l’efficacité des attaques, surtout sur les environnements peu sécurisés.
Quand l’IA aide les attaquants : ce qui a marqué 2025
En 2025, l’IA générative s’est installée dans la boîte à outils offensive. Elle ne remplace pas les compétences, elle les amplifie. Et quand c’est plus simple, ça se généralise.
L’ingénierie sociale dopée : le phishing qui a fait des progrès en orthographe
Parmi les menaces IA les plus visibles, il y a la production de contenus pour l’ingénierie sociale. L’ANSSI décrit des usages d’IA générative pour :
- générer du contenu d’hameçonnage
- faire de la reconnaissance
- créer de faux profils d’entreprises et d’employés sur les réseaux sociaux
- produire des sites web crédibles pouvant héberger des charges malveillantes ou profiler les visiteurs
Dans une PME, c’est dangereux pour une raison simple : le phishing « artisanal » avait souvent un défaut, il “sentait” l’arnaque. En 2025, il sent beaucoup moins. Ajoutez à ça des deepfakes accessibles, et vous obtenez une nouvelle génération d’usurpation d’identité : voix, vidéo, assurance, et parfois même le bon prénom.
Du code malveillant plus vite produit, et parfois plus difficile à détecter
Deuxième grande famille de menaces IA : la production et l’optimisation de code. L’ANSSI cite :
- un cas où un acteur a utilisé un script PowerShell généré par un modèle de langage pour compromettre une entreprise
- des travaux de recherche avec un prototype de rançongiciel s’appuyant sur des prompts dynamiques pour générer des scripts à l’exécution
- l’existence de malwares polymorphiques capables de réécrire régulièrement leur code via une API d’IA pour éviter la détection
Traduction terrain : l’IA accélère l’industrialisation. Plus de variantes, plus de tentatives, plus d’itérations. Et à force d’essayer, on finit par trouver la porte entrouverte.
L’IA pour trier le butin : exfiltrer, analyser, exploiter
Troisième usage : l’analyse massive de données exfiltrées. L’ANSSI relaie des déclarations indiquant que des services d’IA générative auraient été utilisés pour identifier rapidement des informations de valeur dans des données volées. Pour une entreprise, cela raccourcit la fenêtre de réaction : la donnée volée peut être triée et exploitée plus vite, donc l’urgence devient plus réelle.
Quand l’IA devient la cible des cyberattaques
L’autre moitié de l’histoire, c’est que les systèmes d’IA attirent les convoitises. Normal : une IA branchée sur des données, des outils et des processus, c’est une surface d’attaque. L’ANSSI décrit des risques autour de trois niveaux : entraînement, intégration, inférence.
- Empoisonnement de modèle : polluer le savoir : L’ANSSI pointe le risque de manipulation de données d’entraînement menant à l’altération de données, à du sabotage, voire à la diffusion de fausses informations à grande échelle. Elle cite aussi une analyse montrant qu’un empoisonnement pourrait être possible avec un volume étonnamment faible de documents malveillants.
- Chaîne d’approvisionnement : modèles piégés et outils autour des modèles : Autre risque : des modèles open source malveillants ou compromis, avec exécution de code arbitraire dès le téléchargement. L’ANSSI mentionne aussi le risque lié aux serveurs connecteurs (type MCP) qui relient modèles et outils externes : si c’est mal sécurisé, la surface d’attaque s’étend. Et elle décrit une pratique au nom redoutable : slopsquatting, qui exploite les hallucinations des IA en publiant de faux paquets de dépendances.
- Fuite de données : l’IA comme aspirateur involontaire. L’ANSSI rappelle un risque très banal, donc très fréquent : comptes IA compromis via infostealers, revente de comptes, et divulgation involontaire de données sensibles via les prompts.
Les menaces IA les plus crédibles pour une PME en 2026
Pas besoin de lire dix rapports pour comprendre la logique. Pour la majorité des PME et ETI, les menaces IA les plus réalistes sont celles qui renforcent les attaques classiques :
- phishing plus crédible et plus ciblé
- usurpation d’identité via voix ou vidéo
- scripts malveillants plus rapides à produire
- variantes de malwares plus nombreuses
- risques supply chain pour les équipes dev
La bonne nouvelle : les fondamentaux de cybersécurité marchent toujours. La mauvaise : ils doivent être appliqués sérieusement.
Ce que les entreprises peuvent mettre en place en 2026
Ici, l’objectif est simple : réduire la probabilité, réduire l’impact, réduire le temps de détection.
- Une gouvernance IA claire : Pas un document qui dort. Une règle de jeu : outils autorisés, données interdites, process de signalement, arbitrage. L’ANSSI rappelle la nécessité de recommandations de sécurité et d’une réévaluation régulière de la menace.
- Identité renforcée : MFA, accès conditionnel, gestion des privilèges, suppression des comptes inutiles, surveillance des connexions.
- Email et navigateur mieux protégés : Filtrage, protections contre l’usurpation de domaine, blocage des liens dangereux, navigation managée.
- Postes durcis et patch management : Restriction scripts, contrôle d’applications, mises à jour, journalisation.
- Protection de la donnée : Classification, règles de partage, prévention des fuites, et cadrage clair de ce qui ne doit jamais être partagé dans un outil IA.
- Détection et réponse : Supervision, alertes exploitables, plans de réponse testés, SOC interne ou externalisé.
- Sécurisation des projets IA : Gestion des secrets, cloisonnement, contrôles, validation des composants, revue sécurité des connecteurs.
- Sensibilisation utile : Courte, concrète, basée sur des cas réels : faux emails impeccables, deepfakes, urgences artificielles, réflexes à avoir.
Conclusion : en 2026, la meilleure réponse aux menaces IA, c’est une cyber solide
Les menaces IA en 2025 ont prouvé une chose : l’IA accélère les attaques, améliore leur packaging et aide à passer à l’échelle. L’ANSSI le souligne : pas d’attaque entièrement autonome connue à ce stade, mais un usage réel, multi profils, et une menace qui évolue vite. La réponse en 2026 n’a rien de magique : fondamentaux renforcés, gouvernance IA, identité solide, postes durcis, données protégées, supervision, projets IA sécurisés. Et si vous voulez faire le point sans y passer vos soirées, Dynamips accompagne les PME et collectivités sur la cybersécurité et la gouvernance Microsoft 365 !
