Voir le sommaire Ne plus voir le sommaire
La sécurité change vite avec l’IA, et Google tire la sonnette d’alarme. Des malwares apprennent à manier le langage naturel pour contourner nos défenses. Ainsi, des outils criminels se diffusent plus vite que les contre-mesures.
Alerte de Google sur la nouvelle génération de malwares IA
Les équipes sécurité de Google décrivent une phase d’accélération. Des opérateurs intègrent des modèles de langage dans toutes les étapes d’une attaque. De plus, la barrière à l’entrée baisse pour des profils moins techniques. Résultat, le volume et la diversité des tentatives progressent.
Les chercheurs signalent des kits vendus comme des “assistants” pour le phishing, la fraude et le chiffrement de données. Ils génèrent du code, réécrivent des messages et adaptent les charges malveillantes. Cependant, des garde-fous existent côté fournisseurs d’IA. Les criminels contournent ces limites par itérations et par “prompt engineering”.
Le rapport met en garde contre des campagnes opportunistes qui testent, mesurent et recyclent ce qui marche. Ainsi, chaque détection entraîne une variation du texte, du code ou du canal. Google insiste sur l’importance d’une surveillance continue et corrélée. Les signaux faibles, agrégés, donnent souvent l’avance nécessaire.
« L’IA ne crée pas la menace, elle l’accélère et l’industrialise. »
Pourquoi cette vague change la donne
Avec ces outils, les attaquants prototypent en minutes ce qui prenait des jours. Aussi, les erreurs de syntaxe ou de style se font rares, ce qui renforce la crédibilité. La personnalisation devient automatique à partir de données publiques. Google observe dès lors des campagnes plus ciblées sur des niches sectorielles.
À découvrirOptimiser l’utilisation de votre Google Pixel : astuces et réglages indispensablesLa chaîne d’attaque s’étend désormais à la collecte, la rédaction, l’exécution et l’évasion. Par conséquent, une stratégie de défense doit s’aligner sur tout le cycle. Des contrôles simples réduisent déjà le risque, comme l’authentification renforcée. Google recommande aussi des tests réguliers de détection et de réponse.
- Activer l’authentification multifacteur pour tous les accès sensibles
- Bloquer l’exécution de scripts inconnus dans les suites bureautiques
- Surveiller les appels d’API inhabituels et les créations de tokens
- Journaliser et alerter sur l’usage d’outils IA en entreprise
- Former les équipes à reconnaître les messages générés automatiquement
Panorama des menaces mises en avant
Des places de marché clandestines proposent des “copilotes” orientés cybercrime. Ils promettent des contenus efficaces, en plusieurs langues, et des scripts prêts à l’emploi. Pourtant, beaucoup reposent sur des modèles légitimes, utilisés hors cadre. Les échanges montrent une course à l’automatisation.
WormGPT — présenté comme un chatbot sans garde-fous pour rédiger des attaques.
Il produit des emails de hameçonnage convaincants et des snippets de code, puis affine les textes selon la cible.
FraudGPT — positionné pour l’usurpation d’identité et la fraude en ligne (200 $ par mois ou 1 700 $ à l’année).
Il suggère des scénarios, génère des pages clones, et optimise les messages pour échapper aux filtres.
Les opérations se professionnalisent, avec support, mises à jour et “tutos”. Ainsi, la frontière entre développeur et opérateur se brouille. Google signale des échanges où les vendeurs testent la qualité de sortie selon différents prompts. Cette démarche de R&D clandestine augmente la résilience des campagnes.
Chaînes d’attaque et économie souterraine
PromptLock — un rançongiciel vanté comme “assisté par IA”, annoncé avec le modèle gpt-oss:20b d’OpenAI.
Il guiderait l’opérateur à chaque étape, de l’intrusion à la négociation, avec des notes de rançon générées dynamiquement.
Les rançonneurs cherchent des gains de temps à forte valeur. Par exemple, la génération de scripts PowerShell adaptés à l’environnement cible. Ensuite, l’assistant propose des variantes si une défense réagit. Cette itération rapide complique l’analyse et les indicateurs de compromission.
Les chercheurs de Google notent des recoupements entre outils, canaux et opérateurs. Néanmoins, la traçabilité s’avère difficile avec les proxys et les services anonymes. Ainsi, le partage d’artefacts et de techniques entre défenseurs reste clé. Les standards communs facilitent la réponse coordonnée.
Comment se préparer face à ces IA hostiles
PROMPTFLUX — décrit comme un malware polymorphe dopé à l’IA, misant sur le modèle Gemini 1.5 Flash de Google pour changer de forme.
Il générerait à la demande du code et des textes différents, afin de brouiller les signatures.
Thinking Robot — module associé à PROMPTFLUX, interactif avec l’API Gemini.
Il ajusterait les actions en fonction du retour de la cible et des défenses, puis relancerait une variante.
Face à ces tactiques, une approche “contrôle par défaut” aide beaucoup. D’abord, limiter la sortie réseau des postes vers les services d’IA non approuvés. Ensuite, ajouter des politiques de DLP sur les prompts et les réponses. Google propose des bonnes pratiques pour encadrer l’usage interne de modèles.
Les PME peuvent agir sans tout refondre. Définir un registre des usages d’IA, puis auditer les risques par cas d’usage. Aussi, formaliser un plan de réponse avec scénarios IA et exercices. Google encourage ces démarches graduelles, car chaque pallier réduit l’impact d’une attaque.
Crédit photo © LePointDuJour

