L’IA est devenue l’arme absolue des attaquants. Pour la combattre, une seule solution : l’IA.
Les modèles d’IA dits « de frontière » sont désormais une réalité. Anthropic, OpenAI et autres s’apprêtent à publier de nouveaux modèles qui, selon toute vraisemblance, seront en mesure de détecter les vulnérabilités à grande échelle. Qu’on se le dise, nous ne sommes pas en présence de simples améliorations à la marge, mais d’un véritable bouleversement : imaginez une horde d’agents IA capables de recenser méthodiquement et constamment chaque faille de votre infrastructure.
Au cours des six prochains mois, les attaques sophistiquées continueront de se démocratiser grâce à l’abaissement progressif des barrières à l’entrée. Dès lors, quiconque possède un ordinateur et un moyen de paiement pourra bientôt s’offrir l’arme dont rêve n’importe quel hacker.
Ce qui rend cet instant unique, c’est aussi son asymétrie, avec un rapport de force nettement favorable à l’attaquant. Un loup solitaire pourra facilement déployer des campagnes qui nécessitaient auparavant des équipes entières. Autre facteur aggravant, un modèle ne ferme jamais l’œil : il apprend sans cesse, et il lui suffit de faire mouche une seule fois. Les défenseurs, eux, ne peuvent se permettre la moindre erreur. Autrement dit, c’est un combat totalement déséquilibré.
On ne peut même pas dire des vulnérabilités ciblées qu’elles sont difficiles à trouver. En moyenne, les entreprises s’appuient sur des milliers de fournisseurs IT et des millions de dépendances open source. Au fil des ans, leur exposition ne cesse de croître, que ce soit à travers les erreurs de configuration, les terminaux d’API laissés sans surveillance ou les politiques d’accès obsolètes et jamais remises à plat. Toutes ces vulnérabilités n’ont jamais été vraiment traitées, et les nouveaux modèles n’ont pas leur pareil pour les trouver.
Ce danger qui nous guette ne fait que grandir. Aujourd’hui, les collaborateurs testent différents agents sans tenir compte du danger qu’ils font courir à leur entreprise. Quant au vibe coding, il rend la création de logiciels accessible à des personnes qui n’en maîtrisent pas les tenants et les aboutissants. Enfin, chaque poste de travail s’apparente désormais à un serveur, généralement équipé d’outils IA qui opèrent sans la moindre supervision à proximité de systèmes sensibles. Résultat : la surface d’attaque s’élargit un peu plus de jour en jour, dans la quasi-indifférence.
L’heure de vérité est plus proche que beaucoup de dirigeants ne le croient
Des attaques boostées à l’IA passent déjà de l’intrusion à l’exfiltration en seulement 25 minutes, alors qu’en face, une entreprise met encore en moyenne plusieurs jours à détecter la compromission initiale. Ces chiffres préoccupants ne feront qu’empirer avec l’arrivée des nouveaux modèles de frontière. Aucune entreprise n’est à l’abri, pas même les datacenters IA qui sous-tendent ces modèles, puisqu’ils s’appuient sur la même infrastructure IT que celle dont ils exposent les failles. Ces modèles de pointe n’offrent pas encore de solutions. Au contraire, ils ne font pour l’instant qu’amplifier le problème.
Dans ce contexte, la question que j’entends le plus souvent est la suivante : « Que faire ? ».
Combattre l’IA par l’IA : quand le glaive devient aussi bouclier
Les modèles que nos adversaires utilisent aujourd’hui pour détecter et exploiter les vulnérabilités peuvent aussi renforcer nos remparts, à condition de les intégrer rapidement à nos outils de cybersécurité. Pour nous autres défenseurs, l’avantage réside dans notre capacité à déployer ces modèles pour identifier, valider et corriger en temps réel les failles qu’ils mettent au jour. Les attaquants n’ont pas le monopole de ces technologies. C’est aussi à nous de nous les approprier pour combattre l’IA par l’IA.
Rappelons néanmoins que ces modèles ne constituent pas – et ne constitueront jamais – un système de défense complet. Ils sont puissants, mais ils nécessitent une infrastructure que nous avons mis des années à construire. Cette infrastructure de cybersécurité comprend :
- Des capteurs déployés sur l’ensemble du réseau, dans le cloud, sur les terminaux et les navigateurs. Leur mission : collecter des données et bloquer les menaces connues avant qu’elles ne se propagent. Le rôle de l’IA sera de renforcer cette ossature technologique, fruit d’un effort de longue haleine pour protéger la périphérie. Les modèles ne peuvent pas corriger ce que les capteurs ne voient pas. C’est pourquoi l’instrumentation de la périphérie n’est pas une option, mais la première des conditions.
- Des data lakes optimisés par l’IA : à eux seuls, les capteurs ne font que générer du bruit. Le contexte, c’est-à-dire ce qui permet de convertir ce bruit en leviers d’action, exige un data lake de sécurité extrêmement bien fourni et spécialement conçu pour recevoir, normaliser et conserver le signal. Les data lakes logiques sont suffisamment riches en données pour donner à l’IA le contexte dont elle a besoin pour convertir un signal suspect en un signal confirmé et une réponse concrète. Le data lake n’est pas un simple espace de stockage : il permet aux modèles d’analyser les données à la volée, en s’appuyant sur des années d’algorithmes de machine learning conçus pour anticiper les cas limites et les techniques connues. Cette combinaison est difficile à reproduire, et encore plus à attaquer.
- Un socle solide et des systèmes décloisonnés : jamais la défragmentation de la stack de cybersécurité n’a représenté un tel enjeu. Les études montrent que dans 75 % des compromissions, les événements incriminés avaient été journalisés et aurait dû alerter sur des comportements inhabituels. Les signaux existaient, mais ils étaient noyés dans un patchwork d’outils non intégrés. D’où l’importance de centraliser les données et de déployer des outils capables de s’autocorriger. Ces lacunes étaient encore gérables tant que les attaquants opéraient à vitesse humaine. Mais à vitesse machine, elles deviennent intenables. La consolidation n’est donc pas une simple option de modernisation, mais une nécessité absolue.
La solution ne consiste pas à opposer les LLM à la cybersécurité, mais à en libérer les synergies.
- Les laboratoires d’IA doivent déployer ces fonctionnalités de manière responsable, en concertation avec les acteurs de la sécurité et de la puissance publique.
- Les nouvelles fonctionnalités de cybersécurité et les workflows agentiques doivent être sécurisés dès leur conception, et non déployés sans aucun égard pour la sécurité.
- De leur côté, les défenseurs doivent être en mesure d’exploiter rapidement ces technologies pour pouvoir combattre l’IA par l’IA.
L’enjeu est de taille. Il est temps de passer rapidement à l’action, dans la détermination et la cohésion : chaque responsable sécurité, chaque conseil d’administration, chaque acteur de l’IA doit traiter cette question avec toute l’urgence qu’elle mérite.
Il s’agit du tournant le plus important dans l’histoire de la cybersécurité.
Posez les bonnes bases, et l’IA deviendra votre alliée. Ratez ce virage, et aucun modèle ne pourra vous sauver.
Notre travail est déjà bien engagé. À l’échelle de tout le secteur, avec les laboratoires d’IA, les fournisseurs de technologies, nos partenaires et nos clients, nous bâtissons les fondations d’une défense réinventée. Les laboratoires d’IA ont un rôle à jouer, et vous aussi.
La balle est désormais dans le camp des défenseurs.