Prisma AIRS iconPrisma AIRS

AI Runtime Security

Protégez vos applications et agents IA en temps réel – en détectant et en bloquant les menaces qui échappent aux approches de sécurité traditionnelles.


prisma airs
Présentation de Prisma AIRS 3.0

Prisma® AIRS 3.0 propose une réponse complète pour sécuriser l’ensemble du cycle de vie de l’IA en entreprise, avec la visibilité, les garanties et la gouvernance à l’exécution nécessaires pour déployer des agents autonomes en toute sécurité.

Le risque lié à l’IA s’intensifie au déploiement

Les applications d’IA fonctionnent comme des systèmes composites, reliant modèles, plugins, sources de données, agents et services externes dans des interactions dynamiques à l’exécution. Les outils de sécurité traditionnels n’ont pas été conçus pour comprendre le comportement réel des systèmes d’IA une fois en production. Ils n’offrent aucune visibilité sur les interactions entre prompts et réponses au niveau du runtime – exposant ainsi les organisations à des risques qui ne se révèlent qu’en conditions réelles.

La sécurité de l’IA en action

Prisma AIRS AI Runtime Security protège les applications d’IA pendant leur exécution. Comment ? En surveillant l’ensemble du trafic (prompts, réponses et flux de données) afin de détecter et de neutraliser en temps réel ces menaces spécifiques. La solution sécurise les interactions entre applications, modèles, utilisateurs, agents, plugins et systèmes externes – sans impact sur les performances ou les workflows des développeurs.

Protection en temps réel des systèmes d’IA

Détectez et bloquez les menaces propres à l’IA pendant que les applications s’exécutent – prompt injection, URL malveillantes, contenus empoisonnés.

Sécurisation conjointe des modèles, des données et du trafic

Appliquez une protection homogène et généralisée (applications, modèles, jeux de données, communications au runtime) pour éliminer les angles morts au sein des systèmes d’IA composites.

Une visibilité continue à l’exécution

Identifiez les applications IA exposées, comprenez comment elles communiquent et repérez où les risques émergent en production.

Une protection complète au runtime pour les systèmes d’IA

Prisma AIRS AI Runtime Security intervient au cœur même des interactions IA en production, avec des capacités d’inspection, d’application des politiques et de Threat Prevention. La solution sécurise les prompts, les réponses, les flux de données et le trafic applicatif lors de l’exécution des systèmes d’IA en production.

Découverte et visibilité sur l’écosystème IA

Une visibilité complète sur vos applications, vos modèles, vos utilisateurs, vos jeux de données et les chemins de communication sur l’ensemble de vos environnements cloud.

Visibilité sur les sessions

Accédez à une lecture détaillée de l’ensemble des sessions ayant donné lieu à des violations, et examinez toutes les tentatives malveillantes visant vos applications et agents IA.

Visibilité sur les violations

Passez en revue chaque prompt bloqué et obtenez un niveau de détail précis par type de contenu, catégorie de menace et degré de sévérité.

Visibilité sur la gestion des politiques

À partir des enseignements recueillis, définissez et administrez vos profils de sécurité au runtime, puis configurez des thématiques personnalisées pour renforcer vos défenses face aux menaces actives.

Dernières mises à jour des produits

Nous innovons à la vitesse de l’IA. Découvrez les dernières fonctionnalités et mises à jour de Prisma AIRS AI Runtime Security.


Micropérimètre

Redirige le trafic des workloads vers les NGFW

Mars 2026

Image unique pour les profils de déploiement

Prend en charge une image unique pour AIRS

Mars 2026

Déploiement de cluster HSF sur KVM

Prend en charge HSF sur Linux/KVM

Mars 2026

Extraits de menaces dans les rapports

Affiche des extraits de menaces dans les violations

Février 2026

Échangez avec nos experts en sécurité de l’IA.

Demandez une démonstration pratique de la plateforme de sécurité pilotée par IA la plus complète au monde.

Ce site est protégé par reCAPTCHA et est soumis à la Politique de confidentialité et aux Conditions générales de Google.