[](https://www.paloaltonetworks.com/?ts=markdown) * FR * [USA (ENGLISH)](https://www.paloaltonetworks.com/) * [AUSTRALIA (ENGLISH)](https://www.paloaltonetworks.com.au) * [BRAZIL (PORTUGUÉS)](https://www.paloaltonetworks.com.br) * [CANADA (ENGLISH)](https://www.paloaltonetworks.ca) * FRANCE (FRANÇAIS) * [GERMANY (DEUTSCH)](https://www.paloaltonetworks.de) * [INDIA (ENGLISH)](https://www.paloaltonetworks.in) * [ITALY (ITALIANO)](https://www.paloaltonetworks.it) * [JAPAN (日本語)](https://www.paloaltonetworks.jp) * [KOREA (한국어)](https://www.paloaltonetworks.co.kr) * [LATIN AMERICA (ESPAÑOL)](https://www.paloaltonetworks.lat) * [MEXICO (ESPAÑOL)](https://www.paloaltonetworks.com.mx) * [SINGAPORE (ENGLISH)](https://www.paloaltonetworks.sg) * [SPAIN (ESPAÑOL)](https://www.paloaltonetworks.es) * [TAIWAN (繁體中文)](https://www.paloaltonetworks.tw) * [CHINA (简体中文)](https://www.paloaltonetworks.cn) * [UK (ENGLISH)](https://www.paloaltonetworks.co.uk) * ![magnifying glass search icon to open search field](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/search-black.svg) * [Nous contacter](https://www.paloaltonetworks.fr/company/contact?ts=markdown) * [Ressources](https://www.paloaltonetworks.fr/resources?ts=markdown) * [Support](https://support.paloaltonetworks.com/support) * [Victime d'une attaque ?](https://start.paloaltonetworks.com/contact-unit42.html) ![x close icon to close mobile navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/x-black.svg) [![Palo Alto Networks logo](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/pan-logo-dark.svg)](https://www.paloaltonetworks.com/?ts=markdown) ![magnifying glass search icon to open search field](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/search-black.svg) * [](https://www.paloaltonetworks.com/?ts=markdown) * Produits ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Produits [Plateforme de sécurité du réseau pilotée par IA](https://www.paloaltonetworks.fr/network-security?ts=markdown) * [Sécuriser l'IA à la conception](https://www.paloaltonetworks.fr/precision-ai-security/secure-ai-by-design?ts=markdown) * [Prisma AIRS](https://www.paloaltonetworks.fr/prisma/prisma-ai-runtime-security?ts=markdown) * [AI Access Security](https://www.paloaltonetworks.fr/sase/ai-access-security?ts=markdown) * [SERVICES DE SÉCURITÉ CLOUD](https://www.paloaltonetworks.fr/network-security/security-subscriptions?ts=markdown) * [Advanced Threat Prevention](https://www.paloaltonetworks.fr/network-security/advanced-threat-prevention?ts=markdown) * [Advanced URL Filtering](https://www.paloaltonetworks.fr/network-security/advanced-url-filtering?ts=markdown) * [Advanced WildFire](https://www.paloaltonetworks.fr/network-security/advanced-wildfire?ts=markdown) * [Advanced DNS Security](https://www.paloaltonetworks.fr/network-security/advanced-dns-security?ts=markdown) * [Enterprise Data Loss Prevention](https://www.paloaltonetworks.fr/sase/enterprise-data-loss-prevention?ts=markdown) * [Sécurité IoT d'entreprise](https://www.paloaltonetworks.fr/network-security/enterprise-device-security?ts=markdown) * [Medical IoT Security](https://www.paloaltonetworks.fr/network-security/medical-iot-security?ts=markdown) * [sécurité ot industrielle](https://www.paloaltonetworks.fr/network-security/industrial-ot-security?ts=markdown) * [SaaS Security](https://www.paloaltonetworks.fr/sase/saas-security?ts=markdown) * [Pare-feu nouvelle génération](https://www.paloaltonetworks.fr/network-security/next-generation-firewall?ts=markdown) * [Pare-feu matériels](https://www.paloaltonetworks.fr/network-security/hardware-firewall-innovations?ts=markdown) * [Pare-feu logiciels](https://www.paloaltonetworks.fr/network-security/software-firewalls?ts=markdown) * [Strata Cloud Manager](https://www.paloaltonetworks.fr/network-security/strata-cloud-manager?ts=markdown) * [SD-WAN pour NGFW](https://www.paloaltonetworks.fr/network-security/sd-wan-subscription?ts=markdown) * [PAN-OS](https://www.paloaltonetworks.fr/network-security/pan-os?ts=markdown) * [Panorama](https://www.paloaltonetworks.fr/network-security/panorama?ts=markdown) * [SECURE ACCESS SERVICE EDGE](https://www.paloaltonetworks.fr/sase?ts=markdown) * [Prisma SASE](https://www.paloaltonetworks.fr/sase?ts=markdown) * [Accélération des applications](https://www.paloaltonetworks.fr/sase/app-acceleration?ts=markdown) * [Autonomous Digital Experience Management](https://www.paloaltonetworks.fr/sase/adem?ts=markdown) * [DLP d'entreprise](https://www.paloaltonetworks.fr/sase/enterprise-data-loss-prevention?ts=markdown) * [Prisma Access](https://www.paloaltonetworks.fr/sase/access?ts=markdown) * [Prisma Browser](https://www.paloaltonetworks.fr/sase/prisma-browser?ts=markdown) * [Prisma SD-WAN](https://www.paloaltonetworks.fr/sase/sd-wan?ts=markdown) * [Isolation de navigateur à distance (RBI)](https://www.paloaltonetworks.fr/sase/remote-browser-isolation?ts=markdown) * [Sécurité SaaS](https://www.paloaltonetworks.fr/sase/saas-security?ts=markdown) [Plateforme SecOps pilotée par IA](https://www.paloaltonetworks.fr/cortex?ts=markdown) * [Sécurité du cloud](https://www.paloaltonetworks.fr/cortex/cloud?ts=markdown) * [Cortex Cloud](https://www.paloaltonetworks.fr/cortex/cloud?ts=markdown) * [Sécurité des applications](https://www.paloaltonetworks.fr/cortex/cloud/application-security?ts=markdown) * [Sécurité de la posture cloud](https://www.paloaltonetworks.fr/cortex/cloud/cloud-posture-security?ts=markdown) * [Sécurité du runtime cloud](https://www.paloaltonetworks.fr/cortex/cloud/runtime-security?ts=markdown) * [Prisma Cloud](https://www.paloaltonetworks.fr/prisma/cloud?ts=markdown) * [SOC piloté par IA](https://www.paloaltonetworks.fr/cortex?ts=markdown) * [Cortex XSIAM](https://www.paloaltonetworks.fr/cortex/cortex-xsiam?ts=markdown) * [Cortex XDR](https://www.paloaltonetworks.fr/cortex/cortex-xdr?ts=markdown) * [Cortex AgentiX](https://www.paloaltonetworks.fr/cortex/agentix?ts=markdown) * [Cortex XSOAR](https://www.paloaltonetworks.fr/cortex/cortex-xsoar?ts=markdown) * [Cortex Exposure Management](https://www.paloaltonetworks.fr/cortex/exposure-management?ts=markdown) * [Cortex Xpanse](https://www.paloaltonetworks.fr/cortex/cortex-xpanse?ts=markdown) * [Cortex Advanced Email Security](https://www.paloaltonetworks.fr/cortex/advanced-email-security?ts=markdown) * [Services managés de détection et de réponse (MDR) d'Unit 42](https://www.paloaltonetworks.fr/cortex/managed-detection-and-response?ts=markdown) * [XSIAM managé Unit 42](https://www.paloaltonetworks.fr/cortex/managed-xsiam?ts=markdown) [![](https://www.paloaltonetworks.com/content/dam/pan/en_US/images/cyberark/Seamless_IDs_small.jpg) Sécurité des identités](https://www.paloaltonetworks.fr/identity-security?ts=markdown) * Solutions ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Solutions Sécurité de l'IA * [Sécuriser l'écosystème d'IA](https://www.paloaltonetworks.fr/prisma/prisma-ai-runtime-security?ts=markdown) * [Sécuriser la GenAI](https://www.paloaltonetworks.fr/sase/ai-access-security?ts=markdown) Sécurité réseau * [Sécurité des réseaux cloud](https://www.paloaltonetworks.fr/network-security/software-firewalls?ts=markdown) * [Sécurité des data centers](https://www.paloaltonetworks.fr/network-security/data-center?ts=markdown) * [DNS Security](https://www.paloaltonetworks.fr/network-security/advanced-dns-security?ts=markdown) * [Détection et prévention des intrusions](https://www.paloaltonetworks.fr/network-security/advanced-threat-prevention?ts=markdown) * [IoT Security](https://www.paloaltonetworks.fr/network-security/enterprise-device-security?ts=markdown) * [Sécurité 5G](https://www.paloaltonetworks.fr/network-security/5g-security?ts=markdown) * [Sécuriser l'ensemble des applications, des utilisateurs et des sites](https://www.paloaltonetworks.fr/sase/secure-users-data-apps-devices?ts=markdown) * [Sécuriser la transformation des sites distants](https://www.paloaltonetworks.fr/sase/secure-branch-transformation?ts=markdown) * [Sécuriser le travail sur tous les appareils](https://www.paloaltonetworks.fr/sase/secure-work-on-any-device?ts=markdown) * [Remplacement du VPN](https://www.paloaltonetworks.fr/sase/vpn-replacement-for-secure-remote-access?ts=markdown) * [Sécurité web et contre le hameçonnage](https://www.paloaltonetworks.fr/network-security/advanced-url-filtering?ts=markdown) Sécurité cloud * [Gestion de la posture de sécurité des applications (ASPM)](https://www.paloaltonetworks.fr/cortex/cloud/application-security-posture-management?ts=markdown) * [Sécurité de la supply chain logicielle](https://www.paloaltonetworks.fr/cortex/cloud/software-supply-chain-security?ts=markdown) * [Sécurité du code](https://www.paloaltonetworks.fr/cortex/cloud/code-security?ts=markdown) * [Gestion de la posture de sécurité du cloud (CSPM)](https://www.paloaltonetworks.fr/cortex/cloud/cloud-security-posture-management?ts=markdown) * [Gestion des droits sur l'infrastructure cloud (CIEM)](https://www.paloaltonetworks.fr/cortex/cloud/cloud-infrastructure-entitlement-management?ts=markdown) * [Gestion de la posture de sécurité des données (DSPM)](https://www.paloaltonetworks.fr/cortex/cloud/data-security-posture-management?ts=markdown) * [Gestion de la posture de sécurité IA (AI-SPM)](https://www.paloaltonetworks.fr/cortex/cloud/ai-security-posture-management?ts=markdown) * [Détection et réponse dans le cloud (CDR)](https://www.paloaltonetworks.fr/cortex/cloud-detection-and-response?ts=markdown) * [Protection des workloads cloud (CWP)](https://www.paloaltonetworks.fr/cortex/cloud/cloud-workload-protection?ts=markdown) * [Sécurité des API et des applications web (WAAS)](https://www.paloaltonetworks.fr/cortex/cloud/web-app-api-security?ts=markdown) Opérations de sécurité * [Détection et réponse en mode cloud](https://www.paloaltonetworks.fr/cortex/cloud-detection-and-response?ts=markdown) * [Automatisation de la sécurité réseau](https://www.paloaltonetworks.fr/cortex/network-security-automation?ts=markdown) * [Gestion des incidents](https://www.paloaltonetworks.fr/cortex/incident-case-management?ts=markdown) * [Automatisation du SOC](https://www.paloaltonetworks.fr/cortex/security-operations-automation?ts=markdown) * [Gestion CTI](https://www.paloaltonetworks.fr/cortex/threat-intel-management?ts=markdown) * [Services managés de détection et de réponse](https://www.paloaltonetworks.fr/cortex/managed-detection-and-response?ts=markdown) * [Gestion de la surface d'attaque](https://www.paloaltonetworks.fr/cortex/cortex-xpanse/attack-surface-management?ts=markdown) * [Gestion de la conformité](https://www.paloaltonetworks.fr/cortex/cortex-xpanse/compliance-management?ts=markdown) * [Gestion des opérations Internet](https://www.paloaltonetworks.fr/cortex/cortex-xpanse/internet-operations-management?ts=markdown) Sécurité des terminaux * [Protection des terminaux](https://www.paloaltonetworks.fr/cortex/endpoint-protection?ts=markdown) * [Détection et réponse étendues](https://www.paloaltonetworks.fr/cortex/detection-and-response?ts=markdown) * [Protection contre les ransomwares](https://www.paloaltonetworks.fr/cortex/ransomware-protection?ts=markdown) * [Analyses forensiques](https://www.paloaltonetworks.fr/cortex/digital-forensics?ts=markdown) [Solutions par secteur](https://www.paloaltonetworks.fr/industry?ts=markdown) * [Secteur public](https://www.paloaltonetworks.com/industry/public-sector) * [Services financiers](https://www.paloaltonetworks.com/industry/financial-services) * [Industrie](https://www.paloaltonetworks.com/industry/manufacturing) * [Santé](https://www.paloaltonetworks.com/industry/healthcare) * [Solutions pour PME et ETI](https://www.paloaltonetworks.com/industry/small-medium-business-portfolio) [![](https://www.paloaltonetworks.com/content/dam/pan/en_US/images/cyberark/Seamless_IDs_small.jpg) Sécurité des identités](https://www.paloaltonetworks.fr/identity-security?ts=markdown) * Services ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Services [Services de Threat Intelligence et de réponse aux incidents](https://www.paloaltonetworks.fr/unit42?ts=markdown) * [Évaluation](https://www.paloaltonetworks.fr/unit42/assess?ts=markdown) * [AI Security Assessment](https://www.paloaltonetworks.fr/unit42/assess/ai-security-assessment?ts=markdown) * [Évaluation de la surface d'attaque](https://www.paloaltonetworks.fr/unit42/assess/attack-surface-assessment?ts=markdown) * [Bilan de préparation à une compromission](https://www.paloaltonetworks.fr/unit42/assess/breach-readiness-review?ts=markdown) * [Évaluation de l'état de préparation aux compromissions de messagerie professionnelle (BEC)](https://www.paloaltonetworks.com/bec-readiness-assessment) * [Évaluation de la sécurité du cloud](https://www.paloaltonetworks.fr/unit42/assess/cloud-security-assessment?ts=markdown) * [Évaluation de compromission](https://www.paloaltonetworks.fr/unit42/assess/compromise-assessment?ts=markdown) * [Évaluation du cyber-risque](https://www.paloaltonetworks.fr/unit42/assess/cyber-risk-assessment?ts=markdown) * [Due diligence de cybersécurité pour les fusions et acquisitions](https://www.paloaltonetworks.fr/unit42/assess/mergers-acquisitions-cyber-due-dilligence?ts=markdown) * [Test de pénétration](https://www.paloaltonetworks.fr/unit42/assess/penetration-testing?ts=markdown) * [Exercices Purple Team](https://www.paloaltonetworks.fr/unit42/assess/purple-teaming?ts=markdown) * [Évaluation de la préparation face aux ransomwares](https://www.paloaltonetworks.fr/unit42/assess/ransomware-readiness-assessment?ts=markdown) * [Évaluation du SOC](https://www.paloaltonetworks.fr/unit42/assess/soc-assessment?ts=markdown) * [Évaluation des risques sur la supply chain](https://www.paloaltonetworks.fr/unit42/assess/supply-chain-risk-assessment?ts=markdown) * [Exercices de simulation](https://www.paloaltonetworks.fr/unit42/assess/tabletop-exercise?ts=markdown) * [Équipe d'astreinte Unit 42](https://www.paloaltonetworks.fr/unit42/retainer?ts=markdown) * [Réponse](https://www.paloaltonetworks.fr/unit42/respond?ts=markdown) * [Réponse à incident dans le cloud](https://www.paloaltonetworks.fr/unit42/respond/cloud-incident-response?ts=markdown) * [Analyse forensique numérique](https://www.paloaltonetworks.fr/unit42/respond/digital-forensics?ts=markdown) * [Réponse à incident](https://www.paloaltonetworks.fr/unit42/respond/incident-response?ts=markdown) * [Services managés de détection et de réponse (MDR)](https://www.paloaltonetworks.fr/unit42/respond/managed-detection-response?ts=markdown) * [Services managés de Threat Hunting](https://www.paloaltonetworks.fr/unit42/respond/managed-threat-hunting?ts=markdown) * [XSIAM managé](https://www.paloaltonetworks.fr/cortex/managed-xsiam?ts=markdown) * [Équipe d'astreinte Unit 42](https://www.paloaltonetworks.fr/unit42/retainer?ts=markdown) * [Transformation](https://www.paloaltonetworks.fr/unit42/transform?ts=markdown) * [Élaboration et examen du plan de réponse à incident](https://www.paloaltonetworks.fr/unit42/transform/incident-response-plan-development-review?ts=markdown) * [Conception du programme de sécurité](https://www.paloaltonetworks.fr/unit42/transform/security-program-design?ts=markdown) * [RSSI virtuel](https://www.paloaltonetworks.fr/unit42/transform/vciso?ts=markdown) * [Conseil en Zero Trust](https://www.paloaltonetworks.fr/unit42/transform/zero-trust-advisory?ts=markdown) [Service client international](https://www.paloaltonetworks.fr/services?ts=markdown) * [Formations](https://www.paloaltonetworks.com/services/education) * [Professional Services](https://www.paloaltonetworks.com/services/consulting) * [Outils clients](https://www.paloaltonetworks.com/services/customer-success-tools) * [Services de support](https://www.paloaltonetworks.com/services/solution-assurance) * [Accompagnement des clients](https://www.paloaltonetworks.com/services/customer-success) [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/logo-unit-42.svg) CONTRAT D'ASTREINTE UNIT 42 Taillé sur mesure pour répondre aux besoins de votre entreprise, votre contrat vous permet d'allouer les heures d'astreinte à l'offre de votre choix, notamment les services de gestion proactive des cyber-risques. Découvrez comment vous attacher les services de l'équipe de réponse aux incidents Unit 42. En savoir plus](https://www.paloaltonetworks.fr/unit42/retainer?ts=markdown) * Partenaires ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Partenaires Partenaires NextWave * [Communauté de partenaires NextWave](https://www.paloaltonetworks.com/partners) * [Fournisseurs de services cloud (CSP)](https://www.paloaltonetworks.com/partners/nextwave-for-csp) * [Intégrateurs de systèmes globaux](https://www.paloaltonetworks.com/partners/nextwave-for-gsi) * [Partenaires technologiques](https://www.paloaltonetworks.com/partners/technology-partners) * [Fournisseurs de services](https://www.paloaltonetworks.com/partners/service-providers) * [Fournisseurs de solutions](https://www.paloaltonetworks.com/partners/nextwave-solution-providers) * [Fournisseurs de services de sécurité managés (MSSP)](https://www.paloaltonetworks.com/partners/managed-security-service-providers) Agir * [Connexion au portail](https://www.paloaltonetworks.com/partners/nextwave-partner-portal) * [Programme de services managés](https://www.paloaltonetworks.com/partners/managed-security-services-provider-program) * [Devenir partenaire](https://paloaltonetworks.my.site.com/NextWavePartnerProgram/s/partnerregistration?type=becomepartner) * [Demander un accès](https://paloaltonetworks.my.site.com/NextWavePartnerProgram/s/partnerregistration?type=requestaccess) * [Trouver un partenaire](https://paloaltonetworks.my.site.com/NextWavePartnerProgram/s/partnerlocator) [CYBERFORCE Notre programme CYBERFORCE réunit les tout meilleurs ingénieurs partenaires, des professionnels reconnus pour leur expertise en sécurité. En savoir plus](https://www.paloaltonetworks.com/cyberforce) * Entreprise ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Entreprise Palo Alto Networks * [Notre entreprise](https://www.paloaltonetworks.fr/about-us?ts=markdown) * [Équipe de direction](https://www.paloaltonetworks.com/about-us/management) * [Relations investisseurs](https://investors.paloaltonetworks.com) * [Implantations](https://www.paloaltonetworks.com/about-us/locations) * [Éthique et conformité](https://www.paloaltonetworks.com/company/ethics-and-compliance) * [Responsabilité d'entreprise](https://www.paloaltonetworks.com/about-us/corporate-responsibility) * [Militaires et anciens combattants](https://jobs.paloaltonetworks.com/military) [L'avantage Palo Alto Networks](https://www.paloaltonetworks.fr/why-paloaltonetworks?ts=markdown) * [Sécurité Precision AI](https://www.paloaltonetworks.fr/precision-ai-security?ts=markdown) * [Notre approche plateforme](https://www.paloaltonetworks.fr/why-paloaltonetworks/platformization?ts=markdown) * [Transformez votre cybersécurité](https://www.paloaltonetworks.com/why-paloaltonetworks/nam-cxo-portfolio) * [Prix et distinctions](https://www.paloaltonetworks.com/about-us/awards) * [Témoignages clients](https://www.paloaltonetworks.fr/customers?ts=markdown) * [Certifications internationales](https://www.paloaltonetworks.com/legal-notices/trust-center/compliance) * [Programme Trust 360](https://www.paloaltonetworks.com/resources/whitepapers/trust-360) Carrières * [Aperçu](https://jobs.paloaltonetworks.com/) * [Culture d'entreprise et avantages](https://jobs.paloaltonetworks.com/en/culture/) [Au palmarès Newsweek des entreprises où il fait bon travailler "Une entreprise qui assure aux yeux de ses employés" Lire l'article](https://www.paloaltonetworks.com/company/press/2021/palo-alto-networks-secures-top-ranking-on-newsweek-s-most-loved-workplaces-list-for-2021) * Suite du menu ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Suite du menu Ressources * [Blog](https://www.paloaltonetworks.com/blog/?lang=fr) * [Travaux de recherche Unit 42 Blog](https://unit42.paloaltonetworks.com/) * [Communautés](https://www.paloaltonetworks.com/communities) * [Bibliothèque de contenu](https://www.paloaltonetworks.fr/resources?ts=markdown) * [Cyberpedia](https://www.paloaltonetworks.fr/cyberpedia?ts=markdown) * [Tech Insider](https://techinsider.paloaltonetworks.com/) * [Base de connaissances](https://knowledgebase.paloaltonetworks.com/) * [TV Palo Alto Networks](https://tv.paloaltonetworks.com/) * [Perspectives pour les dirigeants](https://www.paloaltonetworks.fr/perspectives/) * [Cyber Perspectives : le magazine](https://www.paloaltonetworks.com/cybersecurity-perspectives/cyber-perspectives-magazine) * [Data centers cloud régionaux](https://www.paloaltonetworks.fr/products/regional-cloud-locations?ts=markdown) * [Documentation technique](https://docs.paloaltonetworks.com/) * [Security Posture Assessment](https://www.paloaltonetworks.com/security-posture-assessment) * [Podcast Threat Vector](https://unit42.paloaltonetworks.com/unit-42-threat-vector-podcast/) Contact * [LIVE community](https://live.paloaltonetworks.com/) * [Évènements](https://events.paloaltonetworks.com/) * [Briefing Center pour dirigeants](https://www.paloaltonetworks.com/about-us/executive-briefing-program) * [Démos](https://www.paloaltonetworks.com/demos) * [Nous contacter](https://www.paloaltonetworks.fr/company/contact?ts=markdown) [Blog Découvrez les tendances et les dernières innovations du plus grand acteur de la cybersécurité de la planète En savoir plus](https://www.paloaltonetworks.com/blog/?lang=fr) * FR ![black arrow pointing left to go back to main navigation](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/arrow-right-black.svg) Language * [USA (ENGLISH)](https://www.paloaltonetworks.com/) * [AUSTRALIA (ENGLISH)](https://www.paloaltonetworks.com.au) * [BRAZIL (PORTUGUÉS)](https://www.paloaltonetworks.com.br) * [CANADA (ENGLISH)](https://www.paloaltonetworks.ca) * FRANCE (FRANÇAIS) * [GERMANY (DEUTSCH)](https://www.paloaltonetworks.de) * [INDIA (ENGLISH)](https://www.paloaltonetworks.in) * [ITALY (ITALIANO)](https://www.paloaltonetworks.it) * [JAPAN (日本語)](https://www.paloaltonetworks.jp) * [KOREA (한국어)](https://www.paloaltonetworks.co.kr) * [LATIN AMERICA (ESPAÑOL)](https://www.paloaltonetworks.lat) * [MEXICO (ESPAÑOL)](https://www.paloaltonetworks.com.mx) * [SINGAPORE (ENGLISH)](https://www.paloaltonetworks.sg) * [SPAIN (ESPAÑOL)](https://www.paloaltonetworks.es) * [TAIWAN (繁體中文)](https://www.paloaltonetworks.tw) * [CHINA (简体中文)](https://www.paloaltonetworks.cn) * [UK (ENGLISH)](https://www.paloaltonetworks.co.uk) * [Nous contacter](https://www.paloaltonetworks.fr/company/contact?ts=markdown) * [Ressources](https://www.paloaltonetworks.fr/resources?ts=markdown) * [Support](https://support.paloaltonetworks.com/support) * [Victime d'une attaque ?](https://start.paloaltonetworks.com/contact-unit42.html) * [Commencer](https://www.paloaltonetworks.fr/get-started?ts=markdown) Recherche Close search modal [](https://www.paloaltonetworks.com/?ts=markdown) 1. [Cyberpedia](https://www.paloaltonetworks.fr/cyberpedia?ts=markdown) 2. [Cloud Security](https://www.paloaltonetworks.com/cyberpedia/cloud-security?ts=markdown) 3. [AI-Powered Applications](https://www.paloaltonetworks.fr/cyberpedia/large-language-models-llm?ts=markdown) 4. [Que sont les large language models (LLM) ?](https://www.paloaltonetworks.fr/cyberpedia/large-language-models-llm?ts=markdown) Sommaire * [Quels sont les LLM actuels ?](#what) * [Comment fonctionnent les LLM ?](#how) * [Avantages des masters en droit](#benefits) * [Les défis du LLM](#challenges) * [Cas d'utilisation et options de déploiement du LLM](#use-cases) * [‍LLM Préoccupations en matière de sécurité](#llm) * [Le Top 10 de l'OWASP : Risques liés à la sécurité du LLM](#owasp) * [FAQ sur les grands modèles linguistiques](#faqs) # Que sont les large language models (LLM) ? Sommaire * [Quels sont les LLM actuels ?](#what) * [Comment fonctionnent les LLM ?](#how) * [Avantages des masters en droit](#benefits) * [Les défis du LLM](#challenges) * [Cas d'utilisation et options de déploiement du LLM](#use-cases) * [‍LLM Préoccupations en matière de sécurité](#llm) * [Le Top 10 de l'OWASP : Risques liés à la sécurité du LLM](#owasp) * [FAQ sur les grands modèles linguistiques](#faqs) 1. Quels sont les LLM actuels ? * [1. Quels sont les LLM actuels ?](#what) * [2. Comment fonctionnent les LLM ?](#how) * [3. Avantages des masters en droit](#benefits) * [4. Les défis du LLM](#challenges) * [5. Cas d'utilisation et options de déploiement du LLM](#use-cases) * [6. ‍LLM Préoccupations en matière de sécurité](#llm) * [7. Le Top 10 de l'OWASP : Risques liés à la sécurité du LLM](#owasp) * [8. FAQ sur les grands modèles linguistiques](#faqs) Les large language models (LLM) sont un développement de pointe en matière de traitement du langage naturel (NLP) conçu pour comprendre et générer du langage humain. Les LLM sont des modèles d'IA avancés formés sur de grandes quantités de données textuelles, ce qui leur permet de reconnaître des modèles linguistiques, de comprendre le contexte et de produire des réponses cohérentes et adaptées au contexte. Alors que le NLP fournit les techniques fondamentales permettant aux machines d'appréhender le langage, les LLM représentent une approche spécialisée qui a considérablement amélioré la capacité de la machine à imiter la compréhension et la génération du langage à l'instar de l'homme. ## Quels sont les LLM actuels ? Les LLM représentent la frontière du traitement du langage naturel, et plusieurs modèles dominent actuellement l'espace, notamment Gemini de Google, Galactica et Llama de Meta, la série GPT d'OpenAI, et d'autres comme Falcon 40B et Phi-1. Avec des architectures et des paramètres variés, ces modèles excellent dans des tâches allant de la réponse à des requêtes à la génération de textes cohérents et pertinents sur le plan contextuel dans de longs passages. [BERT](https://blog.google/products/search/search-language-understanding-bert/), présenté par Google, a jeté les bases avec son architecture basée sur les transformateurs. D'autre part, Meta's Galactica, un nouveau venu, cible explicitement la communauté scientifique et fait l'objet d'un examen minutieux pour avoir produit des "hallucinations" trompeuses qui pourraient avoir de profondes implications dans le domaine scientifique. Entre-temps, la série GPT d'OpenAI, en particulier GPT-3 et GPT-4, a été révolutionnaire dans sa capacité, cette dernière contenant, selon les rumeurs, plus de 170 trillions de paramètres et pouvant traiter à la fois du texte et des images. Les prouesses de ce modèle ont donné lieu à des spéculations sur l'approche de l'intelligence générale artificielle (AGI), une capacité théorique de la machine égale ou supérieure à l'intelligence humaine. Toutefois, les défis persistent. L'échelle et la complexité de ces modèles peuvent conduire à des résultats imprévisibles, et leurs exigences immenses en matière de formation soulèvent des inquiétudes quant à la durabilité environnementale et aux résultats biaisés. Malgré ces inquiétudes, l'évolution des masters en droit promet des avancées dans divers secteurs, qu'il s'agisse de tâches banales comme l'amélioration des recherches sur le web ou de domaines essentiels comme la recherche médicale et la cybersécurité. À mesure que le domaine progresse, l'équilibre entre le potentiel et la prudence reste primordial. ## Comment fonctionnent les LLM ? Pour exceller dans la compréhension et la génération d'un langage semblable à celui des humains, les LLM utilisent une combinaison de réseaux neuronaux, de vastes ensembles de données d'entraînement et une architecture appelée transformateurs. ### Réseaux neuronaux Au cœur des grands modèles de langage se trouvent des réseaux neuronaux à plusieurs couches, connus sous le nom de modèles de Deep Learning. Ces réseaux sont constitués de nœuds interconnectés, ou neurones, qui apprennent à reconnaître des modèles dans les données d'entrée au cours de la phase d'apprentissage. Les LLM sont formés sur un corpus massif de textes, englobant diverses sources telles que des sites web, des livres et des articles, ce qui leur permet d'apprendre la grammaire, la syntaxe, la sémantique et les informations contextuelles. Sur le dos d'algorithmes conçus pour reconnaître des modèles, les réseaux neuronaux interprètent les données sensorielles par une sorte de [perception machine](https://www.paloaltonetworks.fr/cyberpedia/machine-learning-ml?ts=markdown), d'étiquetage ou de regroupement des entrées brutes. Les architectures des réseaux neuronaux vont des simples réseaux de type feedforward, où les connexions entre les nœuds ne forment pas de cycle, aux structures complexes avec des couches sophistiquées et de multiples boucles de rétroaction. * **Réseaux neuronaux conversationnels (CNN)**: Ils sont particulièrement efficaces pour le traitement des données ayant une topologie en grille. Parmi les exemples, on peut citer les données d'image, qui peuvent être considérées comme une grille de pixels en 2D. * **Réseaux neuronaux récurrents (RNN)**: Ils sont adaptés aux données séquentielles telles que le texte et la parole. Le résultat de chaque étape dépend des calculs précédents et d'une certaine forme de mémoire sur ce qui a été traité jusqu'à présent. ### Transformateurs L'architecture du transformateur est un composant essentiel des LLM, introduit par Vaswani et al. en 2017. Les transformateurs répondent aux limites des modèles de séquence antérieurs, tels que les RNN et les LSTM, qui avaient du mal à gérer les dépendances à longue distance et la parallélisation. Les transformateurs utilisent un mécanisme appelé auto-attention, qui permet au modèle d'évaluer l'importance des différents mots dans le contexte d'entrée et de saisir les relations entre eux, quelle que soit leur distance dans la séquence. ### Tokenisation La tokenisation est la première étape du traitement d'un texte avec un LLM. Le texte d'entrée est décomposé en unités plus petites appelées tokens, qui sont ensuite converties en représentations numériques (vecteurs) que le réseau neuronal peut traiter. Au cours de l'apprentissage, le modèle apprend à générer des jetons de sortie appropriés au contexte en fonction des jetons d'entrée et de leurs relations. Le processus de formation consiste à ajuster les poids des connexions du réseau neuronal par le biais d'une technique appelée rétropropagation. En minimisant la différence entre les prédictions du modèle et les mots cibles réels dans les données d'apprentissage, le modèle apprend à générer un langage plus précis et plus cohérent. Une fois formés, les grands modèles de langage peuvent être affinés pour des tâches ou des domaines spécifiques, tels que l'analyse des sentiments, le résumé ou la réponse aux questions, en formant le modèle pendant une courte période sur un ensemble de données plus petit et spécifique à la tâche. Ce processus permet au LLM d'adapter sa compréhension généralisée de la langue aux nuances et aux exigences de la tâche cible. ***Article connexe** : [L'intelligence artificielle expliquée](https://www.paloaltonetworks.fr/cyberpedia/artificial-intelligence-ai?ts=markdown)* ## Avantages des masters en droit Les grands modèles linguistiques offrent un large éventail d'avantages, notamment 1. **Compréhension avancée du langage naturel :** Les LLM peuvent comprendre le contexte et les nuances de la langue, ce qui rend leurs réponses plus pertinentes et plus humaines. 2. **Polyvalence :** Les LLM peuvent être appliqués à diverses tâches, telles que la génération de textes, le résumé, la traduction et la réponse à des questions, sans nécessiter de formation spécifique à la tâche. 3. **Traduction :** Les linguistes formés à plusieurs langues peuvent traduire efficacement d'une langue à l'autre. Selon certaines théories, ils pourraient même déduire des significations de langues inconnues ou perdues en se basant sur des modèles. 4. **Automatiser les tâches banales :** Les LLM peuvent effectuer des tâches liées au texte telles que le résumé, la reformulation et la création de contenu, ce qui peut être particulièrement utile pour les entreprises et les créateurs de contenu. 5. **Capacités émergentes :** En raison de la grande quantité de données sur lesquelles ils sont formés, les LLM peuvent présenter des capacités inattendues mais impressionnantes, telles que l'arithmétique à plusieurs étapes, la réponse à des questions complexes et la génération de messages-guides en chaîne de pensée. 6. **Débogage et codage :** Dans le domaine de la cybersécurité, les LLM peuvent contribuer à l'écriture et au débogage du code plus rapidement qu'avec les méthodes traditionnelles. 7. **Analyse des schémas de menaces :** Dans le domaine de la cybersécurité, les LLM peuvent identifier des modèles liés aux menaces persistantes avancées, ce qui facilite l'attribution des incidents et l'atténuation en temps réel. 8. **Automatisation des réponses :** Dans les centres d'opérations de sécurité, les LLM peuvent automatiser les réponses, générer des scripts et des outils, et aider à la rédaction de rapports, réduisant ainsi le temps que les professionnels de la sécurité consacrent aux tâches de routine. Malgré ces avantages, il est essentiel de se rappeler que les masters en droit présentent des inconvénients et des considérations éthiques qu'il convient de gérer. ## Les défis du LLM S'il est facile de se laisser séduire par les avantages offerts par les impressionnantes capacités linguistiques d'un LLM, les organisations doivent également être conscientes des défis potentiels qui en découlent et s'y préparer. ### Défis opérationnels 1. **Hallucination :** Les LLM peuvent parfois produire des résultats bizarres et erronés ou donner l'impression d'être sensibles. Ces sorties ne sont pas basées sur les données d'entraînement du modèle et sont appelées "hallucinations". 2. **Parti pris :** Si un LLM est formé sur des données biaisées, ses résultats peuvent être discriminatoires ou biaisés à l'encontre de certains groupes, races ou classes. Même après la formation, les préjugés peuvent évoluer en fonction des interactions avec l'utilisateur. Tay, de Microsoft, est un exemple notoire de la manière dont les préjugés peuvent se manifester et s'intensifier. 3. **Jetons d'erreur ou exemples contradictoires :** Il s'agit d'entrées spécifiques conçues pour que le modèle produise des résultats erronés ou trompeurs, entraînant de fait un "dysfonctionnement" du modèle. 4. **Manque d'explicabilité :** Il peut être difficile de comprendre comment les LLM prennent certaines décisions ou génèrent des résultats spécifiques, ce qui complique leur dépannage ou leur perfectionnement. 5. **Dépendance excessive :** Les LLM étant de plus en plus intégrés dans divers secteurs, il existe un risque de dépendance excessive, susceptible de mettre à l'écart l'expertise et l'intuition humaines. ## Cas d'utilisation et options de déploiement du LLM Les LLM offrent aux organisations un certain nombre de modèles de mise en œuvre optionnels, chacun s'appuyant sur un ensemble différent d'outils et d'implications de sécurité connexes. ### Utilisation de LLM pré-entraînés Les fournisseurs de cloud comme OpenAI et Anthropic proposent un accès par API à de puissants LLM qu'ils gèrent et sécurisent. Les organisations peuvent tirer parti de ces API pour incorporer des capacités LLM dans leurs applications sans avoir à gérer l'infrastructure sous-jacente. Par ailleurs, les LLM à code source ouvert, tels que le LLaMa de Meta, peuvent être exécutés sur la propre infrastructure d'une organisation, ce qui offre davantage de contrôle et d'options de personnalisation. Du côté des inconvénients, les LLM open-source nécessitent d'importantes ressources de calcul et une expertise en IA pour être mis en œuvre et maintenus en toute sécurité. #### Modèles de déploiement des LLMs * **SaaS basé sur une interface utilisateur**: L'infrastructure est fournie et gérée par le développeur du LLM (par exemple, OpenAI) et approvisionnée via une API publique. * **CSP-managed**: Le LLM est déployé sur une infrastructure fournie par des hyperscalers en nuage et peut fonctionner dans un cloud privé ou public, tel qu'Azure, OpenAI et Amazon Bedrock. * **Autonome**: Le LLM est déployé sur la propre infrastructure de l'entreprise, ce qui n'est pertinent que pour les modèles open-source ou homegrown. Les LLM pré-entraînés offrent diverses fonctionnalités - génération de contenu, chatbots, analyse des sentiments, traduction linguistique et assistants de codage. Une entreprise de commerce électronique pourrait utiliser un LLM pour générer des descriptions de produits, tandis qu'une entreprise de développement de logiciels pourrait tirer parti d'un assistant de codage alimenté par un LLM pour stimuler la productivité des programmeurs. #### Implications en matière de sécurité associées aux LLM pré-entraînés La disponibilité d'API cloud facilement accessibles et de modèles open-source a considérablement abaissé les obstacles à l'ajout de fonctionnalités avancées de langage d'IA aux applications. Les développeurs peuvent désormais intégrer les LLM dans leurs logiciels sans avoir besoin d'une expertise approfondie en matière d'IA et de ML. Bien que cela accélère l'innovation, cela augmente le risque de projets d'IA fantômes qui ne bénéficient pas d'une surveillance adéquate en matière de sécurité et de conformité. Les équipes de développement, quant à elles, peuvent expérimenter les LLM sans tenir compte de la confidentialité des données, de la [gouvernance du modèle](https://www.paloaltonetworks.fr/cyberpedia/ai-governance?ts=markdown)et des questions de contrôle de la production. ### Ajustement et génération améliorée en fonction de la recherche (RAG) Pour personnaliser les LLM pour des applications spécifiques, les organisations peuvent les affiner sur des ensembles de données plus petits liés à la tâche souhaitée ou mettre en œuvre le RAG, qui implique l'intégration des LLM avec des bases de connaissances pour la réponse aux questions et le résumé du contenu. . Les cas d'utilisation de ces derniers incluent des assistants IA spécialisés ayant accès aux données internes (par exemple, pour le support client, les RH ou le service d'assistance informatique) et des apps de questions-réponses (par exemple, pour la documentation, les référentiels des codes ou les supports de formation). Par exemple, le chatbot du service client d'une entreprise de télécommunications pourrait être affiné à partir de la documentation sur les produits, des FAQ ou des interactions antérieures avec le service d'assistance, afin de mieux aider les clients à résoudre les problèmes techniques et à gérer leur compte. #### Implications en matière de sécurité liées à la mise au point et au RAG Le réglage fin et le RAG permettent aux organisations d'adapter les LLM à leur domaine et à leurs données spécifiques, ce qui permet d'obtenir des résultats plus ciblés et plus précis. Cependant, ce processus de personnalisation implique souvent d'exposer le modèle à des informations internes sensibles au cours de la formation. De solides pratiques de gouvernance des données sont exigées pour garantir que seules les données autorisées sont utilisées pour le réglage fin et que les modèles qui en résultent sont sécurisés. ### Modèle de formation Certaines grandes entreprises technologiques et certains instituts de recherche choisissent d'investir dans la formation de leurs propres doctorants en droit. Bien qu'il s'agisse d'un processus très gourmand en ressources qui exige une puissance de calcul et des ensembles de données massifs, il donne aux organisations un contrôle total sur l'architecture du modèle, les données d'entraînement et le processus d'optimisation. En outre, l'organisation conserve l'intégralité des droits de propriété intellectuelle sur les modèles obtenus. La formation de modèles peut déboucher sur des applications avancées telles que la découverte de médicaments, la science des matériaux ou les systèmes autonomes. Une organisation de soins de santé pourrait développer un modèle pour aider à diagnostiquer des maladies à partir de dossiers médicaux et de données d'imagerie, par exemple. #### Implications en matière de sécurité liées à la formation au modèle La formation de LLM personnalisés soulève des questions difficiles sur la manière de maintenir la responsabilité et l'auditabilité du comportement du modèle lorsqu'il s'agit de modèles complexes à boîte noire. Le processus de formation lui-même consomme d'énormes ressources informatiques, ce qui nécessite une forte isolation et des contrôles d'accès autour de l'environnement de formation afin d'éviter les abus ou les interférences. Tout d'abord, l'organisation doit mettre en place une infrastructure de calcul à haute performance et conserver soigneusement des ensembles de données massives, ce qui peut poser de nouveaux défis en matière de sécurité. ## ‍LLM Préoccupations en matière de sécurité L'une des principales préoccupations liées au déploiement de modèles linguistiques de grande taille dans les entreprises est la possibilité d'inclure des données sensibles lors de la formation. Une fois que les données ont été incorporées dans ces modèles, il devient difficile de discerner précisément les informations qui les ont alimentés. Ce manque de visibilité peut s'avérer problématique si l'on considère la myriade de sources de données utilisées pour la formation et les différentes personnes qui peuvent accéder à ces données. Garantir la visibilité des sources de données et maintenir un contrôle strict sur les personnes qui y ont accès est crucial pour éviter l'exposition involontaire d'informations confidentielles. Le risque d'utilisation abusive des LLM dans le cadre de cyberattaques constitue un autre sujet de préoccupation. Les acteurs malveillants peuvent utiliser les LLM pour concevoir des courriels de hameçonnage persuasifs afin de tromper les individus et d'obtenir un accès non autorisé à des données sensibles. Cette méthode, connue sous le nom d'ingénierie sociale, permet de créer des contenus convaincants et trompeurs, ce qui accroît les difficultés liées à la protection des données. En l'absence de contrôles d'accès et de protections rigoureux, le risque d'importantes [violations de données](https://www.paloaltonetworks.fr/cyberpedia/data-breach?ts=markdown) augmente, et les acteurs malveillants acquièrent la capacité de diffuser facilement des informations erronées, de la propagande ou d'autres contenus préjudiciables. Si les LLM ont des applications positives quasi infinies, ils recèlent le potentiel de créer des codes malveillants, en contournant les filtres conventionnels destinés à empêcher de tels comportements. Cette vulnérabilité pourrait conduire à une nouvelle ère de cybermenaces où les [fuites de données](https://www.paloaltonetworks.fr/cyberpedia/data-leak?ts=markdown) ne se limitent pas au vol d'informations, mais génèrent des contenus et des codes dangereux. S'ils sont manipulés, par exemple, les LLM peuvent produire des logiciels, des scripts ou des outils malveillants susceptibles de mettre en péril des systèmes entiers. Leur potentiel de "reward hacking" suscite des inquiétudes dans le domaine de la cybersécurité, suggérant que des méthodes involontaires pour atteindre leurs objectifs pourraient être découvertes, conduisant à un accès accidentel ou à la récolte de [données sensibles](https://www.paloaltonetworks.fr/cyberpedia/sensitive-data?ts=markdown). Alors que nous dépendons de plus en plus des applications LLM, il devient impératif pour les organisations et les individus de rester vigilants face à ces menaces émergentes, préparés à protéger les données à tout moment. ![Protéger les LLM des principaux risques de sécurité de l'OWASP](https://www.paloaltonetworks.com/content/dam/pan/en_US/images/cyberpedia/llms.png "Protéger les LLM des principaux risques de sécurité de l'OWASP") *Figure 1 : Protéger les LLM des principaux risques de sécurité de l'OWASP* ## Le Top 10 de l'OWASP : Risques liés à la sécurité du LLM Les vulnérabilités des applications conventionnelles présentent une nouvelle série de risques de sécurité au sein des LLM. Mais fidèle à ses habitudes, l'OWASP a livré le [OWASP Top Ten LLM Security Risks](https://owasp.org/www-project-top-10-for-large-language-model-applications/) en temps opportun, alertant les développeurs sur les nouveaux mécanismes et la nécessité d'adapter les stratégies de remédiation traditionnelles pour leurs applications utilisant des LLM. ### LLM01 : Injection rapide L'injection d'invites peut manipuler un grand modèle de langage par le biais d'entrées détournées, amenant le LLM à exécuter les intentions de l'attaquant. Avec les injections directes, l'acteur malveillant écrase les invites du système. Avec les injections indirectes, les attaquants manipulent des entrées provenant de sources externes. L'une ou l'autre méthode peut entraîner une [exfiltration de données](https://www.paloaltonetworks.fr/cyberpedia/data-exfiltration?ts=markdown), de l'ingénierie sociale et d'autres problèmes. ### LLM02 : Traitement non sécurisé des sorties Le traitement non sécurisé des sorties est une vulnérabilité qui se produit lorsqu'une sortie LLM est acceptée sans examen, exposant ainsi les systèmes dorsaux. Elle survient lorsqu'un composant en aval accepte aveuglément les résultats du LLM sans examen approfondi. Une utilisation abusive peut entraîner des scripts intersites (XSS) et des falsifications de requêtes intersites (CSRF) dans les navigateurs web, ainsi que des falsifications de requêtes côté serveur (SSRF), une élévation des privilèges et l'exécution de codes à distance sur les systèmes dorsaux. ### LLM03 : Empoisonnement des données de formation L'empoisonnement des données de formation se produit lorsque les données de formation LLM sont manipulées via Common Crawl, WebText, OpenWebText, des livres et d'autres sources. La manipulation introduit des portes dérobées, des vulnérabilités ou des biais qui compromettent la sécurité du LLM et entraînent une baisse des performances, l'exploitation de logiciels en aval et une atteinte à la réputation. ### LLM04 : Modèle de déni de service On parle de déni de service lorsqu'un attaquant exploite un LLM pour déclencher une opération gourmande en ressources, ce qui entraîne une dégradation du service et une augmentation des coûts. Cette vulnérabilité est amplifiée par la nature exigeante des LLM et la nature imprévisible des données fournies par les utilisateurs. Dans un scénario de déni de service, un attaquant s'engage avec un LLM d'une manière qui demande une quantité disproportionnée de ressources, entraînant une baisse de la qualité du service pour l'attaquant et les autres utilisateurs tout en générant potentiellement d'importantes dépenses en ressources. ### LLM05 : Vulnérabilités de la chaîne d'approvisionnement Les vulnérabilités de la chaîne d'approvisionnement des ML peuvent compromettre les données d'entraînement, les modèles ML et les plateformes de déploiement, provoquant des failles de sécurité ou des défaillances totales du système. Les composants ou services vulnérables peuvent provenir de données d'entraînement empoisonnées, de plugins non sécurisés, de logiciels obsolètes ou de modèles pré-entraînés sensibles. ### LLM06 : Divulgation d'informations sensibles Les applications LLM peuvent exposer des données sensibles, des informations confidentielles et des algorithmes propriétaires, ce qui entraîne des accès non autorisés, des vols de propriété intellectuelle et des [violations de données](https://www.paloaltonetworks.fr/cyberpedia/data-breach?ts=markdown). Pour atténuer ces risques, les applications LLM doivent assainir les données, mettre en œuvre des politiques d'utilisation strictes et appropriées et restreindre les types de données renvoyées par le LLM. ### LLM07 : Conception de plugins non sécurisés Les plugins peuvent comprendre des entrées non sécurisées et un [contrôle d'accès](https://www.paloaltonetworks.fr/cyberpedia/access-control?ts=markdown)insuffisant, ce qui les rend sujets à des requêtes malveillantes pouvant conduire à une [exfiltration de données](https://www.paloaltonetworks.fr/cyberpedia/data-exfiltration?ts=markdown), à une exécution de code à distance et à une élévation de privilèges. Les développeurs doivent respecter des règles strictes en matière d'entrées paramétrées et de contrôle d'accès sécurisé afin d'éviter toute exploitation. ### LLM08 : Agence excessive L'agence excessive se réfère aux systèmes basés sur le LLM qui prennent des mesures entraînant des conséquences non intentionnelles. La vulnérabilité découle de l'octroi d'une trop grande autonomie, d'une sur-fonctionnalité ou de permissions excessives au mécanisme d'apprentissage tout au long de la vie. Les développeurs doivent limiter les fonctionnalités des plugins à ce qui est absolument essentiel. Ils doivent également assurer le suivi des autorisations des utilisateurs, exiger une approbation humaine pour toutes les actions et mettre en œuvre les autorisations dans les systèmes en aval. ### LLM09 : Dépendance excessive Un LLM peut générer un contenu inapproprié lorsque des utilisateurs humains ou des systèmes s'appuient de manière excessive sur le LLM sans assurer une surveillance adéquate. Les conséquences potentielles du LLM09 sont la désinformation, les failles de sécurité et les problèmes juridiques. ### LLM10 : Modèle Vol Le vol de modèle LLM implique l'accès non autorisé, la copie ou l'exfiltration de LLM propriétaires. Le vol de modèles entraîne des pertes financières et une perte d'avantage concurrentiel, ainsi qu'une atteinte à la réputation et un accès non autorisé à des données sensibles. Les organisations doivent appliquer des mesures de sécurité strictes pour protéger leurs MLD propriétaires. ## FAQ sur les grands modèles linguistiques ### ‍Quelles sont les considérations de sécurité pour le LLM ? Pour protéger votre LLM, mettez en œuvre une approche de sécurité à multiples facettes qui comprend des contrôles d'accès stricts, une restriction de l'accès aux ressources du réseau via la segmentation du réseau et le sandboxing sécurisé, une surveillance constante des ressources et des audits de routine des journaux et des activités associées au LLM. ### ‍Quelle est la structure du modèle LLM ? La structure du modèle LLM est basée sur l'architecture du transformateur, qui traite et génère des séquences de données à l'aide de mécanismes d'auto-attention. ### ‍Comment commencer à créer un LLM ? La phase initiale de la construction d'un grand modèle linguistique consiste à rassembler une grande quantité de données textuelles pour la formation, qui sont segmentées en unités de données plus petites, appelées tokens, afin de faciliter le traitement et l'apprentissage. ### Quelle est la différence entre un NLP et un LLM ? La PNL est un sous-domaine de l'IA et de la linguistique qui vise à permettre aux ordinateurs de comprendre, d'interpréter et de générer du langage humain. Le NLP englobe un large éventail de tâches, notamment l'analyse des sentiments, la traduction automatique, le résumé de texte et la reconnaissance des entités nommées. Les techniques NLP font généralement appel à des algorithmes informatiques, à la modélisation statistique et à l'apprentissage automatique pour traiter et analyser les données textuelles. Un LLM est un type de modèle de Deep Learning, plus précisément un réseau neuronal, conçu pour traiter les tâches de NLP à grande échelle. Les LLM, tels que GPT-3 et BERT, sont formés sur de grandes quantités de données textuelles afin d'apprendre des modèles de langage, une grammaire et une sémantique complexes. Ces modèles s'appuient sur une technique appelée architecture de transformation, qui leur permet de saisir les dépendances à long terme et les informations contextuelles dans le langage. La principale différence entre le NLP et le LLM est que le NLP est un domaine plus large qui englobe diverses techniques et approches de traitement du langage humain, tandis que le LLM est un type spécifique de modèle de réseau neuronal conçu pour des tâches NLP avancées. Les LLM représentent une approche de pointe dans le domaine du NLP, offrant des performances et des capacités améliorées dans la compréhension et la génération d'un langage de type humain par rapport aux méthodes NLP traditionnelles. ### Qu'est-ce qu'un modèle de formation ? Dans le domaine de l'apprentissage automatique, un modèle de formation fait référence au processus de développement d'une représentation mathématique capable de faire des prédictions ou de prendre des décisions sur la base de données d'entrée. En alimentant un modèle avec des données d'apprentissage étiquetées, il apprend à reconnaître des modèles, des relations et des caractéristiques qui lui permettent de généraliser et de faire des déductions précises sur des données inédites. Le processus d'apprentissage consiste à ajuster les paramètres du modèle de manière itérative afin de minimiser les erreurs et d'améliorer les performances. Une fois que le modèle atteint une précision et des capacités de généralisation satisfaisantes, il peut être déployé pour résoudre des problèmes du monde réel, tels que la reconnaissance d'images, le traitement du langage naturel ou la prédiction du comportement des clients. ### Qu'est-ce que l'intelligence artificielle (IA) ? L'intelligence artificielle (IA) est une branche de l'informatique qui se concentre sur la création de systèmes intelligents capables de simuler les capacités cognitives humaines, telles que la résolution de problèmes, la reconnaissance de formes et la prise de décision. En tirant parti des algorithmes, des données et de la puissance de calcul, les systèmes d'IA peuvent tirer des enseignements de l'expérience, s'adapter à de nouvelles informations et exécuter des exigences qui requièrent généralement l'intelligence humaine. Ces systèmes ont des applications dans divers secteurs, notamment la santé, la finance et la fabrication, permettant l'automatisation, l'amélioration de la productivité et la mise en place de solutions innovantes. ### Qu'est-ce que l'apprentissage automatique ? L'apprentissage automatique est un sous-domaine de l'intelligence artificielle qui consiste à développer des algorithmes permettant aux ordinateurs d'apprendre et d'améliorer leurs performances dans des tâches spécifiques sans programmation explicite. En traitant et en analysant de grands ensembles de données, les modèles de ML peuvent identifier des modèles, faire des prédictions et générer des idées, devenant de plus en plus précis et efficaces au fur et à mesure qu'ils reçoivent plus de données. Les techniques de ML, telles que l'apprentissage supervisé, non supervisé et par renforcement, ont de nombreuses applications, notamment le traitement du langage naturel, la reconnaissance d'images et les systèmes de recommandation. ### Qu'est-ce que l'IA générative ? L'IA générative est un sous-ensemble de l'intelligence artificielle qui se concentre sur la création de nouveaux contenus, données ou modèles en apprenant à partir d'exemples existants. Cette forme d'IA s'appuie sur des techniques avancées d'apprentissage automatique, telles que les réseaux adversaires génératifs (GAN) et les autoencodeurs variationnels (VAE), pour générer des sorties inédites qui ressemblent aux données d'entrée. Les applications de l'IA générative comprennent la synthèse d'images, la génération de texte et l'augmentation des données, permettant des solutions innovantes dans des domaines tels que l'art, le design, le divertissement et la science des données. ### Que sont les réseaux adversaires génératifs (GAN) ? Les réseaux adversaires génératifs (GAN) sont une classe de modèles d'apprentissage automatique conçus pour générer de nouveaux échantillons de données qui ressemblent à un ensemble de données donné. Les GAN sont constitués de deux réseaux neuronaux, un générateur et un discriminateur, qui sont formés simultanément de manière compétitive. Le générateur crée des échantillons synthétiques, tandis que le discriminateur évalue les échantillons générés et les distingue des données réelles. Le générateur améliore constamment ses capacités de production de données en tentant de tromper le discriminateur qui, à son tour, affine sa capacité à identifier les échantillons réels par rapport aux échantillons générés. Ce processus contradictoire se poursuit jusqu'à ce que les échantillons générés deviennent presque indiscernables des données réelles, ce qui rend les GAN particulièrement utiles dans des applications telles que la synthèse d'images, l'augmentation des données et le transfert de style. ### Qu'est-ce qu'un autoencodeur variationnel (VAE) ? Les autoencodeurs variationnels (VAE) sont un type de modèle génératif qui apprend à représenter des distributions de données complexes en encodant les données d'entrée dans un espace latent de dimension inférieure, puis en reconstruisant les données à partir de cette représentation comprimée. Les VAE se composent de deux réseaux neuronaux : un encodeur qui fait correspondre les données d'entrée à une distribution de probabilités dans l'espace latent, et un décodeur qui reconstruit les données à partir de points échantillonnés dans cette distribution. Le modèle VAE est entraîné pour minimiser l'erreur de reconstruction et un terme de régularisation qui encourage la distribution apprise à s'aligner sur une distribution préalable prédéfinie. Les VAE sont capables de générer de nouveaux échantillons de données en décodant des points aléatoires échantillonnés dans l'espace latent, ce qui les rend adaptés à des applications telles que la génération d'images, le débruitage de données et l'apprentissage de représentations. Contenu connexe [AI-SPM garantit la sécurité et la conformité des applications alimentées par l'IA. Découvrez la découverte et l'inventaire des modèles d'IA, la prévention de l'exposition aux données et l'analyse de la posture et des risques dans cette fiche technique AI-SPM.](https://www.paloaltonetworks.fr/resources/datasheets/aispm-secure-ai-applications?ts=markdown) [Sécuriser le paysage des données avec DSPM et DDR Gardez une longueur d'avance sur les risques liés à la sécurité des données. Découvrez comment la Gestion sécurité des données (DSPM) avec la détection et la réponse aux données (D...](https://www.paloaltonetworks.com/resources/guides/dspm-ddr-big-guide) [AI-SPM : Sécurité et conformité pour les applis alimentées par l'IA. Prisma Cloud AI-SPM relève les défis uniques du déploiement de l'IA et de l'IA générique à l'échelle, tout en contribuant à réduire les risques de sécurité et de conformité.](https://www.paloaltonetworks.com/blog/cloud-security/ai-spm/) [Gestion de la posture de sécurité pour l'IA Découvrez comment protéger et contrôler votre infrastructure, votre utilisation et vos données d'IA avec Prisma Cloud AI-SPM.](https://www.paloaltonetworks.fr/prisma/cloud/ai-spm?ts=markdown) ![Share page on facebook](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/resources/facebook-circular-icon.svg) ![Share page on linkedin](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/resources/linkedin-circular-icon.svg) [![Share page by an email](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/resources/email-circular-icon.svg)](mailto:?subject=Que%20sont%20les%20large%20language%20models%20%28LLM%29%20%3F&body=D%C3%A9couvrez%20comment%20les%20mod%C3%A8les%20aliment%C3%A9s%20par%20l%27IA%20en%20langage%20large%20exploitent%20de%20vastes%20donn%C3%A9es%20textuelles%20pour%20exceller%20dans%20les%20t%C3%A2ches%20NLP%2C%20ouvrant%20ainsi%20de%20nouvelles%20possibilit%C3%A9s%20de%20traitement%20et%20de%20compr%C3%A9hension%20du%20langage.%20at%20https%3A//www.paloaltonetworks.fr/cyberpedia/large-language-models-llm) Haut de page {#footer} ## Produits et services * [Plateforme de sécurité du réseau pilotée par IA](https://www.paloaltonetworks.fr/network-security?ts=markdown) * [Sécuriser l'IA à la conception](https://www.paloaltonetworks.fr/precision-ai-security/secure-ai-by-design?ts=markdown) * [Prisma AIRS](https://www.paloaltonetworks.fr/prisma/prisma-ai-runtime-security?ts=markdown) * [AI Access Security](https://www.paloaltonetworks.fr/sase/ai-access-security?ts=markdown) * [Services de sécurité cloud (CDSS)](https://www.paloaltonetworks.fr/network-security/security-subscriptions?ts=markdown) * [Advanced Threat Prevention](https://www.paloaltonetworks.fr/network-security/advanced-threat-prevention?ts=markdown) * [Advanced URL Filtering](https://www.paloaltonetworks.fr/network-security/advanced-url-filtering?ts=markdown) * [Advanced WildFire](https://www.paloaltonetworks.fr/network-security/advanced-wildfire?ts=markdown) * [Advanced DNS Security](https://www.paloaltonetworks.fr/network-security/advanced-dns-security?ts=markdown) * [Enterprise Data Loss Prevention](https://www.paloaltonetworks.fr/sase/enterprise-data-loss-prevention?ts=markdown) * [Sécurité IoT d'entreprise](https://www.paloaltonetworks.fr/network-security/enterprise-iot-security?ts=markdown) * [Sécurité IoT médical](https://www.paloaltonetworks.fr/network-security/medical-iot-security?ts=markdown) * [Industrial OT Security](https://www.paloaltonetworks.fr/network-security/industrial-ot-security?ts=markdown) * [Sécurité SaaS](https://www.paloaltonetworks.fr/sase/saas-security?ts=markdown) * [Pare-feu nouvelle génération](https://www.paloaltonetworks.fr/network-security/next-generation-firewall?ts=markdown) * [Pare-feu matériels](https://www.paloaltonetworks.fr/network-security/hardware-firewall-innovations?ts=markdown) * [Logiciels pare-feu](https://www.paloaltonetworks.fr/network-security/software-firewalls?ts=markdown) * [Strata Cloud Manager](https://www.paloaltonetworks.fr/network-security/strata-cloud-manager?ts=markdown) * [SD-WAN pour NGFW](https://www.paloaltonetworks.fr/network-security/sd-wan-subscription?ts=markdown) * [PAN-OS](https://www.paloaltonetworks.fr/network-security/pan-os?ts=markdown) * [Panorama](https://www.paloaltonetworks.fr/network-security/panorama?ts=markdown) * [Secure Access Service Edge](https://www.paloaltonetworks.fr/sase?ts=markdown) * [Prisma SASE](https://www.paloaltonetworks.fr/sase?ts=markdown) * [Accélération des applications](https://www.paloaltonetworks.fr/sase/app-acceleration?ts=markdown) * [Autonomous Digital Experience Management (ADEM)](https://www.paloaltonetworks.fr/sase/adem?ts=markdown) * [DLP d'entreprise](https://www.paloaltonetworks.fr/sase/enterprise-data-loss-prevention?ts=markdown) * [Prisma Access](https://www.paloaltonetworks.fr/sase/access?ts=markdown) * [Prisma Browser](https://www.paloaltonetworks.fr/sase/prisma-browser?ts=markdown) * [Prisma SD-WAN](https://www.paloaltonetworks.fr/sase/sd-wan?ts=markdown) * [Isolation de navigateur à distance (RBI)](https://www.paloaltonetworks.fr/sase/remote-browser-isolation?ts=markdown) * [Sécurité SaaS](https://www.paloaltonetworks.fr/sase/saas-security?ts=markdown) * [Plateforme SecOps pilotée par IA](https://www.paloaltonetworks.fr/cortex?ts=markdown) * [Sécurité cloud](https://www.paloaltonetworks.fr/cortex/cloud?ts=markdown) * [Cortex Cloud](https://www.paloaltonetworks.fr/cortex/cortex-xsoar?ts=markdown) * [Sécurité des applications](https://www.paloaltonetworks.fr/cortex/cloud/application-security?ts=markdown) * [Posture de sécurité dans le cloud](https://www.paloaltonetworks.fr/cortex/cloud/cloud-posture-security?ts=markdown) * [Sécurité du Runtime dans le cloud](https://www.paloaltonetworks.fr/cortex/cloud/runtime-security?ts=markdown) * [Prisma Cloud](https://www.paloaltonetworks.fr/prisma/cloud?ts=markdown) * [SOC piloté par IA](https://www.paloaltonetworks.fr/cortex?ts=markdown) * [Cortex XSIAM](https://www.paloaltonetworks.fr/cortex/cortex-xsiam?ts=markdown) * [Cortex XDR](https://www.paloaltonetworks.fr/cortex/cortex-xdr?ts=markdown) * [Cortex XSOAR](https://www.paloaltonetworks.fr/cortex/cortex-xsoar?ts=markdown) * [Cortex Xpanse](https://www.paloaltonetworks.fr/cortex/cortex-xpanse?ts=markdown) * [Services managés détection et réponse Unit 42](https://www.paloaltonetworks.fr/cortex/managed-detection-and-response?ts=markdown) * [XSIAM managé](https://www.paloaltonetworks.fr/cortex/managed-xsiam?ts=markdown) * [Services de Threat Intelligence et de réponse à incident](https://www.paloaltonetworks.fr/unit42?ts=markdown) * [Évaluations proactives](https://www.paloaltonetworks.fr/unit42/assess?ts=markdown) * [Réponse à incident](https://www.paloaltonetworks.fr/unit42/respond?ts=markdown) * [Transformez votre stratégie de sécurité](https://www.paloaltonetworks.fr/unit42/transform?ts=markdown) * [Découvrez la Threat Intelligence](https://www.paloaltonetworks.fr/unit42/threat-intelligence-partners?ts=markdown) ## Entreprise * [Notre entreprise](https://www.paloaltonetworks.fr/about-us?ts=markdown) * [Carrières](https://jobs.paloaltonetworks.com/en/) * [Nous contacter](https://www.paloaltonetworks.fr/company/contact?ts=markdown) * [Responsabilité d'entreprise](https://www.paloaltonetworks.com/about-us/corporate-responsibility) * [Clients](https://www.paloaltonetworks.fr/customers?ts=markdown) * [Relations investisseurs](https://investors.paloaltonetworks.com/) * [Présence dans le monde](https://www.paloaltonetworks.com/about-us/locations) * [Presse](https://www.paloaltonetworks.fr/company/newsroom?ts=markdown) ## Pages les plus visitées * [Article](https://www.paloaltonetworks.com/blog/?lang=fr) * [Communautés](https://www.paloaltonetworks.com/communities) * [Bibliothèque de contenu](https://www.paloaltonetworks.fr/resources?ts=markdown) * [Cyberpedia](https://www.paloaltonetworks.fr/cyberpedia?ts=markdown) * [Évènements](https://events.paloaltonetworks.com/) * [Préférences de communication](https://start.paloaltonetworks.com/preference-center) * [Produits de A à Z](https://www.paloaltonetworks.fr/products/products-a-z?ts=markdown) * [Certifications produits](https://www.paloaltonetworks.com/legal-notices/trust-center/compliance) * [Signaler une vulnérabilité](https://www.paloaltonetworks.com/security-disclosure) * [Plan du site](https://www.paloaltonetworks.fr/sitemap?ts=markdown) * [Documentation technique](https://docs.paloaltonetworks.com/) * [Unit 42](https://unit42.paloaltonetworks.com/) * [Ne pas autoriser la vente ou le partage de mes données personnelles](https://panwedd.exterro.net/portal/dsar.htm?target=panwedd) ![PAN logo](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/pan-logo-dark.svg) * [Politique de confidentialité](https://www.paloaltonetworks.com/legal-notices/privacy) * [Trust Center](https://www.paloaltonetworks.com/legal-notices/trust-center) * [Conditions générales d'utilisation](https://www.paloaltonetworks.com/legal-notices/terms-of-use) * [Documents](https://www.paloaltonetworks.com/legal) Copyright © 2026 Palo Alto Networks. Tous droits réservés * [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/social/youtube-black.svg)](https://www.youtube.com/user/paloaltonetworks) * [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/social/twitter-x-black.svg)](https://twitter.com/PaloAltoNtwks) * [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/social/facebook-black.svg)](https://www.facebook.com/PaloAltoNetworks/) * [![](https://www.paloaltonetworks.com/etc/clientlibs/clean/imgs/social/linkedin-black.svg)](https://www.linkedin.com/company/palo-alto-networks) * [![](https://www.paloaltonetworks.com/content/dam/pan/en_US/images/icons/podcast.svg)](https://unit42.paloaltonetworks.com/unit-42-threat-vector-podcast/) * FR Select your language