Cette formation est utile pour ceux qui commencent leur carrière dans la cybersécurité de l'IA, les ingénieurs créant ou intégrant les LLM, et les spécialistes travaillant en étroite collaboration avec l'infrastructure d'IA.
Cette formation est utile pour ceux qui commencent leur carrière dans la cybersécurité de l'IA, les ingénieurs créant ou intégrant les LLM, et les spécialistes travaillant en étroite collaboration avec l'infrastructure d'IA.
Le cours est développé par Kaspersky AI Technology Research Center et vise à équiper les professionnels de la cybersécurité avec les compétences essentielles pour comprendre, évaluer et défendre contre les vulnérabilités dans les modèles de grandes langues (LLM).
L'avènement des LLMS a révolutionné la façon dont les entreprises se développent et interagissent avec les systèmes d'intelligence artificielle (IA), tout en introduisant simultanément des défis de sécurité complexes. Une étude de Kaspersky a révélé qu'en 2024, plus de la moitié des entreprises ont mis en œuvre l'IA et l'Internet des objets (IoT) dans leur infrastructure. Au fur et à mesure que ces technologies deviennent de plus en plus ancrées dans les systèmes et processus d'entreprise, comprendre comment ils peuvent être ciblés, quelles vulnérabilités peuvent être exploitées pour les cyberattaques et comment se défendre contre elles n'est plus facultative – c'est une compétence vitale pour les professionnels de la cybersécurité.
Pour répondre à ce besoin critique, Kaspersky a élargi son célèbre portefeuille de formation en cybersécurité avec un nouveau cours en ligne dédié à la sécurité des LLM. Conçu pour fournir une base solide dans ce domaine émergent, le cours offre aux professionnels de l'expertise pour évaluer les vulnérabilités, mettre en œuvre des défenses efficaces et concevoir des systèmes d'IA résilients. Les participants s'engageront avec des cas réels et des affectations pratiques, perfectionnant leur capacité à déployer des mesures de sécurité robustes et à améliorer la résilience des applications basées sur LLM.
Le cours s'appuie sur l'expertise approfondie du Kaspersky AI Technology Research Center, dont les spécialistes sont dédiés à l'IA dans la cybersécurité et sécurisent l'IA depuis près de deux décennies – admirant la détection et l'atténuation d'un large éventail de menaces. Dirigée par Vladislav Tushkanov, directeur du groupe de développement de la recherche chez Kaspersky, le programme offre une expérience d'apprentissage engageante grâce à des conférences vidéo convaincantes, des laboratoires pratiques et des exercices interactifs, permettant aux participants de:
- Explorez les techniques d'exploitation telles que le jailbreaks, les injections rapides et la contrebande de jetons pour comprendre comment se défendre contre eux.
- Développer des stratégies de défense pratiques à différents niveaux – modèle, rapide, système et service.
- Appliquez des cadres structurés pour évaluer et améliorer la sécurité LLM.
Cette formation est utile pour ceux qui commencent leur carrière dans la cybersécurité de l'IA, les ingénieurs créant ou intégrant les LLM, et les spécialistes travaillant en étroite collaboration avec l'infrastructure d'IA.
«La montée des modèles de grandes langues a révolutionné l'approche adoptée par les organisations pour construire et s'engager avec l'IA, ouvrant de nouveaux horizons de possibilité. Pourtant, ce saut technologique apporte également des énigmes de sécurité complexes qui exigent une attention immédiate. Pour ces vulnérabilités, la maîtrise de l'art de repérer, nous avons développé ce parcours spécial – pour les professionnels nécessaires. sauvegarde les applications axées sur LLM et garder une longueur d'avance sur le paysage des menaces en évolution. »
– Vladislav Tushkanov, directeur du groupe de développement de la recherche, Kaspersky