Lors de démonstrations au RSAC 2026, la nouvelle fonctionnalité de protection contre l'IA a signalé les URL malveillantes soumises via les invites du chatbot, enregistrant l'activité au niveau du point final et en la faisant apparaître dans la plateforme ESET PROTECT pour enquête.
Lors de démonstrations au RSAC 2026, la nouvelle fonctionnalité de protection contre l'IA a signalé les URL malveillantes soumises via les invites du chatbot, enregistrant l'activité au niveau du point final et en la faisant apparaître dans la plateforme ESET PROTECT pour enquête.
ESET, un leader mondial de la cybersécurité, a annoncé aujourd'hui de prochaines capacités de protection contre l'IA conçues pour protéger la manière dont les employés interagissent avec les outils d'IA. Démontrées au RSAC 2026 et dont le lancement est prévu plus tard cette année, les nouvelles fonctionnalités élargiront la visibilité dans la plateforme ESET PROTECT pour enquêter sur les risques émergents liés à l'utilisation quotidienne de l'IA et à l'adoption de l'IA agentique au sein d'une entreprise.
« Alors que les entreprises s'appuient davantage sur l'IA pour la productivité et l'automatisation, elles sont confrontées à des risques croissants liés à l'exposition des données sensibles, aux violations de conformité et aux résultats trompeurs. L'IA agentique déplace le champ de bataille de la sécurité vers le point final. ESET a passé plus de 30 ans à créer une protection de pointe pour les points finaux alimentée par l'IA et l'apprentissage automatique, nous sommes donc particulièrement bien placés pour aider les organisations à sécuriser cette prochaine vague d'IA dès qu'elle commence. «
– Juraj Jánošík, directeur ESET, Intelligence artificielle
À mesure que les outils d’IA sont intégrés aux flux de travail quotidiens, de nombreux employés utilisent des chatbots dans le cloud ouvert sans surveillance informatique, créant ainsi des risques d’« IA fantôme » et exposant des données sensibles telles que des documents internes, des clés API, des secrets et des informations d’identification. ESET résout ce problème grâce à diverses technologies qui se rapprochent le plus possible de la source, dont une technologie de navigateur sécurisée qui intercepte les interactions de l'IA et analyse les invites et les réponses en temps réel, aidant ainsi à prévenir l'exposition des données et à détecter le contenu malveillant ou trompeur avant qu'il n'affecte les utilisateurs.
Lors de démonstrations au RSAC 2026, la nouvelle fonctionnalité de protection contre l'IA a signalé les URL malveillantes soumises via les invites du chatbot, enregistrant l'activité au niveau du point final et en la faisant apparaître dans la plateforme ESET PROTECT pour enquête. La même approche s'applique aux tentatives d'injection rapides, aux scripts et aux entrées de données sensibles, permettant aux organisations de bloquer ou de surveiller les activités conformément à leurs politiques. Les équipes de sécurité bénéficieront d'une visibilité sur la façon dont les outils d'IA sont utilisés dans leur organisation grâce à la journalisation de la plate-forme ESET PROTECT, ce qui les aidera à enquêter sur les risques et à appliquer les politiques plus efficacement.
À mesure que les organisations développent leur utilisation d’outils d’IA agentique, la surface d’attaque s’étend au-delà des interactions avec les chatbots pour inclure les risques émergents de la chaîne d’approvisionnement de l’IA. Il s'agit notamment de cadres et d'outils d'IA compromis, tels que des composants troyens dans des bibliothèques largement utilisées comme LiteLLM, ainsi que des agents autonomes comme OpenClaw qui peuvent exécuter des actions sur un système avec une surveillance limitée. ESET protège déjà ses clients contre les attaques de la chaîne d'approvisionnement grâce à des bibliothèques compromises fournies via des référentiels standard, mais constate une augmentation de ces types d'attaques et reste engagé dans la poursuite de la recherche et du développement liés aux outils d'IA.
Dans le cadre de son innovation plus large en matière de sécurité de l'IA, ESET a lancé un ESET AI Skills Checker gratuit au RSAC 2026. Disponible pour les clients non-ESET et construit sur la même technologie que les produits de sécurité des points finaux d'ESET et ESET LiveGuard, le scanner analyse les compétences de l'IA à la recherche d'instructions cachées, de codes malveillants et de comportements à risque, en utilisant une inspection multicouche et un sandboxing basé sur le cloud. Il est actuellement disponible en tant que fonctionnalité intégrée pour les utilisateurs ESET Endpoint existants.
Depuis plus de 30 ans, ESET est un pionnier en matière de sécurité des points de terminaison légère et hautes performances, optimisée par l'apprentissage automatique et l'intelligence artificielle. Ces nouvelles fonctionnalités élargissent cette base en aidant les organisations à se défendre contre le paysage actuel des menaces en évolution rapide, dans lequel les cybercriminels exploitent de plus en plus l'IA pour étendre leurs attaques, cibler leurs employés et automatiser une ingénierie sociale sophistiquée.
En tant que seul membre dédié à la cybersécurité de l'Agentic AI Foundation (AAIF), ESET travaille également à sécuriser les protocoles de communication émergents des agents d'IA grâce à une collaboration avec des leaders du secteur comme OpenAI, Amazon, Microsoft et Anthropic. Ensemble, le groupe travaille à l'établissement de normes fiables, de conceptions de protocoles sécurisés et de meilleures pratiques pour l'interopérabilité des agents d'IA.