La soluzione AI-SPM amplia il portfolio di Singularity Cloud Security per offrire visibilità sull’utilizzo dei servizi di AI, rilevando configurazioni errate e vulnerabilità nelle applicazioni di AI e individuando potenziali vie di attacco
SentinelOne (NYSE: S), leader a livello globale nella cybersecurity basata sull’intelligenza artificiale, ha presentato nuove funzionalità di gestione della postura di sicurezza dell’AI (AI-SPM) per proteggere e rendere sicuro l’uso dei servizi di AI negli ambiti lavorativi. Realizzata sulla piattaforma di cybersecurity Singularity™ di SentinelOne, leader di mercato, la nuova soluzione amplia il portfolio Singularity Cloud Security di SentinelOne, che vanta le migliori valutazioni, per offrire ai clienti visibilità e protezione sui servizi cloud di AI, noti e non, in esecuzione nei sistemi. AI-SPM di SentinelOne consentirà ai team di sicurezza di rilevare tutte le applicazioni e i modelli di AI in uso, di individuare le errate configurazioni e le vulnerabilità dei servizi di AI e di ottenere visibilità sui potenziali percorsi di attacco relativi ai workload di AI. Di conseguenza, le aziende possono sfruttare con fiducia i vantaggi dell’AI in termini di produttività e competitività, riducendo al contempo i rischi per la sicurezza, la privacy e la conformità normativa insiti nelle applicazioni e nei modelli di AI basati in cloud.
Per i clienti di SentinelOne è disponibile l’“Early Adopter Access”, mentre la disponibilità a livello generale è prevista per i primi mesi del 2025.
Nel maggio 2024, una survey di McKinsey ha rilevato che il 65% delle organizzazioni utilizzava l’AI generativa in almeno una divisione aziendale, con un aumento quasi doppio rispetto alla percentuale del 33% registrata nel 2023, e che il 50% utilizzava già l’AI generativa in molteplici ambiti. Per soddisfare la domanda, tutti i principali provider di servizi di public cloud, tra cui Amazon Web Services, Google Cloud e Microsoft Azure, hanno introdotto modalità semplici per realizzare, addestrare e gestire applicazioni di AI generativa in cloud.
“La portata e i vantaggi dell’AI generativa sono innegabili. Tuttavia, proprio gli strumenti e i servizi cloud che semplificano e accelerano l’adozione dell’AI generativa aprono una nuova superficie di attacco e un potenziale rischio normativo”, ha dichiarato Ely Kahn, Vice President of Product Management di SentinelOne. “Con la soluzione AI-SPM, consentiamo ai clienti di ottenere i vantaggi della GenAI e di fornire contestualmente ai team la visibilità, la consapevolezza e gli strumenti necessari per proteggere i dati sensibili presenti in queste potenti applicazioni cloud”.
La nuova soluzione AI-SPM inserita nel portfolio Singularity Cloud Security di SentinelOne, si basa sulle caratteristiche CNAPP complete della piattaforma Singularity e prevede funzionalità di:
- Rilevare e ottenere visibilità su pipeline e modelli di AI noti e non – L’AI-SPM di SentinelOne individua tutti i servizi di AI, di training, i modelli distribuiti e le pipeline di servizi cloud come AWS (Amazon SageMaker e Amazon Bedrock), Google Cloud (Google Vertex AI) e Microsoft Azure (Microsoft Azure OpenAI).
- Individuare e identificare vulnerabilità e configurazioni errate nell’infrastruttura di AI – L’AI-SPM di SentinelOne fornisce indicazioni su eventuali configurazioni errate nei servizi AI per proteggere dall’esposizione involontaria che potrebbe portare a possibili esfiltrazioni di dati e accessi non autorizzati a modelli e servizi di AI.
- Visualizzazione e analisi di potenziali percorsi di attacco: Il graph explorer di SentinelOne visualizza i percorsi di attacco relativi agli avvisi di workload basati sull’AI per mostrare graficamente come un aggressore potrebbe muoversi nell’ambiente del cliente e potenzialmente spostarsi lateralmente per accedere alle risorse.
- Gestire e ridurre i rischi di conformità – Concentrarsi sulle norme dei dati che contribuiscono alla conformità a livello aziendale e alle regole di base del rischio come parte di una valutazione più ampia rispetto a standard normativi come l’EU AI Act e il framework NIST per la gestione dei rischi dell’AI.