×
ItalianoEnglish

Grandangolo Communications

  • Home
  • Company
  • Servizi
    • Public Relation
    • Digital PR
    • Marketing
    • Lead Generation
    • Eventi
  • Best Practice
  • Customer Press Room
  • Contatti
  • Languages
  • Home
  • Customer Press Room
  • Vectra AI
  • Secondo Vectra AI nel 2025 l’AI supporterà sia gli attacchi che la difesa della cybersecurity

Customer Press Room

Secondo Vectra AI nel 2025 l’AI supporterà sia gli attacchi che la difesa della cybersecurity

da grandangolo / martedì, 26 Novembre 2024 / Pubblicato il Vectra AI

La crescente attenzione alla conformità normativa richiesta dalla Direttiva Nis2 metterà ulteriormente sotto pressione i team SOC

Vectra AI, Inc., leader nel settore XDR (rilevamento e risposta estesi) basato sull’intelligenza artificiale, ha condiviso i principali trend che caratterizzeranno il settore della cybersecurity nel prossimo anno. Con un costo legato ai reati informatici previsto in crescita nel 2025, l’affacciarsi di minacce sempre più sofisticate grazie alle nuove tecnologie e la piena attuazione di normative a supporto della cybersecurity, comprendere queste tendenze emergenti è essenziale per le organizzazioni che vogliono evolversi per affrontare un contesto sempre più complesso.

Vectra AI prevede che i Chief Information Security Officer (CISO) dovranno affrontare sfide crescenti guidate dalla rapida adozione dell’intelligenza artificiale e da una maggiore e più stringente pressione normativa. L’integrazione sempre più forte tra AI e piattaforme cloud, la velocità e la sofisticatezza degli attacchi e i vincoli della Nis2 richiederanno alle aziende di adottare una strategia di sicurezza proattiva in grado di rilevare e fermare le minacce prima che causino danni. E ciò anche grazie all’Intelligenza Artificiale.

Gli esperti di Vectra AI hanno delineato a quali minacce le organizzazioni devono prepararsi per rimanere al sicuro in un ambiente digitale in costante evoluzione:

Christian Borst, CTO EMEA di Vectra AI:

  • Il futuro è certo: l’intelligenza artificiale “agentica” si ritaglierà un ruolo nella sicurezza informatica
    Mentre l’entusiasmo per la GenAI inizia a scemare, nel 2025 il settore della cybersecurity rivolgerà la sua attenzione ai modelli di Agentic AI come mezzo principale per creare sistemi di intelligenza artificiale potenti di livello aziendale per un esame accurato dei clienti.

A differenza dei sistemi convenzionali di Large Language Models (LLM), queste nuove soluzioni fanno sempre più uso di “agenti” LLM, sviluppati e quindi messi nella condizione di svolgere compiti in modo indipendente, prendere decisioni e adattarsi a situazioni mutevoli. Ciò grazie all’accesso agli strumenti necessari per raggiungere un obiettivo ben definito e particolare, piuttosto che essere incaricati di una missione completa end-to-end.

Il modello AI ad agenti suddivide gli obiettivi di alto livello in sotto-attività ben definite e fornisce ai singoli agenti la capacità di eseguire ciascuno di questi sotto-obiettivi. Gli agenti possono interagire, esaminarsi a vicenda e collaborare tra loro, migliorando ulteriormente l’accuratezza e la solidità dei modelli di GenAI che il settore della sicurezza informatica richiede.

  • Gli autori delle minacce si concentreranno sull’aumento della produttività dell’AI, ma è improbabile che si vedranno agenti di intelligenza artificiale dannosa già all’opera

Nel breve termine, vedremo gli aggressori concentrarsi sul tentativo di perfezionare e ottimizzare il loro utilizzo dell’intelligenza artificiale, in particolare per ricercare obiettivi ed eseguire attacchi di spear phishing su larga scala. Mentre la GenAI sarà utilizzata per risparmiare tempo nelle azioni noiose e ripetitive che verranno delegate al LLM, quando possibile.

Nello sviluppo di agenti di AI, gli autori delle minacce sono già in una fase sperimentale, in particolare stanno testando fino a che punto possono eseguire attacchi completi senza che ciò richieda l’intervento umano. Ciò nonostante, crediamo manchi ancora del tempo per vedere questi tipi di agenti impiegati dai criminali informatici effettivamente e in modo efficace. Non va tuttavia sottovalutato che la capacità estremamente redditizia in termini di tempo e costi degli agenti GenAI, spingerà in futuro gli autori delle minacce a crearli e utilizzarli per la gestione di vari aspetti di un attacco: dalla ricerca e ricognizione, alla segnalazione e raccolta di dati sensibili, fino all’esfiltrazione autonoma di tali dati, senza la necessità di guida umana. Una volta che ciò accadrà, senza alcun segnale di una presenza umana malintenzionata, le aziende e gli enti dovranno trasformare radicalmente il modo in cui individuano i segnali di un attacco.

  • I chatbot generativi con intelligenza artificiale causeranno violazioni dei dati di alto profilo
    Nel 2025, sentiremo parlare di numerosi casi in cui gli autori delle minacce inganneranno una soluzione aziendale di Gen AI inducendola a fornire informazioni sensibili e a causare violazioni di dati di alto profilo. Molte aziende utilizzano la Gen AI per creare chatbot rivolti ai clienti, al fine di automatizzare e facilitare molte attività, dalle prenotazioni al servizio clienti. Ovviamente per fare ciò gli LLM devono avere accesso a informazioni e sistemi senza, in alcuni casi, alcuna restrizione su enormi quantità di dati potenzialmente sensibili e senza adeguate misure di sicurezza.

A causa del mezzo semplice e umano con cui possiamo “istruire” gli LLM (ovvero il linguaggio naturale), molte organizzazioni trascurano che gli hacker possono sfruttare una chat per far sì che tale sistema si comporti in modi dannosi per l’azienda. A complicare le cose, è probabile che questi tipi di jailbreak non siano familiari ai professionisti della sicurezza che non hanno tenuto il passo con la tecnologia LLM. Ad esempio, la rimozione delle restrizioni può verificarsi a seguito di interazioni apparentemente innocue in cui gli attaccanti potrebbero incaricare un LLM di fingere di essere un autore di romanzi di fantasia, scrivendo una storia che includa tutti i segreti nascosti che la tua organizzazione sta cercando mettere al sicuro dagli aggressori. Saremo quindi di fronte a un attacco agli LLM diverso da qualsiasi altro si sia visto nei contesti di sicurezza più tradizionali.

Per proteggersi dagli autori delle minacce che cercano di superare in astuzia gli strumenti di Gen AI, le organizzazioni devono creare protezioni robuste per impedire agli LLM di divulgare informazioni sensibili e impostare modalità per rilevare se un attore della minaccia stia mettendo alla prova un LLM, in modo che la conversazione venga interrotta prima che sia troppo tardi.

Massimiliano Galvagna, Country Manager di Vectra AI per l’Italia:

  • L’intelligenza artificiale autonoma guadagnerà slancio mentre i Copilot perderanno forza

Nel 2025, l’entusiasmo iniziale che circondava i copilot della sicurezza inizierà a diminuire man mano che le organizzazioni valuteranno i costi rispetto al valore effettivo fornito. Di conseguenza vedremo uno spostamento verso sistemi di intelligenza artificiale più autonomi che, a differenza dei copilot basati sull’intelligenza artificiale, sono progettati per funzionare in modo indipendente, richiedendo un intervento umano minimo. Nel 2025 verrà dato risalto ai modelli di AI autonomi come la prossima frontiera della sicurezza informatica ed enfasi alla loro capacità di rilevare, rispondere e persino mitigare le minacce in tempo reale, il tutto senza input umano.

  • Il sovraccarico normativo potrebbe dare agli aggressori un vantaggio

La crescente attenzione alla conformità normativa introdotta dalla Direttiva Nis2 potrebbe rischiare di sopraffare le organizzazioni, facilitando il sopravvento agli aggressori. I team SOC sono infatti già sotto forte pressione, ma ciò nonostante si troveranno a dedicare risorse significative al rispetto dei requisiti di conformità che, sebbene indubbiamente essenziali, possono distrarre da strategie più dinamiche di rilevamento e risposta alle minacce. Focalizzarsi su un approccio incentrato eccessivamente sulla conformità, potrebbe far correre il rischio alle organizzazioni di adottare una mentalità da lista di controllo in cui le organizzazioni si concentrano sulla selezione di caselle anziché sulla costruzione di un efficace atteggiamento di sicurezza olistico e proattivo.

Per contrastare questo pericolo, le organizzazioni dovranno trovare un migliore equilibrio tra aderenza normativa e gestione adattiva delle minacce, investendo in tecnologie come strumenti di sicurezza informatica basati sull’intelligenza artificiale che possono aiutare ad automatizzare sia gli sforzi di conformità che quelli di difesa.

Taggato in: Vectra AI

Su grandangolo

Che altro puoi leggere

Scott Dussault è il nuovo Chief Financial Officer di Vectra AI
Vectra AI presenterà l’importanza dell’attack-signal intelligence al GITEX 2022
Vectra AI potenzia la leadership aziendale con la nomina di un nuovo CFO che promuoverà una crescita profittevole

Customer Press Room

  • Acronis ESG Report 2024: crescita sostenibile, leadership nella Cyber Security e responsabilità sociale

    Obiettivi a lungo termine e iniziative per raff...
  • Red Hot Cyber organizza a Roma la 4° edizione della conferenza gratuita sulla Sicurezza Informatica e le Tecnologie Digitali

    L’obiettivo è far avvicinare i giovani ai...
  • ESET inclusa tra gli esperti intervistati nel report sulle best practice in ambito Threat Intelligence di Forrester

    Le soluzioni ESET Threat Intelligence (ETI) son...
  • Con il programma #TeamUp di Acronis, rinnovata la partnership con PREMA Racing e il distributore LEADER per il Gran Premio d’Australia 2025

    Le soluzioni di Acronis Cyber Protection sono a...
  • Vertiv presenta un nuovo sistema di dissipazione del calore flessibile e ad alta densità, che supporta il raffreddamento ibrido a liquido e ad aria per le applicazioni di AI

    Vertiv™ CoolLoop Trim Cooler è una soluz...

Archivi

  • Marzo 2025
  • Febbraio 2025
  • Gennaio 2025
  • Dicembre 2024
  • Novembre 2024
  • Ottobre 2024
  • Settembre 2024
  • Agosto 2024
  • Luglio 2024
  • Giugno 2024
  • Maggio 2024
  • Aprile 2024
  • Marzo 2024
  • Febbraio 2024
  • Gennaio 2024
  • Dicembre 2023
  • Novembre 2023
  • Ottobre 2023
  • Settembre 2023
  • Agosto 2023
  • Luglio 2023
  • Giugno 2023
  • Maggio 2023
  • Aprile 2023
  • Marzo 2023
  • Febbraio 2023
  • Gennaio 2023
  • Dicembre 2022
  • Novembre 2022
  • Ottobre 2022
  • Settembre 2022
  • Agosto 2022
  • Luglio 2022
  • Giugno 2022
  • Maggio 2022
  • Aprile 2022
  • Marzo 2022
  • Febbraio 2022
  • Gennaio 2022
  • Dicembre 2021
  • Novembre 2021
  • Ottobre 2021
  • Settembre 2021
  • Agosto 2021
  • Luglio 2021
  • Giugno 2021
  • Maggio 2021
  • Aprile 2021
  • Marzo 2021
  • Febbraio 2021
  • Gennaio 2021
  • Dicembre 2020
  • Novembre 2020
  • Ottobre 2020
  • Settembre 2020
  • Agosto 2020
  • Luglio 2020
  • Giugno 2020
  • Maggio 2020
  • Aprile 2020
  • Marzo 2020
  • Febbraio 2020
  • Gennaio 2020
  • Dicembre 2019
  • Novembre 2019
  • Ottobre 2019
  • Settembre 2019
  • Agosto 2019
  • Luglio 2019
  • Giugno 2019
  • Maggio 2019
  • Aprile 2019
  • Marzo 2019
  • Febbraio 2019
  • Gennaio 2019
  • Dicembre 2018

Categorie

  • A10
  • Abstract
  • abstract
  • Acronis
  • Ally Consulting
  • Arrow
  • Arrow Electronics
  • Axiante
  • Babel
  • Centro Computer
  • Cohesity
  • Consorzio Italia Cloud
  • Consys
  • D-Link
  • Eset
  • G.B. Service
  • Habble
  • HiSolution
  • HYCU
  • Icos
  • Information Tecnology
  • Ivanti
  • Link11
  • MobileIron
  • Netalia
  • Nethive
  • Nexthink
  • Nuvias
  • Praim
  • QAD
  • Qualys
  • Red Hot Cyber
  • Riverbed
  • Saviynt
  • Sensormatic
  • SentinelOne
  • Talentia Software
  • Vectra
  • Vectra AI
  • Vertiv

Ufficio stampa, digital PR, marketing, lead generation: tutti i progetti nascono dalla nostra passione e competenza, con un tocco immancabile di creatività e innovazione.

COMPANY

Grandangolo Communications Srl
Via Sardegna 19
20146 Milano
Telefono +39 335 8283393
info@grandangolo.it

I SERVIZI

  • Home
  • Company
  • Servizi
  • Best Practice
  • Customer Press Room
  • Contatti
  • Languages

CONTATTI

  • Contatti
  • Cookie policy
  • Privacy policy

© 2019 GRANDANGOLO COMMUNICATIONS SRL | P.IVA IT 06394850967 | All rights reserveD.

Powered by Webpowerplus

TORNA SU