Nuovo report del Capgemini Research Institute: la GenAI aumenta le vulnerabilità, ma il suo uso aiuta a rilevare le minacce con più accuratezza.
Il nuovo report “New defenses, new threats: What AI and GenAI bring to cybersecurity” del Capgemini Research Institute suggerisce che, sebbene stiano emergendo nuovi rischi in materia di cybersecurity, derivanti dalla proliferazione dell’IA (Intelligenza Artificiale) e della GenAI (l’IA generativa), queste tecnologie rappresentano un cambiamento trasformativo nel rafforzamento delle strategie di cyber-difesa a lungo termine che consentono di anticipare, rilevare e rispondere alle minacce. Due terzi delle organizzazioni considerano ormai prioritaria l’IA nelle loro operazioni di sicurezza.
Il nuovo report del Capgemini
Secondo il report, se da un lato l’IA è considerata dalle organizzazioni una tecnologia strategica per il rafforzamento delle proprie strategie di sicurezza, dall’altro la crescente adozione della GenAI in vari settori (il 24% degli intervistati ha abilitato le funzionalità di GenAI in alcune o nella maggior parte delle proprie funzioni e sedi, dice il report del Capgemini Research Institute “Harnessing the value of generative AI 2nd edition: Top use cases across sectors”, del luglio 2024) comporta una maggior vulnerabilità.
La GenAI introduce 3 principali aree di rischio per le organizzazioni: attacchi più sofisticati con un maggior numero di avversari, l’espansione della superficie di attacco informatico e l’aumento delle vulnerabilità nell’intero ciclo di vita delle soluzioni personalizzate di GenAI. Questi rischi sono inoltre aggravati dall’uso improprio dell’IA e della GenAI da parte dei dipendenti, con un conseguente aumento significativo del rischio di violazioni dei dati.
2 su 3 si temono più esposti a minacce
Quasi tutte le organizzazioni intervistate (97%) affermano di aver riscontrato violazioni o problemi di sicurezza legati all’uso della GenAI nell’ultimo anno. Questa tecnologia comporta anche rischi aggiuntivi, tra cui allucinazioni, generazione di contenuti distorti, dannosi o inappropriati e attacchi di tipo prompt injection (gli attacchi di tipo prompt injection comportano l’utilizzo di input dannosi per manipolare i modelli di IA e di GenAI, compromettendone l’integrità). 2 organizzazioni su 3 (67%) sono preoccupate per l’inquinamento dei dati e la possibile fuga di dati sensibili attraverso i dataset utilizzati per l’addestramento dei modelli di intelligenza artificiale generativa.
Inoltre, la capacità della GenAI di generare contenuti sintetici altamente realistici sta comportando ulteriori rischi: oltre 2 aziende intervistate su 5 (43%) hanno dichiarato di aver subito perdite finanziarie derivanti dall’uso di deepfake.
Circa 6 organizzazioni su 10 ritengono inoltre di dover aumentare il budget destinato alla cybersecurity per rafforzare adeguatamente le proprie difese.
IA e GenAI fondamentali contro gli attacchi
L’indagine, condotta su mille organizzazioni (in 12 settori e 13 Paesi da Asia-Pacifico, Europa e Nord America, con un fatturato annuo pari o superiore a 1 miliardo di dollari) interessate all’utilizzo dell’IA nell’ambito della cybersecurity o che già la stanno utilizzando, rileva che la maggior parte di esse si affida a questa tecnologia per rafforzare la sicurezza dei dati, delle applicazioni e del cloud, grazie alla sua capacità di analizzare rapidamente grandi quantità di dati, identificare modelli di attacco e prevedere potenziali violazioni.
Oltre il 60% delle aziende intervistate ha registrato una riduzione di almeno il 5% del proprio time-to-detect, mentre quasi il 40% ha dichiarato che il tempo di ripristino è diminuito almeno del 5% a seguito dell’implementazione dell’IA nei propri SOC (Security Operations Center).
Tra le organizzazioni intervistate, 3 su 5 (61%) ritengono che l’IA sia essenziale per una risposta efficace alle minacce, in quanto consente loro di implementare strategie di sicurezza proattive contro attori sempre più sofisticati. Inoltre, la stessa percentuale ritiene che l’IA generativa sia in grado di rafforzare le strategie di difesa proattiva a lungo termine, grazie a un rilevamento più rapido delle minacce. Oltre la metà ritiene inoltre che questa tecnologia consentirà agli analisti di cybersecurity di concentrarsi maggiormente sulle strategie di contrasto a minacce più complesse.
Un’arma a doppio taglio
«L’uso dell’IA e della GenAI – ha dichiarato Monia Ferrari, amministratore delegato del Capgemini in Italia – si è finora rivelato un’arma a doppio taglio. Se da un lato introduce rischi senza precedenti, dall’altro le organizzazioni si stanno affidando sempre più all’IA per un rilevamento più rapido e accurato degli incidenti informatici. L’IA e la GenAI forniscono ai team di sicurezza nuovi e potenti strumenti per limitare questi incidenti e trasformare le loro strategie di difesa. Per garantire che rappresentino un vantaggio significativo di fronte a minacce sempre più sofisticate, le organizzazioni devono mantenere e dare priorità al monitoraggio continuo dell’evoluzione delle minacce informatiche, costruire in modo adeguato l’infrastruttura di gestione dei dati, i framework per l’adozione dell’IA e le relative linee guida etiche e introdurre validi programmi di formazione e sensibilizzazione dei dipendenti».
a cura di Redazione
Condividi l'articolo
Scegli su quale Social Network vuoi condividere