Le chatbot hanno ispirato i vendor IT ad adeguare i propri sistemi: alcuni suggerimenti su come utilizzarle da Manlio De Benedetto, Senior Director Sales Engineering EMEA di Cohesity.
Le chatbot di IA Generativa (come l’ormai celebre ChatGPT) possono interpretare dati tecnici complessi in un linguaggio leggibile dall’uomo in pochi secondi e gran parte delle aziende ci vede grandi opportunità per incrementi d’efficienza.
Ogni team IT (Information Technology) dovrà trovare le risposte su come utilizzare strumenti di IA (Intelligenza Artificiale), perché ci saranno indicazioni precise dalla direzione aziendale.
In particolare, i cicli di innovazione dell’IA sono estremamente brevi, il che significa che la moltitudine di nuovi approcci, concetti e soluzioni si infittisce ogni giorno, pur considerando che quasi tutti i principali vendor di hardware e software IT hanno aggiunto elementi di IA alle relative soluzioni.
Tuttavia, se i team IT utilizzano l’IA in modo prematuro e ambizioso, potrebbero inconsapevolmente aprire nuove falle nella sicurezza.
Gli Endor Labs hanno esaminato i software open source dello stack tecnologico dell’IA e hanno scoperto che più della metà dei riferimenti ai progetti presenta vulnerabilità ai propri file manifest.
Come possono i team IT sfruttare il potenziale di questa tecnologia senza creare nuove vulnerabilità? Il consiglio di Cohesity è quello d’introdurre l’IA lentamente, in modo controllato.
Alcuni punti chiave
Un buon inizio in tema di IA è legato alle operations aziendali e a tutti quei processi e passaggi in cui i team IT devono intervenire manualmente e investire tempo e risorse per portare a termine il flusso con successo, un approccio Lean automatizzato, se vogliamo.
È necessario esaminare le caratteristiche dei dati a cui accedono, le fonti di dati interne ed esterne che consultano e i partner con cui condividono le informazioni.
Poiché alcuni moduli di IA sono progettati a livello globale e inoltrano automaticamente i dati interni ai server esterni, alcune aziende sono state sorprese da questo sviluppo e hanno appreso faticosamente che gli utenti interni stavano alimentando i data base degli strumenti di IA globali.
Gli approcci all’IA guidati dal vendor (come quello di Cohesity), vengono integrati nel loro ambiente e ne rivelano il funzionamento, consentendo ai team IT di valutare con precisione il rischio e di evitare possibili scambi di dati con l’esterno.
I team IT devono essere selettivi su sistemi e fonti di dati che i moduli di IA esaminano attivamente, per iniziare con un piccolo cluster e introdurre l’IA in modo controllato.
Dedicare del tempo all’apprendimento
Quando i moduli di IA vengono attivati, il loro funzionamento e i loro suggerimenti devono essere monitorati da un responsabile del team IT per un ampio periodo di tempo.
L’IA agirà sempre meglio e in modo più accurato quanto più a lungo lavorerà e quanti più dati e modelli avrà raccolto nel singolo ambiente dell’azienda. Inizialmente, quindi, commetterà più errori man mano che impara.
I dati sono fondamentali: più sono, meglio è. Si consiglia di adottare anche il processo RAG (Retrieval-Augmented Generation), per ampliare i dati di apprendimento.
In ogni caso, i moduli possono suggerire rapidamente le misure più appropriate, soprattutto per le attività standard. Se, ad esempio, gli indirizzi IP provenienti da aree geografiche sospette vengono bloccati da un firewall, l’IA può suggerire le regole giuste e un esperto di IT deve solo approvarle. L’IA suggerisce, ma la decisione finale spetta all’uomo.
Più l’IA diventa sofisticata, più è in grado di preparare decisioni critiche e di aiutare in modo sostanziale i team a risparmiare tempo, smistando in anticipo il volume di informazioni nelle operazioni aziendali.
Gli ambienti odierni generano quotidianamente petabyte (cioè milioni di gigabyte) di dati di log, che indicano varie criticità legate alla sicurezza o alle performance. Nella maggior parte degli ambienti, l’80% di queste informazioni non viene valutato perché il volume è troppo elevato. L’IA può elaborare questi dati su base giornaliera e renderli accessibili per le query vocali.
È possibile porre ai dati domande come “Mostrami tutti i sistemi con uno specifico livello di patch e questa vulnerabilità” senza dover scrivere una singola stringa come in precedenza. I team IT saranno più informati e prenderanno quindi decisioni migliori.
Prepararsi ad affrontare l’esterno
In particolare, i moduli IA relativi alla sicurezza vengono spesso istruiti ad aggiornarsi all’esterno – su nuovi metodi di attacco, vulnerabilità, patch e così via. In questo caso è necessario controllare attentamente quali informazioni escono e quali dati tornano indietro. Nessun CISO (Chief Information Security Officer) accetterà che i dettagli sulla propria struttura di rete e sulle vulnerabilità e patch attuali vengano inseriti in un motore di IA esterno. È opportuno analizzare in un test pilota quali dati vengono realmente inviati.
I vendor con approcci maturi all’AI possono mostrare in dettaglio quali informazioni immettere e se ci sono modi per l’azienda di escludere alcuni elementi fin dall’inizio. Esaminare ogni singolo input diventa complicato su base giornaliera a causa del volume di aggiornamenti dei moduli di IA, a meno non venga sviluppata un’autorità di controllo dell’IA, che a sua volta controlli gli input e gli output dell’IA dal punto di vista della sicurezza.
Tuttavia, i team IT dovrebbero impegnarsi in questo processo, perché il potenziale dell’IA autonoma nella propria rete è immenso, dove ogni area di attività ne trarrà vantaggio e si creeranno in automatico delle sinergie. Si pensi che l’IA delle risorse umane scambi informazioni con l’IA della sicurezza e con quella del magazzino sul fatto che un utente dell’ufficio finanziario sta accedendo ai server di ricerca tramite il suo smartphone. Un messaggio di allarme verrebbe inviato immediatamente al team di sicurezza.
Conclusioni (per ora)
L’intelligenza artificiale può ridurre drasticamente l’enorme carico di lavoro dei team IT e di sicurezza, fornendo report completi e indicazioni chiare e precise sui passaggi successivi, dando una prospettiva di lavoro ai gruppi operativi che sono sottodimensionati per i difficili compiti da svolgere. Entrando nel merito delle attività di Data Protection & Recovery, occorre rivolgersi al vendor più capace e innovativo che sia pronto a fornire l’IA già parte integrante delle proprie soluzioni.
Oggi l’IA può essere di grande supporto, svolgendo in autonomia molte delle attività più importanti ma al tempo stesso ripetitive e noiose, trasmettendo gli eventi ai team IT/Security quando diventano critici e complicati. In questo modo, l’IA può contribuire in modo decisivo ad accrescere la resilienza informatica contro gli attacchi che – ironia della sorte – sono sempre più spesso sferrati dall’IA.
– a cura di Manlio De Benedetto, Senior Director Sales Engineering EMEA di Cohesity
a cura di Redazione
Condividi l'articolo
Scegli su quale Social Network vuoi condividere