Puntare sulla formazione è la via più efficace per superare le paure legate all’adozione dell’IA in azienda.
Le molteplici potenzialità dell’IA (Intelligenza Artificiale) in termini di efficienza e produttività sono fonte di grande entusiasmo, ma anche di tanti interrogativi soprattutto rispetto a governance, sicurezza e pregiudizi. Per questo, quando si parla di IA, i responsabili IT (Information Technology) sono spesso in bilico tra quelle che gli inglesi chiamano FOMO (Fear Of Missing Out) e FOMU (Fear Of Messing Up), ossia la paura di perdere un’occasione e quella di commettere degli imperdonabili errori.
Sicuramente, rispetto alle tecnologie innovative sviluppate negli ultimi decenni, come il cloud o l’IoT, l’IA mette in campo aspetti molto diversi da tenere in considerazione, che implicano non solo l’implementazione di nuovi strumenti o applicazioni, ma anche l’analisi dell’impatto che questi possono avere sull’intera organizzazione.
Alla luce di ciò, Juniper Networks ha collaborato con Wakefield Research per condurre un’indagine globale su 1000 dirigenti che si occupano di IA e ML (Machine Learning). I risultati evidenziano alcune sfide concrete da affrontare in diverse tipologie di aziende e settori che possono aiutare i responsabili IT a capire come superare le incertezze associate all’adozione dell’IA.
Pressione per l’implementazione dell’IA
L’82% degli intervistati sente la pressione dei vertici aziendali per una rapida implementazione dell’intelligenza artificiale in un’ampia gamma di applicazioni.
Nel 2023, l’ondata di soluzioni di IA generativa ha reso più tangibili le potenzialità dell’IA, mentre i LLM (Large Language Model) hanno reso tale tecnologia più accessibile. La percentuale rilevata, dunque, non sorprende, ma conferma quanto i CIO (Chief Information Officer) e i responsabili IT siano sotto pressione in questo momento. Tuttavia, sebbene l’urgenza sia palpabile, è anche molto importante procedere con cautela e trovare ambiti di applicazione sicuri.
Percezioni sull’accuratezza dei risultati
L’87% degli intervistati si chiede se sia possibile verificare l’accuratezza dei risultati dell’IA, mentre il 99% ritiene che “alcuni, la maggior parte o tutti” i risultati dell’IA siano alterati da pregiudizi.
Gran parte di questi timori sono dovuti alle preoccupazioni rispetto agli input utilizzati per il training dell’IA. Ma c’è dell’altro: l’addestramento di questo tipo di tecnologia richiede una valutazione non solo del modo in cui i dati vengono inseriti nel modello e di come viene testata l’IA, ma anche del tipo di utenza che userà i modelli una volta completati. Esistono tecniche, come la RAG (Retrieval-Augmented Generation), che consentono di indirizzare il modello verso risposte che si sa essere accurate, oltre a soluzioni human-in-the-loop che possono contribuire a garantire la precisione dei risultati.
Le soluzioni specializzate di intelligenza artificiale e machine learning, come ad esempio l’AI-Native Network di Juniper, utilizzano dati provenienti dalle operazioni in corso ed è proprio questo a renderne accurati i risultati.
Fiducia nell’IA
Il 91% ritiene che i dipendenti si fidino dell’IA senza capirne il funzionamento, mentre per l’89% i dipendenti si fidano dell’IA più di quanto dovrebbero.
Per molti, la fiducia cieca che i dipendenti sembrano nutrire nei confronti dell’IA è una sfida importante. Ecco perché dare priorità alla sensibilizzazione e alla formazione è cruciale e su questo è d’accordo l’84% degli intervistati, convinto che la propria organizzazione debba aumentare la formazione in questo ambito. Infatti, solo così è possibile fornire ai dipendenti le conoscenze necessarie a prendere decisioni informate sull’utilizzo sicuro della tecnologia.
Rapidità di implementazione
L’87% degli intervistati ha dichiarato di essere stato precipitoso nell’implementazione della tecnologia, mentre per il 74% le politiche aziendali non sono state in grado di tenere il passo con i potenziali rischi e benefici dell’IA.
Se si considera la velocità con cui le soluzioni evolvono e ciò che sono in grado di fare, è comprensibile che la spinta verso un passaggio rapido all’IA sia un fattore di tensione in molte aziende e che, allo stesso tempo, le politiche per l’utilizzo di una tecnologia così potente siano spesso un punto di stallo. Tuttavia, quando si parla di IA e policy aziendali, non è necessario reinventarsi completamente. Infatti, la maggior parte delle aziende ha già delle politiche chiare sulla gestione e condivisione dei dati che, in molti casi, possono essere semplicemente aggiornate, prevedendo la loro applicazione anche agli strumenti di IA generativa esterni.
Cambiamenti nella forza lavoro
Il 78% degli intervistati prevede che l’implementazione dell’IA comporterà maggiori responsabilità per i dipendenti, mentre per l’85% l’IA impatterà sulle future opportunità di avanzamento di carriera.
Nonostante le preoccupazioni legate alla scomparsa di molti tipi di occupazione a causa dell’IA siano molto diffuse, la capacità dei manager di rendere più efficienti se stessi e i propri collaboratori proprio grazie agli strumenti messi in campo dall’IA è diventata un’abilità altamente ricercata e spendibile sul mercato. L’unico modo per assicurarsi maggiori opportunità professionali resta, dunque, sempre lo stesso, ossia continuare ad approfondire le proprie competenze.
Onclusioni (provvisorie)
Il concetto di IA esiste da quasi 70 anni (il termine è nato nel 1955 preparando la Conferenza di Dartmouth in USA nell’anno dopo), ma soltanto di recente ha fatto breccia nella coscienza comune con lo sviluppo di ChatGPT di OpenAI da fine 2022 e sarà in questo 2024 che si potrà capire quanto questa tecnologia sia in grado di rimodellare il mondo in modo radicale.
Nel frattempo, occorre pensare ai settori in cui l’IA è più utile e dare priorità alle aree di applicazione ad alto impatto e a basso rischio, come ad esempio il networking, per gettare le basi di un successo che duri nel tempo.
a cura di Redazione
Condividi l'articolo
Scegli su quale Social Network vuoi condividere