Nuovo report NTT Data: l’81% dei manager chiede una leadership più chiara per evitare rischi e sostenere l’innovazione.

La vertiginosa crescita dell’IA (Intelligenza Artificiale) sta creando un vuoto di governance, che porta a difficoltà nel bilanciare gli aspetti di innovazione, responsabilità ed etica: tutto questo sta facendo scattare campanelli per il futuro dell’adozione futura di questa tecnologia.
Il report
Una nuova ricerca condotta da NTT Data, riferimento globale nei servizi IT (Information Technology) e di business digitale, mostra una tendenza generale da parte delle aziende verso l’adozione dell’AI, ma un vuoto di responsabilità minaccia di rallentare il progresso di questa tecnologia. Infatti, oltre l’80% dei manager che hanno partecipato al sondaggio riconosce che la leadership, la governance e la preparazione degli addetti non riescono a tenere il passo dei progressi dell’IA, mettendo a rischio investimenti, sicurezza e fiducia del pubblico.
Il report “The AI Responsibility Gap: Why Leadership is the Missing Link” si basa sulla visione condivisa da oltre 2300 dirigenti e decisori aziendali di alto livello in 34 Paesi, evidenziando l’urgente necessità di un chiaro mandato per allineare l’innovazione che l’IA promette con la responsabilità etica.
«L’entusiasmo per l’IA è innegabile – ha affermato Abhijit Dubey, CEO di NTT Data, Inc. – ma i risultati della nostra survey dimostrano che l’innovazione senza responsabilità è un moltiplicatore di rischi. Le organizzazioni hanno bisogno di strategie di governance dell’IA guidate dal top management per colmare questo divario, prima che il progresso si arresti e la fiducia si eroda».
I campanelli d’allarme
Le indicazioni principali che il vuoto di responsabilità legato all’IA si sta estendendo sono anzitutto:
- Il tema innovazione vs. responsabilità crea divisioni nei consigli di amministrazione – La C-Suite è divisa sul tema: un terzo dei manager ritiene che la responsabilità sia più importante dell’innovazione, mentre un altro terzo dà priorità all’innovazione rispetto alla sicurezza; il restante terzo li valuta equamente.
- L’incertezza nei regolamenti blocca la crescita – Oltre l’80% dei leader aziendali afferma che la scarsa chiarezza delle normative governative ostacola gli investimenti e l’implementazione dell’IA, ritardandone l’adozione.
- Sicurezza ed etica non stanno al passo delle ambizioni dell’IA – L’89% dei manager C-level è preoccupato per i rischi che l’intelligenza artificiale pone alla sicurezza, ma solo il 24% dei CISO (Chief Information Security Officer) ritiene che le proprie organizzazioni dispongano di un solido quadro per bilanciare i rischi e la creazione di valore.
- La forza lavoro non è pronta – Il 67% dei manager afferma che i propri dipendenti non hanno le competenze per utilizzare efficacemente l’intelligenza artificiale, mentre il 72% ammette di non avere una politica sull’utilizzo responsabile dell’IA.
- Emergono preoccupazioni sulla sostenibilità – Il 75% del campione afferma che le ambizioni dell’intelligenza artificiale sono in conflitto con gli obiettivi di sostenibilità aziendale, costringendo le organizzazioni a riconsiderare le soluzioni di IA più energivore.
Il mandato della dirigenza
Senza un’azione decisa, le organizzazioni rischiano un futuro in cui i progressi dell’IA saranno più rapidi della governance necessaria per garantirne un’adozione etica, sicura ed efficace. I leader devono affrontare:
- Principi di responsabilità intrinseca – L’IA, inclusa quella generativa, deve essere sviluppata in modo responsabile fin dalla fase progettuale e lungo l’intero arco del suo sviluppo, integrando sicurezza, compliance e trasparenza nello sviluppo fin dalla prima riga di codice.
- La necessità di una governance – I leader devono guardare oltre i requisiti legali e soddisfare gli standard etici e sociali dell’IA utilizzando un approccio sistematico.
- Preparazione della forza lavoro – Le aziende devono formare i dipendenti affinché possano lavorare a stretto contatto con l’IA e garantire che i team ne comprendano i rischi e le opportunità.
- Collaborazione globale sulle regole dell’IA – Le aziende, gli enti normativi e i leader del settore devono collaborare per creare quadri di governance dell’IA più chiari e attuabili, stabilendo standard globali.
«La traiettoria dell’IA è chiara – ha concluso Dubey – il suo impatto non potrà che diventare sempre più grande. Ma senza una leadership decisa, rischiamo un futuro in cui l’innovazione supera la responsabilità, creando lacune nella sicurezza, vuoti etici e opportunità mancate. La comunità imprenditoriale deve agire ora. Incorporando la responsabilità nei principi fondanti dell’IA attraverso la progettazione, la governance, la preparazione della forza lavoro e la definizione di linee guida etiche. Sblocchiamo il pieno potenziale dell’IA, assicurandoci al contempo che serva equamente le aziende, i dipendenti e la società in generale».
a cura di Redazione
Condividi l'articolo
Scegli su quale Social Network vuoi condividere