Una crisi di responsabilità nel campo dell’intelligenza artificiale

Nuovo report NTT Data: l’81% dei manager chiede una leadership più chiara per evitare rischi e sostenere l’innovazione.

La vertiginosa crescita dell’IA (Intelligenza Artificiale) sta creando un vuoto di governance, che porta a difficoltà nel bilanciare gli aspetti di innovazione, responsabilità ed etica: tutto questo sta facendo scattare campanelli per il futuro dell’adozione futura di questa tecnologia.

Il report

Una nuova ricerca condotta da NTT Data, riferimento globale nei servizi IT (Information Technology) e di business digitale, mostra una tendenza generale da parte delle aziende verso l’adozione dell’AI, ma un vuoto di responsabilità minaccia di rallentare il progresso di questa tecnologia. Infatti, oltre l’80% dei manager che hanno partecipato al sondaggio riconosce che la leadership, la governance e la preparazione degli addetti non riescono a tenere il passo dei progressi dell’IA, mettendo a rischio investimenti, sicurezza e fiducia del pubblico.

Il report “The AI Responsibility Gap: Why Leadership is the Missing Link” si basa sulla visione condivisa da oltre 2300 dirigenti e decisori aziendali di alto livello in 34 Paesi, evidenziando l’urgente necessità di un chiaro mandato per allineare l’innovazione che l’IA promette con la responsabilità etica.

«L’entusiasmo per l’IA è innegabile – ha affermato Abhijit Dubey, CEO di NTT Data, Inc. – ma i risultati della nostra survey dimostrano che l’innovazione senza responsabilità è un moltiplicatore di rischi. Le organizzazioni hanno bisogno di strategie di governance dell’IA guidate dal top management per colmare questo divario, prima che il progresso si arresti e la fiducia si eroda».

I campanelli d’allarme

Le indicazioni principali che il vuoto di responsabilità legato all’IA si sta estendendo sono anzitutto:

  • Il tema innovazione vs. responsabilità crea divisioni nei consigli di amministrazione – La C-Suite è divisa sul tema: un terzo dei manager ritiene che la responsabilità sia più importante dell’innovazione, mentre un altro terzo dà priorità all’innovazione rispetto alla sicurezza; il restante terzo li valuta equamente.
  • L’incertezza nei regolamenti blocca la crescita – Oltre l’80% dei leader aziendali afferma che la scarsa chiarezza delle normative governative ostacola gli investimenti e l’implementazione dell’IA, ritardandone l’adozione.
  • Sicurezza ed etica non stanno al passo delle ambizioni dell’IA – L’89% dei manager C-level è preoccupato per i rischi che l’intelligenza artificiale pone alla sicurezza, ma solo il 24% dei CISO (Chief Information Security Officer) ritiene che le proprie organizzazioni dispongano di un solido quadro per bilanciare i rischi e la creazione di valore.
  • La forza lavoro non è pronta – Il 67% dei manager afferma che i propri dipendenti non hanno le competenze per utilizzare efficacemente l’intelligenza artificiale, mentre il 72% ammette di non avere una politica sull’utilizzo responsabile dell’IA.
  • Emergono preoccupazioni sulla sostenibilità – Il 75% del campione afferma che le ambizioni dell’intelligenza artificiale sono in conflitto con gli obiettivi di sostenibilità aziendale, costringendo le organizzazioni a riconsiderare le soluzioni di IA più energivore.

Il mandato della dirigenza

Senza un’azione decisa, le organizzazioni rischiano un futuro in cui i progressi dell’IA saranno più rapidi della governance necessaria per garantirne un’adozione etica, sicura ed efficace. I leader devono affrontare:

  • Principi di responsabilità intrinseca – L’IA, inclusa quella generativa, deve essere sviluppata in modo responsabile fin dalla fase progettuale e lungo l’intero arco del suo sviluppo, integrando sicurezza, compliance e trasparenza nello sviluppo fin dalla prima riga di codice.
  • La necessità di una governance – I leader devono guardare oltre i requisiti legali e soddisfare gli standard etici e sociali dell’IA utilizzando un approccio sistematico.
  • Preparazione della forza lavoro – Le aziende devono formare i dipendenti affinché possano lavorare a stretto contatto con l’IA e garantire che i team ne comprendano i rischi e le opportunità.
  • Collaborazione globale sulle regole dell’IA – Le aziende, gli enti normativi e i leader del settore devono collaborare per creare quadri di governance dell’IA più chiari e attuabili, stabilendo standard globali.

«La traiettoria dell’IA è chiara – ha concluso Dubey il suo impatto non potrà che diventare sempre più grande. Ma senza una leadership decisa, rischiamo un futuro in cui l’innovazione supera la responsabilità, creando lacune nella sicurezza, vuoti etici e opportunità mancate. La comunità imprenditoriale deve agire ora. Incorporando la responsabilità nei principi fondanti dell’IA attraverso la progettazione, la governance, la preparazione della forza lavoro e la definizione di linee guida etiche. Sblocchiamo il pieno potenziale dell’IA, assicurandoci al contempo che serva equamente le aziende, i dipendenti e la società in generale».

calendar_month

a cura di Redazione