Secondo Workday nelle aziende c’è poca fiducia nell’intelligenza artificiale. La soluzione? Un approccio globale alla responsabilità dell’AI.
C’è poca fiducia nell’Intelligenza Artificiale sul posto di lavoro. È quanto emerge da un’interessante indagine globale pubblicata di recente da Workday, fornitore di applicazioni cloud aziendali per la gestione finanziaria delle risorse umane. I leader aziendali e i dipendenti, si evince, concordano sul fatto che l’AI offra grandi opportunità per la trasformazione aziendale. Tuttavia, emerge una certa reticenza nella sua implementazione responsabile, con i dipendenti che manifestano un grado di scetticismo ancora più marcato rispetto ai propri dirigenti.
Mancanza di fiducia a tutti i livelli
Quando si tratta dell’adozione e dell’implementazione responsabile dell’AI da parte delle organizzazioni, c’è una mancanza di fiducia a tutti i livelli della forza lavoro, in particolare tra i dipendenti.
Il report rivela che solo il 62% dei leader accoglie con favore l’adozione dell’Intelligenza Artificiale nella propria organizzazione e la stessa percentuale di leader è fiduciosa che la propria organizzazione ne garantirà un’implementazione responsabile e affidabile. A livello dei dipendenti, questi numeri scendono ulteriormente, rispettivamente al 52% e al 55%.
Gli interessi dei dipendenti a rischio
Vi è anche incertezza, tra dipendenti e leader, sul fatto che la loro organizzazione implementerà l’Intelligenza Artificiale nel modo giusto. Il 23% dei dipendenti non è sicuro che la propria organizzazione metta gli interessi dei dipendenti al di sopra dei propri quando implementa l’AI, e i leader sono d’accordo: il 21% di questi ultimi dichiara di non essere sicuro che la propria organizzazione porrà realmente al primo posto gli interessi dei dipendenti.
Intervento umano con l’AI
Leader e dipendenti desiderano il coinvolgimento umano nei processi di Intelligenza Artificiale, ma non hanno ben chiaro il modo migliore per farlo. Il 70% dei leader aziendali concorda sul fatto che l’Intelligenza Artificiale dovrebbe essere sviluppata in modo da consentire facilmente la revisione e l’intervento umani. Tuttavia, il 42% dei dipendenti ritiene che la propria azienda non abbia una chiara comprensione di quali sistemi dovrebbero essere completamente automatizzati e quali richiedono l’intervento umano.
Il tema delle competenze
Una precedente ricerca sull’AI commissionata da Workday conferma ulteriormente le preoccupazioni sulle capacità delle aziende d’implementare l’Intelligenza Artificiale in modo responsabile ed efficace: quasi tre leader su quattro (72%) hanno affermato che la propria organizzazione non ha le competenze per implementare pienamente l’Intelligenza Artificiale e il Machine Learning, e una percentuale leggermente più alta (76%) ha affermato che la propria conoscenza delle applicazioni AI e ML necessita di miglioramenti.
Necessità di una Governance
Alla domanda di immaginare un futuro in cui l’Intelligenza Artificiale faccia parte della vita quotidiana, il 42% dei leader e il 36% dei dipendenti citano i quadri organizzativi e la regolamentazione come elementi più importanti per costruire un’AI affidabile.
Tuttavia, manca una visione chiara, a livello aziendale, sulla regolamentazione e le linee guida dell’Intelligenza Artificiale. Tre dipendenti su quattro affermano che la loro organizzazione non sta collaborando alla regolamentazione dell’AI e quattro su cinque affermano che la loro azienda non ha ancora condiviso le linee guida sull’uso responsabile dell’Intelligenza Artificiale.
Preoccupazione sull’implementazione della AI
“Non si può negare che l’intelligenza Artificiale offra immense opportunità per la trasformazione aziendale. Tuttavia, la nostra ricerca evidenzia che leader e dipendenti mancano di fiducia e di comprensione delle intenzioni delle loro organizzazioni riguardo all’implementazione dell’Intelligenza Artificiale sul posto di lavoro”, ha affermato Jim Stratton, Chief Technology Officer di Workday.
“Per ridurre questa mancanza di fiducia, le organizzazioni devono adottare un approccio globale alla responsabilità e alla governance dell’AI, ponendo particolare attenzione al sostegno di politiche che possano aiutare a trovare il giusto equilibrio tra innovazione e fiducia”, ha aggiunto Jim Stratton.
Creare una cultura sulla AI
“Gli standard etici nell’uso dell’Intelligenza Artificiale e del Machine Learning sono vitali per il successo a lungo termine. Man mano che introduciamo sempre più tecnologie basate sull’AI, ci concentriamo sulla creazione di rapporti di estrema fiducia con clienti e dipendenti”, ha affermato Dan Cohen, Chief Information Officer e Direttore delle operazioni presso The Amenity Collective.
“Il nostro obiettivo è quello di creare una cultura, come pilastro fondante del nostro brand, che adotti l’Intelligenza Artificiale e consenta ad ogni persona nella nostra azienda di utilizzarla per fare sempre la cosa giusta per i nostri clienti. Mi congratulo con Workday per l’impegno dimostrato nel comprendere e affrontare il sentiment di leader e dipendenti in modo da poter lavorare per colmare il gap di fiducia nell’Intelligenza Artificiale”, ha aggiunto Dan Cohen.
Informazioni sul report
Questi dati provengono dallo studio globale “Closing the AI Trust Gap”, un sondaggio commissionato da Workday e condotto da FT Longitude a novembre e dicembre 2023. Il sondaggio ha coinvolto 1.375 leader aziendali e 4.000 dipendenti in 15 paesi in tre regioni principali: Nord America; Asia-Pacifico e Giappone (APJ); Europa, Medio Oriente e Africa (EMEA).
Questa ripartizione rivela una visione completa della gerarchia organizzativa, evidenziando le prospettive della leadership e della popolazione dipendente più ampia.
Workday ha lanciato questa ricerca in vista del meeting annuale del World Economic Forum, in programma a Davos, in Svizzera, dal 15 al 19 gennaio 2024. Per scaricare il report completo: Closing the AI Trust Gap.
a cura di Simona Recanatini
Condividi l'articolo
Scegli su quale Social Network vuoi condividere