A proposito di robotica collaborativa, analizziamo i principi relativi all’ergonomia cognitiva nell’interazione uomo-robot in industria. In particolare, vediamo come sia fondamentale considerare tali principi già nelle prime fasi della progettazione dell’applicazione collaborativa e del relativo sistema di produzione.
Per Ergonomia si intende la scienza che studia il lavoro umano. Il termine deriva dal greco “ergon”, ovvero lavoro, e “nomos”, leggi. Le parole “ergonomia” e “fattori umani” sono spesso utilizzate in modo intercambiabile, oppure in modo congiunto per esprimere univocamente il medesimo concetto.
Secondo la “International Ergonomics Association”, l’ergonomia cognitiva è uno dei tre domini principali dell’ergonomia. È la disciplina che studia le interazioni tra l’uomo e gli elementi di un sistema in considerazione delle diverse abilità cognitive e dei processi mentali, tra cui principalmente la risposta motoria, il ragionamento, la percezione e la memoria.
Robotica collaborativa ed ergonomia cognitiva
I temi affrontati da questa disciplina includono lo stress, il carico di lavoro cognitivo, l’affidabilità umana, il processo decisionale, le prestazioni di sistema e l’interazione uomo-macchina. Di conseguenza, questa branca dell’ergonomia deve essere particolarmente considerata qualora si intenda progettare e sviluppare un sistema tecnologico (più o meno) automatizzato, avanzato e/o complesso.
Ad esempio, un’interfaccia poco intuitiva utilizzata per il controllo di un macchinario industriale può comprometterne la produttività e la qualità del lavoro, aumentando inoltre (e soprattutto) il rischio di incidenti per operatori e impianti.
Lo studio del carico di lavoro cognitivo
Un aspetto fondamentale dell’ergonomia cognitiva nei sistemi di produzione è lo studio del carico di lavoro cognitivo associato alle attività manuali e complesse.
Livelli eccessivi di carico di lavoro cognitivo, detti “sovraccarichi”, possono avere un forte impatto negativo sulla sicurezza, sul benessere e sulle prestazioni dell’operatore e, conseguentemente, sugli output di sistema (ad esempio qualità o produttività).
Il concetto di carico di lavoro cognitivo può essere descritto come l’impegno che un particolare compito richiede al sistema cognitivo umano al fine di processare le informazioni necessarie per il suo corretto svolgimento.
Fondamentalmente, il carico cognitivo può cambiare continuamente in base agli stimoli necessari per affrontare un compito, una situazione, una richiesta. Di fatti, al pari delle risorse umane fisiche, anche quelle cognitive sono limitate e variabili in modo dinamico a seconda dei contesti.
Pertanto, il sovraccarico cognitivo si verificherà qualora le risorse richieste per gestire una particolare situazione o svolgere un compito specifico superino quelle effettivamente disponibili.
Fattori di rischio nell’interazione uomo-robot industriale
Nel contesto dell’interazione uomo-robot in industria, i fattori umani e l’ergonomia cognitiva sono da considerarsi ancora agli albori. Si tratta di tematiche fondamentali, ampiamente studiate nella così detta “robotica sociale”, ma ancora spesso sottovalutate, o addirittura ignorate, in ambito produttivo.
Da un lato risulta corretto impiegare un sistema robotizzato collaborativo al fine di sgravare le persone da quelle attività pericolose e/o faticose.
D’altro canto, richiedere agli operatori di interagire frequentemente con una macchina avanzata, complessa e parzialmente autonoma può comportare un aumento delle difficoltà cognitive e delle modifiche comportamentali tali da introdurre ulteriori sfide per la progettazione e la valutazione del sistema, oltre che profondi cambiamenti nella natura stessa del lavoro.
Tali cambiamenti sono intrinsecamente legati alla tipologia delle attività produttive, alle tecnologie utilizzate e agli ambienti di lavoro, e possono chiaramente avere un forte impatto negativo sulla salute (mentale e fisica) e sull’incolumità degli operatori.
Le variabili cognitive
Fiducia, usabilità e accettabilità sono solo alcune delle variabili cognitive da considerare per lo sviluppo di applicazioni collaborative che siano sicure, efficaci e realmente incentrate sull’essere umano.
È molto importante sottolineare che tali variabili richiedono un accurato bilanciamento per evitare di trasformarsi in fattori di rischio capaci di procurare, oltre al già citato sovraccarico cognitivo, stress e burnout, sovraccarico informativo, diminuzione della sicurezza, frustrazione e perdita di motivazione.
A fini esemplificativi, analizziamo la “fiducia” dell’operatore nel sistema robotizzato, suo assistente. In termini psicologici, questa può essere definita come la volontà da parte di una persona di assumersi il rischio di essere vulnerabile alle azioni degli altri, indipendentemente dalla capacità di controllare tali azioni.
Nel contesto della robotica collaborativa, e più in generale della sicurezza macchine, è quindi opportuno che questa fiducia si traduca in un comportamento che sia contemporaneamente non troppo timoroso, ma anche non irresponsabile.
Di fatti, ridotti livelli di fiducia possono comportare malessere e distrazione a carico dell’operatore che, ad esempio, può ritenere necessario il monitoraggio continuo del comportamento del suo collaboratore (anche qualora non necessario) per prevenire potenziali collisioni (nonostante il sistema disponga di sensori adeguati a gestire correttamente situazioni di contatto non funzionale).
L’impatto sulle prestazioni produttive
Questo potrebbe essere il caso di operatori nuovi ed inesperti, oppure di personale non formato o particolarmente restio all’uso di tecnologie innovative ed avanzate.
Chiaramente, questo comportamento si rifletterà negativamente sulle prestazioni produttive, in quanto l’operatore dedicherà buona parte della sua attenzione al controllo morboso ed ingiustificato del sistema robotizzato piuttosto che al corretto svolgimento delle sue attività, con inevitabili ripercussioni sulla sicurezza, sul tempo ciclo e sulla qualità.
Al contrario, anche un eccessivo livello di fiducia può rappresentare una importante fonte rischio. Comportamenti troppo sicuri di sé, ovvero irresponsabili, assunti nei confronti del sistema robotizzato da parte di operatori esperti o avventati possono procurare un aumento della probabilità di accadimento di situazioni pericolose.
Un esempio è quello della manomissione di alcune misure di sicurezza (ad esempio sensori o barriere fisiche) al fine di evitare che il sistema robotizzato si arresti in determinate situazioni pericolose con lo scopo di velocizzare le attività produttive.
La gestione delle variabili
Ovviamente, identificare e verificare il giusto bilanciamento di tali variabili cognitive non è semplice, soprattutto considerando la miriade di fattori progettuali concomitanti che possono incidere sull’ottimizzazione della variabile in esame come, ad esempio, velocità e accelerazione del sistema robotizzato, tipo di traiettoria, grado di autonomia ecc.
È inoltre necessario adottare un approccio interdisciplinare che includa competenze ingegneristiche e psicosociali. Per tale motivo, risulta fondamentale supportare ed educare i progettisti a considerare opportunamente queste variabili, e in generale i principi di ergonomia cognitiva, nella progettazione e nello sviluppo di applicazioni industriali collaborative.
Approfondiremo i risultati di uno studio preliminare sulla tematica in un prossimo articolo.
(a cura di Luca Gualtieri)
a cura di Simona Recanatini
Condividi l'articolo
Scegli su quale Social Network vuoi condividere