I sistemi di visione per l’interazione uomo-robot nell’industria

Affrontiamo il tema dei sistemi di visione nelle applicazioni di robotica collaborativa industriale, evidenziando il ruolo che hanno i sistemi di visione nel supportare un’interazione uomo-robot sicura, ergonomica ed efficace.

Sistemi di visione, robot e uomini: una tematica sempre più dibattuta. Il controllo di un sistema robotizzato industriale necessita di un modello digitale dell’ambiente in cui opera con un livello di completezza e accuratezza adeguato alla natura del compito da svolgere. Tale modello, nella maggioranza dei casi, non è interamente disponibile o risulta insufficiente.

Questa mancanza di informazioni va chiaramente compensata al fine di poter fornire input utili al controllore del robot per poter prendere delle decisioni e interagire efficacemente e in modo sicuro con l’ambiente o altri agenti, come gli esseri umani.

I sistemi di visione per l’interazione uomo-robot nell’industria

Questa capacità di adattarsi autonomamente implica la necessità dei sistemi robotizzati di comprendere quanto accade nell’ambiente circostante; derivare un insieme di azioni per gestire tali cambiamenti partendo da quello che è l’obiettivo di alto livello assegnatogli; implementare (attuare e controllare) correttamente queste azioni.

Le fasi di comprensione e azione richiedono ai sistemi robotizzati di possedere capacità di “percezione”.

Percezione robotica

Sarebbe impossibile implementare tale funzionalità in assenza di una elaborazione di dati prodotti da un adeguato numero di sensori a supporto del sistema robotizzato.

Questi possono essere di tipo:

  • sensori propriocettivi, capaci di rilevare eventi all’interno della struttura del robot (ad esempio angoli di giunto) al fine di valutare il suo stato di funzionamento;
  • sensori esterocettivi, capaci di rilevare eventi esterni alla struttura del robot (ad esempio prossimità con oggetti) al fine di interagire l’ambiente circostante.

La rilevazione dati supportata da tali sensori è quindi il processo di conversione di una quantità fisica in una rappresentazione digitale necessaria per svolgere successive elaborazioni gestite da computer.

Agire e reagire

Tale processo richiede inevitabilmente che i segnali generati vengano filtrati dai così detti rumori (disturbi, interferenze, ecc.), capaci di comprometterne la qualità.

Infine, questi segnali vengono trasmessi al controllore del sistema robotizzato affinché possa generare i comandi necessari ad agire, o reagire, in funzione di determinate condizioni operative ed ambientali.

Esistono diverse tipologie di sensori utilizzabili in robotica a seconda dell’applicazione e del principio fisico implementato per effettuare la misura.

IA porta efficienza e risparmi nella visione

Sistemi di visione artificiale

Qualora lo scopo finale fosse quello di stimare, rispetto al sistema robotizzato, la distanza di una entità (oggetto o persona), il suo moto, o semplicemente identificarla, le soluzioni adottabili includono, tra l’altro, sistemi di visione artificiale.

Questi sistemi, che imitano la vista umana, permettono di analizzare l’ambiente circostante senza la necessità di interagirvi fisicamente, ovvero senza contatto.

La visione robotica richiede quindi uno o più sensori per la visione che forniscono immagini primitive a dei software dedicati capaci di tradurle in comandi.

La visione nella robotica collaborativa

Nella robotica collaborativa, la visione ha lo scopo di permettere ai sistemi robotizzati di comprendere le azioni, gli obiettivi e le preferenze degli operatori con cui è previsto che condividano compiti, oggetti e spazi di lavoro, migliorando significativamente le capacità di interazione e la versatilità.

Le informazioni raccolte attraverso i sistemi di visione possono quindi essere utilizzate al fine di migliorare il processo decisionale, contribuendo allo sviluppo di applicazioni più antropocentriche, adattive, e funzionali.

Sistemi di visione e applicazioni collaborative: sicurezza

Con la crescente disponibilità di robot collaborativi, garantire la sicurezza e l’ergonomia nelle interazioni uomo-robot avanzate è diventato sempre più complesso.

Evitare collisioni richiede il monitoraggio continuo ed in tempo reale della posizione e del moto degli operatori presenti negli spazi di lavoro condivisi.

Le strategie di sicurezza basate su sistemi di visione (ad esempio “Speed and Separation Monitoring”) hanno lo scopo di limitare o ottimizzare i movimenti dei robot collaborativi, adattandoli alle azioni delle persone.

Telecamere e sensori

Principalmente, il tracciamento dell’operatore può essere effettuato tramite sistemi di visione che utilizzano sensori quali telecamere di tipo RGB-D, stereo-camere, sensori a tempo di volo (ToF), o camere 2D/3D.

Attraverso specifici algoritmi, il tracciamento permette la ricostruzione di un modello virtuale dello scheletro umano, semplificato con un livello di approssimazione idoneo al contesto operativo e alla funzione di sicurezza da svolgere.

Questo permette di identificare la posizione delle parti del corpo dell’operatore rispetto al sistema robotizzato in tempo (quasi) reale, al fine di prevenire potenziali contatti.

Integrazione dei sistemi di visione

Chiaramente, i sistemi di visione possono essere integrati con altri sensori non a contatto e impiegati anche per supportare il movimento di robot mobili operanti negli ambienti di lavoro, al fine di prevenire contatti pericolosi con operatori e/o oggetti.

Sebbene la sicurezza basata sulla visione sia ampiamente studiata e presenti interessanti prospettive, la disponibilità di sensori di sicurezza commerciali e standardizzati è ancora limitata in industria.

Per tale motivo, le strategie di sicurezza basate su sistemi di visione, progettate per supportare applicazioni collaborative avanzate, rimangono attualmente prevalentemente confinate ai contesti di ricerca.

Prospettive future

Di seguito sono riassunte (in modo non esaustivo) le principali applicazioni aggiuntive dei sistemi di visione a supporto della robotica collaborativa industriale, prevalentemente investigate a livello di ricerca.

Riconoscimento di gesti ed azioni

L’interazione e la comunicazione uomo-robot possono essere migliorati impiegando parti del corpo (ad es. mani) come interfaccia “naturale” per impartire volontariamente o implicitamente dei comandi al sistema robotizzato secondo delle logiche predefinite.

Il riconoscimento di gesti può quindi essere implementato come modalità di comunicazione o di controllo attraverso la traduzione della posa dell’operatore in un segnale di comando, al fine di avviare un’azione o innescare un flusso informativo.

Un ulteriore sviluppo comprende l’identificazione di azioni per favorire il riconoscimento e lo scambio di oggetti, oppure per supportare attività collaborative avanzate in modo sicuro, ergonomico ed efficace.

Previsione delle intenzioni umane

Attraverso il supporto di algoritmi di apprendimento automatico, è possibile studiare le attività lavorative svolte dagli operatori al fine di individuarne e classificarne i movimenti, oltre che stimarne l’intenzione futura e quindi adattare anticipatamente e conseguentemente il comportamento del robot.

Idealmente, oltre ad avere dei risvolti positivi in temini di sicurezza, questo permette di migliorare la fluidità con cui i compiti condivisi possono essere svolti, migliorando così la qualità dell’interazione e le prestazioni produttive.

Apprendimento tramite dimostrazione

Si tratta di modalità supportate da algoritmi di apprendimento automatico che permettono al sistema robotizzato di imparare a svolgere determinate attività, in modo più o meno autonomo, osservando un operatore intento a eseguire un compito, oppure analizzando un’interazione tra due persone.

L’obiettivo principale è quello di ridurre quanto più possibile l’intervento umano durante le fasi di programmazione, sfruttando la capacità di imitazione.

Al di fuori dei contesti industriali

Al di fuori dei contesti industriali, i sistemi di visione possono ampliare ulteriormente le capacità sociali dei sistemi robotizzati.

Ad esempio, possono essere utilizzati per migliorare le interazioni non prettamente lavorative, riconoscere lo stato (anche emotivo) dell’operatore, e gestire comunicazioni più complesse, permettendo inoltre ai robot di operare in team interagendo con gruppi di persone.

(a cura di Luca Gualtieri)

calendar_month

a cura di Simona Recanatini