Robotica, Intelligenza Artificiale e disabilità: nuove possibilità
A cura di Vedrai…odv Tecnologie per le disabilità
Autori: Pietro Moretti, Veronica Parodi, Erika Sciutto
Ci proponiamo di fornire una sintesi dei principali contenuti emersi nel ciclo di incontri promosso da Vedrai… di Ovada nei mesi di settembre-ottobre 2025 su Robotica, Intelligenza Artificiale e disabilità: nuove possibilità. Di seguito vorremmo ipotizzare anche qualche iniziativa successiva.
L’esigenza per cui abbiamo organizzato questi incontri era duplice: proporci un cambiamento culturale per superare pregiudizi e diffidenze verso l’utilizzo dell’intelligenza artificiale, in special modo nella sua manifestazione fisica rappresentata dai robot umanoidi; al tempo stesso conoscere più da vicino esperienze di utilizzo dei robot per capire a che punto si è giunti per una loro gestione positiva rispetto a una o più delle molteplici disabilità.
Il primo incontro è stato con Renato Grimaldi, professore del Dipartimento di filosofia e scienze dell’educazione dell’Università di Torino che ha curato il libro “La società dei robot”. Grimaldi, coadiuvato dal ricercatore Sandro Brignone, ha tracciato una panoramica su alcune esperienze di robotica di cui sono stati protagonisti come Laboratorio Luciano Gallino di Torino. Si è parlato soprattutto di robotica educativa, dei piccoli robot programmabili introdotti nella scuola primaria e secondaria da svariati anni. Quindi è stata presentata un’esperienza con il robot Pepper durante il periodo del Covid: utilizzato per il triage allo scopo di raccogliere dati e capire se il paziente con cui stava dialogando e interagendo aveva contratto la malattia.

Rispetto alla popolazione anziana è stato presentato un robot applicabile al letto per gli ospiti di una RSA: è capace di segnalare con Intelligenza artificiale e telecamere tutti i movimenti del paziente. Sono stati presentati robot sociali capaci di ricordare all’utente anziano di prendere le medicine; di mettere in contatto video due persone tra loro che non sarebbero in grado di farlo; di tenere compagnia alla persona sola. Attenzione è stata prestata ad un piccolo robot adatto all’apprendimento da parte di bambini ipovedenti. Il libro “La società dei robot” presenta anche molte altre ricerche ed esperienze che arrivano fino al gennaio 2021, data della pubblicazione. Sottolineiamo in particolare la parte seconda dedicata a “costruire e programmare un robot”.
Il secondo incontro si è intitolato “Robomate al servizio dell’autismo e delle disabilità”. I fratelli Daniele e Marco Lombardo del Behaviour Labs di Catania, programmatori di software per computer, hanno presentato Robomate.
E’ una piattaforma che viene applicata ai robot per far loro svolgere delle funzioni.
Le principali applicazioni riguardano:
-i bambini con autismo
-gli anziani con demenza senile e alzheimer
-le ricerche e acquisizioni dati riguardanti la sanità.
Come premessa hanno parlato dei robot: di come sono strutturati al loro interno, come funzionano, quanto costano. Ci hanno presentato Nao, Pepper, Milo, Sofia.

Rispetto all’autismo hanno predisposto un’applicazione fondata sulla teoria ABA che fa riferimento a livello cognitivo al comportamentismo. Hanno strutturato esercizi che il robot Pepper propone attraverso il tablet al bambino di eseguire; vengono registrate e classificate le risposte. Il terapista sanitario o l’insegnante può fare una programmazione; la può gestire anche a distanza. La sperimentazione è stata svolta soprattutto in alcune ASL; nelle scuole è stata provata anche con il bambino all’interno della sua classe.
Per gli anziani hanno predisposto un programma di rilevazione dei problemi e delle richieste delle persone con demenza che fornisce materiale statistico prezioso per l’intervento dei medici. E’ stato sperimentato in numerose case di riposo della Sicilia e della Puglia. Hanno parlato anche di una Intelligenza artificiale da loro ridotta e modificata su cui il robot può essere interrogato dal bambino e può dialogare.
Visti i costi molto elevati per l’acquisto di un robot hanno allo studio la preparazione di un robot virtuale, senza la dimensione fisica, che dovrebbe funzionare sia sul cellulare che su tablet. Ovviamente non potrà avere tutte le funzionalità di un robot tridimensionale ma i due fratelli sono fiduciosi che potrà avere molte competenze.
Il terzo incontro si è svolto con due ricercatori dell’Istituto Italiano di Tecnologia di Genova. Davide Esposito ha presentato una relazione su “Ricerche scientifico-tecnologiche per la multisensorialità e la disabilità”. Il tema in sé non era omogeneo con gli argomenti dell’intelligenza artificiale e della robotica; è sembrato però ugualmente molto utile conoscere attività e progetti che l’IIT, partner scientifico del GLIC, sta portando avanti a favore delle disabilità.

Esposito ha parlato del Laboratorio Integrazione e multisensorialità costituito nell’IIT a cui fanno capo diversi progetti in corso. Ha presentato alcuni studi fatti sulla nonvedenza. Ne sono derivati a livello tecnologico due ausili: a) il braccialetto ABBI; b) il dispositivo Ireach. Il braccialetto è utile al bambino nonvedente per acquisire competenze spaziali. Quando il bambino si muove ABBI suona; quando il bambino sta fermo ABBI non suona. E’ stato sperimentato all’Istituto Chiossone per attività di socializzazione e ludiche tra bambini nonvedenti. Irech è un dispositivo multisensoriale per neonati e per bambini nonvedenti dotato di trasmettitore e ricevitore per segnalare con il suono la maggiore o minore distanza del bambino rispetto al punto dove è stato collocato il dispositivo stesso. Altri progetti di cui si sta occupando il laboratorio multisensoriale IIT come studi scientifici e possibili applicazioni tecnologiche riguardano la sordità; le paralisi cerebrali infantili; la schizofrenia. Infine ha parlato del progetto Raise sulle tecnologie urbane per rispondere ai bisogni di inclusione e di accessibilità. In particolare ha parlato di un braccialetto per i malati di Parkinson che fornisce stimolazioni per evitare di bloccarsi nel loro movimento e cadere.

Sara Mongile ha presentato “il robot Icub e le novità successive”. Ha fatto vedere come è stato costruito Icub già nel 2004 a livello tecnologico nelle sue varie parti e componenti. Ha presentato il laboratorio di Genova che ha curato tutta la parte elettronica con assemblaggio e cablaggio. Negli anni si è cercato di sviluppare Icub in modo più intuitivo e adattabile, Questo è avvenuto in molteplici direzioni da parte dell’equipe guidata da Alessandra Sciutti: distinguere gli oggetti dalle facce; seguire le facce; distinguere il moto biologico; riconoscere ed esprimere cura nel trasporto degli oggetti; avere miglioramenti espressivi; riconoscere le espressioni facciali; leggere la postura di una persona; capire se qualcosa non funziona nell’interazione; accrescere l’autonomia e l’adattività. Ha parlato anche dell’architettura affettiva di Icub; di come costruire in lui una memoria selettiva; ricavare conoscenza dall’interazione; sviluppare l’interazione di gruppo.
Soprattutto quest’ultimo intervento pone al nostro percorso alcune piste di ricerca:
-approfondire maggiormente l’evoluzione di Icub a cui hanno lavorato e stanno lavorando oltre trenta ricercatori e tecnici;
-avere una panoramica non solo italiana ma anche europea e mondiale sui centri di ricerca che lavorano alla costruzione di robot;
-esplorare se esistono prototipi pensati per intervenire verso qualche specifica disabilità.
Sono compiti qui solo elencati che vanno ben oltre le nostre effettive capacità. Forse il GLIC nelle conferenze internazionali di cui fa parte potrebbe porre l’esigenza.
Sicuramente a livello nostro cercheremo di portare avanti un confronto di idee che faccia emergere bisogni nella vita delle persone con disabilità cui la robotica e l’intelligenza artificiale potrebbero dare delle risposte.




