Io e il robot quando lui diventa parte del mio corpo (e di me)
L’approccio-novità di una équipe toscana alla conferenza sulle macchine intelligenti
SIENA. Cosa succede quando un robot diventa parte di noi? Una domanda «semplice e rivoluzionaria»: così l’ha definita l’équipe dell’Università di Siena (Maria Pozzi, Tommaso Lisini Baldi, Gionata Salvietti, Monica Malvezzi e Domenico Prattichizzo) portando sul palco il proprio approccio alla robotica che, com’è stato detto, «per qualche minuto ha smesso di essere solo tecnologia e ha iniziato a parlare direttamente alle persone».
È accaduto in occasione della conferenza su robotica e macchine intelligenti “I-RIM 3D 2025” in agenda a Roma: l’opportunità è stato il workshop “Human Robot Augmentation: A User Centered Perspective”, premiato come “best workshop” della manifestazione con un riconoscimento che va oltre il valore scientifico e tocca qualcosa di più profondo: il rapporto tra esseri umani e macchine nei gesti quotidiani della vita.
«Domande come questa – viene spiegato dal quartier generale dell’ateneo senese – hanno guidato il confronto tra ricercatori, clinici e tecnologi: si sono interrogati se un arto robotico possa essere percepito come appartenente al proprio corpo, come cambia il controllo motorio quando si coordinano arti naturali e artificiali, e quale ruolo debba avere l’utente nella progettazione di dispositivi che promettono di ampliare, sostenere o restituire capacità».
Sicuramente il pubblico è stato colpito da quanto ha raccontato Alessandro Bondi: non è uno studioso bensì un paziente che utilizza ogni giorno le “tecnologie assistive” che il team senese mette a punto: dopo lungo tempo lui, sperimentandole con il proprio corpo e la propria mente, è diventato davvero esperto relativamente a queste soluzioni. E non si parla solo dell’aspetto tecnico bensì principalmente dell’impatto umano, esistenziale. «La sua testimonianza – è stato ribadito – ha ricordato a tutti perché la robotica non è solo laboratorio, algoritmi e motori: è vita, esperienza, identità, possibilità».
Accanto a lui, si sono susseguiti gli interventi di Andrea d’Avella, Loredana Zollo e Bernardo Brogi in nome di «un dialogo ricco, capace di intrecciare neuroscienze, robotica indossabile, percezione corporea e sperimentazione avanzata». Ad esempio, la dimostrazione dal vivo – curata da Bernardo Brogi – ha reso tangibile quel che talvolta, forse spesso, rimane confinato nell’approccio asettico e astratto degli studiosi: si è visto, cioè, «un modo nuovo di immaginare l’interazione uomo-robot».











