Un robot sa prevedere le conseguenze?

Italiano
Question Title: 
Un <font size="32">robot </font> sa prevedere le <font size="32">conseguenze?</font>
Short answer: 

Prevedere il futuro, evitando i pericoli e anticipando ciò che
succederà: sono abilità ancora molto limitate negli attuali sistemi
robotici. All'ISTC il Goal-Oriented Agents Laboratory (GOAL) sta
cercando di raggiungere questo obiettivo. La sfida è creare robot in
grado di prevedere le conseguenze a lungo termine delle proprie azioni.

Extended answer: 

"Cosa succederebbe se ...?" Ognuno di noi fa previsioni sul futuro, cercando di immaginare gli eventi in arrivo. Questi meccanismi di anticipazione sono un aspetto cruciale della cognizione umana. Allo stesso modo, molti animali non percepiscono passivamente gli stimoli, ma prevedono quelli nuovi che probabilmente arriveranno.

Gli scienziati cognitivi considerano questa capacità anticipatoria una precondizione per l'autonoma della vita mentale, in quanto permette di costruire rappresentazioni cognitive e raggiungere obiettivi specifici.

All'ISTC il Goal-Oriented Agents Laboratory (GOAL) studia il comportamento anticipatorio, cercando di esplorarne gli aspetti cognitivi da un punto di vista computazionale. L'obiettivo è costruire sistemi cognitivi artificiali che generino comportamenti anticipatori: in altre parole, robot in grado di prevedere le proprie azioni.

Gli attuali sistemi robotici possono selezionare le risposte più adeguate agli stimoli che ricevono, ma hanno limitate capacità di prevederne gli effetti a lungo termine e sono quindi scarsamente adattabili. Per questo il gruppo GOAL cerca di aggiungere nei robot la componente proattiva, per farli andare oltre al qui-e-ora e farli muovere invece in una cornice temporale che comprenda anche un futuro piuttosto lontano. È un traguardo che potrebbe persino dire qualcosa su come funzionano i nostri processi decisionali: studiare il comportamento dei robot intelligenti infatti aiuta a comprendere meglio alcune caratteristiche del ragionamento umano. I meccanismi cognitivi che stanno sotto a domande del tipo "Che cosa succederebbe se ...?" potrebbero così essere compresi. 

Contatto: Giovanni Pezzulo

Gruppo ISTC: Goal-Oriented Agents Laboratory

Relevant Publications

Gigliotta, O.; Pezzulo, G. & Nolfi, S. (2011) Evolution of a Predictive Internal Model in an Embodied and Situated Agent.Theory in Biosciences.

Pezzulo, G.; Butz, M. V.; Castelfranchi, C. & Falcone, R., eds. (2008), The Challenge of Anticipation: A Unifying Framework for the Analysis and Design of Artificial Cognitive Systems. Springer LNAI 5225.

Image: 
Connection: 
CERVELLO / COGNIZIONE / TECNOLOGIA