Ci fidiamo delle macchine?

Italiano
Question Title: 
Ci <font size="32">fidiamo</font> delle macchine?
Short answer: 

La tecnologia controlla gran parte delle nostre vite. Ogni giorno usiamo un gran numero di oggetti elettronici, fidandoci del fatto che funzioneranno. All'ISTC il Trust, Theory and Technologies Group (T3) studia l'interazione uomo-macchina per capire che cosa davvero significa fidarsi della tecnologia. 

Extended answer: 

I fenomeni sociali complessi sono strettamente associati alla fiducia, che è un fattore chiave per capire come la cooperazione, gli scambi economici e la comunicazione si sviluppano nella società. Ma che dire degli oggetti artificiali? Possiamo ancora parlare di fiducia? All'ISTC il Trust, Theory and Technologies Group (T3) mostra come la risposta sia più complessa del previsto.

Il punto di partenza è che la fiducia è un elemento fondamentale nell'interazione uomo-computer: la maggior parte di noi non sa come funziona un portatile, eppure continuiamo ad accenderlo ogni giorno senza alcun timore di esplosioni.

Tuttavia, la fiducia è un concetto molto più ampio della sicurezza: un ambiente sicuro non basta per garantire la fiducia, che potrebbe anzi essere persino danneggiata se la sicurezza si trasforma in tecnologia invasiva. È facile infatti che la tecnologia prometta di essere sicura: ogni passo di una comunicazione online ha le procedure per la trasmissione di dati degli utenti in modo sicuro, ad esempio la crittografia, i protocolli di sicurezza, le tecnologie biometriche e così via. Questo però non significa automaticamente fiducia. Immaginiamo di aver ottenuto un ambiente davvero sicuro, in cui gli agenti possono agire liberamente perché sono protetti dalla tecnologia. Non avremmo comunque costruito un'atmosfera di vera fiducia, perché la fiducia può esistere solo in concomitanza con un altro fattore fondamentale: il rischio. Quella componente, cioè, che fa percepire la possibilità di essere ingannati, e che genera fiducia proprio quando gli agenti decidono di rischiare ugualmente. Nel caso della tecnologia, gli utenti non decidano di fidarsi nonostante i rischi percepiti: al contrario, si accetta di utilizzare la tecnologia proprio perché non si vede alcun rischio. Così l'ambiente tecnologico rigido e protetto uccide la possibilità di fiducia: l'utente si sentirà sicuro, non fiducioso.

Eppure in un mondo in cui le macchine stanno diventando sempre più autonome questo non basta più. In realtà "sicurezza" è un concetto povero se applicato alle macchine in grado di risolvere problemi come e meglio degli esseri umani: come possiamo essere certi della loro reale affidabilità? Qui il concetto di fiducia diventa essenziale. Più un agente artificiale è autonomo, più abbiamo bisogno di trovare un modo per misurare la sua affidabilità.

Per questo motivo, il gruppo T3 è arrivato alla convinzione che la fiducia sia un obiettivo fondamentale nella costruzione della tecnologia, l'unico che può consentire di utilizzare le macchine in modo responsabile. Non si tratta solo una questione di protocolli, architetture, regole chiare e vincoli: la fiducia è infatti considerato uno stato mentale, che è strettamente legato al contesto sociale. Per questo motivo, i ricercatori diT3 stanno cercando di sviluppare modelli computazionali in grado di includere la componente di rischio nelle interazioni uomo-computer. Questi modelli sono necessari anche nei rapporti tra gli stessi agenti artificiali: dal momento che sono in grado di evolversi autonomamente, dobbiamo prendere il controllo di questo processo se vogliamo che la loro evoluzione sia efficace. Solo così potremo veramente fidarci delle macchine. 

Contatto: Rino Falcone

Gruppo ISTC: Trust, Theory and Technologies Group (T3)

Image: 
Connection: 
TECNOLOGIA / COGNIZIONE / SOCIETÀ