La Commissione Europea vara la proposta per il Regolamento europeo sull'intelligenza artificiale

 
Gianluca Fasano
 
La strategia per trasformare l'Europa in un hub globale ruota attorno al fulcro della fiducia, vale a dire che per consentire lo sviluppo dei sistemi di intelligenza artificiale (AI) è indispensabile lavorare sulla loro affidabilità. Vero è che i vantaggi dei sistemi di AI sono oramai evidenti per tutti noi, nel campo dell'assistenza sanitaria, dei sistemi di trasporto pubblici e privati, per facilitare l'accesso all'informazione, all'istruzione e alla formazione e tanto altro. Tuttavia non sono assenti i rischi, soprattutto in termini di sicurezza e di rispetto dei diritti fondamentali.
 
Per rispondere a queste sfide, è indispensabile la costruzione di un quadro normativo che dia certezza alle imprese e sicurezza alle persone, in cui sia i vantaggi che i rischi siano adeguatamente affrontati. In tale scenario, la Commissione europea ha approvato la proposta del "Regolamento sull'approccio europeo per l'intelligenza artificiale" (Regulation on a european approach for artificial intelligence), che verrà sottoposta a Consiglio e Parlamento europeo per l'adozione definitiva.
 
La proposta di regolamento verte sull'introduzione di una metodologia risk based attraverso cui si definiscono un set di strumenti e azioni necessari per poter affrontare i rischi derivanti da usi specifici dell'AI. In particolare, vengono previsti quattro diversi livelli di rischio, in funzione dei quali variano le misure di mitigazione:
rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo.I sistemi di intelligenza artificiale che comportano "rischi inaccettabili" rappresentano una chiara minaccia per la vita e alla sicurezza delle persone, per cui verranno vietati.
 
Ad esempio, le applicazioni di intelligenza artificiale che manipolano il comportamento umano per eludere il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l'assistenza vocale che incoraggiano comportamenti pericolosi dei minori).Per i sistemi ad alto rischio vengono previsti requisiti obbligatori che riguardano la qualità dei set di dati utilizzati, la documentazione tecnica e la tenuta dei registri, la trasparenza verso gli utenti, la supervisione umana e la robustezza informatica.