Come controllare le Intelligenze Artificiali – le bozze dei regolamenti UE

La Commissione Europea di Ursula von der Leyen ha dichiarato all’insediamento che vuole un futuro con IA “affidabili e umane”.

Ma come Susan Calvin potrebbe spiegarle, tradurre la filosofia in politica non è però compito facile.

Nei giorni scorsi è trapelata una prima bozza di proposta di regolamentazione europea delle IA. Il documento suggerisce che l’organo esecutivo dell’UE è indirizzato a modificare le norme esistenti, senza imporre nuove leggi o vincoli.

Le Intelligenze Artificiali nei prossimi tre anni

Il whitepaper della Commissione trapelato prospetta un periodo di transizione della durata di tre o cinque anni in cui l’uso delle tecnologie di IA più aggressive, come quelle per il riconoscimento facciale, potrebbero essere vietate in luoghi pubblici – per dare ai legislatori dell’UE il tempo di escogitare modi per valutare e gestire i rischi legati all’uso di tale tecnologia, come i diritti alla privacy delle persone o il rischio di conseguenze discriminatorie a causa di algoritmi distorti.

“Ciò salvaguarderebbe i diritti delle persone, in particolare contro ogni possibile abuso della tecnologia”, scrive la Commissione, aggiungendo che: “Sarebbe necessario prevedere alcune eccezioni, in particolare per le attività di ricerca e sviluppo e per la sicurezza“.

L’impatto sullo sviluppo tecnologico

La Commissione Europea vuole però evitare che un bando sull’applicazione delle tecnologie IA in determinati ambiti sia un ostacolo per lo sviluppo tecnologico continentale.

Un divieto anche limitato nel tempo del riconoscimento facciale, per esempio, viene descritto come “una misura di vasta portata che potrebbe ostacolare lo sviluppo e l’adozione di questa tecnologia” che potrebbe spostare fondi e cervelli oltre oceano. La Commissione quindi preferirebbe “fare affidamento sulle vigenti norme UE sulla protezione dei dati, ovvero il Regolamento generale sulla protezione dei dati (GDPR)” per impedire usi impropri della tecnologia, ma non il suo sviluppo.

Il libro bianco contiene una serie di opzioni che la Commissione sta ancora prendendo in considerazione per regolamentare l’uso dell’intelligenza artificiale in generale.

Questi vanno dall’etichettatura volontaria all’imporre requisiti settoriali per il settore pubblico (incluso l’uso della tecnologia di riconoscimento facciale); ai requisiti obbligatori basati sul rischio per applicazioni “ad alto rischio” (ad esempio in settori sensibili di discriminazioni come l’assistenza sanitaria, i trasporti, la polizia e la giustizia, nonché per le applicazioni che possono “produrre effetti giuridici per la persona fisica o giuridica o presentare rischi di lesioni, morte o danni materiali significativi “); a modifiche mirate alla vigente normativa dell’UE in materia di sicurezza e responsabilità dei prodotti.

Un approccio simile comunque non regolamenterebbe in alcun modo lo sviluppo delle IA, ma solo la loro applicazione pratica, aprendo il campo a problemi di genere diverso in caso di usi non dichiarati o illeciti.

Siamo quindi solo agli inizi della regolamentazione pubblica della tecnologia, che volenti o nolenti farà parte del nostro futuro.