Abbiamo intervistato Brando Benifei, eurodeputato e capodelegazione del Partito Democratico al Parlamento europeo dal 2019, tra i principali contributori dell'AI ACT, la legge europea sull’intelligenza artificiale. Benifei è stato riconosciuto da POLITICO come il Rulemaker n.1 insieme a Dragoş Tudorache, politico, magistrato e funzionario rumeno, proprio grazie al lavoro di revisione del AI ACT per il Parlamento Europeo.

Intervistato dal nostro Simone Di Sabatino per il WMF, Benifei ci ha spiegato a che punto è la discussione della normativa al Parlamento Europeo, commentando inoltre la situazione tra ChatGPT e il Garante della Privacy italiano.

S - «Buonasera, Brando Benifei, nostro ospite quest'oggi alle interviste del WMF, benvenuto!»

B - «Buonasera, salve!»

S - «Benifei è eurodeputato e capo delegazione del Partito Democratico al Parlamento europeo. Quest'oggi volevamo affrontare con lui alcune questioni riguardo l'intelligenza artificiale e le normative di cui si sta discutendo in parlamento.

Noi sappiamo che Benifei è, insieme a Dragoș Tudorache, uno dei maggiori parlamentari che si stanno occupando dell'AI ACT al Parlamento Europeo.

Noi come WMF seguiamo da tempo il tema, siamo stati anche auditi lo scorso marzo 2022 in particolare sul settore start up e PMI.

Ecco, volevamo fare un po' chiarezza su tutto il tema e capire oggi che strada è stata intrapresa.

Partiamo dal principio. Che cos'è l’AI ACT

B - «Sì, allora, l'AI ACT, quindi l'atto sull'intelligenza artificiale, è un regolamento europeo. È il primo tentativo al mondo di mettere in campo un regolamento, una legislazione, in caso europeo un regolamento, appunto, che è lo strumento legislativo più potente, diciamo l'atto legislativo che si applica direttamente, non è una direttiva che viene adattata a livello nazionale ma diventa un atto legislativo applicabile immediatamente in maniera uniforme in tutta l'Unione Europea per regolare l'ingresso nel mercato comune europeo dei prodotti di intelligenza artificiale.

In particolare, si vanno a regolare gli usi di intelligenza artificiale. Quelli che, ancora più precisamente, sono considerati più rischiosi, cioè che vanno a impattare sui diritti fondamentali dei cittadini: sicurezza, salute, questioni appunto legate ai diritti della persona, e addirittura si vanno a identificare anche dei rischi insostenibili, che quindi portano a proibire alcuni usi di intelligenza artificiale.

Dunque, ad esempio, noi andremo a proibire, nella proposta che il Parlamento Europeo sta finalizzando, quindi la sua proposta che parte dalla proposta originaria della Commissione Europea, ma fa delle sue modifiche, dei suoi emendamenti, proposta che, per dare un minimo di elemento di cronoprogramma, noi andremo a finalizzare da qua alla metà di giugno con un voto in plenaria del Parlamento Europeo.

Poi, da lì, inizieremo il negoziato con gli Stati membri, cioè andremo a discutere con l'altro co-legislatore europeo – per capirci, è come dire che il Parlamento Europeo è la Camera dei deputati, no?! Il Consiglio, che è il luogo dove si riuniscono i governi, è il Senato dell'Unione, che fa la sua versione del testo; l'ha fatta, insieme arriveremo poi a fare la legge europea. Ci metteremo d'accordo negoziando fra Parlamento Europeo e Governi.

L'idea, come tempistica, è che ciò avvenga nei sei mesi della seconda metà del 2023, in modo che nel 2024 possa essere approvato definitivamente il regolamento all'inizio dell'anno.

Il Parlamento Europeo ha, ad esempio, allargato le proibizioni, che già c'erano dentro la proposta della Commissione europea, ad esempio, abbiamo proibito l'uso dell'intelligenza artificiale per la polizia predittiva, per il social scoring - come avviene in paesi autoritari per il controllo sociale, abbiamo vietato l'utilizzo di telecamere a riconoscimento facciale negli spazi pubblici.

Queste sono alcune delle questioni di cui abbiamo discusso come rischi insostenibili, sono una parte molto limitata; il grosso dei sistemi e degli usi poi di questi sistemi di intelligenza artificiale saranno dentro un'area poco regolata dal regolamento, dei principi generali, alcuni di trasparenza.

Mentre, una parte che potrebbe essere il 20 o il 25% dei sistemi dei loro usi, saranno nella categoria dell'alto rischio, che quello è un po' il cuore del regolamento. Sono quelli per cui verrà chiesta, per poterli utilizzare, una certificazione, una procedura, riguardante la qualità dei dati, il contrasto ai bias discriminatori, la governance, il controllo di qualità: una serie di requisiti tipici della conformità quando un prodotto deve entrare nel mercato comune. Quindi, questo è il tipo di verifica che faremo per evitare che in maniera del tutto impropria, uno strumento di intelligenza artificiale, ad esempio, venga usato per scegliere fra curriculum di persone da assumere con un bias dovuto ai dati con cui è stato allenato per cui, per esempio, le donne non possono accedere, magari anche con grandi curriculum, ad un certo tipo di lavori particolarmente retribuiti perché i dati utilizzati sono quelli che hanno insegnato che alle donne quel lavoro non va fatto fare.

Sto facendo un esempio abbastanza netto, un po' forte, ma per capirci di cosa parliamo quando lavoriamo per contrastare le discriminazioni.

L'obiettivo quindi di questo regolamento è mitigare i rischi. Ad esempio, che vengano fatti errori nell'attribuzione di assegni sociali a persone che ne hanno diritto perché l'algoritmo è sbagliato e non c'è controllo umano. Questo è un tipico caso che conosciamo, è avvenuto in Europa.

Nel mondo del lavoro, che non ci sia una sorveglianza nei confronti dei lavoratori fatta in maniera impropria e fuori dalla dalle regole. Che ci sia un sistema che riguarda la sicurezza di infrastrutture critiche, ad esempio, la distribuzione dell'acqua, che non abbia determinati controlli, che magari è fatto per ottimizzare ma che poi in realtà non ha la possibilità di correggere i propri errori.

Abbiamo una serie di salvaguardie che mettiamo di fronte ai rischi, però, allo stesso tempo, facciamo in modo grazie alle sand boxes, quindi a uno strumento, di inserimento sia della ricerca, sia di nuove start up e nuovi modelli di business, di facilitare la creazione di nuove attività. Questo tipo di compliance viene facilitata per nuove attività, per modelli innovativi di business, che magari si affacciano da poco dentro questo sistema.

Cioè il senso della regolazione, partendo dagli sviluppatori, è evitare che la responsabilità finisca tutta in mano a quelle imprese e a quelle pubbliche amministrazioni che usano prodotti di intelligenza realizzati da altri senza che chi li ha realizzati, chi li ha prodotti, si sia occupato della loro qualità. Il rischio senza questo tipo di regolamentazione è questo.

E magari anche a favore di grandi produttori, di grandi multinazionali tecnologiche, a scapito poi delle imprese e delle pubbliche amministrazioni che li utilizzano e che si troverebbero senza questo sistema ad avere sulle spalle tutte le responsabilità legali dei problemi, dei danni e quindi noi agiamo in maniera preventiva con questo strumento. Con questo regolamento, cerchiamo di andare a regolare e mitigare, prevenire rischi.

Aggiungo e chiudo che il dibattito molto forte di queste ultime settimane di negoziazioni son stati i sistemi cosiddetti a uso generale, non con un uso pre-costituito, cioè i modelli di fondazione come si dice, i GPT-4 e affini e i loro utilizzi come ChatGPT. Abbiamo regolato anche questo ambito, che pure non ha un uso chiaramente identificabile a priori e quindi un po' più difficile da mettere dentro le maglie di questo regolamento, ma abbiamo fatto in modo che anche questo ambito abbia le sue regole.

Applicando una parte di queste normative legate ai sistemi ad alto rischio e, ad esempio, nel caso di strumenti come ChatGPT, abbiamo messo delle regole di trasparenza più avanzate, sui materiali utilizzati magari coperti da copyright per allenarli, il contrasto ai deep fakes, la necessità di dichiarare quando si tratta di un materiale che riproduce qualcosa di non vero, anche il contrasto alla produzione di materiali illegali, in questo senso agganciandoci ad alcune delle previsioni fatte per i social network e quindi non applicabili altrimenti se non con questo tipo di azione normativa nei confronti dell'intelligenza artificiale già immaginati per il cosiddetto Digital Services Act, l'atto sui servizi digitali.

Sono stato un po' lungo ma vi ho dato una panoramica direi piuttosto ampia e esaustiva un po' sullo stato dell'arte anche dei tempi ma anche di cosa si tratta, che cos'è questo AI ACT, e noi speriamo possa davvero essere un modo per migliorare la fiducia e l'esperienza nell'uso dell'intelligenza artificiale da parte dei nostri cittadini.

S - «Ecco, su questo aspetto, educazione e consapevolezza degli utenti, su questo AI ACT, ce n'è e cosa intendete fare per appunto far conoscere le potenzialità di tutto questo settore?»

B - «Sì, abbiamo posto nel regolamento la necessità di mettere in campo attraverso anche le risorse europee disponibili una maggiore - la chiamiamo - "AI Literacy", cioè la alfabetizzazione dell'intelligenza artificiale, che riguarda certamente le scuole ma anche il mondo del lavoro, i lavoratori che dovranno trovarsi e avere a che fare con l'intelligenza artificiale nel loro luogo di lavoro, o anche per l'imprenditore che dovrà capire come utilizzarla al meglio per migliorare la sua performance economica.

Quindi, si tratta di una necessità fondamentale che noi nel regolamento non possiamo decidere, su programmi di formazione specifici, ma facciamo riferimento al fatto che ci sono le risorse per poterlo fare anche a livello europeo e quindi gli Stati membri devono mettere un impegno maggiore di quello fatto finora.

Mi riferisco ad esempio anche al caso del nostro Paese dove un piano sull'intelligenza artificiale esiste, è un piano nazionale, ma che non vede bene da dove devono uscire le risorse, ad esempio per aumentare il numero e anche la retribuzione dei ricercatori in ambito di intelligenza artificiale - che altrimenti vengono facilmente attratti da una carriera e un'attività all'estero - mentre oggi mantenere una presenza di questo tipo nei vari Paesi, compreso l'Italia, è molto importante per non perdere anche il vantaggio competitivo. Chiaramente, è un ragionamento che vale molto significativamente a livello dell'Europa nel suo complesso, ma vale anche per i singoli Paesi come l'Italia.»

S - «Ecco a tal proposito, la questione che ChatGPT, tutela della privacy, garante della privacy in Italia che tanto ha fatto discutere: ci può dare un rapido commento appunto da addetto ai lavori?»

B - «Sarebbe assolutamente legittimo, lo è, se n'è parlato, mettere anche in discussione questa scelta, valutarne l'appropriatezza, se il garante avrebbe forse fatto meglio a aspettare, a bloccare, comunque a mettere nelle condizioni OpenAI di dover bloccare e magari aprire prima un dialogo.

Insomma, ci possono essere varie questioni su questi aspetti della modalità, dei tempi, degli aspetti specifici. Ma la questione in quanto tale, e cioè, che queste aziende e i loro prodotti debbano rispettare le norme esistenti - in questo caso il GDPR - a maggior ragione perché ne stiamo facendo di nuove, più comprensive, più globali; come pensiamo che queste realtà maggiormente significative, grandi, potenti, capaci di diciamo anche influenzare il mercato dell'intelligenza artificiale, rispetteranno le nuove regole, e se non riusciamo a fargli rispettare neppure quelle già esistenti - perché di questo stiamo parlando - allora io credo sia stato giusto da parte del garante, facendo le sue valutazioni, identificare - avendoli rilevati rispetto a varie questioni - la questione dell'età, la questione del modo in cui vengono processati i dati, bene, c'è un dialogo con Open AI.

Io ero negli Stati Uniti quando questa decisione è stata presa, se ne discuteva molto; ero lì per una conferenza sull'intelligenza artificiale, ha avuto una grande eco negli Stati Uniti la decisione italiana, ma molti mi dicevano: "Ma adesso sarà un ban, come quello di cui si parla per TikTok?".

Ho spiegato che invece - come mi pare che sia quello che sta accadendo - si tratta di una procedura che ragionevolmente porterà a una modifica di alcuni aspetti operativi e anche a un ripristino. Non si tratta di un divieto, di un impedimento di lungo termine ma un giusto riferimento alla necessità di far rispettare le regole esistenti. Qualcuno si è infastidito, lo posso capire, ma io credo che nel momento in cui stiamo lavorando a regole più onnicomprensive a cui peraltro l'interesse, ad esempio, allo schema della costruzione di una scala di rischio è molto dibattuto, è oggetto di un confronto con gli altri paesi europei, con l'OCSE, con le Nazioni Unite; è un approccio che viene condiviso e ritenuto interessante oltre che il lavoro che abbiamo fatto sulla definizione dei sistemi di intelligenza artificiale; alcuni aspetti che hanno una valenza anche nel dialogo regolatorio mondiale.

Credo che sia sacrosanto far rispettare le norme che già ci sono, se già stiamo ragionando di un nuovo paradigma normativo che vada a mitigare/contenere i rischi, come ho detto prima, per dare più fiducia, più certezze alle persone nel poter affidarsi e utilizzare con maggiore sicurezza, libertà e affidamento, prodotti di intelligenza artificiale, e quindi anche dare più forza allo sviluppo economico e del business che dev'essere florido - io mi auguro - anche nel nostro Paese, anche in Europa, nel suo insieme.»

S - «Dal punto di vista del mercato, la creazione anche di un mercato sull'intelligenza artificiale europeo che sia competitivo a livello internazionale è fondamentale per non perdere il passo rispetto a, in particolare, Stati Uniti e Cina che si sono mosse d'anticipo negli anni e hanno sviluppato diversi brevetti, o anche programmi. L'Europa sta cercando di recuperare il gap? Se sì, come?»

B - «Io credo che serva maggiore impegno dal punto di vista delle risorse finanziarie e dei progetti transnazionali. Qui torna un po' un tema politico, cioè l'unità dell'Europa, l'unità politica dell'Europa anche nella costruzione di una competizione, di una competitività tecnologica.

Credo che su questo dobbiamo essere molto netti nel fare il più possibile uno sforzo di messa in comune di impegni, di strutture, di sforzi, economici, di ricerca, di know-how, di personale.

Perché altrimenti la gara, fra virgolette, o comunque il confronto, con la Cina, gli Stati Uniti, lo perdiamo. Non basta, anche se lo ritengo un valore aggiunto per l'Europa, la capacità di essere leader nella costruzione di framework normativi che poi vengono in parte adattati, copiati dal resto del mondo – questo l'abbiamo già visto in altri casi. Potrebbe essere anche questo il caso di un dialogo che poi porta gli altri a copiare parzialmente, a ispirarsi, a discutere intorno alle scelte europee. Però credo che davvero non basti quando parliamo di questo tema; serve una capacità di azione che esula poi dall'azione meramente normativa.»

S - «È possibile che questo ritardo possa derivare dall'impegno sulla tutela dei diritti fondamentali del cittadino dell'Europa, che magari in Cina e Stati Uniti non è stata presa come in primis in considerazione?»

B - «In parte è possibile, ma è anche il nostro modello; quello di non distruggere vite, famiglie, far morire le persone e poi rimediare dopo - scusate la brutalità, ma questo è l'esempio di quello che io ho visto, e che penso che invece oggi molti corrano ai ripari anche oltreoceano per capire come mitigare i rischi - io credo che l'Europa faccia bene a non svendere, non abbandonare il proprio approccio valoriale, e questo però deve essere compatibile con un impegno di investimenti, di sviluppo, che sia l'altezza. Ė un po' un dilemma che abbiamo avuto anche su altre vicende, altre questioni, altri temi, non solo quello di cui parliamo oggi, e cioè che l'Europa, che vuole avere alti standard sociali, una democrazia funzionante e magari mantenere poi anche una certa importanza nel mondo come leader, anche avendo magari una popolazione inferiore ad altre parti ormai del nostro pianeta. Per fare tutto questo serve la capacità di agire insieme e fare degli effetti moltiplicativi comuni, altrimenti è assolutamente impossibile.

Quindi credo che su questo, l'Europa possa sviluppare il proprio modello competitivo rispettando i propri valori, ma per farlo serve un grande impegno anche di capitale politico, di impegno delle istituzioni oltre che di sinergie continentali.»

S - «Perfetto, grazie di questa panoramica, di questa fotografia dei lavori attuali.

Ringraziamo Brando Benifei e ci auguriamo di averla ospite al prossimo Festival a giugno, a Rimini. Grazie per la disponibilità, a presto.»

B - «Grazie.»