OpenAI ha riattivato ChatGPT in Italia dopo il blocco a seguito della denuncia del Garante della privacy per violazione dei dati.

Abbiamo fatto chiarezza sul tema insieme a Cosmano Lombardo, ideatore del WMF e CEO di Search On Media Group, che ha intervistato personalmente l’Avvocato Guido Scorza, Componente del Garante per la protezione dei dati personali.

C:        Buon pomeriggio a tutti gli amici del WMF, siamo qui quest'oggi per trattare un tema che sicuramente starete seguendo, un tema che è al centro del dibattito nazionale e internazionale, e riguarda appunto il tema della privacy: ChatGPT, quindi OpenAI, e lo facciamo con un ospite speciale.

Abbiamo qui in collegamento Guido Scorza, Garante della Privacy.

Ciao Guido, buonasera!

G:        Ciao, buonasera, grazie per l’invito!

C:        Grazie a te, davvero, per essere qui con noi questo pomeriggio.
Sappiamo che è un periodo molto intenso viste tutte le vicende legate non solo al tema recente che tratteremo in questo pomeriggio, però il tuo ruolo, il vostro ruolo, quello che fate, è sicuramente molto importante per la tutela della privacy di tutti gli utenti.

Non mi dilungo molto perché non voglio rubarti tanto tempo ed evito preamboli rispetto a tutto quello che riguarda il caso ChatGPT e OpenAI e quello che avete fatto, ma entrerei subito nel vivo della questione.

Parto con questa domanda perché il blocco di ChatGPT in Italia ha scatenato una eco fortissima, che si è riverberata anche a livello internazionale.

La domanda è: dopo le modifiche apportate, ChatGPT si comporta diversamente in Italia rispetto all'Europa? E, se fosse così, quali pensi saranno gli sviluppi a livello dell'Unione Europea e dei singoli garanti?

G:        Intanto, è bene che sia chiaro a tutti quanti che siamo all'inizio di una partita, o meglio: più vicino all'inizio che non alla fine.

Ciò che è accaduto fin qui, nel bene e nel male, lasciamo che sia la storia e i procedimenti amministrativi davanti alle diverse autorità europee a dirlo, è servito a tamponare un'emergenza. È servito a risolvere, solo parzialmente, una questione urgente ma non ha affrontato e non ha mai inteso affrontare il problema alla radice: quello della legittimità o illegittimità, nello specifico, dell'attività di OpenAI e ChatGPT, ma più in generale dei principi che guidano l'addestramento degli algoritmi quando vengono in rilievo dati personali.

Detto questo, alcuni degli adempimenti alle nostre prescrizioni posti in essere da ChatGPT e da OpenAI, per la maggior parte sono stati immediatamente attuati su base europea.

Ciò è accaduto senza grandissima sorpresa da parte nostra e degli addetti ai lavori poiché la disciplina di cui avevamo evocato ed invocato il rispetto fosse il famoso GDPR, quindi una disciplina Europea.

Per questa ragione quando OpenAI, subito dopo il nostro primo provvedimento, si è detta disponibile a collaborare per risolvere i problemi contestati, è stato a tutti piuttosto evidente che se avesse messo mano alla sua piattaforma in adempimento delle nostre prescrizioni non lo avrebbe fatto solo in Italia ma anche in Europa.

Se non fosse stato così il rischio sarebbe stato di sentirsi richiamare al rispetto delle stesse regole da parte di altre autorità di protezione dei dati personali, che oggi sono evidentemente coinvolte nella partita.

Alcune prescrizioni, mi riferisco in particolare il tema dei minori, hanno ricevuto - per quel che sappiamo - sin qui una risposta di tipo nazionale. Anche in questo caso, nessuna sorpresa, perché la questione dei minori e della validità del contratto e dell'eventuale consenso al trattamento dei dati personali può essere attuata solo a livello nazionale poiché la disciplina non è esattamente la stessa nei diversi Paesi dell'Unione Europea.

Quello che accadrà adesso, nella dimensione europea, accadrà in ogni caso a seguito dell’iniziativa del garante italiano. Ha già provveduto ad istituire una Task Force delle autorità di protezione dei dati personali del resto d'Europa. È una Task Force che non ha l'obiettivo, non ha i poteri e non potrebbe avere i poteri di condurre in maniera autonoma delle indagini o delle investigazioni per adottare dei provvedimenti, ma che ha piuttosto l'obiettivo di provare a fissare in maniera condivisa dei principi comuni.

Per fare degli esempi, qui esistono, in relazione a questa vicenda, una serie di questioni aperte. Una delle più importanti di queste questioni è: "Può un soggetto, OpenAI in questo caso, raccogliere online i dati personali di centinaia di milioni di cittadini europei ed utilizzarli per l'addestramento degli algoritmi, invocando il legittimo interesse quale base giuridica per questo trattamento?”. Ciò significa che, a prescindere dal diritto alla protezione dei dati del singolo, lui o lei ha un interesse legittimo e prevalentemente strumentale all’esecuzione, in questo caso, di una attività di impresa.

Ecco, le risposte noi ancora non le abbiamo date perché non sono sicuramente risposte da dare in una dimensione di urgenza e possono essere le più diverse. Una risposta, auspicabilmente comune in termini di principio, la si cercherà in seno alla Task Force.

In questa maniera il procedimento, in Italia, in Francia, in Spagna e un domani in altri Paesi, ispirerà l’azione di ciascuna delle autorità allo stesso principio condiviso insieme alla task force.

C:        Bene, grazie mille. Diciamo che c'è questa visione quasi di cooperazione legislativa a livello quanto meno europeo, e questo fa ben sperare.

G:        Di vigilanza o regolamentare sicuramente.

C:        Volevo però tornare un attimo in Italia. Tra le varie richieste nell'accordo, avete richiesto la realizzazione di una campagna di comunicazione finalizzata a informare tutti gli italiani di quanto accaduto e delle possibilità di opporsi all’utilizzo dei propri dati personali ai fini dell'addestramento agli algoritmi.

La mia domanda è: “Come ritieni che questa campagna debba essere realizzata affinché possa essere considerata efficace?”

G:        Naturalmente non sono un esperto di comunicazione. Ciò che abbiamo chiesto a OpenAI è di farci una proposta in modo da poterla valutare, eventualmente anche avvalendoci di esperti. Credo che quello che conta di più, più persino del come debba essere tale campagna, è l'obiettivo che dobbiamo perseguire.

L'obiettivo che dobbiamo perseguire è quello di consentire alle persone che vivono in Italia, poiché quella è la nostra giurisdizione, di sapere che OpenAI utilizza i loro dati.

L'obiettivo è consentire a tutti coloro i cui dati personali sono stati o potrebbero essere stati utilizzati da OpenAI per addestrare gli algoritmi di ChatGPT, di sapere che vengono utilizzati per il funzionamento del servizio in questione. Inoltre, è importante consentire a tutte queste persone di venire a conoscenza della nuova soluzione che OpenAI, a seguito della nostra prescrizione, ha messo a loro disposizione: consentire a ciascuno di scegliere se essere parte o meno dell’addestramento degli algoritmi. Per le ragioni più diverse, qualcuno potrebbe non aver nulla incontrario, chiamiamolo altruismo dei dati ante litteram, mentre qualcun’altro potrebbe non aver piacere che un soggetto terzo tratti i propri dati personali per addestrare un algoritmo per fare business.

Potremmo chiamarlo egoismo dei dati o maggiore preoccupazione per la propria privacy e per la propria identità personale, in ogni caso entrambe le scelte sono legittime, purché si tratti di una scelta consapevole e quindi informata. Posto che nulla è stato detto a nessuno prima di iniziare e l'addestramento, il senso della campagna di comunicazione è che venga almeno detto ora, per dare a ciascuno il diritto di scegliere per davvero cosa lasciar fare o meno dei propri dati personali.

Della legittimità di quanto accaduto si discuterà in un secondo momento nel corso dell’istruttoria che qui in Italia abbiamo già avviato.

C:        Su questo tema dell’ipotetica valutazione della campagna considera la nostra Community a disposizione, qualora fosse necessario.

Un tema che stavi un po' citando, correlato all’utilizzo dei dati per addestrare gli algoritmi, che è stato trattato anche anni fa, è il diritto all'oblio. Ci sono i famosissimi forum di opposizione di OpenAI, quindi ti volevo chiedere: “il diritto all'oblio è stato effettivamente rispettato grazie ai forum di opposizione?”.

Inoltre, un'altra domanda è: “ci puoi spiegare come funzionerebbe l'eliminazione retroattiva dei dati già utilizzati per allenare l'intelligenza artificiale?”.

G:        Allora, direi che sono due profili tecnicamente diversi che convergono per ragioni che adesso provo a mettere in fila in uno stesso modo, ma sono questioni che restano diverse. La prima questione è quella alla quale facevo cenno ovvero: oblio o non oblio, utilizzo o non utilizzo dei dati personali di ciascuno di noi per generare un contenuto su richiesta. Ciascuno di noi ha un diritto che è parte integrante del proprio diritto alla privacy, nessuno può trattare i dati, anche solo per addestrare un algoritmo che poi non pronuncerà mai il suo nome, nell'esercizio o nella fornitura di un servizio.

Qui, OpenAI dà a tutti, sia utenti che non utenti, la possibilità di scegliere se si desidera o meno che i propri dati siano utilizzati per l'addestramento degli algoritmi. Si può scegliere nella forma dell’“Opt Out”: di default OpenAI acquisisce i dati ma su richiesta si può interrompere tale acquisizione. Oggi, chiunque può compilare il form che OpenAI mette a disposizione: gli utenti possono andare nelle nuove impostazioni di OpenAI e ChatGPT e indicare un settaggio che dice non voglio che i miei prompt e le mie conversazioni con Chat GPT siano utilizzate per finalità di addestramento dell'algoritmo. In questo modo, i propri dati mentre si usa ChatGPT sono utilizzati esclusivamente per consentire all’utente di usare il servizio.

Se faccio una domanda a ChatGPT mi aspetto una risposta per quella domanda e per quella risposta sta bene che si utilizzino i miei dati. Al contrario, per finalità altre, come migliorare le capacità dell'algoritmo, non voglio che siano utilizzati i miei dati.

C'è poi a fianco a questo una questione diversa. Posto che i miei dati sono stati utilizzati per addestrare l'algoritmo e posto che, a prescindere da quella che sia o che non sia la finalità voluta, lo scopo reale del funzionamento di ChatGPT è generare contenuti lessicalmente corretti e logicamente consequenziali.

A prescindere quindi dalla veridicità o attendibilità delle risposte che propone, moltissimi utenti hanno utilizzato e utilizzano per ignoranza o per comodità, ChatGPT per generare contenuti su qualcuno.

Ad esempio, se si chiede a ChatGPT: “Scrivimi qualcosa su Guido Scorza”, l’algoritmo risponderà come ha risposto sin qui a quelle risposte. Può darsi il caso e si è dato con una certa frequenza con episodi eclatanti in giro per il mondo che ChatGPT, in maniera inconsapevole associ al mio nome e al mio cognome un fatto che non appartiene effettivamente alla mia vita.

Come accaduto ad un professore universitario americano dato come molestatore sessuale quando questi non lo è, oppure ricordi nel presente che qualcuno è stato un terrorista quando però sono passati 30 anni e quest’ultimo ha scontato il suo debito con la società.

Ecco, in un caso e nell'altro sotto l'ombrello della disciplina sulla protezione dei dati personali il singolo, che sia utente o meno di ChatGPT, ha diritto a vedere quella informazione corretta o cancellata a seconda dello stato della tecnica.

Quello che noi avevamo chiesto a OpenAI è: "se puoi correggi l'informazione inesatta o meglio, consenti a chi te lo chiedesse di veder corretta l'informazione inesatta che lo riguarda" se tecnologicamente questo non è possibile “consenti di veder cancellate quelle informazioni”.

Questo è ciò che è accaduto. Oggi chiunque può chiedere a OpenAI, in assenza della possibilità tecnica di correggere informazioni che lo riguardano, di cancellare le informazioni a lui collegate laddove le ritenga superate dal tempo o semplicemente inesatte.

Al momento, questo è l'equilibrio che si è trovato. Tra ciò che dovrebbe essere, se si dà l'informazione su qualcuno quest’ultima deve essere esatta, e ciò che talvolta è, se l’informazione è inesatta e OpenAI tecnicamente non è capace di correggerla, allora deve essere cancellata.

C:        Grazie, grazie mille. Tra tutto il lavoro che il Garante porta avanti per la tutela della privacy c'è anche un lavoro di sensibilizzazione nei confronti degli utenti.

Volevo porre l'accento su questo: “quali sono i prossimi passi con cui il garante sensibilizzerà gli utenti sulle questioni di privacy in relazione all'uso di servizi quali ChatGPT e simili?”

G:        Questo tema della sensibilizzazione nei confronti degli utenti con iniziative come questa, ha l'effetto di alimentare un dibattito che non c'era o che non era così vivace e che oggi c'è ed è diventato rapidamente globale.

A prescindere da quello che ciascuno di noi pensa sull'opportunità o inopportunità della sospensione temporanea nei confronti di ChatGPT, credo che naturalmente si vada nella direzione di sensibilizzare le persone rispetto ad una serie di questioni probabilmente non accessibili. Oggi, però, certamente più di ieri, si è nella condizione di porsi almeno il problema di cosa succede dei propri dati, se vengono utilizzati per addestrare degli algoritmi e quali sono i propri diritti.

Direi che questo tipo di iniziative sono di per sé, un’azione di sensibilizzazione anche se indiretta. Ho sempre sostenuto che uno dei nostri principali compiti come Autorità Garante della privacy, oltre all'attività specifica di vigilanza, di sanzione, di adozione di provvedimenti correttivi, è quella di divulgazione.

Dobbiamo divulgare in tutte le direzioni possibili, la chiacchierata che stiamo facendo noi oggi credo che ne sia un esempio. La partecipazione ad eventi, la nostra presenza sui social, credo che servano a cercare di rendere la questione della protezione dei dati personali un argomento popolare nel senso più pieno del termine. Trasformare questo diritto sin qui vissuto solo dagli addetti ai lavori, in un'ottica elitaria, in un diritto di massa e per le masse.

C:        Ti ringrazio, il lavoro che stai facendo, che state facendo, è apprezzatissimo anche sui social. Tra l'altro, sulla linea della sensibilizzazione e della formazione durante la tre giorni del WMF - We Make  Future in Fiera a Rimini il 15, 16 e 17 giugno ci sarai anche tu. Inoltre, abbiamo l’AI Global Summit, con partecipazioni internazionali sempre per sensibilizzare, fare formazione e divulgare. L'invito è di seguirci in quei tre giorni.

Ho una domanda per poi andare in chiusura. Qualche giorno fa ho fatto una chiacchierata con Manuel Castells, dove abbiamo trattato il tema dell'intelligenza artificiale e dell’impatto sulla società.

Volevo chiederti: “questo grosso tema dell'innovazione che perseguiamo costantemente come esseri umani e come società correlato al tema della privacy. Riusciremo mai a individuare un punto d'incontro in una società come quella attuale tra l'innovazione e la gestione della privacy?”

So che è una domanda complicatissima però l’ho posta anche a Manuel Castells e sono davvero curioso di sapere il tuo punto di vista.

G:        Io sono, diciamo caratterialmente, ottimista e specificamente anche ottimista in questa vicenda.

Credo che il tema sia intendersi innanzitutto sulle parole che sono indubbiamente importanti.

Sul significato di innovazione, io traccerei una linea di confine molto netta tra il progresso tecnologico e l'innovazione.

Possono esserci tante forme di progresso tecnologico in maniera assolutamente naturale e spontanea o viceversa ricercata, ma non è detto che tutto il progresso tecnologico debba essere considerato innovazione.

Dal mio punto di vista, l'innovazione è quel progresso tecnologico che ha come obiettivo ultimo l'amplificazione del benessere del singolo e della collettività, per poter vivere meglio.

Come singoli e come società però, questo risultato non è perseguibile ogni qualvolta lungo la strada del progresso tecnologico si ignorano i diritti, a cominciare da quelli fondamentali.

Non c'è innovazione senza rispetto dei diritti.

Credo che, da questo punto di vista, i diritti e la regolamentazione debbano essere visti molto di più come un vincolo dal punto di vista tecnologico invece che come un ostacolo.

È necessario andare avanti in maniera assolutamente convinta sulla strada del progresso tecnologico assumendo però alcuni diritti, a cominciare da quelli fondamentali, come vincoli lungo la strada dell’innovazione. Bisogna tener presente costantemente che non tutto quello che è tecnologicamente possibile è giuridicamente legittimo e democraticamente sostenibile. Possono esservi dei momenti, semplicemente per un disallineamento tra il ritmo del progresso e il ritmo dell’evoluzione culturale, in cui si deve scegliere di rinunciare all'applicazione di alcune tecnologie per rispettare i diritti.

Un esempio è ciò che sta accadendo a Bruxelles, ormai da qualche mese, lavorando al provvedimento per l’Intelligenza Artificiale. Ci si è trovati tutti d'accordo nel dire che il riconoscimento facciale intelligente è una delle applicazioni dell'intelligenza artificiale alle quali, per diverse ragioni - tra cui l'attuale immaturità tecnologica - è opportuno rinunciare. Questo perché i malefici che tale applicazione tecnologica può produrre per l'umanità sono superiori ai benefici.

Credo che se noi inquadrassimo in questi termini la relazione tra l'innovazione e la regolamentazione scopriremmo senza grandi difficoltà che non c'è nessun antagonismo.

Non si tratta di nemici ma piuttosto di fattori complementari: l'uno ha molto da guadagnare dall'altro e nessuno ha nulla da perdere.

Libertà di impresa e diritto alla privacy sono entrambi dentro la carta dei diritti fondamentali dell'Unione Europea. Per nessuna ragione e in nessun contesto l'uno ha la possibilità di fagocitare l'altro o viceversa, i diritti tiranni sotto il nostro ombrello costituzionale e democratico non esistono.

C:        Io la vedo esattamente come te. Nell'ultimo caso che citavi, del riconoscimento facciale, il rischio è di andare a creare un altro Leviatano tecnologico. Il tema è abbastanza delicato e la visione è la medesima.

Tutto ciò che è innovazione deve andare nella linea di avere un impatto positivo sulla Società, altrimenti non è così.

Sull’AI Act abbiamo intervistato recentemente Brando Benifei per avere un quadro complessivo.

Detto ciò, Guido, io ti ringrazio infinitamente per questa intervista, per la tua disponibilità per quello che state facendo.

G:        Grazie a voi!

C:        Ci vediamo con chi ci stanno seguendo da casa e anche con te al WMF: il 15, 16 e 17 giugno in Fiera a Rimini. Grazie a tutti e grazie ancora, Guido!

G:        Grazie a voi. Grazie a tutti!

C:        Ciao.