Il braccio di ferro

ChatGPT sta per tornare disponibile in Italia

Prove di disgelo tra il Garante della privacy e OpenAi. Si lavora all'informativa sulla privacy e agli altri obblighi per ripristinare il servizio
ChatGPT
ChatGPTSilas Stein/picture alliance via Getty Images

Sono ore di disgelo a Roma tra il Garante della privacy italiano e OpenAi su ChatGPT. Ore che precedono quello che ormai viene dato come un ritorno online del chatbot anche in Italia entro il 30 aprile, data ultima entro cui la startup che ha sviluppato ChatGPT deve rispondere alle richieste dell'Autorità garante della privacy italiano per poter schivare una multa fino a 20 milioni di euro o al 4% del fatturato annuo e ottemperare al provvedimento per violazione dei dati personali di fine marzo. Wired lo apprende da fonti vicine alla partita.

Già nelle scorse ore le mosse di OpenAi con la realizzazione di nuove funzioni per la privacy di ChatGTP sono apparse come un primo passo verso le richieste del Garante. Ma tra gli uffici di piazzale Venezia e i legali che la startup ha arruolato in Italia le negoziazioni per comporre la diatriba scaturita dalla denuncia di violazione del Gdpr da parte del chatbot sono ormai a uno stadio avanzato e pronte per chiudere i punti dirimenti delle contestazioni di fine marzo, che hanno provocato, come risposta dell'azienda, il blocco di ChatGPT per gli utenti che si collegano dall'Italia. Di fatto, entro poche ore ChatGPT potrà tornare disponibile senza bisogno di fare ricorso a una virtual private network per instradare il traffico fuori dall'Italia e aggirare il blocco. Così come essere scongelati gli abbonamenti messi in pausa sempre a fine marzo.

La situazione:

  1. Le contestazioni del Garante
  2. Le mosse di OpenAi
  3. Manca ancora la parola fine

Le contestazioni del Garante

A fine marzo alla startup di ChatGPT il Garante della privacy ha contestato di non aver mai fornito una informativa sul trattamento dei dati degli utenti e degli interessati. Inoltre, per l'autorità mancava “una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma”. E siccome ChatGPT spesso restituisce risposte con errori, secondo il garante si configura anche “un trattamento di dati personali inesatto”. Poi c'è la questione minorenni. Sebbene ChatGPT si rivolga a chi ha più di 13 anni, non esiste un filtro per controllare l'età di chi lo usa. E quindi, hanno concluso da piazzale Venezia, questo espone “i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza”. Una mossa simile a quanto fatto con TikTok.

A metà aprile il Garante ha indicato una serie di attività per comporre la questione. Primo: fornire e collocare in bella vista (specie prima di abbonarsi) una informativa trasparente sul proprio sito, spiegando in modo chiaro come sono usati i dati. Proprio questo, a quanto apprende Wired dai legali che assistono la società, è uno dei punti in discussione in queste ore. Secondo: per ottenere questi dati, OpenAi deve avere il consenso degli utenti. E non basarsi su un contratto. Terzo: predisporre un modo semplice sia per gli utenti sia per i non iscritti per scoprire se i propri dati sono stati usati per addestrare ChatGPT e per chiederne la cancellazione o la rettifica. Quarto: entro il 31 maggio OpenAi deve presentare un piano per realizzare un sistema di verifica dell'età per lasciare fuori i minori di 13 anni che non hanno il consenso dei genitori. Il sistema dovrà essere poi implementato entro il 30 settembre 2023. Quinto: realizzare una campagna di comunicazione su radio, tv, media e internet per informare le persone su come algoritmi come ChatGPT usano i dati personali, da lanciare entro il 15 maggio.

Le mosse di OpenAi

Nei giorni scorsi OpenAi ha già adottato alcuni provvedimenti per rispondere alle richieste di una maggiore protezione dei dati. Ha creato una sorta di versione in “incognito” per gli utenti, che consente di disabilitare di default la cronologia delle conversazioni, escludendole dai dati utilizzati per allenare l'algoritmo.

Perché è importante? Perché i dati personali che servono a ChatGPT per migliorare le proprie capacità di stabilire in modo probabilistico quale parola viene dopo un'altra, generando un testo di senso compiuto, non sono tanto il nostro nome, cognome, la data di nascita o il codice fiscale, ma tutte quelle informazioni che ci rappresentano (come gusti musicali, letterari, abitudini sessuali, tendenze politiche) che dichiariamo o lasciamo intendere quando interroghiamo il chatbot e che il sistema deve fare propri per fornire una risposta il più possibile attendibile e in linea con le nostre richieste.

Sempre nei giorni scorsi OpenAi ha annunciato un nuovo abbonamento business per aziende o professionisti che prevede che i dati degli utenti non siano utilizzati per allenare i modelli del chatbot e una versione semplificata di esportazione dei propri dati, che consentono di esercitare il diritto a conoscere quali informazioni un'azienda possiede su di noi. Se la modalità incognito elimina a monte il problema dei dati personali, creando un ambiente di lavoro sottratto al training dell'algoritmo, e l'esportazione delle chat consente di dare alle persone strumenti per esercitare i propri diritti e chiedere l'eventuale rettifica o cancellazione di dati, queste novità da sole non bastavano a coprire tutte le richieste del Garante. Ma di fatto nelle ultime ore la partita si è sbloccata. E ChatGPT è pronto a tornare in chiaro per tutti.

Manca ancora la parola fine

Questa non è ancora la parola fine alle negoziazioni tra la startup di ChatGPT, il Garante italiano e, più in generale, le autorità a tutela della privacy o impegnate a regolare l'intelligenza artificiale. Da un lato, perché gli impegni che OpenAi ha preso a metà aprile con il collegio di piazzale Venezia devono ancora essere assolti in toto, per esempio per quanto riguarda i sistemi di verifica dell'età per bloccare l'accesso agli under 13 che ha settembre come traguardo.

Dall'altro perché proprio la rapida galoppata delle intelligenze artificiali generative come ChatGPT ha spinto i regolatori a occuparsi del tema. E solo qualche giorno fa una commissione del Parlamento europeo ha infilato in extremis un emendamento sulla protezione del diritto d'autore dai potenziali abusi degli algoritmi che lascia intendere che nuovi obblighi sono in arrivo per le società del settore. Ma OpenAi ha capito come relazionarsi con le autorità garanti. Il negoziato con l'ente italiano l'aiuterà ad affrontare le altre investigazioni. E gli impegni presi, di portata mondiale, a frenare altre indagini. Tornando così a concentrarsi a tempo pieno sui suoi algoritmi.