ServizioContenuto basato su fatti, osservati e verificati dal reporter in modo diretto o riportati da fonti verificate e attendibili.Scopri di piùDiritto alla riservatezza

Intelligenza artificiale, il Garante della privacy blocca ChatGPT

Rilevata una raccolta illecita di dati personali e l'assenza di sistemi per la verifica dell'età dei minori

Tesi scritta da ChatGPT? Il software antiplagio riconosce l'AI

3' di lettura

Stop a ChatGPT finché non rispetterà la disciplina privacy. Il Garante per la protezione dei dati personali ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma.

L'Autorità - spiega una nota - ha contestualmente aperto un'istruttoria nei confronti della società “inventata” (inizialmente come no-profit) da Sam Altman e ora guidata da Satya Nadella.

Loading...

Per approfondire / Deepfake e video manipolati: come funziona il lato oscuro dell'intelligenza artificiale (di Vittorio Carlini)

Mancata informativa agli utenti

ChatGPT, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento.

Nel provvedimento, il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.

Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto.

Baidu presenta Ernie Bot e lancia la sfida a ChatGpt

Minori e risposte “inidonee”

Da ultimo, nonostante - secondo i termini pubblicati da OpenAI - il servizio sia rivolto ai maggiori di 13 anni, l'Autorità evidenzia come l'assenza di qualsivoglia filtro per la verifica dell'età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.

OpenAI, che non ha una sede nell'Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

Moige: subito norme e informazioni ai nostri figli

“Sono moltissimi gli utenti che negli ultimi mesi stanno usando questa tecnologia, molti dei quali sono minori, incuriositi dall’intelligenza artificiale e dalla possibilità di creare testi ed immagini con pochi clic.

La mancanza di chiarezza, però, ci impone una maggiore cautela, soprattutto nel caso di minori”, ha affermato Antonio Affinita, direttore generale del Moige-Movimento Italiano Genitori, commentando la decisione del Garante per la protezione dei dati personali di bloccare ChatGPT, accusando il più noto dei software di intelligenza artificiale di raccogliere illecitamente informazioni degli utenti.

“Siamo pienamente d’accordo con la posizione del garante per la protezione dei dati personali e l’auspicio è che - aggiunge Affinita - le istituzioni e tutti gli organi competenti accolgano l’appello e avviino le dovute verifiche, affinché chi scelga di utilizzare queste tecnologie possa farlo con consapevolezza, senza veder violati i propri diritti o veder utilizzati i propri dati personali in modo poco chiaro. Servono subito regole, norme ed un’informazione più chiara”.

Dopo l’appello di Musk e di oltre 1000 esperti hi-tech

Ma nonostante la richiesta di uno stop di sei mesi da parte dei pionieri della Silicon Valley, non si fermano i progetti di ChatGpt. Il software di intelligenza artificiale, di cui oggi il Garante italiano per la protezione dei dati personali ha disposto il blocco finché non rispetterà la disciplina privacy, nei prossimi mesi potrebbe diventare indistinguibile da un essere umano con l’aggiornamento numero 5.

Intanto, l’azienda che ha creato la piattaforma, OpenAi, deve rispondere ad una denuncia rivolta alla Federal Trade Commission americana A svelare il progetto di ChatGpt-5 è stato lo sviluppatore Siqi Chen che ha dichiarato su Twitter di aver appreso che la nuova versione del software, che sarebbe rilasciata il prossimo inverno, dovrebbe raggiungere l’Agi, acronimo di artificial general intelligence, cioè la capacità di un programma di pensare e agire esattamente come una persona.

Ergo, parlare con ChatGpt-5, tra qualche mese potrebbe assomigliare sempre di più al parlare con un essere umano. OpenAI, la società che ha lanciato il software ChatGpt, dovrà affrontare intanto negli Stati Uniti una denuncia rivolta alla Federal Trade Commission: è stata sporta dalla società di ricerca senza scopo di lucro Center for AI and Digital Policy e chiede all’agenzia americana di far sospendere a OpenAi l’implementazione commerciale di modelli linguistici di grandi dimensioni come ChatGpt. L’associazione definisce Gpt-4, l’ultima versione del software, “di parte, ingannevole e con un rischio per la privacy e la sicurezza pubblica”.


Riproduzione riservata ©

Brand connect

Loading...

Newsletter

Notizie e approfondimenti sugli avvenimenti politici, economici e finanziari.

Iscriviti