Il Garante per la protezione dei dati personali ha imposto una limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce ChatGPT, uno dei software di intelligenza artificiale relazionale più noti nel settore. La decisione è stata presa a seguito di una perdita di dati avvenuta il 20 marzo, che ha coinvolto conversazioni degli utenti e informazioni relative ai pagamenti degli abbonati al servizio a pagamento.
A causa di questa violazione, l’Autorità ha avviato un’indagine per esaminare le pratiche di raccolta e conservazione dei dati personali da parte di OpenAI. Nel provvedimento, il Garante privacy mette in evidenza la mancanza di un’informativa adeguata agli utenti e agli interessati i cui dati vengono raccolti dalla società, oltre all’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali per “addestrare” gli algoritmi alla base del funzionamento della piattaforma.
L’Autorità ha anche sottolineato come le informazioni fornite da ChatGPT non sempre corrispondano al dato reale, determinando un trattamento di dati personali inesatto. Inoltre, nonostante il servizio sia rivolto ai maggiori di 13 anni secondo i termini di OpenAI, l’assenza di filtri per la verifica dell’età degli utenti espone i minori a risposte inadeguate rispetto al loro grado di sviluppo e autoconsapevolezza.
OpenAI, che non ha una sede nell’Unione Europea ma ha designato un rappresentante nello Spazio economico europeo, è tenuta a comunicare entro 20 giorni le misure adottate per rispettare le richieste del Garante. In caso contrario, la società potrebbe incorrere in una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.