top of page
Daniel Piscitelli

Le problematiche privacy di Chat GPT

Avv. Elena Albricci - Studio Legale Jlc


L’intelligenza artificiale conversazionale ha fatto molti progressi negli ultimi anni, con numerosi modelli e piattaforme creati per consentire alle macchine di comprendere e rispondere a degli input ed a delle richieste degli utilizzatori. Tra questi strumenti troviamo la famosa piattaforma denominata “Chat GPT”, acronimo di Governative Pretrained Transformer, sviluppata dalla multinazionale statunitense OpenAi, il cui obiettivo è quello di ottimizzare le conversazioni e facilitare l’approccio degli utenti all’intelligenza artificiale offrendo una vasta gamma di applicazioni, dal servizio di traduzione linguistica fino alla scrittura creativa.

Per capire il funzionamento di Chat GPT è necessario comprendere la tecnologia a fondamento dell’elaborazione del linguaggio naturale, ovvero il “Natural Language Processing” o NLP. Si tratta di una branca dell’intelligenza artificiale che ha come intento la programmazione e l’elaborazione di interazioni tra computer e linguaggio umano. La tecnologia NLP consente alla Chatbot di comprendere i modelli e le sfumature del linguaggio umano attraverso algoritmi avanzati di apprendimento automatico volti a generare risposte alle domande umane ed instaurare veri e propri discorsi. Ulteriore aspetto sorprendente di chat GPT è la capacità di apprendere ed imparare dalle varie conversazioni ed offrire così risposte sempre più personalizzate.

A metà dicembre, pochissimo tempo dopo il suo lancio, più di un milione di persone si erano iscritte a Chat GPT, scoprendo uno strumento assolutamente innovativo rispetto ai software di intelligenza artificiale già presenti online. Molti studenti e lavoratori utilizzano la Chatbot nella vita quotidiana chiedendo addirittura di scrivere testi o completare ricerche di lavoro.

L’interesse per Chat GPT ha preoccupato il Garante della Privacy, il quale, già da diverso tempo, stava studiando ed analizzando la piattaforma per individuare eventuali lacune o difformità rispetto al dettato normativo del GDPR e del Codice Privacy Italiano.

In un primo momento il Garante ha bloccato l’utilizzo della piattaforma in quanto la stessa presentava molti profili di violazione del GDPR. Dopo diversi colloqui con la multinazionale OpenAi, il Garante ha pubblicato numerose prescrizioni, per mitigare o risolvere le diverse problematiche tra la Chatbot e la normativa privacy. L’Authority ha riscontrato la mancanza di un’informativa per la raccolta dei dati degli utenti, in violazione all’art. 13 del GDPR, poca trasparenza e la totale assenza di una base giuridica idonea a giustificare la conservazione di tutti i dati raccolti nelle varie conversazioni tra la piattaforma e gli innumerevoli utenti, in violazione agli artt. 6, 15 e seguenti del Regolamento Europeo n. 679/126, e l’impossibilità dell’utente di chiedere la cancellazione dei propri dati, in difformità al dettato normativo degli artt. 15 e 17 del GDPR. Un’ulteriore profilo di violazione individuato dal Garante atteneva alla realizzazione di processi di profilazione e di decisioni automatizzate senza dare possibilità all’utente di contestare o correggere tali situazioni e anche una totale mancanza di filtri volti a verificare l’effettiva età degli utenti, nonostante il servizio sia rivolto a soggetti maggiori di 13 anni. Infine era stata individuata una totale inosservanza del principio di “privacy by design”, secondo cui per la protezione dei dati è necessaria una progettazione dei servizi e delle attività, conformemente ai dettati del GDPR e del Codice Privacy.

L’enorme successo di Chat GPT, e i conseguenti risvolti privacy hanno preoccupato l’intera Europa, che si trovava di fronte ad una totale mancanza di una normativa ad hoc che imponesse delle prescrizioni e dei limiti a cui le piattaforme di Intelligenza Artificiale dovessero uniformarsi. Per questo motivo nel mese di maggio l’Organizzazione per la Cooperazione e lo Sviluppo Economico Europeo ha emanato la c.d. “Recomandation on Artificial Intellicence”, ovvero un testo, elaborato sotto la guida di 50 esperti, volto a dare delle linee guida per il rapporto tra AI e Privacy. Questo primo elaborato ha fissato, inoltre, i 5 pilastri per la gestione di un corretto rapporto con l’Intelligenza Artificiale di ogni genere, ovvero: welfare, correttezza, trasparenza, solidarietà e responsabilità.

Successivamente si è reso necessario l’intervento del Parlamento Europeo con l’approvazione dell’AI ACT, ovvero del primo regolamento sull’intelligenza artificiale che entrerà in vigore nel 2024, il cui obiettivo è quello di promuovere ed incentivare l’utilizzo di un’intelligenza artificiale affidabile e volta a garantire un elevato livello di protezione dei dati degli utenti, della salute e del rispetto dei diritti fondamentali.

Dopo l’Unione Europea è intervenuta anche l’UNESCO con la pubblicazione intitolata “Guidance for generative AI in education and research”, il cui scopo è quello di supportare i Paesi nell’attuazione di azioni immediate ed a lungo termine per garantire una corretta visione delle nuove tecnologie incentrata sull’uomo.

Comments


bottom of page