OpenAI a fost reclamată de NOYB, o asociație care luptă pentru protecția vieții private, pe motiv că nu reușește să corecteze informațiile greșite produse de ChatGPT.

Plângerea a fost depusă la Autoritatea Austriacă pentru Protecția Datelor (DPA), în numele unei „personalități publice”. OpenAI a fostă rugat să corecteze sau să elimine informații greșite, dar compania a spus că este „imposibil din punct de vedere tehnic”, scrie Aitoolreport.com.

De asemenea, atunci când i s-a cerut să dezvăluie informații despre modul în care au fost procesate datele s-a oferit doar să filtreze sau să blocheze datele pe anumite solicitări. 

În conformitate cu legea GDPR, cetățenii UE au drepturi cu privire la informațiile lor personale, inclusiv dreptul de a fi corectate date eronate. Refuzul OpenAI de a elimina sau de a rectifica informațiile reclamantului pare a fi o încălcare directă a legii GDPR.

„Invenția de informații false este destul de problematică în sine. Dar când vine vorba de informații false despre indivizi, pot exista consecințe grave. Este clar că, în prezent, companiile nu pot face chatbot-uri, precum ChatGPT, să respecte legislația UE atunci când prelucrează date despre persoane fizice. Dacă un sistem nu poate produce rezultate precise și transparente, nu poate fi folosit pentru a genera date despre indivizi. Tehnologia trebuie să respecte cerințele legale, nu invers”, a declarat Maartje de Graaf, avocat pentru protecția datelor la NOYB. 

În Polonia, DPA a lansat o investigație asupra ChatGPT, după ce OpenAI a refuzat să corecteze informațiile personale greșite în urma unei plângeri a unui cercetător pe probleme de confidențialitate și securitate.

Și în Italia, DPA a închis temporar ChatGPT, după ce OpenAI a încălcat legile GDPR în multe cazuri, inclusiv producerea de informații greșite despre oameni și modul în care procesează datele personale. Această anchetă este încă în desfășurare, iar o decizie este în așteptare.

Dacă OpenAI este găsit vinovat, sancțiunea pentru nerespectarea legilor GDPR poate ajunge până la 4% din cifra de afaceri anuală globală, iar autoritățile de reglementare în domeniul protecției datelor le pot ordona, de asemenea, să modifice modul în care sunt prelucrate informațiile, ceea ce ar putea remodela modul în care ChatGPT funcționează în Europa.