Parlamentul European și-a adoptat miercuri poziția de negociere cu privire la noile norme pentru a reduce riscurile inteligenței artificiale (AI). Dragoș Tudorache, co-raportor al PE pentru AI, explică riscurile utilizării noilor aplicații.

UPDATE

AI Act a fost adoptat cu 499 de voturi pentru, 28 împotrivă și 93 de abțineri. 

Amendamentele PPE au fost respinse. 

 

  • Se interzice complet folosirea inteligenței artificiale (AI) pentru supravegherea biometrică, recunoașterea emoțiilor și activitățile polițienești bazate pe analiza predictivă.
  • Sistemele generative de inteligență artificială cum ar fi ChatGPT trebuie să menționeze când conținuturile sunt generate de IA.
  • Sistemele de inteligență artificială folosite pentru a influența alegătorii la vot sunt considerate foarte riscante.

Eurodeputații au inclus în listă interdicții referitoare la utilizările intruzive și discriminatorii ale AI, cum ar fi:

- utilizarea sistemelor de identificare biometrică la distanță ”în timp real” sau ”ulterioară” în spații accesibile publicului;

- sistemele biometrice de clasificare care folosesc caracteristici sensibile (de exemplu, genul, rasa, etnia, statutul de cetățenie, religia, orientarea politică);

- sistemele polițienești bazate pe analiza predictivă (bazate pe profilare, localizare sau comportamentul infracțional anterior);

- sistemele de recunoaștere a emoțiilor folosite la locul de muncă sau în cadrul instituțiilor de învățământ, ori în domeniul aplicării legii sau al gestionării frontierelor;

- extragerea fără scop precis a datelor biometrice din imaginile faciale de pe internet sau înregistrări făcute de televiziunile cu circuit închis pentru a crea baze de date de recunoaștere facială (încălcând drepturile omului și dreptul la viață privată).


 

+++++

Eurodeputații au dezbătut marți AI Act și cel mai probabil vor da miercuri un vot favorabil. PPE dorește introducerea unor excepții privind utilizarea inteligenței artificiale, atunci când vine vorba de aplicarea legii.

Setul european de norme privind gestionarea riscului AI va fi primul din lume, Uniunea Europeană dorind ca standardele impuse de ea să fie preluate la nivel global.

Normele urmează o abordare bazată pe riscuri și stabilesc obligații pentru furnizori și utilizatori, în funcție de nivelul de risc pe care AI îl poate genera.

Riscurile creează îngrijorări chiar în rândul companiilor din domeniu, care simt nevoia unei reglementări pentru a nu scăpa din mână dezvoltarea și folosirea inteligenței artificiale.

Dragoș Tudorache (Renew Europe/REPER), coraportor al Parlamentului European pentru AI Act, atrage atenția asupra impactului mare pe care inteligența artificială îl va avea chiar și ”asupra statului ca formă de organizare”.

”E un impact care încă nu se vede, dar cred că este uriaș, cu cât tehnologia avansează, cu cât începe să se pună întrebarea în societate de ce mai e nevoie de stat, ce mai reprezintă statul, ce-mi mai servește mie, ca cetățean, statul în condițiile în care o platformă începe să-mi livreze mai toate serviciile de care am nevoie mult mai bine decât o face statul”, a explicat Dragoș Tudorache într-o întâlnire cu jurnaliști români.

Impactul AI va fi uriaș și pe piața muncii, în educație și alte sectoare.

 

”Nu reglementăm tehnologia, ci utilizarea ei. Ne uităm la aplicațiile de AI să vedem care ridică un risc către acele valori, interese pe care vrem să le protejăm. Ne vom concentra pe acele utilizări care comportă riscuri în așa fel încât marea majoritate a AI va rămâne, de fapt nereglementat. Comisia estimează undeva între 80-90%”,

 

a spus Tudorache, adăugând că e bine să rămână nereglementat pentru că societatea are nevoie de cât mai multe inovație, cât mai multă creativitate, cât mai multă dezvoltare, avem nevoie de aplicațiile AI din zona industrială, care ”optimizează procese de producție, optimizează fluxul într-o întreprindere, consumul de resurse, de gaz, curent, apă etc”.

În legislația europeană este prevăzută și flexibilitatea - în funcție de evoluțiile ulterioare se mai pot adăuga sau scoate diverse reglementări.

Ce aplicații vor fi interzise

”Comisia a stabilit o o piramidă de risc. În vârful piramidei sunt acele câteva aplicații care trebuie interzise, pentru că sunt atât de dăunătoare în privința valorile pe care vrem să le protejăm, încât nu le vrem deloc pe piață: social scoring, manipulare subliminală prin AI, identificarea biometrică în spațiul public în timp real”.

Social scoring - sistemul de credite sociale - e folosit deja în China. Există deja și aplicații care acționează subliminal.

Rămâne loc de negociere cu Consiliul UE în cazul identificării biometrice, unde ar putea fi introduse excepții în cazuri precum terorism sau răpiri de copii.

La nivelul de mijloc al piramidei se află aplicațiile ”cu niveluri inacceptabile de risc”. Lista propusă de Comisie e destul de generală, astfel că pot fi prinse ”în năvod” foarte multe aplicații care, în realitate, nu implică niciun risc. PE a introdus un filtru, care stabilește că nu e suficient ca o companie să fie într-un domeniu de risc, ci trebuie ca aplicația sa să implice ”un risc semnificativ”.

Legislația include și orme adaptate pentru siseme generative de inteligență artificială, cum ar fi ChatGPT, inclusiv etichetarea conținutului generat de IA și punerea la dispoziția publicului a rezumatelor datelor protejate prin drepturi de autor utilizate în scopul formării.

Vor exista și o serie de criterii care vor permite companiilor să se autoevalueze, în așa fel încât costul de conformare să fie cât mai mic.

Va fi instituit un registru european cu toate aplicațiile care sunt în zona de risc ridicat, registru care va putea fi accesat și de către utilizatori.

Inițial, raportorii au dorit crearea unei agenții, dar s-a decis în cele din urmă să fie doar un AI Office. Spre deosebire de GDPR, unde fiecare țară a reglementat diferit, în cazul aplicațiilor cu impact mare - folosite în mai mult de trei state membre care afectează mai mult de 45 de milioane de utilizatori - vor fi aceleași norme.

AI Act prevede și înființarea de ”sand boxes” - un fel de centre de testare unde companii se vor putea asigura că aplicațiile lor respectă legislația.

Ele sunt obligatorii pentru statele membre, dar nu pentru firme. Acestea pot apela la ele doar dacă doresc să fie sigure că aplicațiile pe care urmează să le lanseze nu intră în zona de risc ridicat.

Totodată, companiile au posibilitatea aici să facă teste folosind seturi de date la care nu ar avea acces în lumea reală, pentru că ar încălca GDPR.

Ele vor putea fi înființare nu doar la nivel național, ci și la nivel regional sau chiar local, acolo unde există resurse.

”Singurul risc pe care-l văd e în competența și capacitatea guvernelor de a face față obligațiilor”, spune Tudorache.

Spre deosebire de GDPR, vor exista mandate pentru standarde tehnice. 

O altă problemă va fi reprezentată de disparitățile între state, unele vor avea mai mulți bani pentru a plăti specialiștii, alții - mai puțini. Și factorul educațional intră în discuție, dar, momentan, nimeni în UE nu discută chestiunea.

Practic, UE va putea interzice folosirea unor aplicații populare, precum Tik-Tok, daă acestea nu vor respecta reglementările. Acest lucru va putea fi făcut chiar înainte de AI Act, prin Actul privind Serviciile Digitale, care intră în vigoare în toamna acestui an.