PE aprobă Legea privind inteligența artificială
PE a aprobat miercuri Legea privind inteligența artificială, care garantează siguranța și respectarea drepturilor fundamentale și stimulează inovația.
Regulamentul, convenit în decembrie 2023 în cadrul negocierilor cu statele membre, urmărește să protejeze drepturile fundamentale, democrația, statul de drept și sustenabilitatea mediului în fața sistemelor de AI cu grad ridicat de risc.
Actul legislativ vizează și să încurajeze inovația și să asigure un rol de lider în domeniu pentru Europa. Regulamentul impune obligații în cazul inteligenței artificiale, în funcție de riscurile sale potențiale și de impactul preconizat.
- Garanții pentru sistemele de inteligență artificială (AI) de uz general
- Limite la folosirea sistemelor de identificare biometrică de către organele de aplicare a legii
- Atribuirea unui punctaj social și folosirea AI pentru a manipula oamenii sau a exploata vulnerabilitățile utilizatorilor sunt interzise
- Consumatorii au dreptul să facă plângeri și să primească explicații relevante
Ce utilizări sunt interzise
Noile norme interzic anumite utilizări ale inteligenței artificiale care amenință drepturile cetățenilor, inclusiv sistemele biometrice de clasificare bazate pe caracteristicile sensibile ale persoanelor.
Extragerea fără scop precis a imaginilor faciale de pe internet ori din înregistrările camerelor video cu circuit închis pentru a crea baze de date de recunoaștere facială se numără și ea printre utilizările interzise.
Nu vor fi permise nici recunoașterea emoțiilor la locul de muncă și în școli, atribuirea unui punctaj social, sistemele de poliție predictivă (când acestea se bazează doar pe stabilirea profilului unei persoane sau pe analizarea caracteristicilor sale) și AI care manipulează comportamentul uman sau exploatează vulnerabilitățile oamenilor.
Excepții privind aplicarea legii
Folosirea sistemelor de identificare biometrică de către organele de aplicare a legii este în principiu interzisă, cu excepția unor situații enumerate în mod exhaustiv și definite în mod strict. Sistemele de identificare biometrică „în timp real” pot fi instalate doar dacă se respectă garanții stricte, de exemplu, dacă folosirea lor este limitată în timp și geografic și este aprobată în prealabil de o autoritate judiciară sau de un organ administrativ.
Ele pot fi folosite, de pildă, pentru a căuta o persoană dispărută sau pentru a preveni un atac terorist. Folosirea acestor sisteme post-facto (sistemele de identificare biometrică „ulterioară”) este considerată un caz de utilizare cu grad ridicat de risc și este posibilă doar în virtutea emiterii unei autorizații judiciare legate de o infracțiune penală.
Obligații pentru sistemele cu grad ridicat de risc
Textul prevede și obligații clare pentru alte sisteme de AI cu grad ridicat de risc, din cauza potențialului lor ridicat de a afecta negativ sănătatea, siguranța, drepturile fundamentale, mediul, democrația și statul de drept. Iată câteva exemple de utilizări ale AI care prezintă un grad ridicat de risc: infrastructura critică, educația și formarea profesională, serviciile publice și private esențiale (sănătatea, serviciile bancare etc.), unele sisteme folosite de organele de aplicare a legii, migrația și gestionarea frontierelor, justiția și procesele democratice (de exemplu, pentru a preveni influențarea alegerilor).
Aceste sisteme trebuie să evalueze și să reducă riscurile, să mențină așa-numite „fișiere de jurnalizare” care permit înregistrarea automată a evenimentelor, să fie transparente și precise și să facă obiectul supravegherii umane.
Cetățenii vor avea dreptul să depună plângeri în legătură cu sistemele de AI și să primească explicații despre deciziile bazate pe sisteme de AI cu grad ridicat de risc care le afectează drepturile.
Cerințe privind transparența
Sistemele de inteligență artificială de uz general și modelele de AI de uz general pe care se bazează acestea trebuie să respecte anumite cerințe în materie de transparență, inclusiv legislația UE în domeniul drepturilor de autor și publicarea unor rezumate detaliate ale conținutului utilizat la antrenarea modelelor de AI.
Modelele mai puternice pentru sistemele AI de uz general care ar putea prezenta riscuri sistemice vor trebui să respecte cerințe suplimentare, inclusiv privind evaluarea modelelor, evaluarea și reducerea riscurilor sistemice și raportarea incidentelor.
În plus, imaginile și conținuturile audio și video artificiale sau manipulate (de tip „deepfake”) trebuie să fie etichetate clar ca atare.
Măsuri pentru a sprijini inovarea și IMM-urile
La nivel național va fi obligatoriu să se creeze spații de testare în materie de reglementare și să se organizeze testări în condiții reale. IMM-urile și companiile nou-înființate vor trebui să aibă acces la aceste instrumente pentru a dezvolta și antrena AI inovatoare, înainte de introducerea lor pe piață.
Background
Regulamentul este în prezent verificat de juriștii-lingviști și se preconizează că va fi adoptat înainte de sfârșitul legislaturii (potrivit procedurii de rectificare).
Legislația mai trebuie adoptată formal și de Consiliu.
Ea va intra în vigoare la 20 de zile după publicarea în Jurnalul Oficial și va fi pe deplin aplicabilă la 24 de luni după intrarea în vigoare, cu următoarele excepții: interdicțiile referitoare la practicile interzise se aplică începând cu șase luni de la data intrării în vigoare; codurile de bune practici (nouă luni de la data intrării în vigoare); normele privind sistemele de IA de uz general, inclusiv guvernanța (12 luni de la data intrării în vigoare); și obligațiile pentru sistemele cu grad ridicat de risc (36 de luni).
Prima lege obligatorie din lume privind AI
„În sfârșit, avem prima lege obligatorie din lume privind inteligența artificială, pentru a reduce riscurile, a crea oportunități, a combate discriminarea și a aduce transparență. Datorită Parlamentului, practicile inacceptabile în domeniul AI vor fi interzise în Europa, iar drepturile lucrătorilor și ale cetățenilor vor fi protejate”, a declarat în cadrul dezbaterilor din plen de marți coraportorul Comisiei pentru piața internă Brando Benifei (S&D, Italia).
”Oficiul pentru AI va fi acum înființat pentru a sprijini companiile să înceapă să respecte normele înainte ca acestea să intre în vigoare. Ne-am asigurat că oamenii și valorile europene se află chiar în centrul dezvoltării AI”, a mai spus el.
Comentarii