După luni de negocieri intense, membrii Parlamentului European și-au depășit diferențele și au ajuns la un acord politic provizoriu cu privire la primul regulament din lume în ceea ce privește Inteligența Artificială.

Actul privind Inteligența Artificială (AI) este o propunere legislativă emblematică pentru a reglementa Inteligența Artificială bazată pe potențialul acesteia de a provoca daune. Parlamentul European se aproprie acum de formalizarea poziției sale în privința acestui dosar, după ce legislatorii UE au ajuns la un acord politic joi. 

Textul ar putea fi în continuare supus unor ajustări la nivel tehnic înaintea votului comisiei de resort programat pentru 11 mai, dar se așteaptă ca acesta să fie supus la votul plenar în mijlocul lunii iunie. 

"Acum avem un acord în care toate grupurile vor trebui să sprijine compromisul fără posibilitatea de a prezenta amendamente alternative", a declarat un oficial al Parlamentului European pentru Euractiv

Până în ultimele momente, europarlamentarii au purtat negocieri în ceea ce privește unele dintre cele mai controversate părți ale propunerii.  

Scopul general al Inteligenței Artificiale

Cum să se ocupe cu sistemele de AI care nu au un scop specific a fost subiect intens dezbătut în discuție. Membrii Parlamentului European au confirmat propunerile anterioare de a impune obligații mai stricte pentru o subcategorie a Inteligenței Artificiale cu scop general, care include modele precum GhatGPT. 

Singura schimbare de ultim moment a fost legată de modelele AI generative, care ar trebui să fie concepute și dezvoltate în acord cu legea Uniunii Europene și drepturile fundamentale, inclusiv libertatea de exprimare. 

Practici interzise

Un alt subiect politic sensibil a fost tipul de aplicații AI care ar trebui interzise pentru că sunt considerate a fi un risc inacceptabil. 

Cu două săptămâni în urmă, s-a propus interzicerea instrumentelor AI pentru monitorizarea generală a comunicării interpersonale. Propunerea a fost abandonată în urma opoziției din partea Partidului Popular European (PPE).

În schimb, parlamentarii de centru-dreapta au trebuit să accepte o extindere a interdicției privind software-ul de identificare biometrică. Inițial, această interdicție se aplică doar în timp real, acest software de recunoaștere ar putea fi folosit ex-post doar pentru infracțiuni grave și cu aprobare pre-judiciară. 

PPE, care are o puternică facțiune în aplicarea legii, este singura excepție parțială la acordul de a nu depune amendamente alternative. Grupul a acceptat să nu depună voturi "cheie" care ar putea amenința sprijinul său pentru întregul dosar, dar ar putea încerca totuși să schimbe interdicția biometrică ex-post. 

Regulamentul AI interzice de asemenea manipularea "intenționată". Cuvântul "intenționat" a fost subiectul dezbaterii deoarece intenționalitatea ar putea fi dificil de dovedit, dar a fost menținut de membrii Parlamentului European, care nu doreau să implice și situații sau instrumente care nu sunt cu adevărat periculoase. 

Utilizarea software-urilor AI pentru recunoașterea emoțiilor este interzisă în domeniile aplicării legii, gestionării frontierelor, locurilor de muncă și educației.

Interdicția parlamentarilor europeni privind poliția predictivă a fost extinsă de la infracțiunile penale la cele administrative, bazată pe scandalul olandez privind alocația pentru copii, care a dus la încriminarea greșită a miilor de familii pentru fraudă din cauza unui algoritm greșit.

Clasificare cu risc înalt

Propunerea inițială a clasificat automat soluțiile AI care cad sub domeniile critice și cazurile de utilizare enumerate în Anexa III ca find de înalt risc, ceea ce înseamnă că furnizorii ar trebui să respecte un regim mai strict, inclusiv cerințe privind gestionarea riscurilor, transparența și guvernarea datelor.

Eurodeputații au introdus un nivel suplimentar, ceea ce înseamnă că un model AI care intră sub categoriile enumerate în Anexa III va fi considerat de înalt risc doar dacă reprezintă un risc semnificativ pentru sănătate, siguranță sau drepturile fundamentale.

Riscul semnificativ este definit ca "un risc care este semnificativ ca urmare a combinației dintre severitatea, intensitatea, probabilitatea de apariție și durata efectelor sale și capacitatea sa de a afecta un individ, o pluralitate de persoane sau de a afecta un anumit grup de persoane”.

La cererea Verzilor, AI-ul utilizat pentru gestionarea infrastructurii critice, cum ar fi rețelele de energie sau sistemele de gestionare a apei, va fi, de asemenea, clasifcat ca fiind de înalt risc dacă implică un risc ambiental grav.

Mai mult, eurodeputații de centru-stânga au obținut prevederea potrivit căreia sistemele de recomandare ale platformelor online foarte mari, așa cum sunt definite în cadrul Digital Services Act (DSA), vor fi considerate de înaltă risc. 

Definirea predispozițiilor

Membrii Parlamentului European au inclus măsuri suplimentare pentru procesul prin care furnizorii de modele AI de înalt risc pot procesa date sensibile, cum ar fi orientarea sexuală sau credințele religioase, pentru a detecta predispoziții negative.

În special, pentru a permite procesarea acestui tip special de date, predispozițiile nu trebuie să fie detectabile prin procesarea datelor sintetice, anonimizate, pseudonimizate sau criptate.

În plus, evaluarea trebuie să aibă loc într-un mediu controlat. Datele sensibile nu pot fi transmise către alte părți și trebuie șterse după evaluarea predispozițiilor. Furnizorii trebuie, de asemenea, să documenteze de ce a avut loc procesarea datelor.

Principii generale

Înaintea întâlnirii de miercuri, biroul co-raportorilor a transmis o propunere pentru principiile generale care ar trebui să se aplice tuturor modelelor AI. Noul articol nu este destinat să creeze obligații noi, dar va trebui să fie încorporat în standardele tehnice și documentele de orientare.

Aceste principii includ agenția și supravegherea umană, robustețea tehnică și siguranța, confidențialitatea și guvernarea datelor, transparența, bunăstarea socială și de mediu, diversitatea, non-discriminarea și echitatea.

Sustenabilitatea AI-ului cu risc ridicat

Sistemele AI cu risc ridicat vor trebui să țină evidența impactului lor asupra mediului și modelele de bază vor trebui să respecte standardele de mediu europene.