După un maraton de negocieri de 36 de ore, factorii de decizie din UE au ajuns la finalul săptămânii trecute la un acord politic cu privire la ceea ce va deveni reperul global pentru reglementarea inteligenței artificiale, scrie Euractiv.

Legea AI este un proiect de lege emblematic care reglementează inteligența artificială pe baza capacității acesteia de a provoca daune. Dosarul a trecut linia finală a procesului legislativ, deoarece Comisia Europeană, Consiliul și Parlamentul au ajuns la un acord politic  într-un așa-numit trilog vineri (8 decembrie).

La întâlnirea politică, care a stabilit un nou record privind negocierile interinstituționale, principalele instituții ale UE au fost nevoite să parcurgă o listă 21 de probleme. După cum a relatat Euractiv, prima parte a trilogului a stabilit reglementările despre open source, modele de bază și guvernare.

Acordul politic la care s-a ajuns vineri seara trebuie completat de o muncă tehnică în vederea finalizării textului.

Securitate națională

Statele membre, în frunte cu Franța, au insistat să existe excepții pentru orice sistem AI utilizat în scopuri militare sau de apărare, chiar și în cazul unui contractant extern. Preambulul textului va face referire la faptul că acest lucru va fi conform tratatelor UE.

Practici interzise

Legea AI include o listă de aplicații interzise care prezintă un risc inacceptabil, cum ar fi tehnicile de manipulare, sistemele care exploatează vulnerabilități și scoring social. Eurodeputații au adăugat și sistemele pentru recunoaștere facială, precum Clearview AI.

Ei au obținut interzicerea recunoașterii emoțiilor la locul de muncă și în instituțiile de învățământ, cu o anume flexibilitate, din motive de siguranță, menită să recunoască dacă, de exemplu, un șofer adoarme.

Parlamentarii au introdus, de asemenea, o interdicție a software-ului de activități polițienești bazate pe analiza predictivă pentru a evalua riscul unei persoane de a comite infracțiuni pe baza trăsăturilor personale.

În plus, parlamentarii au vrut să interzică utilizarea sistemelor AI care clasifică persoanele pe baza trăsăturilor sensibile precum rasa, opiniile politice sau credințele religioase.

La insistențele guvernelor europene, Parlamentul European a renunțat la interdicția utilizării identificării biometrice la distanță în timp real în schimbul unor excepții restrânse de aplicare a legii, și anume pentru a preveni atacurile teroriste sau a localiza victimele sau suspecții de infracțiuni grave.

Deputații europeni au insistat ca aceste excepții să se aplice doar în măsura în care este strict necesar, pe baza legislației naționale și a autorizației prealabile a unei autorități independente. Comisia urmează să supravegheze potențialele abuzuri.

De asemenea, ei au insistat că interdicțiile nu ar trebui să se aplice numai sistemelor utilizate în Uniune, ci și să împiedice companiile din UE să vândă aceste aplicații interzise în străinătate. Cu toate acestea, această interdicție de export nu a fost menținută deoarece s-a considerat că nu are un temei juridic suficient.

Cazuri de utilizare cu risc ridicat

Regulamentul AI include o listă de cazuri de utilizare considerate cu un risc semnificativ de a aduce prejudicii siguranței și drepturilor fundamentale ale oamenilor. Colegislatorii au inclus o serie de condiții de filtrare menite să capteze doar aplicații cu risc ridicat.

Domeniile sensibile includ educația, ocuparea forței de muncă, infrastructura critică, serviciile publice, aplicarea legii, controlul la frontieră și justiția.

Eurodeputații au propus, de asemenea, includerea sistemelor de recomandare ale rețelelor sociale considerate "sistemice" în conformitate cu Legea privind serviciile digitale, dar această idee nu a fost inclusă în acord.

Parlamentul European a reușit să introducă în această categorie și sistemele AI care prezic tendințele migrației și supravegherea frontierelor.

Derogări vizând aplicarea legii

Consiliul a introdus mai multe derogări pentru instituțiile de aplicare a legii, în special o derogare de la principiul "celor patru ochi", atunci când legislația națională consideră că acesta este disproporționat și excluderea datelor de operare sensibile din cerințele de transparență.

Furnizorii și organismele publice care utilizează sisteme cu risc ridicat trebuie să raporteze acest lucru într-o bază de date a UE. Pentru poliția și agențiile de control al migrației, va exista o secțiune non-publică dedicată, care va fi accesibilă doar unei autorități de supraveghere independente.

În circumstanțe excepționale legate de securitatea publică, autoritățile ar putea utiliza un sistem cu risc ridicat care nu a trecut procedura de evaluare a conformității prin care se solicită autorizarea judiciară.

Evaluarea impactului drepturilor fundamentale

Eurodeputații de centru-stânga au introdus obligația pentru organismele publice și entitățile private care furnizează servicii publice esențiale, cum ar fi spitale, școli, bănci și companii de asigurare care implementează sisteme cu risc ridicat, de a efectua o evaluare a impactului asupra drepturilor fundamentale.

Responsabilitatea pe lanțul de aprovizionare

Furnizorii de sisteme AI de uz general, cum ar fi ChatGPT, trebuie să furnizeze toate informațiile necesare pentru a respecta obligațiile legii AI față de furnizorii economici care creează o aplicație ce se încadrează în categoria cu risc ridicat.

Amenzi

Amenzile sunt stabilite ca o sumă minimă sau un procent din cifra de afaceri globală anuală a companiei dacă aceasta din urmă este mai mare.

Pentru cele mai grave încălcări ale aplicațiilor interzise, amenzile pot fi de până la 7% sau 35 milioane de euro, 3% sau 15 milioane de euro pentru încălcări ale obligațiilor pentru furnizorii de sisteme și modele și 1,5% pentru nerespectarea informațiilor exacte.

Ce urmează

Legea AI se va aplica la doi ani de la intrarea în vigoare. Cerințele pentru modelele AI, organismele de evaluare a conformității și capitolul guvernanță vor începe să se aplice cu un an mai devreme.

Teama de o reglementare excesivă

Statele membre s-au temut că o reglementare excesivă îi va distruge din start pe campionii lor emergenți, precum Aleph Alpha în Germania și Mistal AI în Franța, făcând costurile de dezvoltare să fie prohibitive.

De altfel, ministrul francez al Digitalului, Jean-Noël Barrot a precizat că Parisul va analiza "cu atenție compromisul" pentru a se asigura în următoarele săptămâni că textul păstrează "capacitatea Europei de a-și dezvolta propriile tehnologii de inteligență artificială și îi păstrează autonomia strategică".

Franța, Germania și Italia au cerut coduri de conduită fără un regim inițial de sancțiuni pentru modelele de bază AI, potrivit unui document neoficial consultat de Euractiv.

Negocierile privind prima lege cuprinzătoare din lume privind inteligența artificială au fost perturbate de apariția ChatGPT, un tip versatil de sistem de inteligență artificială cunoscut sub numele de inteligență artificială cu scop general, care este construit pe puternicul model de bază GPT-4 al OpenAI.

Pe 10 noiembrie, Euractiv a scris că întreaga legislație se afla în pericol ca urmare a rezistenței tot mai mari din partea Franței, care a obținut sprijinul Germaniei și Italiei în demersul său împotriva oricărei reglementări privind modelele de bază.

Greii UE - Franța, Germania și Italia - au cerut președinției spaniole a Consiliului UE, care negociază în numele statelor membre, să renunțe la abordarea pe etape asupra căreia părea să existe un consens la ultimul trilog politic de la jumătatea lunii octombrie.

Ca răspuns, oficialii Parlamentului European au ieșit dintr-o ședință pentru a semnala că excluderea modelelor de bază din lege nu este acceptabilă din punct de vedere politic. În ultimele săptămâni, președinția spaniolă a încercat să medieze o soluție între parlamentarii europeni și guvernele europene reticente.

Cu toate acestea, cele trei țări au distribuit duminică (19 noiembrie) un document neoficial care arată puțin spațiu de compromis, considerând că normele privind modelele de baza ar fi contrare abordării neutre din punct de vedere tehnologic și bazate pe riscuri a Legii privind AI, care este menită să păstreze inovația, cât și siguranța.

"Riscurile inerente se află mai degrabă în aplicarea sistemelor de AI decât în tehnologia în sine. Standardele europene pot sprijini această abordare în urma noului cadru legislativ", se arăta în document, adăugând că semnatarii "se opun unei abordări pe două niveluri pentru modelele de bază".

"În ceea ce privește modelele de bază, ne opunem instaurării unor norme netestate și sugerăm să se construiască între timp pe o autoreglementare obligatorie prin coduri de conduită", se mai arăta în documentul neoficial, menționând că acestea urmează principiile definite în cadrul G7 cu procesul de la Hiroshima.

În schimb, cele trei țări au susținut că reglementarea sistemelor de inteligență artificială cu scop general, care pot fi disponibile pentru aplicații specifice, mai degrabă decât pentru modelele de bază, s-ar potrivi mai bine cu abordarea bazată pe riscuri.

Pentru a pune în aplicare această abordare, Parisul, Berlinul și Roma au propus ca dezvoltatorii de modele de bază să definească o documentație care să rezume informațiile despre modelele instruite pentru un public larg.

"Definirea documentației și punerea la dispoziție pentru fiecare model de bază constituie elementul obligatoriu al acestei autoreglementări", se arăta în documentul neoficial, subliniind că aceste documentații vor trebui să includă informațiile relevante privind capacitățile și limitele modelului și să se bazeze pe cele mai bune practici din cadrul comunității programatorilor.

Printre exemplele oferite s-au aflat numărul de parametri, utilizările preconizate, potențialele limitări, rezultatele studiilor privind biasurile și evaluarea securității.

Documentul neoficial a propus ca un consiliu să contribuie la elaborarea de ghiduri și să verifice aplicarea acestei documentații, oferind o modalitate ușoară de a raporta orice încălcare a codului de conduită.

"Orice suspiciune de încălcare a transparenței ar trebui să fie făcută publică de către autoritați", se preciza în document.

De asemenea, cele trei țări nu au dorit ca sancțiunile să se aplice de la început. Potrivit acestora, un regim de sancțiuni ar urma să fie instituit doar în urma încălcărilor în mod repetat ale codurilor de conduită.