Comisia Europeană a propus pe, 21 aprilie, noi norme și măsuri menite să asigure că europenii vor avea parte de sisteme de inteligență artificială (AI) de încredere.

Primul cadru juridic privind AI și un nou plan coordonat cu statele membre va garanta siguranța și drepturile fundamentale ale cetățenilor și ale întreprinderilor, consolidând totodată adoptarea AI, precum și investițiile și inovarea în domeniul AI în întreaga UE.

Datorită noului Regulament privind AI, europenii vor putea avea încredere în oportunitățile pe care le oferă IA. Normele proporționale și flexibile vor aborda riscurile specifice pe care le prezintă sistemele de AI și vor stabili cele mai înalte standarde pe plan mondial. Planul coordonat prezintă schimbările de politică și investițiile necesare la nivelul statelor membre pentru a consolida poziția de lider a Europei în dezvoltarea unei AI centrate pe factorul uman, durabile, sigure, favorabile incluziunii și de încredere.

Noile norme vor fi aplicate direct în același mod în toate statele membre, pe baza unei definiții a IA adaptate exigențelor viitorului, și urmează o abordare bazată pe niveluri de risc:

Risc inacceptabil: Vor fi interzise sistemele de AI considerate o amenințare clară la adresa siguranței, a mijloacelor de subzistență și a drepturilor persoanelor. Printre acestea se numără sistemele sau aplicațiile de AI care manipulează comportamentul uman pentru a împiedica utilizatorii să își exercite liberul arbitru (de exemplu, jucării care utilizează asistența vocală încurajând un comportament periculos din partea minorilor) și sistemele care permit guvernelor să efectueze o evaluare a comportamentului social („social scoring”).

Risc ridicat: Sunt considerate ca prezentând un grad ridicat de risc sistemele în care tehnologia AI este utilizată în:

  • infrastructurile critice (de exemplu, transporturile);
  • formarea educațională sau profesională, care poate determina accesul la educație și traiectoria profesională, de exemplu, sistemul de notare utilizat în cadrul examenelor);
  • componentele de siguranță ale produselor (de exemplu, o aplicație a IA utilizată în chirurgia robotică);
  • ocuparea forței de muncă, gestionarea lucrătorilor (de exemplu, software de selecție a CV-urilor pentru procedurile de recrutare);
  • serviciile publice și private esențiale (de exemplu, evaluarea bonității pentru posibilitatea de a obține un împrumut);
  • activitatea de asigurare a respectării legii care poate aduce atingere drepturilor fundamentale ale cetățenilor (de exemplu, evaluarea fiabilității probelor);
  • gestionarea migrației, a azilui și a controlului la frontiere (de exemplu, verificarea autenticității documentelor de călătorie);
  • administrarea justiției și procesele democratice (de exemplu, aplicarea legii în cazul unui set concret de date factuale).

Înainte de a putea fi introduse pe piață, sistemele de AI care prezintă un grad ridicat de risc vor face obiectul unor obligații stricte.

În special, se consideră că toate sistemele de identificare biometrică la distanță prezintă un grad ridicat de risc și fac obiectul unor cerințe stricte. În principiu, este interzisă utilizarea lor în timp real în spații accesibile publicului în scopuri de asigurare a respectării legii. 

Sunt prevăzute câteva excepții limitate, strict definite și reglementate (cum ar fi utilizarea în cazurile în care este strict necesar pentru a căuta un copil dispărut, pentru a preveni o amenințare teroristă specifică și iminentă sau pentru a detecta, a localiza, a identifica sau a urmări în justiție persoane care au comis ori sunt suspectate că au comis infracțiuni grave). O astfel de utilizare este condiționată de obținerea unei autorizații din partea unui organism judiciar sau a unui alt organism independent.

Risc limitat, și anume sistemele de AI care fac obiectul unor obligații specifice în materie de transparență: Atunci când utilizează sisteme de AI, cum ar fi roboții de chat, utilizatorii ar trebui să fie conștienți de faptul că interacționează cu un aparat.

Risc minim: Propunerea legislativă permite utilizarea gratuită a unor aplicații cum ar fi jocurile video bazate pe AI sau filtrele antispam. Marea majoritate a sistemelor de IA se încadrează în această categorie, iar proiectul de regulament nu intervine aici.

Planul coordonat actualizat va utiliza fondurile alocate prin intermediul programelor Europa digitală și Orizont Europa, precum și prin intermediul Mecanismului de redresare și reziliență, care prevede un obiectiv de 20 % pentru cheltuielile din domeniul digital și prin programele politicii de coeziune.

Ce urmează

Propunerile Comisiei privind o abordare europeană în domeniile inteligenței artificiale și echipamentelor tehnice urmează să fie adoptate de Parlamentul European și statele membre în cadrul procedurii legislative ordinare. Odată adoptate, regulamentele vor fi direct aplicabile în întreaga UE. În paralel, Comisia va continua să colaboreze cu statele membre pentru a pune în aplicare măsurile anunțate în Planul coordonat.