AI4TrustAgenția de securitate cibernetică a UE semnalează posibila perturbare a alegerilor europene
actualizat:

ENISA, agenția de securitate cibernetică a UE, a avertizat că noile modele de inteligență artificială ar putea fi folosite pentru a desfășura campanii de manipulare a informațiilor pe scară largă, perturbând alegerile de anul viitor.
Avertismentul vine în cadrul documentului Threat Landscape 2023, în care agenția de securitate cibernetică face anual un bilanț al tendințelor. În centrul atenției se află posibilele perturbări legate de chatbots cu inteligență artificială, cum ar fi renumitul ChatGPT și alte forme de manipulare a informațiilor alimentată de inteligența artificială.
Teama că noile modele puternice de inteligență artificială ar putea fi folosite pentru a perturba procesele electorale nu doar în Uniunea Europeană. Odată cu alegerile care se apropie în Statele Unite și în Regatul Unit, experții au avertizat cu privire la riscul ca imaginile sau videoclipurile create de AI să devină virale și cu privire la roboții de propagandă alimentați de AI.
Modelele de inteligență artificială sunt deosebit de relevante pentru manipularea psihologică, supranumită inginerie socială, datorită capacității lor de a produce texte asemănătoare cu cele umane sau imagini și videoclipuri cu aspect autentic care înlocuiesc asemănarea unei persoane cu alta, cunoscute sub numele de deepfakes.
Raportul ENISA notează că, de la lansarea publică a ChatGPT [versiunea din noiembrie 2022], inteligența artificială a fost principalul motor de inovare în domeniul ingineriei sociale, în special dată fiind capacitatea tehnologiei de a produce texte care imită o sursă legitimă și de a face clonare de voce.
În martie, Euractiv a raportat că o altă agenție a UE, Europol, responsabilă cu aplicarea legii, a subliniat potențialele utilizări criminale ale sistemelor generative de inteligență artificială, precum ChatGPT, pentru fraude online și alte infracțiuni cibernetice.
ENISA a scris că "tendința sugerează că inteligența artificială generativă oferă o cale pentru ca actorii amenințători să elaboreze atacuri sofisticate și direcționate, rapide și la scară largă", adăugând că anticipează "atacuri de inginerie socială mai bine direcționate care utilizează tehnologia bazată pe inteligență artificială".
Clonarea vocii, procesul de reproducere sintetică a vocii unei persoane cu ajutorul a doar câteva secunde de videoclipuri postate pe rețelele de socializare, este menționat ca o amenințare în creștere. De exemplu, aceasta ar putea fi folosită pentru a falsifica vocea unui membru al familiei și a cere o răscumpărare sau pentru a denigra public un politician.
"Adoptarea disruptivă a inteligenței artificiale generative schimbă rapid peisajul amenințărilor, unde capacitatea de a detecta conținutul generat de inteligența artificială sau interacțiunea bazată pe inteligența artificială devine o chestiune urgentă", se avertizează în raport.
De asemenea, chatbots, precum ChatGPT de la OpenAI și Bard de la Google, ar putea face obiectul manipulării seturilor de date, de exemplu, pentru a pune într-o lumină proastă un concurent comercial sau politic.
Între timp, factorii de decizie politică din UE au finalizat Actul IA, primul regulament cuprinzător din lume privind inteligența artificială. Cu toate acestea, modul de abordare a IA generativă și a deepfake-urilor este încă o discuție deschisă.
Problema deepfake-urile au ajuns în prim-plan în Spania, țara care deține în prezent președinția Consiliului UE, după ce tehnica de manipulare a imaginilor a fost utilizată pentru a produce fotografii false cu adolescente dezbrăcate.
Primul test al unui deepfake care a afectat o alegere a avut loc la începutul acestui an în Turcia, unde unul dintre principalii candidați la alegerile prezidențiale s-a retras din cursă după ce o înregistrare sexuală manipulată a devenit virală.
Comentarii