Imaginile publicate au un scor de suspiciune foarte ridicat, ceea ce indică o probabilitate foarte mare ca acestea să fi fost trucate. Metadatele fotografiilor arată aceeași oră, minut și secundă pentru toate, 09:14:29, în data 20.03.2018 (!)

Presupusa sursă (un papparazo) pretinde că ar fi realizat fotografiile în decembrie 2024 (!), după anularea alegerilor.

  

Proiectul AI4Trust a dezvoltat unelte AI de verificare a autenticității fișierelor text, audio și video. Verdictul verificării prin intermediul platformei AI4Trust.eu, acum aflat în fază-pilot a generat o probabilitate de peste 70% că s-a intervenit pe imaginea prezentată de Elena Lasconi, o pretinsă imagine care ar conține imaginea lui Nicușor Dan.

Detectorul AI de imagini false - cum interpretăm rezultatele

Detectorul utilizează două modalități de testare. Dacă oricare dintre detectoare oferă un scor de detecție ridicat, este probabil ca imaginea să fi fost generată de AI și există motive să fie considerată suspectă. Acest model a fost antrenat pentru a detecta imagini generate prin tehnici AI cunoscute sub denumirea de Rețele Generative Adversariale (GAN). Câteva generatoare GAN cunoscute sunt: ProGAN, StyleGAN, BigGAN și CycleGAN. Ocazional, poate detecta și imagini generate de modele de Difuzie.

Concluzie: scorurile de suspiciune sunt extrem de ridicate în cazul tututor fotografiilor testate. Acestea au fost preluate direct de pe pagină-sursă, pagina Facebook a Elenei Lasconi.

Cum funcționează un GAN? (explicația chatgpt)

  • Un GAN constă din două rețele neurale care „concurează” una împotriva celeilalte într-un joc cu sumă zero: Generatorul – creează imagini (sau alte tipuri de date) false, dar cât mai realiste.
  • Discriminatorul – încearcă să distingă între imaginile reale și cele generate de generator.
  • Scopul generatorului este să „păcălească” discriminatorul, iar scopul discriminatorului este să detecteze falsurile. Pe măsură ce ambele rețele învață, generatorul devine din ce în ce mai bun la a crea conținut convingător.
  • Pentru ce se folosesc GAN-urile? Generarea de imagini realiste (ex. fețe umane care nu există) Restaurare de imagini (ex. colorizarea imaginilor alb-negru) Crearea de artă sau design asistat de AI Dezvoltare de conținut sintetic în jocuri, modă, arhitectură Deepfakes – videoclipuri și imagini false, dar greu de deosebit de cele reale. 

Explicații - cum a fost utilizat detectorul de imagini false

URL-urile introduse în detectorul de falsuri adresele url ale imaginilor publicate în pagina publică a Elenei Lasconi, respectiv:
  • Imaginea 1 - rezultat verificare în foto principală a articolului.
  • Imaginea 2 - verificare cu detectorul AI mai jos sau în galeria foto
  • Imaginea 3 -  verificare cu detectorul AI mai jos sau în galeria foto
  • Imaginea 4  - verificare cu detectorul AI mai jos sau în galeria foto

Fact-checking foto 2

Fact-checking foto 3

 

 Fact-checking foto 4


Ce spun Nicușor Dan și Victor Ponta despre fotografiile publicate de Elena Lasconi

Mai mult pe EurActiv »