LIVE UPDATEFact-checking cu AI. Suspiciune 70-80% că fotografiile publicate de Elena Lasconi au fost manipulate

Imaginile publicate au un scor de suspiciune foarte ridicat, ceea ce indică o probabilitate foarte mare ca acestea să fi fost trucate. Metadatele fotografiilor arată aceeași oră, minut și secundă pentru toate, 09:14:29, în data 20.03.2018 (!)
Presupusa sursă (un papparazo) pretinde că ar fi realizat fotografiile în decembrie 2024 (!), după anularea alegerilor.

70.86% suspectă - foarte probabil să fi fost generată cu un model GAN
70.86% Suspect! Este foarte probabil ca această imagine să fi fost generată cu ajutorul unui model GAN. Conținutul ilustrat în imagine probabil nu există în realitate.

84,03% suspiciune de modificare.
84,03% Suspect! Este foarte probabil ca această imagine să fi fost generată cu ajutorul unui model GAN. Conținutul ilustrat în imagine probabil nu există în realitate.


81,42% suspectă
81,42% suspect! Este foarte probabil ca această imagine să fi fost generată cu ajutorul unui model GAN. Conținutul ilustrat în imagine probabil nu există în realitate.
Proiectul AI4Trust a dezvoltat unelte AI de verificare a autenticității fișierelor text, audio și video. Verdictul verificării prin intermediul platformei AI4Trust.eu, acum aflat în fază-pilot a generat o probabilitate de peste 70% că s-a intervenit pe imaginea prezentată de Elena Lasconi, o pretinsă imagine care ar conține imaginea lui Nicușor Dan.
Detectorul AI de imagini false - cum interpretăm rezultatele
Detectorul utilizează două modalități de testare. Dacă oricare dintre detectoare oferă un scor de detecție ridicat, este probabil ca imaginea să fi fost generată de AI și există motive să fie considerată suspectă. Acest model a fost antrenat pentru a detecta imagini generate prin tehnici AI cunoscute sub denumirea de Rețele Generative Adversariale (GAN). Câteva generatoare GAN cunoscute sunt: ProGAN, StyleGAN, BigGAN și CycleGAN. Ocazional, poate detecta și imagini generate de modele de Difuzie.
Concluzie: scorurile de suspiciune sunt extrem de ridicate în cazul tututor fotografiilor testate. Acestea au fost preluate direct de pe pagină-sursă, pagina Facebook a Elenei Lasconi.
Cum funcționează un GAN? (explicația chatgpt)
- Un GAN constă din două rețele neurale care „concurează” una împotriva celeilalte într-un joc cu sumă zero: Generatorul – creează imagini (sau alte tipuri de date) false, dar cât mai realiste.
- Discriminatorul – încearcă să distingă între imaginile reale și cele generate de generator.
- Scopul generatorului este să „păcălească” discriminatorul, iar scopul discriminatorului este să detecteze falsurile. Pe măsură ce ambele rețele învață, generatorul devine din ce în ce mai bun la a crea conținut convingător.
- Pentru ce se folosesc GAN-urile? Generarea de imagini realiste (ex. fețe umane care nu există) Restaurare de imagini (ex. colorizarea imaginilor alb-negru) Crearea de artă sau design asistat de AI Dezvoltare de conținut sintetic în jocuri, modă, arhitectură Deepfakes – videoclipuri și imagini false, dar greu de deosebit de cele reale.
Explicații - cum a fost utilizat detectorul de imagini false
URL-urile introduse în detectorul de falsuri adresele url ale imaginilor publicate în pagina publică a Elenei Lasconi, respectiv:- Imaginea 1 - rezultat verificare în foto principală a articolului.
- Imaginea 2 - verificare cu detectorul AI mai jos sau în galeria foto
- Imaginea 3 - verificare cu detectorul AI mai jos sau în galeria foto
- Imaginea 4 - verificare cu detectorul AI mai jos sau în galeria foto
Fact-checking foto 2
Fact-checking foto 3
Fact-checking foto 4
Background
O analiză tehnică temeinică a realizat, Codruț Sebastian Neguț, care a studiat Visual Communications la Birmingham City University. Analiza sa este recomandată și de Codruța Simina, un cunoscut expert în fact-checking și combaterea dezinformării, autoarea newsletterului Misreport.
Ce a constatat Codruț Sebastian Neguț: "În scandalul curent, mi-am dat seama că sunt printre puținii oameni din România cu expertiza necesară pentru a analiza în mod profesionist dacă o imagine este reală sau falsificată. Am studiat Comunicare Vizuală și lucrez cu retuș digital complex de peste 10 ani.
Am analizat comparativ două dintre imaginile publicate de Elena Lasconi: una cu Victor Ponta și una cu Nicușor Dan, aparent realizate în același cadru. Concluzia la care am ajuns este clară: avem de-a face cu o singură imagine master, modificată digital pentru a părea două fotografii diferite. În imaginea cu Nicușor Dan, el a fost cel mai probabil introdus artificial, iar mașina din stânga a fost ștearsă digital. Iată câteva dintre dovezile evidente:
1. Crop-ul și ușoarea "strivire" a imaginii lui Nicușor Dan au fost modificate strategic pentru a ascunde faptul că mașina nu era prezentă în original.
2. Zgomotul de imagine este natural în fotografia cu Ponta, dar curățat digital în cea cu Nicușor Dan – o metodă folosită frecvent pentru a masca intervențiile.
3. O plantă din prim-plan, care în mod normal ar fi trebuit să acopere parțial fața lui Nicușor Dan, lipsește complet în acea imagine – semn că a fost eliminată intenționat.
4. Frunzele din dreapta sunt identice, la pixel, în ambele imagini. Fără un trepied și fotografiere simultană, acest lucru ar fi imposibil, mai ales dacă între cadre a trecut ceva timp. TOTODATĂ, plantele par că se mișcă agresiv! dar DOAR planta care acopera mașina lui Ponta, dovada că umplerea generativă a schimbat complet planta aceea (de aici și diferența majoră de poziție care te-ai aștepta să existe și în dreapta imaginii)
5. Reflexia din colțul stânga-jos, care apare pe mașina lui Ponta, a fost luată în calcul de către generarea automată (probabil cu generative fill) și reinterpretată drept "lumini în fundal" în poza cu Nicușor Dan.
6. Zona cu gardul unde era imaginea lui Ponta din imaginea cu Nicușor Dan este complet lipsită de detalii – algoritmul nu a reușit să creeze acolo un fundal coerent, motiv pentru care a fost mascată.
Concluzie: Pentru a crea impresia a două imagini diferite, autorii au operat modificări evidente: diferențe de crop, de culoare (una color, una alb-negru), una e un pic mai strivită decât cealaltă și intervenții digitale punctuale. Sunt destul de sigur că este o fotografie unică, modificată în două variante.
Pot intra în mai multe detalii tehnice dacă este nevoie și mă ofer voluntar să susțin această analiză în fața presei sau într-o emisiune TV, dacă se dorește o explicație completă. Am transmis deja toate informațiile acestea către Digi24."
Verificare metadate: foto din 2018, toate la aceeași oră, același minut și aceeași secundă secundă
Verificare metadate. Apare data 2018:03:20 și aceeași oră, minut, secundă, anume ora 09:14:29 (pentru toate cele trei imagini). Ar fi o imposibilitate tehnică realizarea a trei/patru fotografii în aceeași secundă, din unghiuri diferite.
Puteți verifica salvând imaginile în computer și apoi urcându-le în acest link: https://www.metadata2go.com/view-metadata
Comentarii