Raționamentul este următorul: în ciuda instrumentelor sofisticate de fact-checking, cetățenii sunt dezarmați în fața dezinformării, a spus Antonis Ramfos, Athens Technology Center (ATC), care a prezentat proiectul TITAN - Technology for citizens.

Proiectul TITAN (2022- 2025) își propune să dezvolte un sistem bazat pe inteligență artificială care îi va ajuta pe cetățeni să își dezvolte gândirea critică, astfel încât să își crească rezistența la informații false, care sunt răspândite de diferite organizații sau persoane.

În cadrul conferinței AI4Trust, din 29 iunie, la Bruxelles, Antonis Ramfos a prezentat ce aduce nou TITAN: 

Cetățeanul este lipsit de experiență și expertiză în utilizarea instrumentelor de verificare a faptelor. Este foarte slab în fața șiretlicurilor sofisticate pe care le folosesc campaniile de dezinformare, pentru că, în esență, acestea fac apel și se folosesc de psihologia umană. Am văzut că în timpul campaniilor de dezinformare COVID-19, o mulțime de oameni au fost afectați fără a fi capabili să fie critici în această privință. 

De asemenea, am văzut că, în cadrul diferitelor eforturi de crowdsourcing pentru verificarea faptelor, acestea au avut un succes foarte limitat din cauza faptului că cetățenii nu au fost capabili să acționeze în contextul crowdsourcing-ului, deoarece verificatorii de fapte nu au avut capacitatea de a face acest lucru. De asemenea, vedem dificultățile pentru cetățeanul mediu în a avea o privire critică asupra postărilor din social media.

Cetățenii apasă pur și simplu pe buton și răspândesc știrea fără să verifice mai întâi dacă afirmația este adevărată sau falsă. Prin urmare, este necesar ca cetățeanul să fie împuternicit cu instrumente specifice.

Dacă dorim să îl facem să lupte cu succes împotriva dezinformării și, în esență, dorim să îl împuternicim pe cetățean să înțeleagă dacă afirmațiile factuale sunt adevărate și să îi dăm, într-adevăr, puterea de a interpreta și de a evalua critic argumentele și raționamentul declarațiilor și afirmațiilor. 

Ce dorim să facem? Practic, dorim să dezvoltăm un antrenor personalizat bazat pe inteligență artificială, care va codifica, va ajuta și va sprijini cetățeanul să investigheze afirmațiile și declarațiile.

Despre proiectul TITAN.

Ipoteza constă în aceea că, prin campaniile de dezinformare, așa cum am menționat pe scurt înainte, se urmărește inactivarea capacității de gândire critică a cetățenilor. Așadar, dorim să dăm dreptul, dorim să implementăm un chat inteligent care să fie capabil să ghideze cetățeanul către concluzii logice cu privire la corectitudinea sau credibilitatea faptică a declarației.

Practic, cetățeanul care folosește acest chat inteligent și se angajează într-o conversație și interacțiune cu chatbotul va fi ajutat să interpreteze și să evalueze critic raționamentul și argumentele implicate în declarații.

Acesta va fi capabil să efectueze propriile investigații de contact. Cu ajutorul unor instrumente și metode de verificare a faptelor și pentru a spori abilitățile de gândire critică, astfel încât cetățeanul va putea detecta aceste informații în viitor. Cum vom face acest lucru și cum facem acest lucru? Ne-am gândit la inteligența artificială generativă și la ultimele modele lingvistice.

De fapt, propunerea a fost scrisă și concepută în anii 2000 - 21, când nu exista încă un mare entuziasm. Dar noi căutam tehnologii de inteligență artificială care să fie foarte apropiate de omul obișnuit, și nu de experți. Astfel, ne-am concentrat pe inteligența artificială generativă și pe modelele lingvistice importante.Am vrut să combinăm acest lucru cu metoda anchetei socratice, deoarece metoda anchetei socratice este într-adevăr o modalitate de exercitare a gândirii critice.

Așadar, acestea sunt bazele proiectului Titan: Metoda de anchetă socratică combinată și implementată ca model lingvistic mare, astfel încât această interacțiune să ia în considerare capacitatea de gândire critică a cetățenilor. Aceasta va încorpora utilizarea proceselor și instrumentelor de verificare și verificare a faptelor și va oferi o experiență de învățare și învățare personalizată. Practic, activitățile vor oferi lecții în funcție de capacitatea de gândire critică a cetățenilor, toate acestea fiind incluse într-un singur model. Iar baza acestui model de inteligență artificială va fi un model lingvistic mare. 

Pașii care vor fi implementați în robotul nostru de chat: carificarea întrebării, analiza ipotezelor, analiza raționamentelor, analiza punctelor de vedere, analiza consecințelor și întrebări referitoare la întrebare. Acestea sunt cele de nivel superior. Interacțiunea cu cetățeanul să fie structurată. Aceasta este metoda de anchetă socratică, pașii care reprezintă baza teoretică a ceea ce vom implementa ca un buton pentru copii, ca un model de limbaj mare.

OK, acum să trecem la unele probleme practice de implementare pe care le avem, le-am avut. Lucrul la proiect a început în septembrie anul trecut, deci a trecut mai puțin de un an. Așa că avem unele, am văzut unele probleme. Practic, principala problemă este existența datelor pentru reglarea fină a modelului lingvistic mare, care este. Cred că aceasta este problema pentru orice ajustare fină sau orice utilizare a LLM. Mai ales în zonele în care cele care sunt virgine și nu au acolo, nu există date. De dinainte, fie pentru a afla, fie pentru a cumpăra. Și acesta este cazul pentru Titan.

De asemenea, după cum vă amintiți, am vrut să combinăm gândirea critică, evaluarea, metodele de verificare a faptelor și metodele de alfabetizare media într-un context socratic și asta este unic, este veritabil, așa că datele nu au fost disponibile. Așadar, ce facem? În loc să mergem direct la ingineria unei soluții complete bazate pe un limbaj mare, pe un model de limbaj mare.

Așa cum este descris în partea de sus a acestui text, ne-am gândit să mergem într-un mod gradual și, în principal, pentru că nu existau date, așa că am definit mai întâi și am cerut utilizatorilor proiectului să ne dea declarații specifice de interogare pe care ei le consideră foarte caracteristice și foarte reprezentative pentru ceea ce se confruntă în activitatea lor zilnică. Am luat aceste povești ale utilizatorilor, aceste întrebări ale utilizatorilor și am dezvoltat manual dialogurile pe care dorim ca, în cele din urmă, sistemul să le producă. 

Acesta a fost un exercițiu, un exercițiu foarte serios, care ne-a oferit o mulțime de informații despre ceea ce încercăm să facem. Așa că am dezvoltat dialoguri manual. După cum am spus, sunt dialoguri socratice care încorporează gândire critică, evaluare, instrumente de verificare a faptelor și micro lecții. Acum, după ce am făcut asta ca un consorțiu, am folosit foarte mult metodologia și abordarea de co-creare în cadrul proiectului, am inclus foarte mult co-crearea în opt țări europene, astfel încât am verificat și am extins aceste dialoguri.

Apoi am folosit aceste dialoguri pentru a implementa un sistem bazat pe reguli înainte de a merge la LLM, iar acest sistem bazat pe reguli, trecând din nou prin sesiunea de co-creare, a colectat învățături validate despre dialoguri și, în același timp, producem date pentru formarea pentru următoarea fază, care este formarea modelului lingvistic mare. Și apoi, după ce am făcut acest lucru și după ce am terminat cu aceasta, trecem la efectuarea unui reglaj fin asupra modelului LLM selectat.

Așa cum am spus, proiectul este foarte mult centrat pe om: 8 țări, 250 de cetățeni care contribuie, sesiuni de co-creație și ateliere de lucru. Proiectul utilizează hub-uri de educația media și implică studenții dintr-o mare universitate în fact-checking.

Erodarea încrederii față de instituții. Avem o rețea mare de ONG-uri care au legătură cu activiștii pentru democrație.
Echipa de proiect este multidisciplinară.

Avem sociologi, politologi, psihologi, filosofi, experți în știința cetățeanului, experți în comunicare, experți în inteligență artificială, ingineri de software și oameni de știință în domeniul datelor. Utilizatori pilot și experți în comunicare pentru acest tip de proiect. Cred că multidisciplinaritatea este importantă și cred că am respectat-o și am observat-o foarte mult.

Brussels-Conference (en): Generative AI – What is the cost for the information industry?

Mai mult pe EurActiv »