Oficialii britanici atrag atenția că chatboturile AI ar putea prezenta riscuri cibernetice

Oficialii britanici avertizează organizațiile cu privire la integrarea chatboturilor ghidate de inteligență artificială în afacerile lor, afirmând că cercetările au demonstrat tot mai mult că acestea pot fi înșelate să facă sarcini periculoase.
În două postări publicate miercuri pe blog, Centrul Național de Securitate Cibernetică al Marii Britanii (NCSC) a menționat că experții nu au înțeles încă pe deplin problemele de securitate potențiale legate de algoritmii care pot genera interacțiuni care sună uman - denumiți modele de limbaj extinse sau LLM-uri, scrie Reuters.
Programele de inteligență artificială sunt folosite în stadii incipiente ca chatboturi, pe care unii le văd înlocuind nu doar căutările pe internet, ci și munca de servicii pentru clienți și apelurile de vânzări.
NCSC a menționat că aceasta ar putea prezenta riscuri, în special dacă astfel de modele ar fi conectate la alte elemente ale proceselor de afaceri. Academicienii și cercetătorii au descoperit în repetate rânduri modalități de a submina chatboturile prin furnizarea de comenzi eronate sau prin inducerea în eroare a acestora pentru a ocoli "barierele" pe care software-ul le are.
De exemplu, un chatbot cu inteligență artificială implementat de o bancă ar putea fi înșelat să efectueze o tranzacție neautorizată dacă un hacker vrea asta.
"Organizațiile care dezvoltă servicii care utilizează LLM-uri trebuie să fie atente, în același fel în care ar fi dacă ar folosi un produs sau o bibliotecă de coduri aflată în versiune beta (versiune de testare - n.r.)", a afirmat NCSC într-una dintre postările sale de blog, referindu-se la lansările experimentale de software.
"S-ar putea să nu permită ca acel produs să fie implicat în efectuarea de tranzacții în numele clientului și, sperăm, nu i-ar acorda pe deplin încredere. Aceeași prudență ar trebui să se aplice și LLM-urilor", se mai arată în una dintre postări.
Autoritățile din întreaga lume se confruntă cu ascensiunea LLM-urilor, cum ar fi ChatGPT, pe care companiile le integrează într-o gamă largă de servicii, inclusiv vânzări. Implicațiile de securitate ale inteligenței artificiale încă se conturează, autoritățile din SUA și Canada afirmând că au observat hackeri adoptând această tehnologie.
Un sondaj recent Reuters/Ipsos a constatat că mulți angajați din corporații folosesc instrumente precum ChatGPT pentru a face sarcini de bază, cum ar fi redactarea de e-mailuri, un rezumat al documentelor și efectuarea de cercetări preliminare.
Aproximativ 10% dintre cei chestionați au spus că șefii lor le interzic în mod explicit utilizarea uneltelor AI externe, în timp ce o a patra parte nu știau dacă compania lor permite utilizarea tehnologiei.
Oseloka Obiora, directorul tehnic al firmei de securitate cibernetică RiverSafe, a declarat că acestă cursă de a integra inteligența artificială în practicile de afaceri ar putea avea "consecințe dezastruoase" dacă liderii nu introduc verificările necesare.
"În loc să se angajeze fără rezerve în ultimele tendințe AI, șefii executivi de nivel înalt ar trebui să mai reflecteze", a spus el.
Comentarii