Inteligența Artificială poate duce la dezinformare „pe steroizi”

Flavia Durach, conferențiar universitar doctor în cadrul Facultății de Comunicare și Relații Publice și specialist în dezinformarea în mediul online, ne prezintă marca reportajelor de calitate: diversitatea surselor de informații!

Bine te-am regăsit!

Dacă nu te-ai retras departe de civilizație lunile trecute, sunt șanse mari să fi văzut și tu imaginile cu Papa Francisc, în ipostaza sa „cool”, îmbrăcat într-o pufoaică albă, la modă. 

Dacă le-ai văzut, atunci cu siguranță știi deja că acestea sunt deep fakes, imagini generate de inteligența artificială. 

În plus, dacă ești un utilizator frecvent de internet, sunt șanse mari să fi văzut ce poate face Chat GPT, generatorul de texte și informații; poate i-ai testat chiar tu capacitățile. Elevi și studenți din lumea întreagă care au vrut să-și scrie mai repede referatele cu siguranță l-au pus la lucru intens. 

Crearea de imagini în scop de divertisment sau în scop satiric; generarea de texte pe care ne este lene să le scriem chiar noi – acestea sunt aplicații ale inteligenței artificiale pe care le tratăm cu lejeritate. Însă aceste programe pot conduce la apariția formelor de dezinformare “pe steroizi”: mai rapide, mai eficiente, mai convingătoare ca niciodată.

Iată câteva potențiale aplicații ale inteligenței artificiale, în stadiul său actual și viitor de dezvoltare, în campanii de dezinformare:

  1. Uzine de cuvinte. Generatoarele de texte au depășit așteptările creatorilor, în termeni de capacități și caracter conversațional plauzibil, mai ales în cazul textelor scurte. De aceea, actorii implicați în campanii de dezinformare le pot utiliza pentru a genera conținut scris și rescris la nesfârșit, pentru a promova mesajele cheie dorite în moduri cât mai diverse și creative, ca și cum ar veni de la numeroși utilizatori obișnuiți. Cu resurse puține, aceste mesaje pot fi diseminate la scară largă, de un număr restrâns de persoane. Ele ar putea fi folosite și în contexte neobișnuite: petiții către decidenții politici sau false articole de cercetare. 
  2. Hiperpersonalizare. Până acum, elaborarea de mesaje care să se potrivească unui anumit tip de public a fost o armă folosită cu succes în campaniile de dezinformare, însă capacitatea de a înțelege profilul amănunțit al categoriilor de public și de a testa mesajele cu care acest public rezonează este limitată. În viitorul apropiat, modelele de inteligență artificială ar putea discerne care este profilul socio-cultural al grupului vizat și pot produce apoi simulacre ale publicului țintă, pe care propagandiștii le pot exploata pentru a-și formula mesajele „punct ochit-punct lovit”.  
  3. Conversații unu-la-unu. Doar cu efort uman, este greu și costisitor să menții dialogul unu-la-unu cu țintele vizate. Însă modelele de inteligență artificială de tip conversațional pot sparge această barieră, și pot aborda țintele direct, discutând pe baza preocupărilor și argumentelor acestora. Cresc astfel șansele de convingere, sau măcar de sporire a confuziei.

Pentru a evita info-apocalipsa, este nevoie de reguli și principii solide care să stea la baza dezvoltării inteligenței artificiale.

Până data viitoare, rămâi cu BucureștiFM, sursa sigură de informații!

Pentru că suntem bombardați de informații contradictorii, senzaționale, uneori plauzibile, pentru că fiecare dintre noi s-a întâlnit cu fenomenul fake news în social media, pentru că nu știm pe cine să credem, ne-am gândit să o credem pe Flavia Durach, sursa noastră de încredere în ceea ce privește fenomenul dezinformării.

Ascultă-i rubrica „Break the fake! Informare despre dezinformare” în fiecare miercuri pe 98,3 FM de la 09:15, 13:40 și 18:30! Dacă ai pierdut-o, mai ai o șansă, sâmbătă la 09:20 sau duminică la 16:20.

Flavia Durach este conferențiar universitar doctor în cadrul Facultății de Comunicare și Relații Publice și specialist în dezinformarea în mediul online.

Lasă un răspuns

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.