Cum știi că un text a fost scris de inteligența artificială?
Articol de bucurestifm, 21 decembrie 2022, 10:24
Flavia Durach, conferențiar universitar doctor în cadrul Facultății de Comunicare și Relații Publice și specialist în dezinformarea în mediul online, ne prezintă marca reportajelor de calitate: diversitatea surselor de informații!
Săptămâna trecută, mulți utilizatori de internet s-au jucat cu ChatGPT, programul de inteligență artificială dezvoltat de OpenAI, capabil să genereze texte în mod automat.
Aplicația produce texte coerente pe orice subiect ne putem imagina. Programul poate răspunde la întrebările utilizatorilor, poate da sfaturi și rezolva probleme.
În aceste condiții, de unde știi că ceea ce asculți chiar acum la Break the fake nu este scris de ChatGPT?
Am strâns de la specialiști o serie de informații utile despre cum putem recunoaște un text scris de către inteligența artificială. De exemplu, repetiția, tonul formal, greșelile de gramatică, lipsa editării textului și golurile de informație pot indica un text generat artificial. Să le luăm pe rând. Un „robot” ar putea repeta anumite structuri lingvistice în text, cum ar fi anumite cuvinte sau fraze. Indiferent de subiect, va folosi același ton (unul formal), fără multe variații, lăsând o impresie ușor nefirească.
Inteligența artificială nu înțelege noțiunile de gramatică, de aceea, este posibil să facă greșeli în text, care nu sunt apoi editate de către o persoană. Inteligența artificială este antrenată pe serii mari de date, iar dacă acestea nu sunt de bună calitate, sistemul va permite greșelilor să se strecoare.
Nu în ultimul rând, un program de inteligență artificială nu are cultură generală; informațiile pe care le poate accesa sunt limitate de datele care îi sunt puse la dispoziție. De exemplu, ChatGPT nu are acces la web în timp real și nici la informații mai noi decât din a doua parte a lui 2021.
Poate cea mai importantă slăbiciune a ChatGPT este iluzia acurateții, după cum au punctat cei de la MIT Technology Review: „Magia – și pericolul – acestor modele generatoare de limbaj constă în iluzia corectitudinii. Propozițiile pe care le produc par corecte – folosesc cuvintele potrivite, în ordinea corectă. Dar inteligența artificială nu știe ce înseamnă textul generat. Aceste modele funcționează prin prezicerea cuvântului care este cel mai probabil să urmeze la rând, când alcătuiesc o propoziție. Ele nu au nicio idee dacă ceva este corect sau fals și prezintă cu încredere informațiile ca fiind adevărate chiar și atunci când nu sunt.”
Noi suntem ușor de păcălit. Cercetătorii de la Universitatea Cornell au descoperit că, în 2 cazuri din 3, oamenii au luat drept adevărate articole fake generate de inteligența artificială. Există și programe software care ne pot ajuta. Acestea analizează diferite caracteristici ale textului – de exemplu, cât de fluent se citește, cât de des apar anumite cuvinte sau dacă există tipare care se repetă.
Până data viitoare, rămâi cu sursa sigură de informații, BucureștiFM!
Pentru că suntem bombardați de informații contradictorii, senzaționale, uneori plauzibile, pentru că fiecare dintre noi s-a întâlnit cu fenomenul fake news în social media, pentru că nu știm pe cine să credem, ne-am gândit să o credem pe Flavia Durach, sursa noastră de încredere în ceea ce privește fenomenul dezinformării.
Ascultă-i rubrica „Break the fake! Informare despre dezinformare” în fiecare miercuri pe 98,3 FM de la 09:15, 13:40 și 18:30! Dacă ai pierdut-o, mai ai o șansă, sâmbătă la 09:20 sau duminică la 16:20.