VIDEO: Flavia Durach – „Cea mai importantă vulnerabilitate în România este polarizarea.”

Aflați în fața unui an electoral cu mize foarte mari și în plin avânt al inteligenței artificiale, riscul unor campanii electorale afectate de deep fake și dezinformare, în cazul unor subiecte importante, este îngrijorător. Am discutat despre acest subiect cu Flavia Durach, conferențiar universitar doctor în cadrul Facultății de Comunicare și Relații Publice ( SNSPA) și realizatoarea rubricii “Break the fake “de la București FM, invitata Ioanei Brușten #InComunitate.

„Peste jumătate din populația globului va vota sau va fi implicată în alegeri. Nu știu dacă vor vota toți în mod efectiv, în peste 40 de țări, inclusiv în democrații cheie, cum este cea americană. Totdeauna rezultatul alegerilor din astfel de state importante, mari puteri de pe glob ne influențează pe toți și atunci avem dreptate să fim îngrijorați. Inclusiv în România avem 4 rânduri de alegeri. Este un an intens, din perspectiva asta. Nu știu dacă putem vorbi neapărat de utilizare corectă sau greșită a inteligenței artificiale, așa la un mod foarte tranșant, dar cu siguranță putem discuta despre transparență. Adică, să știm că într-un anumit clip a fost folosită inteligență artificială și, în al doilea rând, putem vorbi de moralitatea anumitor acțiuni, care implică mesaje comunicate cu ajutorul inteligenței artificiale și aici cred că se pune discuția. Cetățenii au dreptul la alegeri în care să fie informați corect, nepărtinitor, să nu fie influențați. De altfel, anumite tipuri de influențare a electoratului sunt ilegale, cum ar fi a face presiuni pentru un anumit tip de vot sau a descuraja oamenii să voteze. Acestea sunt practici asupra cărora trebuie să reflectăm și care probabil se vor folosi în mod neetic de inteligența artificială.”

 Manipulare prin Deep Fakes

 Dacă înainte de apariția inteligenței artificiale photoshop era programul folosit pentru alterarea unei imagini, în aceste zile, AI reușește să treacă peste acest prag și să genereze imagini de la zero, pe baza unui text(promt), care indică ceea ce se dorește de la acea imagine. Prin antrenare și alimentare cu date, posibilitățile, sunt practic nelimitate.

„Datele arată că deep fakes, de fapt, care sunt o nișă a utilizării inteligenței artificiale și o să explic imediat ce sunt,  au crescut în ultimii ani în prezență pe internet cu 900 %. E imens.

Deep Fakes sunt un produs al inteligenței artificiale, mai specific imagini, clipuri audio sau video sau ambele, audio plus video, care sunt create de la zero, în sensul în care nu e vorba de o imagine, de exemplu, care e modificată în photoshop, ci de generarea unei imagini care nu a existat niciodată, care nu a fost captată niciodată sau a unui clip video în care o personalitate pare că face ceva, într-un context în care nu s-a aflat niciodată, nu a făcut ceva-ul acela. Are legătură cu modul în care funcționează inteligența artificială și ceea ce se cheamă deep learning, o formă de învățare profundă, în care mașina respectivă se auto perfecționează. Aceste programe sunt hrănite cu serii mari de date, pe care să se antreneze, de exemplu, o suită de figuri sau, dacă este vorba de imagini cu uși, o suită de poze cu uși, apoi vor analiza tiparele din aceste imagini și după această perioadă de învățare vor fi capabile să genereze propriile imagini cu fețe ale unor oameni care nu au existat niciodată, dar care sunt o combinație a ceea ce a învățat mașina despre cum arată un om. Sau poze cu uși care sunt create de acel program în baza unui promt.” – Flavia Durach, conferențiar universitar doctor în cadrul Facultății de Comunicare și Relații Publice ( SNSPA)  

Verificarea deep fakes nu ține pasul cu generarea acestora

În acest moment se încearcă depistarea acestora, prin diferite metode, de către oameni. Este, însă, un proces greoi care nu face față volumului de deep fakes-uri generate. Se caută soluții tot în sfera Ai, deși se pare că o opinie deja formată nu poate fi schimbată foarte ușor.

 „Fact checking-ul, adică verificarea factuală a acestor tipuri de produse media, nu va putea face față la volumul de material, care mă aștept eu să fie pus în circulație pe rețelele sociale. E o problemă de viteză, să faci o astfel de verificare, jurnaliștii pot să confirme, durează foarte mult. De aceea, se vorbește ca una dintre soluții să fie alte programe de inteligență artificială antrenate să recunoască în mod automat deep fakes-urile și să le putem eticheta ca atare, scurtând astfel ceva din efortul pe care îl pot face cei care se ocupă cu depistarea lor. Dar e o soluție parțială. Atenția noastră, ca utilizator de internet, este limitată. În plus, odată ce se sedimentează o anumită convingere, noi începem să disociem acea convingere de sursă și nici nu mai contează dacă ni se spune păi da, tu ți-ai format opinia asta pe un subiect politic, să spunem, pentru că ai văzut de fapt un deep fake. Nu mai ajunge la noi acest argument, noi reținem mesajul. În anumite condiții tindem să reținem mesajul, să uităm sursa și să ne agățăm de impresia pe care ne-a lăsat-o un anumit mesaj, chiar dacă el se bazează pe o manipulare, pe o fabricare integrală a acelui conținut.” – Flavia Durach, conf. univ. dr FCRP

AI ACT, actul pentru inteligență artificială

 Inteligența artificială are nevoie de reglementări care să ne protejeze. De la manipulare prin deep fakes și până la respectarea drepturilor de autor, Ai are nevoie de legi care să țină sub control  generarea și utilizarea de date.

 „AI ACT, actul pentru inteligență artificială, este singurul cadru de reglementare a inteligenței artificiale pe criterii etice din lume și deja avem cel mai avansat cadru de reglementare, care a intrat în vigoare complet din 2024, al mediului digital, inclusiv al daunelor produse de dezinformare, de exemplu. Avem și alte documente de reglementare sau documente de politici publice la nivelul Uniunii Europene, care să protejeze cetățenii de aceste fenomene. Strict pe subiectul deep fakes în alegeri, în Statele Unite, de pildă, sunt deja state care au promulgat legi sau au în lucru legi care să reglementeze modul în care e utilizată inteligența artificială în campaniile electorale, dar, cum spuneam, ținând cont de amploarea fenomenului și de multitudinea de actori care se pot implica, mă aștept ca progresul să fie destul de lent în acest domeniu.”

Polarizarea socială

Convingerile proprii, generate de mesaje care dezinformează, care manipulează, sunt greu de schimbat. Emoțiile generate fac abstracție de realitate, iar faptele nu mai au relevanță în fața acestora. „Aș zice că cea mai importantă vulnerabilitate în România și, de fapt, nu doar în România, este polarizarea.”, precizează Flavia Durach, conferențiar universitar doctor în cadrul Facultății de Comunicare și Relații Publice ( SNSPA), care a mai adăugat:

Capacitatea dezinformării în general, inclusiv prin intermediul produselor realizate de inteligență artificială, depinde foarte mult de disponibilitatea noastră de a crede acele mesaje, de a ne lăsa seduși, persuadați de ele. Cu cât polarizarea socială este mai mare, cu atât suntem mai sensibili la mesaje ideologice, mesaje care servesc unor convingeri pe care le avem, foarte încrâncenate și care nu depind de fapte. Mă tem că o problemă a perioadei pe care o traversăm este că faptele au devenit secundare în raport cu niște convingeri care au un fond emoțional care nu mai este legat de niște probleme propriu-zise,  cât de niște sentimente tribale.”

Lasă un răspuns

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.