Deepfake-urile audio, cea mai mare amenințare pentru alegeri?

Flavia Durach, conferențiar universitar doctor în cadrul Facultății de Comunicare și Relații Publice și specialist în dezinformarea în mediul online, ne prezintă marca reportajelor de calitate: diversitatea surselor de informații! 

La Break the fake, am mai discutat despre pericolul deepfakes – imagini, clipuri audio sau video realizate cu ajutorul inteligenței artificiale. De data aceasta, mi-am propus să insistăm asupra deepfake-urilor audio, care ar putea fi cele mai periculoase dintre toate.

Specialiștii consideră că deepfake-urile audio, în care o voce reală este clonată pentru a enunța un mesaj fake, ar putea reprezenta o amenințare mai mare la adresa integrității alegerilor decât cele video. Iată care sunt motivele:

  • sunt mai ușor și mai ieftin de produs;
  • tehnologia în sine este mai avansată decât în cazul video;
  • pot fi folosite în apeluri automate care să targeteze votanții activi și mai în vârstă; în plus, aceste apeluri sunt mai greu de investigat;
  • Spre deosebire de clipurile video, cele audio sunt lipsite de indiciile vizuale pe care ne bazăm de obicei pentru a ne da seama că ceva este în neregulă. Studiile sugerează că avem o capacitate limitată de a detecta vocile artificiale.

Hany Farid, profesor la Universitatea din California, care a dezvoltat mai multe instrumente de detectare a deepfakes, arată într-un interviu pentru Scientific American cu ce ne confruntăm: „Nu ai nevoie decât de unul-două minute de înregistrare cu vocea persoanei pe care vrei să o clonezi. Există servicii pentru care poți plăti 5 dolari pe lună pentru ca să încarci sunetul de referință și să clonezi vocea. Apoi poți tasta mesajul dorit și obține un sunet convingător în câteva secunde. Acesta este text-to-speech (transformarea din text în vorbire). Există, de asemenea, o a doua modalitate de a face acest lucru, numită speech-to-speech (transformarea din vorbire în vorbire). Înregistrez o persoană și îi clonez vocea. Și apoi mă înregistrez spunând ceea ce vreau să spună și îmi transformă vocea în vocea lor.” După cum poți vedea, nici măcar nu ai nevoie de cunoștințe tehnice avansate pentru a crea acest tip de conținut.

Ce știm despre modul cum au fost folosite deepfakes audio până acum în politică și nu numai?

  • Financial Times a raportat că instrumentele de clonare a vocii au vizat alegerile din țări precum India, Marea Britanie, Nigeria, Sudan și Etiopia.
  • În industria avatarurilor, unele startup-uri de AI oferă o selecție de actori fabricați digital care pot fi făcuți să „spună” mesaje mai lungi care se sincronizează pe buze mai bine decât mesajele false suprapuse oamenilor reali în clipuri video.
  • În octombrie 2023, un deepfake care viza un lider al opoziției a influențat rezultatul alegerilor din Slovacia în avantajul unui candidat pro-Rusia.
  • Un alt deepfake audio a fost suprapus peste într-un videoclip real al unui candidat din Pakistan, lăsând astfel impresia că acesta cere alegătorilor să boicoteze alegerile generale din februarie 2024.
  • Și, în SUA, un clip audio mascat în vocea președintelui Joe Biden i-a îndemnat pe alegători să nu voteze la alegerile primare dintr-un stat cheie.

Data viitoare, vom discuta posibile soluții care să ne protejeze de acest fenomen.

Până atunci, rămâi cu București FM, sursa sigură de informații!

Pentru că suntem bombardați de informații contradictorii, senzaționale, uneori plauzibile, pentru că fiecare dintre noi s-a întâlnit cu fenomenul fake news în social media, pentru că nu știm pe cine să credem, ne-am gândit să o credem pe Flavia Durach, sursa noastră de încredere în ceea ce privește fenomenul dezinformării.

Ascultă-i rubrica „Break the fake! Informare despre dezinformare” în fiecare miercuri pe 98,3 FM de la 09:15, 13:40 și 18:30! Dacă ai pierdut-o, mai ai o șansă, sâmbătă la 09:20 sau duminică la 16:20.

Flavia Durach este lector universitar doctor în cadrul Facultății de Comunicare și Relații Publice și specialist în dezinformarea în mediul online.

Lasă un răspuns

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.