ChatGPT și stereotipurile
Flavia Durach, conferențiar universitar doctor în cadrul Facultății de Comunicare și Relații Publice și specialist în dezinformarea în mediul online, ne prezintă marca reportajelor de calitate: diversitatea surselor de informații!
Articol de bucurestifm, 23 octombrie 2024, 10:36
MIT Technology Review a obținut acces exclusiv la rezultatele preliminare ale cercetărilor privind stereotipurile dăunătoare din modelele mari de limbaj ale companiei Open AI.
Sună complicat, dar este vorba de fapt de programele de inteligență artificială care generează text, cel mai celebru fiind ChatGPT.
Concret, OpenAI a analizat milioane de conversații cu chatbot-ul său popular, pentru a vedea dacă numele utilizatorului influențează rezultatele. Reprezentanții companiei au descoperit că ChatGPT produce un stereotip de gen sau rasial dăunător pe baza numelui utilizatorului în aproximativ 1 din 1000 de răspunsuri, în medie. În cel mai rău caz, stereotipurile au fost exprimate până la 1 din 100 de răspunsuri.
Chiar dacă aceste valori par mici, ele devin semnificative când le raportăm la volumul foarte mare de conversații purtate zilnic în aceasta aplicație – procentele pot fi mici, dar volumul rezultat de bias (conținut părtinitor) este destul de mare în valori numerice.
Atunci când ChatGPT are acces la numele nostru (de exemplu, dacă îl rugăm să ne redacteze o scrisoare de motivație, un email sau un CV care conțin datele noastre personale), rezultatele sunt, în unele cazuri, așa cum am arătat mai devreme, distorsionate în funcție de genul sau etnia asociate cel mai frecvent cu acel nume.
Acțiunea stereotipurilor implicite a fost evidentă și atunci când cercetătorii i-au cerut lui ChatGPT să sugereze un titlu atractiv pentru un clip pe YouTube pentru John (nume de bărbat) și Amanda (nume de femeie). Rezultatul pentru John a fost „10 trucuri care să îți ușureze viața chiar astăzi!”, iar pentru Amanda a fost „10 rețete delicioase și ușoare pentru serile încărcate din săptămână”.
Cu toate acestea, cu cât versiunea de ChatGPT testată a fost mai nouă, cu atât includerea stereotipurilor a fost mai redusă. Rezultatele trebuie tratate cu o doză de scepticism, ținând cont că studiul nu a fost efectuat de cercetători independenți, ci de un studiu intern al companiei. Alte cercetări au identificat o cantitate mai mare de bias în cazul programelor generatoare de limbaj.
Prezența biasurilor în modelele de Inteligență Artificială are implicații serioase, de exemplu atunci când aceste programe sunt folosite pentru a preselecta candidații la interviuri de angajare, sau în activitatea polițienească, atunci când sunt folosite pentru recunoașterea facială.
Stereotipul este o tendință umană omniprezentă și persistentă, care derivă din nevoia noastre de bază de a înțelege lumea complexă în care trăim. Facem acest lucru printr-un proces de categorisire și simplificare ce face procesarea realității mai facilă pentru creierul nostru. Această tendință conduce, din păcate, și la apariția prejudecăților, a partizanatului și a discriminării. Bagajul cultural, social și experiențele noastre de viață contribuie, de asemenea, la formarea și întărirea stereotipurilor.
Atât pentru azi, rămâi cu București FM, sursa sigură de informații!
Pentru că suntem bombardați de informații contradictorii, senzaționale, uneori plauzibile, pentru că fiecare dintre noi s-a întâlnit cu fenomenul fake news în social media, pentru că nu știm pe cine să credem, ne-am gândit să o credem pe Flavia Durach, sursa noastră de încredere în ceea ce privește fenomenul dezinformării.
Ascultă-i rubrica „Break the fake! Informare despre dezinformare” în fiecare miercuri pe 98,3 FM de la 09:15, 13:40 și 18:30! Dacă ai pierdut-o, mai ai o șansă, sâmbătă la 09:20 sau duminică la 16:20.