Break the fake: Câte greșeli poate să facă Inteligența Artificială?
Articol de bucurestifm, 21 noiembrie 2024, 10:33
În 2018, o mașină autonomă, condusă cu ajutorul inteligenței artificiale, a lovit și ucis un pieton în Arizona, fiind primul deces de acest tip asociat cu vehiculele fără șofer. Accidentul a tras un semnal de alarmă că utilizarea inteligenței artificiale nu este lipsită de riscuri și erori.
Un proiect care a construit o bază de date a incidentelor care au implicat utilizarea inteligenței artificiale în viața reală numără în prezent peste 3000 de instanțe în care tehnologiile bazate pe AI au făcut rău sau au fost foarte aproape de a face rău.
Într-o lucrare recentă, o echipă de cercetători a creat un repozitoriu al riscurilor, clasificate în funcție de domeniul în care se produc și cauzele din spate.
Din perspectiva categoriei de risc (sau domeniului), avem următoarea clasificare în 7 domenii și 23 de subdomenii, pe care le voi exemplifica, pentru că timpul nu îmi permit să intru în detalii:
- Discriminare si toxicitate. De exemplu: tratamentul inegal al indivizilor sau grupurilor de către AI, adesea bazat pe rasă, gen sau alte caracteristici sensibile, care duce la rezultate și reprezentări nedrepte ale acestor grupuri.
- Intimitate și securitate. De exemplu: Sisteme AI care memorează și divulgă date personale sensibile sau deduc informații private despre indivizi fără consimțământul acestora.
- Dezinformare. De exemplu: Sisteme de AI care generează sau răspândesc involuntar informații incorecte sau înșelătoare. Oamenii care iau decizii bazate pe convingeri false pot suferi daune fizice, emoționale sau materiale.
- Utilizări malițioase. Utilizarea sistemelor de AI pentru a dezvolta arme cibernetice sau pentru a dezvolta și îmbunătăți armele existente.
- Interacțiunea om-computer. Încrederea excesivă sau dependența utilizatorilor față de sistemele de AI, conducând la o relație emoțională sau materială nepotrivită și la așteptări nerealiste față de aceste sisteme. Încrederea poate fi exploatată de actori rău intenționați sau poate duce la daune în urma utilizării necorespunzătoare a AI în situații critice (cum ar fi o urgență medicală).
- Daune socio-economice și de mediu. De exemplu, concentrarea puterii și a resurselor determinată de AI în cadrul anumitor entități sau grupuri, în special cele care au acces la sau dețin sisteme de AI puternice, ducând la o distribuție inechitabilă a beneficiilor și la creșterea inegalităților sociale.
- Eșecurile și limitările sistemelor de AI. De exemplu, sisteme de AI care nu reușesc să funcționeze în mod fiabil sau eficient, fiind astfel expuse la erori și eșecuri ce pot avea consecințe semnificative, mai ales în domenii critice sau care necesită judecăți morale.
Nu trebuie să ne temem de inteligența artificială, dar avem nevoie de reglementări riguroase și un bun management al riscurilor.
Atât pentru azi, rămâi cu București FM, sursa sigură de informații!
Pentru că suntem bombardați de informații contradictorii, senzaționale, uneori plauzibile, pentru că fiecare dintre noi s-a întâlnit cu fenomenul fake news în social media, pentru că nu știm pe cine să credem, ne-am gândit să o credem pe Flavia Durach, sursa noastră de încredere în ceea ce privește fenomenul dezinformării.
Ascultă-i rubrica „Break the fake! Informare despre dezinformare” în fiecare miercuri pe 98,3 FM de la 09:15, 13:40 și 18:30! Dacă ai pierdut-o, mai ai o șansă, sâmbătă la 09:20 sau duminică la 16:20.