Ilustracija (Pexels)
Kada je riječ o ChatGPT-u, čini se da postoje dva tabora: oni koji se zaklinju da ga nikada neće koristiti i oni koji ga koriste kako bi ovom alatu prepustili razne "poslove", pa čak i rješavanje osobnih problema, piše N1.
Prema najnovijim istraživanjima, ali i brojnim objavama na društvenim mrežama, mnogi koriste umjetnu inteligenciju kao terapeuta ili prijatelja kojem se povjeravaju i od kojeg traže osobne savjete.
Međutim, budite oprezni kada se "savjetujete" s ChatGPT-jem i dijelite mu previše svojih tajni, jer još uvijek nije jasno gdje se sve pohranjuju podaci koje mu dajete i kako bi oni mogli biti zloupotrijebljeni.
Ne zaboravite da postoji i "ljudska cijena" u razvoju softvera poput ChatGPT-ja.
Radnici iz siromašnijih zemalja, uključujući i radnike iz Kenije, bili su prisiljeni proći kroz potresne opise seksualnog zlostavljanja, nasilja te mikro i makro rasističke agresije kako bi trenirali ove modele — upravo oni su dali umjetnoj inteligenciji "materijal" na temelju kojeg daje odgovore drugim ljudima, prenosi Nova.rs.
Profesor računalnih znanosti s Oxfordskog sveučilišta, Mike Wooldridge, upozorio je na opasnosti emocionalnog vezivanja za ovu platformu kao za bliskog prijatelja.
"ChatGPT nema empatiju. Nema suosjećanje. To apsolutno nije ono što ova tehnologija radi i, što je ključno, nikada ništa nije iskusila. Ovaj softver je doslovno dizajniran da vam kaže ono što želite čuti – i to je sve što radi", rekao je Wooldridge.
A s obzirom na to da su ljudski odnosi temeljeni na suosjećanju i razumijevanju – osobito kada je riječ o potrebi za međuljudskim savjetom – je li kod s druge strane ekrana doista najbolji izbor?
Osim emocionalnih aspekata, profesor Wooldridge upozorio je i na moguća kršenja privatnosti i curenje podataka kada korisnici dijele osjetljive informacije.
Podsjetimo, Italija je 2023. godine postala prva zapadna zemlja koja je zabranila korištenje ChatGPT-ja zbog načina na koji se korisnički podaci koriste za treniranje modela. Talijansko nadzorno tijelo za zaštitu podataka priopćilo je da aplikacija krši privatnost time što koristi podatke iz razgovora i informacije o plaćanju korisnika.
Također su naveli da OpenAI nije imao pravnu osnovu za "masovno prikupljanje i pohranjivanje osobnih podataka u svrhu treniranja algoritama na kojima platforma funkcionira".
Iako ChatGPT navodi da korisnici u dobi od 13 do 18 godina moraju imati pristanak roditelja, talijanski nadzorni organ istaknuo je da alat i dalje "izlaže maloljetnike odgovorima koji apsolutno nisu primjereni njihovoj razini razvoja i svijesti".
Profesor Wooldridge ponovio je ta upozorenja:
"Trebali biste pretpostaviti da će sve što unesete u ChatGPT završiti u nekoj budućoj verziji ovog sustava. Krajnje je nepromišljeno voditi osobne razgovore, žaliti se na šefa ili izražavati politička uvjerenja putem ChatGPT-ja."