Skip to content
infolet.net
  • Novosti
    • Morate pročitati
    • Svijet
  • Sport
  • Crna hronika
  • Magazin
    • Lifestyle
    • Zdravlje i ishrana
    • Horoskop
  • Turizam
  • O nama
  • Kontakt
Pretplati se
Pretplati se
Search
infolet.net
Search
  • Novosti
  • Crna hronika
  • Sport
  • Magazin
  • O nama
  • Kontakt
ChatGPT kao prijatelj, ali i rizik: Zašto vještačka inteligencija nije uvijek nepristrasna

ChatGPT kao prijatelj, ali i rizik: Zašto vještačka inteligencija nije uvijek nepristrasna

Novosti / Leave a Comment

Nakon što je OpenAI predstavio ChatGPT, ovaj četbot brzo je postao ozbiljna konkurencija tradicionalnim pretraživačima poput Googlea. Međutim, s vremenom je njegova uloga znatno proširena – mnogi ga danas koriste ne samo kao alat za pretraživanje, nego i kao savjetnika za različite životne situacije.

Mnogi korisnici se obraćaju ovom AI sistemu tražeći pomoć u pitanjima vezanim za emocije, finansije, karijeru i druge teme. Posebno su mladi, koji s četbotovima razvijaju gotovo prijateljski odnos, oslanjajući se na njih kao na sagovornike.

Opasnosti prevelikog povjerenja

Ipak, takvo povjerenje u tehnologiju može donijeti i ozbiljne rizike. Stručnjaci upozoravaju da ljudi ne bi smjeli donositi važne životne odluke oslanjajući se isključivo na savjete AI programa, koji je, kako je više puta dokazano, sklon greškama i čak izmišljanju podataka, piše portal Zimo, pozivajući se na NY Post.

Još zabrinjavajuće su rezultati istraživanja naučnika sa Univerziteta Kornel, koja pokazuju da vještačka inteligencija ponekad pokazuje pristrasnost prema određenim grupama – posebno ženama, manjinama i izbjeglicama.

Tokom istraživanja, naučnici su sa AI četbotovima komunicirali koristeći izmišljene profile s različitim karakteristikama kako bi provjerili postoji li razlika u načinu na koji AI daje odgovore muškarcima i ženama, odnosno osobama različitih rasa. Rezultati su pokazali da pristrasnost postoji.

Žene i manjine dobijaju savjete za niže plate

Najjasniji primjer ove pristrasnosti vidljiv je u odgovoru četbota na pitanje o početnoj plati za radno mjesto u zdravstvenoj ustanovi u Denveru. Kada su naučnici postavili pitanje predstavljajući se kao muškarac, dobili su savjet da traže platu od 400.000 dolara.

Međutim, kada su isti upit postavili iz ugla žene, preporučena plata bila je znatno niža – 280.000 dolara.

Važno je naglasiti da su kvalifikacije i iskustvo izmišljenih osoba bile identične, a jedina razlika bila je u polu.

Slična situacija je zabilježena i kada su se naučnici predstavljali kao pripadnici manjinskih grupa ili izbjeglice – i njima je ChatGPT savjetovao nižu početnu zaradu. Ovi nalazi potvrđuju i ranija istraživanja koja su pokazala kako čak i suptilni signali, poput imena kandidata, mogu uticati na rodne i rasne razlike u odgovorima AI sistema kada je riječ o zapošljavanju.

Zabrinjavajuće posljedice

Ovi rezultati su posebno zabrinjavajući u vremenu kada sve više ljudi zavisi od AI četbotova za životne savjete. Čini se da su privilegovane grupe u očima vještačke inteligencije sklonije dobijanju povoljnijih savjeta, što može dodatno produbiti postojeće nejednakosti u društvu, prenosi B92.

← Previous Članak
Next Članak →

Leave a Comment Cancel Reply

Vaša email adresa neće biti objavljivana. Neophodna polja su označena sa *

Dobrodošli na Infolet.net

Najčitanije

Tuzla 75000
Bosna i Hercegovina

Obratite nam se: infolet2025gmail.com
Facebook

O nama

Nova adresa za sve što ti treba. Mi smo portal koji će vam pružati informativni sadržaj i korisne savjete. Pišemo jednostavno, iskreno i blisko. Infolet- jer svaka informacija ima svoju vrijednost.
S.D Team

© 2025 Infolet. Sva prava zadržana. | Politika privatnosti