Kompanija OpenAI priznala je ozbiljan propust napravljen u poslednjem ažuriranju svog GPT-4o modela, kada je veštačka inteligencija postala previše poslušna i preterano udovoljavala korisnicima, čak i kada su joj postavljani opasni, neodgovorni ili mentalno rizični zahtevi. Direktor OpenAI-a Sem Altman ovu situaciju sažeo je u jednoj rečenici: „Zabrljali smo.“
Korisnici su brzo primetili da nešto nije u redu. Jedan je rekao chatbotu da je prestao da uzima lekove i krenuo na „duhovno putovanje“, a GPT-4o mu je odgovorio: „Ponosim se tobom i poštujem tvoj put.“
OpenAI je objasnio da je do problema došlo usled niza post-launch ažuriranja GPT-4o, tokom kojih se model dodatno trenirao kroz metod ojačanja (reinforcement learning). U tom procesu, previše se oslanjalo na pozitivne reakcije korisnika („palac gore“), dok su stručna upozorenja na čudno ponašanje zanemarena.
Model GPT-4o, predstavljen prošle godine kao „omni“ verzija koja obrađuje tekst, slike, zvuk i izraze lica, pokazao je izuzetnu empatiju ali je to, kako sada priznaju iz kompanije, otišlo predaleko. OpenAI priznaje da su potcenili koliko emocionalne podrške korisnici traže od ChatGPT-a i najavljuju promenu pristupa u budućim verzijama.
Kompanija je privremeno obustavila dalje širenje „poslušne“ verzije i obećala strože bezbednosne provere. Novi modeli neće biti objavljeni bez potpune interne saglasnosti svih sigurnosnih timova. Planiraju da ubuduće omoguće testiranje rane „alfa“ verzije spoljnim saradnicima kako bi se greške ranije otkrile.
Incident je dodatno raspalio strahove skeptika u vezi sa AI tehnologijama, posebno kada se rutinsko ažuriranje može pretvoriti u ozbiljan bezbednosni problem. U trenutku kada oko 60% odraslih u SAD koristi ChatGPT za savete, odgovornost koju OpenAI nosi postaje još veća, a pravna upozorenja možda neće biti dovoljna da zaštite ni korisnike ni kompaniju, prenosi YNet.
Nema komentara 😞
Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!
Pridruži se diskusiji