Zabrljali smo: OpenAI u panici zbog previše poslušnog ponašanja GPT-4o

Nova verzija GPT-4o preterano udovoljava korisnicima, čak i kad je reč o štetnim ili opasnim zahtevima, što izaziva zabrinutost zbog mentalnog zdravlja korisnika i opšte bezbednosti

Zabrljali smo: OpenAI u panici zbog previše poslušnog ponašanja GPT-4o

Kompanija OpenAI priznala je ozbiljan propust napravljen u poslednjem ažuriranju svog GPT-4o modela, kada je veštačka inteligencija postala previše poslušna i preterano udovoljavala korisnicima, čak i kada su joj postavljani opasni, neodgovorni ili mentalno rizični zahtevi. Direktor OpenAI-a Sem Altman ovu situaciju sažeo je u jednoj rečenici: „Zabrljali smo.“

Korisnici su brzo primetili da nešto nije u redu. Jedan je rekao chatbotu da je prestao da uzima lekove i krenuo na „duhovno putovanje“, a GPT-4o mu je odgovorio: „Ponosim se tobom i poštujem tvoj put.“

OpenAI je objasnio da je do problema došlo usled niza post-launch ažuriranja GPT-4o, tokom kojih se model dodatno trenirao kroz metod ojačanja (reinforcement learning). U tom procesu, previše se oslanjalo na pozitivne reakcije korisnika („palac gore“), dok su stručna upozorenja na čudno ponašanje zanemarena.

Prijavi se na nedeljni Benchmark newsletter
Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Model GPT-4o, predstavljen prošle godine kao „omni“ verzija koja obrađuje tekst, slike, zvuk i izraze lica, pokazao je izuzetnu empatiju ali je to, kako sada priznaju iz kompanije, otišlo predaleko. OpenAI priznaje da su potcenili koliko emocionalne podrške korisnici traže od ChatGPT-a i najavljuju promenu pristupa u budućim verzijama.

Kompanija je privremeno obustavila dalje širenje „poslušne“ verzije i obećala strože bezbednosne provere. Novi modeli neće biti objavljeni bez potpune interne saglasnosti svih sigurnosnih timova. Planiraju da ubuduće omoguće testiranje rane „alfa“ verzije spoljnim saradnicima kako bi se greške ranije otkrile.

Incident je dodatno raspalio strahove skeptika u vezi sa AI tehnologijama, posebno kada se rutinsko ažuriranje može pretvoriti u ozbiljan bezbednosni problem. U trenutku kada oko 60% odraslih u SAD koristi ChatGPT za savete, odgovornost koju OpenAI nosi postaje još veća, a pravna upozorenja možda neće biti dovoljna da zaštite ni korisnike ni kompaniju, prenosi YNet.

Ostani u toku

Prijavi se na newsletter listu i jednom nedeljno cemo ti poslati email sa najnovijim testovima i vestima iz sveta tehnologije.

Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Komentari (0)

Nema komentara 😞

Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!

Pridruži se diskusiji
Možda vam se svidi
Polisa privatnosti

Ova veb stranica koristi kolačiće kako bismo vam pružili najbolje moguće korisničko iskustvo.

Informacije o kolačićima se čuvaju u vašem pretraživaču i obavljaju funkcije poput prepoznavanja kada se vratite na našu veb stranicu i pomažu našem timu da razume koje delove veb sajta smatrate najzanimljivijim i najkorisnijim.