OpenAI tvrdi da je pronašao uzrok AI „halucinacija“ i nudi rešenje

OpenAI istraživači tvrde da su otkrili zašto veliki jezički modeli izmišljaju odgovore i predlažu novu metodu ocenjivanja koja bi mogla smanjiti „halucinacije“.

OpenAI tvrdi da je pronašao uzrok AI „halucinacija“ i nudi rešenje

OpenAI tvrdi da je identifikovao glavni uzrok „halucinacija“ u velikim jezičkim modelima, tendenciji AI sistema da izmišljaju odgovore koji nisu tačni. Ovaj problem već dugo muči industriju i podseća na ograničenja tehnologije, a istraživači sada sugerišu da greška leži u samom načinu treniranja i ocenjivanja modela.

Prema studiji objavljenoj prošle nedelje, jezički modeli su podstaknuti da pogađaju čak i kada nisu sigurni, jer im to tokom obuke povećava šanse za tačan odgovor. U klasičnom sistemu evaluacije AI dobija nagradu za tačan odgovor i kaznu za netačan, dok „ne znam“ ili iskazivanje nesigurnosti uvek biva ocenjeno negativno. To dovodi do prirodnog pritiska da modeli daju neki odgovor, makar i pogrešan, umesto da priznaju neizvesnost.

„Halucinacije opstaju zbog načina na koji se većina evaluacija boduje, modeli su optimizovani da budu dobri ‘učenici’, a pogađanje u uslovima nesigurnosti poboljšava rezultate testova,“ navode istraživači.

Prijavi se na nedeljni Benchmark newsletter
Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

OpenAI smatra da rešenje leži u jednostavnom preokretu logike: kazniti samouverene netačne odgovore više nego izraze nesigurnosti, i dodeliti delimične poene za „ne znam“. Time bi se, kako tvrde, modeli usmerili da budu oprezniji i realniji u svojim tvrdnjama.

U praksi, to znači da bi evaluacije morale da prestanu da nagrađuju „srećna nagađanja“. Ako se ovakva promena sprovede, modeli bi mogli da razviju „bogatiju pragmatičku kompetenciju“ i time smanje učestalost halucinacija.

Ipak, ostaje da se vidi koliko će ovo imati efekta van laboratorije. Iako OpenAI tvrdi da njihov najnoviji GPT-5 halucinira manje, mnogi korisnici nisu primetili značajniji napredak. Problem je i dalje ključan za industriju koja ulaže desetine milijardi dolara i suočava se sa ogromnim ekološkim troškovima.

„Halucinacije ostaju fundamentalni izazov za sve velike jezičke modele, ali radimo naporno na njihovom daljem smanjenju,“ poručili su iz OpenAI-ja, prenosi Futurism.

Ostani u toku

Prijavi se na newsletter listu i jednom nedeljno cemo ti poslati email sa najnovijim testovima i vestima iz sveta tehnologije.

Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Komentari (0)

Nema komentara 😞

Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!

Pridruži se diskusiji
Možda vam se svidi
Benchmark
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.