Oksford: AI halucinacije predstavljaju direktnu pretnju nauci

Zbog sklonosti četbotova veštačke inteligencije da izmišljaju i daju lažne informacije, Oksford upozorava da su takve AI halucinacije direktna pretnja nauci

Oksford: AI halucinacije predstavljaju direktnu pretnju nauci

Veliki jezički modeli (LLM) koji se koriste i u aktuelnim četbotovima veštačke inteligencije (AI), pokazuju alarmantnu sklonost ka generisanju lažnih informacija koje predstavljaju kao tačne. To su drugim rečima praktično AI halucinacije i kao takve, predstavljaju rizike i direktnu pretnju nauci zbog čega naučna zajednica ne bi trebalo da ih koristi kao izvor znanja, upozoravaju istraživači sa Oksfordskog internet instituta.

Prema njihovom radu objavljenom u časopisu Nature Human Behaviour, „veliki jezički modeli su dizajnirani da proizvode korisne i ubedljive odgovore bez bilo kakvih apsolutnih garancija o njihovoj tačnosti ili usklađenosti sa činjenicama.“

Ovi AI modeli su trenutno na testiranju kao izvor znanja koji može da generiše informacije u odgovoru na pitanja. Međutim, podaci na kojima su oni obučeni ne moraju nužno biti faktografski tačni. Jedan od razloga za to je što ovi modeli često koriste onlajn izvore koji mogu sadržati netačne izjave, mišljenja i neprecizne informacije.

“Osobe koje koriste ovakve modele, često tehnologiji daju ljudske osobine, pri čemu joj veruju kao izvoru informacija sličnom ljudima”, objasnio je profesor Brent Mitelštat, koautor pomenutog rada za portal TheNextWeb.

On kaže da je to delimično posledica dizajna velikih jezičkih modela zbog kojeg oni zvuče ljudski dok razgovaraju sa korisnicima i odgovaraju na sva pitanja samopouzdano i sa dobro napisanim tekstom. Rezultat toga je da njihovi korisnici lako mogu biti ubeđeni da su odgovori četbotova tačni čak i kada nemaju osnova u činjenicama ili predstavljaju pristrasnu ili delimičnu verziju istine.

Kada je reč o nauci i obrazovanju, tačnost informacija je od vitalnog značaja, a istraživači pozivaju naučnu zajednicu da koristi velike jezičke modele kao “prevodioce sa nulte tačke”. To znači da korisnici treba da pruže modelu odgovarajuće podatke i zatraže od njega da ih pretvori u zaključak ili kod, umesto da se oslanjaju na sam model kao izvor znanja.

Na taj način postaje lakše proveriti da li su njegove tvrdnje tačne i u skladu sa prethodno pruženim informacijama. Iako će veštačka inteligencija „nesumnjivo“ pomoći u naučnim radnim tokovima, ključnoj je da naučna zajednica sa njom postupa odgovorno i održi jasna očekivanja o tome kako oni zaista mogu doprineti, tvrde istraživači. Na taj način naučnici će izbeći širenje neutemeljenih informacija koje mogu dovesti do potpuno pogrešnih zaključaka.

Ostani u toku

Prijavi se na newsletter listu i jednom nedeljno cemo ti poslati email sa najnovijim testovima i vestima iz sveta tehnologije.

Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Komentari (0)

Nema komentara 😞

Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!

Pridruži se diskusiji
Možda vam se svidi