Tokom istraživanja, kreatori su uz izvesne uspehe, naišli i na poteškoće. Naime, iz kompanije kažu da veštačka inteligencija možda koristi koncepte za koje ljudi nemaju imena ili razumevanje. Oni su prilikom eksperimenta koristili najnoviju verziju svog ChatGPT četbot modela GPT-4 da pokušaju da objasne po kom principu je radio njegov prethodni model GPT-2.
To je pokušaj prevazilaženja problema takozvane crne kutije sa velikim jezičkim modelima kao što je GPT. Uprkos tome što istraživači imaju relativno dobro znanje i razumevanje onoga što ulazi i izlazi iz ovakvih jezičkih sistema, rad koji se zaista odvija unutar ovog sistema je i dalje u jednoj meri obavijen velom misterije.
Ovo nije problem koji se tiče samo istraživača, već pokazuje da postoji malo načina da se sazna koje pristrasnosti su uključene u sistem veštačke inteligencije i da li ona pruža lažne informacije svojim korisnicima. To znači da ne postoji način da se sazna kako je ChatGPT došao do zaključaka do kojih je došao, prenosi Independent.
Istraživački proces
Inženjeri su probali da reše ovaj problem tzv. istraživanjem interpretabilnosti, odnosno da nađu načine da uđu u sam model kako bi bolje razumeli njegov rad. Ovo je podrazumevalo da se pregledaju neuroni od kojih se sastoji ovaj model: baš kao što ljudski mozak ima svoje neurone, tako i veštačka inteligencija ima svoje koji predstavljaju delove podataka koje ona koristi.
Njihovo pronalaženje je bilo teško s obzirom na to da su ljudi morali ručno da ih pregledaju da bi razumeli šta oni predstavljaju. Problem je što su neki sistemi imali stotine milijardi parametara, te je nemoguće pregledati ih sve ručno.
Upravo tu su istraživači u kompaniji OpenAI pokušali da iskoriste ChatGPT-4 kako bi olakšali pomenuti proces i brže došli do zaključka. Probali su da naprave automatizovani proces koji bi dozvolio sistemu da pruži prirodna jezička objašnjenja neuronskog ponašanja i da ga primene na drugi, raniji jezički model GPT-2.
Podelili su proces u tri koraka: posmatranje neurona u modelu GPT-2, a potom davanje komande modelu GPT-4 da proba da ga objasni i simulira kako taj neuron radi, i naposletku procena tog objašnjenja upoređivanjem simuliranog rada neurona sa stvarnim.
Međutim, većina objašnjenja je bila loša i GPT-4 se nije pokazao dobrim, s obzirom na to da su tokom procesa naišli na niz ograničenja. To znači da sistem veštačke inteligencije kakav sad postoji u objašnjavanju nije dobar kao i ljudi, što, kako tvrde istraživači, ne znači da uz njegov dalji razvoj neće dostići i taj nivo.
Jedan od problema svakako može biti i to što je nemoguće objasniti način funkcionisanja na običnom jeziku, jer sistem možda koristi neke koncepte za koje ljudi i dalje nemaju naziv, ali i to da je bot bio fokusiran na ono što svaki neuron radi pojedinačno, a ne u sklopu celine.
Nema komentara 😞
Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!
Pridruži se diskusiji