ChatGPT ponekad može izgledati kao da razmišlja poput vas, ali pričekajte dok iznenada ne počne da priča i zvuči baš kao i vi. To je mogućnost koju je otkrio novi napredni Voice Mode za ChatGPT, specijalna naprednija verzija GPT-4o modela.
OpenAI je prošle nedelje objasnio šta sve GPT-4o može i ne može da uradi, uključujući vrlo malo verovatnu, ali ipak realnu mogućnost da napredni Voice Mode može oponašati glasove korisnika i to bez njihovog pristanka.
Napredni Voice Mode omogućava korisnicima da vode razgovore sa AI chatbotom. Ideja je da se interakcija učini prirodnijom. AI ima nekoliko unapred definisanih glasova između kojih korisnici mogu birati.
Nemojte se iznenaditi ako ChatGPT počne da imitira vaš glas
Međutim, OpenAI je sada otkrio kako je ova funkcija pokazala neočekivano ponašanje u određenim uslovima. Tokom testiranja, buka koju je zabeležio mikrofon uređaja je pokrenula AI da oponaša glas korisnika.
Model GPT-4o generiše glasove koristeći skriveni skup sistemskih instrukcija koji usmerava ponašanje modela tokom interakcije sa korisnikom. U slučaju sinteze glasa, ovaj sistem generisanja glasa se uglavnom oslanja na autorizovani uzorak glasa. Međutim, iako sistem usmerava ponašanje AI-a, nije nepogrešiv. Sposobnost modela da sintetiše glas iz kratkih audio snimaka znači da bi, u određenim uslovima, mogao generisati druge glasove, uključujući i vaš.
Možete čuti šta se dogodilo u primeru ispod, kada AI iznenada kaže “Ne!” i zvuči baš kao govornik.
„Generisanje glasa može se desiti u određenim situacijama, kao što je upotreba te sposobnosti za generisanje glasova u naprednom Voice Mode-u ChatGPT-a. Tokom testiranja, takođe smo primetili retke slučajeve u kojima bi model nenamerno generisao izlaz koji imitira glas korisnika,“ objasnio je OpenAI. „Iako slučajno generisanje glasa i dalje postoji kao nedostatak modela, koristimo sekundarne klasifikatore kako bismo osigurali da se razgovor prekine ako se to dogodi, čime je rizik od nenamernog imitiranja glasa minimalan.“
Kako je OpenAI rekao, od tada su ugradili određene mere zaštite kako bi sprečili ovakve slučajeve. To znači korišćenje klasifikatora izlaza dizajniranog da detektuje odstupanja od unapred izabranih autorizovanih glasova. Ovaj klasifikator deluje kao zaštitna mera, pomažući da se osigura da AI ne generiše neautorizovani audio.
Ipak, činjenica da se to uopšte dogodilo naglašava koliko brzo ova tehnologija evoluira i kako sve zaštitne mere moraju da evoluiraju kako bi pratile ono što AI može da uradi. Neočekivani ispad modela, kada je iznenada uzviknuo “Ne!” glasom sličnim osobe koja ga je koristila, ističe skriveni potencijal AI-a da nenamerno zamagli granice između mašinske i ljudske interakcije, piše Tech Radar.
Nema komentara 😞
Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!
Pridruži se diskusiji