Sistem glasovne autentifikacije, koji kompanijama omogućavaju proveru identiteta svojih klijenata putem “glasovnog otiska”, sve se češće koriste u oblastima poput daljinskog bankarstva, pozivnih centara i drugih, gde je bezbednost od ključnog značaja. Međutim, nova studija sugeriše da ovi sistemi nisu preterano bezbedni, piše TechXplore.
Andrej Kasis, kandidat za doktorsku disertaciju iz oblasti računarske bezbednosti i privatnosti na Univerzitetu u Vaterlou i glavni autor studije, objasnio je proces glasovne autentifikacije. Prilikom registracije u sistem glasovne autentifikacije, od korisnika se traži da ponove određenu frazu, a sistem na osnovu te fraze izvlači jedinstveni glasovni otisak koji čuva na serveru za buduće provere.
Kada je počela upotreba glasovnih otisaka, zlonamerni akteri su brzo shvatili da mogu da koriste softver da naprave takozvane deepfake snimke, kako bi napravili uverljive kopije glasa svoje mete, koristeći svega pet minuta snimljenog audio materijala. Kao odgovor na to, developeri su uveli mere zaštite koje mogu proveriti da li je uzorak govora kreiran od strane čoveka ili mašine.
Naučnici sa Univerziteta u Vaterlou su, ipak, razvili metodu koja može izbeći ove mere zaštite i uspešno prevariti većinu sistema glasovne autentifikacije nakon samo šest pokušaja. Identifikovali su indikatore u deepfake audio zapisima koji pokazuju da je reč o računarski generisanom materijalu, a potom su napravili program koji uklanja ove indikatore, stoga nije bilo moguće razlikovati lažan i pravi glas.
U skorašnjem testiranju protiv Amazonovog sistema glasovne autentifikacije, Amazon Connect, postigli su stopu uspeha od 10% za napad koji traje četiri sekunde, a ta stopa je porasla na preko 40% za manje od 30 sekundi. Kada su ciljali na neke od manje sofisticiranih sistema glasovne autentifikacije, postigli su stopu uspeha do 99% nakon samo šest pokušaja.
Kasis upozorava da iako je glasovna autentifikacija bolja od nepostojanja dodatnih mera sigurnosti, postojeće mere koje treba da spreče lažiranje glasa su kritično neadekvatne.
Nema komentara 😞
Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!
Pridruži se diskusiji