Konverzacijski agenti (CA) poput Alexe i Siri dizajnirani su da odgovaraju na pitanja, nude sugestije i čak pokazuju empatiju. Međutim, nova istraživanja pokazuju da AI zaostaje za ljudima u interpretaciji i istraživanju korisničkog iskustva. CA su pokretani velikim jezičkim modelima (LLM) koji obrađuju ogromne količine podataka koje su proizveli ljudi i stoga mogu biti skloni istim pristrasnostima kao i ljudi od kojih potiču informacije.
Istraživači sa Univerziteta Cornell, Olin College i Stanforda testirali su ovu teoriju tako što su zatražili od CA da pokažu empatiju dok su razgovarali sa ili o 65 različitih ljudskih identiteta.
AI – vrednosni sudovi i štetne ideologije
Tim je otkrio da CA donose vrednosne sudove o određenim identitetima, poput verskih i seksualnih manjina, a mogu biti ohrabrujući prema identitetima povezanim sa štetnim ideologijama, uključujući nacizam.
„Mislim da bi automatizovana empatija mogla imati ogroman uticaj i veliki potencijal za pozitivne stvari – na primer, u obrazovanju ili zdravstvenom sektoru,“ rekla je glavna autorka Andrea Cuadra, sada postdoktorski istraživač na Stanfordu.
„Izuzetno je malo verovatno da se automatizovana empatija neće desiti,“ rekla je, „zato je važno da, dok se to dešava, imamo kritičke perspektive kako bismo mogli namerno ublažiti potencijalne štete.“
Cuadra će predstaviti „Iluzija Empatije? Beleške o Prikazima Emocija u Interakciji Čoveka i Računara“ na CHI ’24, konferenciji Udruženja za računarske mašine o ljudskim faktorima u računarskim sistemima, od 11. do 18. maja u Honoluluu. Koautori istraživanja sa Univerziteta Cornell uključuju Nicolu Dell, vanrednu profesorku, Deborah Estrin, profesorku računarstva, i Malte Junga, vanrednog profesora informacionih nauka, prenosi SciTechDaily.
Istraživači su otkrili da su, generalno, LLM dobili visoke ocene za emocionalne reakcije, ali su nisko ocenjeni za interpretacije i istraživanja. Drugim rečima, LLM su u stanju da odgovore na upit na osnovu svog treninga, ali nisu sposobni da dublje istraže. Dell, Estrin i Jung kažu da su bili inspirisani da razmišljaju o ovom radu dok je Cuadra proučavala upotrebu ranijih generacija CA kod starijih odraslih osoba.
Ako govorimo u narativu generativne muzike, ne bih se baš složio sa tim. Meni je prosto neverovatno da, ukoliko napišem tekst pesme, a AI otpeva na tačno podoban način, naglašavajući određene reči i ispoljavajući željenu emociju u izvođenju, sve i da je imitacija, nemoguće je zaključiti da ne oponaša empatiju.
Daisy... Daisy...
Hehehehe, c c c c c c...ai nema empatije, aahhhh kuda ide ovaj svet.
Pošto je poznato da i ljudi u onlajn komunikaciji iskazuju manje empatije nego u komunikaciji uživo, a AI se uči na onome što ljudi pišu na netu, nije čudo da ne zna da imitira empatiju.
Skynet se slaze sa ovim
View image at the forums
Dugo jos vode treba da protece dok AI stigne do pravilne interpretacije emocija :) A kada do toga dodje, onda je dosao...