Novo istraživanje ukazuje da AI pati od nedostatka empatije

Istraživači sa Univerziteta Cornell, Olin College i Stanforda otkrili su da konverzacijski AI agenti (CA) poput Alexe i Siri ne mogu interpretirati i istraživati korisnička iskustva kao ljudi, pokazujući pristrasnosti i vrednosne sudove

Novo istraživanje ukazuje da AI pati od nedostatka empatije

Konverzacijski agenti (CA) poput Alexe i Siri dizajnirani su da odgovaraju na pitanja, nude sugestije i čak pokazuju empatiju. Međutim, nova istraživanja pokazuju da AI zaostaje za ljudima u interpretaciji i istraživanju korisničkog iskustva. CA su pokretani velikim jezičkim modelima (LLM) koji obrađuju ogromne količine podataka koje su proizveli ljudi i stoga mogu biti skloni istim pristrasnostima kao i ljudi od kojih potiču informacije.

Istraživači sa Univerziteta Cornell, Olin College i Stanforda testirali su ovu teoriju tako što su zatražili od CA da pokažu empatiju dok su razgovarali sa ili o 65 različitih ljudskih identiteta.

AI – vrednosni sudovi i štetne ideologije

Tim je otkrio da CA donose vrednosne sudove o određenim identitetima, poput verskih i seksualnih manjina, a mogu biti ohrabrujući prema identitetima povezanim sa štetnim ideologijama, uključujući nacizam.

„Mislim da bi automatizovana empatija mogla imati ogroman uticaj i veliki potencijal za pozitivne stvari – na primer, u obrazovanju ili zdravstvenom sektoru,“ rekla je glavna autorka Andrea Cuadra, sada postdoktorski istraživač na Stanfordu.

„Izuzetno je malo verovatno da se automatizovana empatija neće desiti,“ rekla je, „zato je važno da, dok se to dešava, imamo kritičke perspektive kako bismo mogli namerno ublažiti potencijalne štete.“

Prijavi se na nedeljni Benchmark newsletter
Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Cuadra će predstaviti „Iluzija Empatije? Beleške o Prikazima Emocija u Interakciji Čoveka i Računara“ na CHI ’24, konferenciji Udruženja za računarske mašine o ljudskim faktorima u računarskim sistemima, od 11. do 18. maja u Honoluluu. Koautori istraživanja sa Univerziteta Cornell uključuju Nicolu Dell, vanrednu profesorku, Deborah Estrin, profesorku računarstva, i Malte Junga, vanrednog profesora informacionih nauka, prenosi SciTechDaily.

Istraživači su otkrili da su, generalno, LLM dobili visoke ocene za emocionalne reakcije, ali su nisko ocenjeni za interpretacije i istraživanja. Drugim rečima, LLM su u stanju da odgovore na upit na osnovu svog treninga, ali nisu sposobni da dublje istraže. Dell, Estrin i Jung kažu da su bili inspirisani da razmišljaju o ovom radu dok je Cuadra proučavala upotrebu ranijih generacija CA kod starijih odraslih osoba.

Ostani u toku

Prijavi se na newsletter listu i jednom nedeljno cemo ti poslati email sa najnovijim testovima i vestima iz sveta tehnologije.

Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Komentari (7)
  1. Ako govorimo u narativu generativne muzike, ne bih se baš složio sa tim. Meni je prosto neverovatno da, ukoliko napišem tekst pesme, a AI otpeva na tačno podoban način, naglašavajući određene reči i ispoljavajući željenu emociju u izvođenju, sve i da je imitacija, nemoguće je zaključiti da ne oponaša empatiju.

  2. Marti Misterija

    Daisy... Daisy...

  3. Ivan985

    Hehehehe, c c c c c c...ai nema empatije, aahhhh kuda ide ovaj svet.

  4. Pošto je poznato da i ljudi u onlajn komunikaciji iskazuju manje empatije nego u komunikaciji uživo, a AI se uči na onome što ljudi pišu na netu, nije čudo da ne zna da imitira empatiju.

  5. DukeLander

    Skynet se slaze sa ovim

  6. hurakura


    View image at the forums

  7. 3katana

    Dugo jos vode treba da protece dok AI stigne do pravilne interpretacije emocija :) A kada do toga dodje, onda je dosao...

Pridruži se diskusiji
Komentari su zatvoreni.
Možda vam se svidi