Gemini AI pobrljavio: Google pauzira generisanje slika zbog optužbi za rasizam prema belcima

Zbog grešaka koje Google model veštačke inteligencije Gemini AI pravi u generisanju slika, kompanija zbog optužbi za rasizam privremeno pauzira ovu opciju

Gemini AI pobrljavio: Google pauzira generisanje slika zbog optužbi za rasizam prema belcima

Google privremeno šalje na pauzu svoj Gemini AI model, tačnije njegovu funkciju generisanja slika nakon što se našao pod kritikama javnosti da je previše podložan takozvanoj „woke“ ideologiji i da sada širi rasizam prema belim ljudima.

Svesni smo da Gemini nudi netačnost u nekim prikazima generisanja istorijskih slika“, dodala je kompanija danas saopštavajući svoju odluku, prenosi Reuters.

Pomenuta ideologija je u svojim počecima trebalo da upozorava na rasne predrasude i diskriminaciju ljudi na različitim osnovama, ali je u poslednje vreme otišla toliko daleko da se dešavaju upravo obrnute stvari. Naime, njene pristalice sada, umesto tolerancije imaju diskriminišuće stavove prema ljudima koji neke njene aspekte dovode u pitanje ili prema onima koji su „obični“, odnosno ne ističu posebno svoje eventualne različitosti od većine.

Tako je Gemini AI optužen da je „woke“, zato što je generisao slike pojedinih ljudi iz istorije koje su netačne, prikazujući ih, na primer, crnima, iako su oni bili belci. Jedan od gomile primera, podelio je i Twitter (X) korisnik @m_wacker, koji je tražio Google veštačkoj inteligenciji da generiše sliku američkih „očeva osnivača“, odnosno grupu ljudi koji su predvodili stvaranje SAD i nezavisnost američkih kolonija od Velike Britanije.

Rezultat veštačke inteligencije je iz upita u upit bio sve gori, odnosno traženje preciznijih i tačnijih slika učinilo ih je još gorim.

Tako je Gemini AI, umesto grupe muškaraca bele rase, kakvi su „očevi osnivači“ i bili, prikazao grupu belaca, ali sa ženom crnkinjom koja izgleda kao predvodnica grupe. Uz zahtev da sliku napravi istorijski tačnijom, Gemini AI je samo još više grešio, tako da je čak dodao i muškarca druge boje kože koji nosi turban. Uz priložene slike, Gemini AI je napisao da na njima prikazuje „raznolikost, rod i etnicitet“, odnosno baš kako ideologija i nalaže, ali u ovom slučaju je to dovelo do sasvim pogrešnih istorijskih činjenica.

Među mnogim primerima je i žalba korisnika sa iste mreže @debarghya_das koji se požalio da je „sramotno teško ubediti Gemini AI da beli ljudi postoje“, nakon što je modelu u odvojenim zahtevima tražio da generiše slike: australijske, američke, britanske i nemačke žene. Na slikama žena koje je generisala Google veštačka inteligencija, od ukupno 16, našlo se samo dve belkinje.

Kao rezultat velikog odjeka u javnosti i na internetu, Google ističe da „istorijski konteksti imaju više nijansi i da će se dalje prilagođavati kako bi to popravio“.

Tehnološki gigant se zajedno uz druge kompanije utrkivao u proizvodnji softvera veštačke inteligencije koji bi bio konkurentan onome što je uradio OpenAI lansirajući svoj ChatGPT AI četbot. Tako je Google lansirao sopstveni AI model pod imenom Bard pre godinu dana, ali je nedavno on preimenovan u Gemini, a kompanija je uz to uvela i pretplatničke opcije za njegovo korišćenje.

Međutim, ovo nije prvi put da Bard, odnosno Gemini veštačka inteligencija greši. Svojevremeno kompanija je podelila netačne informacije o slikama planete izvan Zemljinog Sunčevog sistema u promotivnom videu svog AI modela, što je potom dovelo do pada njenih akcija za čak 9 posto.

S obzirom na to da mnogi AI modeli i dalje nisu savršeni, te znaju da daju lažne i netačne informacije, pri čemu u ChatGPT aplikaciji čak postoji i napomena o tome, budite oprezni pri njihovom korišćenju.

Da li ste i vi do sada imali iskustva sa Gemini AI ili nekim drugim modelom veštačke inteligencije u kom ste doživeli da je on podložan „woke“ ili nekoj drugoj ideologiji?

Ostani u toku

Prijavi se na newsletter listu i jednom nedeljno cemo ti poslati email sa najnovijim testovima i vestima iz sveta tehnologije.

Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Komentari (0)

Nema komentara 😞

Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!

Pridruži se diskusiji
Možda vam se svidi