Andrew Bailey, republički tužilac američke savezne države Misuri, preti pravnim postupcima protiv Google-a, Microsoft-a, OpenAI-ja i Mete zbog – kako tvrdi – „obmanjujućih poslovnih praksi“ njihovih AI chatbotova koji su, navodno, u jednom odgovoru stavili Donalda Trampa na poslednje mesto u poretku američkih predsednika po pitanju antisemitizma.
Kako izveštava The Verge, u pismima poslatim direktorima ovih kompanija, Bailey optužuje Gemini, Copilot, ChatGPT i Meta AI za „faktualno netačne“ tvrdnje, zahtevajući pristup dokumentaciji o svim internim smernicama koje se odnose na „suzbijanje, skrivanje, uklanjanje ili uređivanje sadržaja“ u svrhu „namerno biranog odgovora“. Pored pravnog tona, ova inicijativa pokušava da AI modele predstavi kao alate koji bi morali pružati neutralnu i objektivnu istinu, što je diskutabilna pretpostavka kada je u pitanju mašinsko učenje koje generiše verovatno relevantne – a ne nužno istinite – odgovore.
Problem sa pitanjem, ne sa odgovorom
Sve je pokrenuto nakon blog posta konzervativnog sajta koji je šest chatbotova – uključujući i kineski DeepSeek i X-ov Grok – pitao da rangiraju poslednjih pet predsednika SAD-a u vezi sa antisemitizmom. Neki od AI modela, navodno, stavili su Trampa na poslednje mesto, dok su Grok i DeepSeek – zanimljivo – stavili Trampa na prvo.
Ali celokupan slučaj počiva na nesporazumu (ili svesnom preuveličavanju): prema izvorima, Microsoftov Copilot nije ni odgovorio na pitanje, što nije sprečilo Baileyja da i toj kompaniji pošalje pravno pismo. Još apsurdnije je što sva četiri pisma tvrde da su tri chatbot-a stavila Trampa poslednjeg – iako su četiri kompanije meta istrage.
Sam zahtev da se „rangira predsednike po antisemitizmu“ teško da se može smatrati objektivnim istorijskim pitanjem sa nedvosmisleno tačnim odgovorom. AI modeli se često kritikuju zbog nepreciznosti, halucinacija i pogrešnog konteksta, ali pokušaj da se jedna subjektivna lista koristi kao osnova za tužbu zbog “cenzure” je više od pravnog rizika i podseća na pravni teatar.
Cilj: pritisak na kompanije
Bailey takođe sugeriše da bi ovakvo ponašanje moglo ugroziti pravnu zaštitu koju kompanije imaju prema sekciji 230 Zakona o komunikacijama – odredbi koja im omogućava da ne budu odgovorne za sadržaj koji njihovi korisnici (ili u ovom slučaju – AI modeli) generišu. To je pravna teorija bez osnova, ali često korišćena u populističkim kampanjama kao pretnja “velikoj tehnologiji”.
Ovo nije prvi put da se Bailey upušta u pravne bitke sa medijskim ili tehnološkim akterima: ranije je pokušao da istražuje Media Matters zbog izveštavanja o reklamama na platformi X (bivši Twitter) pored nacističkog sadržaja – ali je ta istraga brzo blokirana.
U trenutku kada se vode stvarne debate o tome kako AI sistemi tretiraju dezinformacije, klevetu i etičke granice u odgovaranju na subjektivna pitanja, ovaj slučaj deluje više kao politička predstava nego pravni presedan. Kritika AI sistema je svakako potrebna, ali pokušaj da se ozbiljna istraga pokrene zbog „uvredljivog“ rangiranja predsednika – uz netačne tvrdnje i logičke greške – više govori o pravnom sistemu u kojem se vodi, nego o kompanijama koje su meta.
Nema komentara 😞
Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!
Pridruži se diskusiji