Veliki šamar Apple ambicijama da svoju veštačku inteligenciju trenira tuđim podacima, glavni partneri odbijaju učešće

Da li se Apple zamah u razvoju veštačke inteligencije suočava sa zastojem? Sve veći broj medijskih kuća i društvenih platformi kaže "ne" ovom tehnološkom gigantu i njegovim pretraživačima gladnim dragocenih podataka

Veliki šamar Apple ambicijama da svoju veštačku inteligenciju trenira tuđim podacima, glavni partneri odbijaju učešće

Decenijama su digitalni botovi tiho prikupljali informacije s interneta, snabdevajući njima sve, od pretraživača do AI modela. Međutim, kako veštačka inteligencija postaje sve moćnija, ulog se povećava. Sada izdavači povlače crtu, zahtevajući kontrolu nad svojim sadržajem i izazivajući Apple-ove ambicije da učini svoju AI najmoćnijom do sada.

Apple pretraživač web podataka, Applebot, prvobitno je bio dizajniran da pokreće funkcije poput Siri i Spotlight-a. Međutim, nedavno je preuzeo još jednu veliku ulogu: prikupljanje podataka za obuku Apple-ovih osnovnih AI modela, poznatih kao Apple Intelligence. Ovi podaci uključuju tekst, slike i drugi sadržaj.

Kako bi udovoljio kreatorima sadržaja, Apple je uveo Applebot-Extended, alat koji omogućava vlasnicima web-sajtova da isključe svoj sadržaj iz procesa obuke AI modela. I dok ova opcija definitivno postoji, mnogi izdavači web sadržaja se trude da je što bolje iskoriste. Ažuriranjem svojih robots.txt datoteka, oni mogu blokirati Applebot (i druge pretraživače) da pristupe njihovom sadržaju.

Šta je Robots.txt?

Robots.txt je datoteka koju vlasnici web-sajtova koriste kako bi kontrolisali kojim botovima je dozvoljen pristup njihovom sadržaju. Sve više je koriste da blokiraju AI botove od “struganja” dragocenih podataka sa njihovih sajtova za potrebe obuke modela veštačke inteligencije. To je zbog zabrinutosti oko autorskih prava i potencijalne zloupotrebe njihovog sadržaja.

Prijavi se na nedeljni Benchmark newsletter
Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Dok je robots.txt relativno jednostavan alat, postao je složeniji u doba veštačke inteligencije. S brzim pojavljivanjem novih AI agenata, web-sajtovima je postao pravi izazov posao oko redovnog ažuriranja liste blokiranja. Kao rezultat toga, mnogi se okreću uslugama koje automatski ažuriraju njihove robots.txt datoteke.

Otpor

Pošto su robots.txt datoteke javno dostupne, svako može videti koje strane odbijaju Apple-ov trening veštačke inteligencije, što je upravo ono što je Wired uradio.

Ispostavilo se da su neki medijski velikani, poput The New York Times-a, otvoreno kritikovali Apple-ov pristup. List, koji tuži OpenAI zbog kršenja autorskih prava, tvrdi da izdavači ne bi trebalo da sami preduzimaju akciju blokiranja. Umesto toga, trebalo bi da se zahteva dozvola pre nego što web pretraživači dobiju pristup medijskom sadržaju.

Drugi popularni sajtovi koji su se blokirali Apple su: Instagram, Facebook, Tumblr, Craigslist, The Financial Times, The Atlantic, Vox Media, USA Today mreža i WIRED-ova matičnu kompanija, Condé Nast. Šta će biti dalje? Da li će Apple biti prisiljen da preispita svoju AI strategiju? Ili će pronaći način da udovolji izdavačima i nastavi svoje ambicije vođene prikupljanjem podataka? Borba za kontrolu nad digitalnim rudnikom zlata na internetu se definitivno rasplamsava, prenosi Phone Arena.

Ostani u toku

Prijavi se na newsletter listu i jednom nedeljno cemo ti poslati email sa najnovijim testovima i vestima iz sveta tehnologije.

Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Komentari (0)

Nema komentara 😞

Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!

Pridruži se diskusiji
Možda vam se svidi