ChatGPT će obeležavati slike koje pravi DALL-E3 AI model da bi se borio protiv dezinformacija

OpenAI je odlučio da uključi metapodatke o poreklu slika koje pravi DALL-E3 AI model, a ChatGPT će obeležavati slike kako bi se borio protiv dezinformacija

ChatGPT će obeležavati slike koje pravi DALL-E3 AI model da bi se borio protiv dezinformacija

Tvorac četbota veštačke inteligencija (AI) ChatGPT, kompanija OpenAI odlučila je da pokrene strategiju borbe protiv dezinformacija, a doprineće tako što će od sada u slike koje generiše AI uključiti metapodatke o njihovom poreklu. U prevodu, ChatGPT će obeležavati slike koje generiše veštačka inteligencija i DALL-E3 AI model koji je implementiran u četbota, tako da u metapodacima tih slika bude naznačeno da su one AI generisane.

U doba kada prevaranti koriste generativnu AI za prevare ili narušavanje reputacije, tehnološke kompanije razvijaju metode koje će pomoći korisnicima da verifikuju sadržaj – barem što se tiče statičnih slika, za početak. Jedna od njih je i kompanija OpenAI, a pomenuta najava o metapodacima odnosiće se kako na veb verziju ChatGPT bota, tako i na verziju za mobilne telefone, što će početi da se primenjuje do 12. februara.

Metapodaci prate otvoreni standard C2PA (Coalition for Content Provenance and Authenticity), pa kada jedna takva slika bude otpremljena na alat za proveru autentičnosti sadržaja, moći ćete da pratite njeno poreklo. Na primer, slika generisana pomoću ChatGPT bota će pokazati početni manifest metapodataka koji ukazuje na njeno poreklo sa DALL-E 3 API-ja, a zatim i drugu grupu metapodataka koja pokazuje da se ona pojavila u ChatGPT aplikaciji.

Iako postoji sofisticirana kriptografska tehnologija iza standarda C2PA, ovaj metod verifikacije funkcioniše samo kada su metapodaci netaknuti. Alat nije od koristi ako otpremite AI-generisanu sliku bez metapodataka – što je slučaj sa bilo kojom slikom ekrana ili otpremljenom slikom na društvenim mrežama. Očekivano, trenutni uzorci slika na zvaničnoj DALL-E 3 stranici takođe su prazni. Na svojoj stranici sa često postavljanim pitanjima, kompanija OpenAI priznaje da ovo nije univerzalno rešenje za suočavanje sa ratom dezinformacija, ali veruje da je ključ u podsticanju korisnika da aktivno traže takve signale.

Dok je najnoviji napor kompanije OpenAI za suzbijanje lažnog sadržaja trenutno ograničen na statične slike, Google DeepMind alat već ima SynthID za digitalno obeležavanje kako slika, tako i audio sadržaja generisanog pomoću veštačke inteligencije. U međuvremenu, kompanija Meta takođe testira nevidljivi vodeni žig za obeležavanje slika putem svog AI generatora slika, što može biti manje podložno manipulaciji.

Ostani u toku

Prijavi se na newsletter listu i jednom nedeljno cemo ti poslati email sa najnovijim testovima i vestima iz sveta tehnologije.

Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Komentari (0)

Nema komentara 😞

Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!

Pridruži se diskusiji
Možda vam se svidi