Vaš feed na društvenim mrežama sve je zasićeniji video snimcima koje je generisala veštačka inteligencija — često toliko uverljivim da ih je gotovo nemoguće razlikovati od stvarnih. Ipak, postoji jedan pouzdan trag koji može pomoći da razotkrijete lažnjak: loš kvalitet slike.
Kada video izgleda kao da je sniman „krompirom“
Ako vam neki video deluje mutno, zrnasto ili previše kompresovano, postoji velika šansa da nije stvaran. Profesor Hani Farid sa Univerziteta Kalifornije u Berkliju, pionir digitalne forenzike i osnivač kompanije GetReal Security, objašnjava da stručnjaci prvo analiziraju upravo taj detalj — kvalitet slike.
„To je jedno od prvih upozorenja na koje obraćamo pažnju“, kaže Farid. „Kada je video previše nejasan, to može biti pokušaj da se prikriju tragovi veštačke inteligencije.“
Iako današnji AI alati mogu da stvore izuzetno realistične i glatke snimke, mnogi kreatori namerno spuštaju rezoluciju kako bi prikrili anomalije – neprirodne pokrete, iskrivljene obrasce na odeći ili lica koja izgledaju previše „glatko“.
Viralni primeri koji su prevarili milione
U poslednjih nekoliko meseci niz AI videa postao je viralan i prevario milione gledalaca: zečevi koji skaču po trampolini, „romantični“ susret u njujorškom metrou, pa čak i propovednik koji drži antikapitalističku besedu – svi su se ispostavili kao veštačke kreacije. Zajednički imenitelj? Svi su izgledali kao snimljeni lošom kamerom.
Prema Faridu, tri faktora su ključna kada procenjujete da li je video generisan: rezolucija, kvalitet i dužina. Većina AI snimaka je kratka – obično između šest i deset sekundi – jer generisanje dužih video zapisa zahteva mnogo više resursa i povećava rizik od grešaka.
Namerno loš kvalitet kao trik
Zanimljivo je da prevaranti često namerno spuštaju kvalitet videa. „Napravim lažni video, zatim smanjim rezoluciju i dodam kompresiju koja zamagljuje detalje. Tako nestaju tragovi koji bi mogli da otkriju veštačku inteligenciju“, objašnjava Farid.
Drugim rečima, kada video izgleda kao da je snimljen starim telefonom ili sigurnosnom kamerom, to može biti svesna odluka autora — ne da bi izgledao realno, već da bi sakrio istinu.
Sledeći korak: ne verujte sopstvenim očima
Profesor Metju Stam sa Univerziteta Dreksel upozorava da ovaj savet ima rok trajanja. „Za dve godine, ovi vizuelni tragovi će gotovo nestati“, kaže on. „AI već sada može da stvara slike koje su nemoguće razlikovati od stvarnih. Ljudsko oko više nije pouzdan sudija.“
Umesto da tražimo „greške“ u slikama, stručnjaci predlažu novi pristup: proveru porekla sadržaja. Tehnološke kompanije već razvijaju standarde koji bi omogućili proveru autentičnosti fotografija i video snimaka, uključujući digitalne „otisne prste“ koji potvrđuju da je materijal stvarno snimljen kamerom, a ne generisan algoritmom.
Budućnost poverenja u digitalno doba
Digitalni istraživač Majk Kolfild ističe da će video snimci uskoro imati isti status kao tekstualni sadržaj – ne možemo im verovati samo zato što „izgledaju“ uverljivo. „Najvažniji faktor postaje poreklo – ko je objavio video, gde se pojavio i da li ga je potvrdio pouzdan izvor“, objašnjava on.
Profesor Stam zaključuje: „Ovo je možda najveći izazov informacione bezbednosti 21. veka. Ne možemo odustati – potrebno je obrazovanje, tehnologija i saradnja da bismo zaštitili istinu u digitalnom prostoru.“
U svetu gde veštačka inteligencija sve češće manipuliše slikama i videima, jedino istinsko oružje postaje – kritičko razmišljanje. Ako video izgleda suviše mutno, previše savršeno ili previše senzacionalno da bi bio istinit, zastanite na trenutak. Možda upravo gledate delo algoritma, a ne kamere, piše BBC.
Nema komentara 😞
Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!
Pridruži se diskusiji