Otkako je lansiran, Gemini Live je impresivan primer kako bi konverzacijska veštačka inteligencija trebalo da zvuči: prirodno, fluidno i spremno na prekide. Međutim, do sada je patio od jednog ozbiljnog ograničenja: bio je potpuno “slep”. Za razliku od OpenAI Advanced Voice Mode-a, Gemini Live se oslanjao isključivo na glasovne komande i tekstualno znanje, bez svesti o onome što se nalazi na ekranu vašeg telefona ili ispred vaše kamere.
To će se, po svemu sudeći, uskoro promeniti. Ekipa portala Android Police, pretražujući kod najnovije beta verzije Google aplikacije (verzija 16.9.34.29), otkrila je jasne dokaze da Google u tišini priprema masivnu, vizuelnu nadogradnju za Gemini Live.
Šta donosi “Project Astra”?
Skrivene linije koda, koje je prvi primetio AssembleDebug, otkrivaju novu ikonicu kamere koja će se pojaviti u okviru Gemini Live interfejsa. Tekstualni nizovi (strings) jasno opisuju funkciju: “Live sa kamerom je uključen”, “Kamera usmerena” i “Pauziran video”.
Ovo direktno korespondira sa najavama koje je Google dao još na I/O konferenciji prošle godine, kada su demonstrirali “Project Astra”, viziju AI asistenta koji u realnom vremenu “vidi” i komentariše svet oko korisnika kroz sočivo kamere. Iako je standardni (tekstualni) Gemini već mogao da analizira otpremljene fotografije i ekran telefona, integracija ove sposobnosti direktno u Live režim predstavlja generacijski iskorak.
Zamislite da šetate gradom u inostranstvu. Umesto da slikate jelovnik, prevodite ga, pa pitate AI za preporuku, moći ćete jednostavno da usmerite kameru ka restoranu, aktivirate Gemini Live i kažete: “Vidiš li ovaj meni? Šta mi preporučuješ od lokalnih specijaliteta, a da nije previše ljuto?” AI će u realnom vremenu analizirati sliku sa kamere i odgovoriti vam glasovno, bez ikakvih međukoraka.
Ili, u kontekstu rešavanja problema: usmerite kameru ka ruteru i pitate: “Šta treba da uradim da bih ga resetovao?”
Kada ovo stiže?
Iako je kod već prisutan u aplikaciji, funkcija još uvek nije aktivna. Istorija nas uči da Google često mesecima testira ovakve mogućnosti u pozadini pre zvaničnog lansiranja. S obzirom na to da je proleće tradicionalno vreme za veće Google-ove najave (poput predstojećeg Google I/O 2026), vrlo je moguće da ćemo “vizuelni” Gemini Live videti u akciji u narednim mesecima.
Trka za ultimativnog asistenta
Ova nadogradnja je ključna za Google u borbi za dominaciju na tržištu pametnih asistenata. Dok je Apple Intelligence još uvek u ranoj fazi integracije sa Siri, a OpenAI agresivno gura svoje vizuelne modele, Google ima prednost duboke integracije u Android ekosistem. Ako uspeju da učine vizuelno prepoznavanje u Gemini Live-u brzim, preciznim i energetski efikasnim, to bi moglo redefinisati način na koji svakodnevno koristimo naše pametne telefone, prenosi Android Police.
Ja ne znam od kad je ovaj tekst i šta su to primetili novo u kodu. Znam da Gemini live nije slep, odavno. Još prošlog leta, delio sam sa njim kameru i pitao ga za neko piće, gde mi je on objasnio koje je to tačno piće.
Jako je strašno da IT portali ništa ne proveravaju. Samo štancujete tekstove kao čokoladice.
Jedino što gemini live nije mogao, dok gleda u kameru, nije imao mogućnost da sam nešto prokomentariše. NPr, ako se promeni scena, da on sam kaže: E sad vidim to i to. Ali, ako ga pitaš, on ti kaže šta vidi sad. Možda se uvodi ta mogućnost, da će moći sam da komentariše promenu okoline.
Tako ste neki dan objavili kako Gemini u Chrome-u stiže u naše područje, što je takođe netačno. Zvaničan blog kaže da on stiže samo u Kanadu, Indiju i NOvi Zeland, ali da će biti dostupan na 50 jezika, uključujući i naše jezike. Stvarno je velika razlika gde je dostupan i na kojim jezicima je dostupan. Saberite se malo, ili me zaposlite da vam pišem tekstove sa proverenim informacijama bar iz 3 izvora. Ili bar proveravajte info iz zvaničnih izvora. Stvarno nije teško, verujte.