Nedavno istraživanje koje je sprovela kompanija Google DeepMind sugeriše da bi veštačka opšta inteligencija (AGI), oblik AI sa sposobnostima sličnim ljudskim, mogla da se pojavi već do 2030. godine.
U radu se razmatraju različite potencijalne opasnosti koje bi AGI mogla doneti, uključujući mogućnost da takva tehnologija “trajno uništi čovečanstvo.” Iako studija ne opisuje specifične načine na koje bi AGI mogla izazvati izumiranje ljudi, ona podiže ozbiljnu zabrinutost zbog rizika koje bi ova tehnologija mogla predstavljati.
Autori rada naglašavaju da odluke o tome da li je potencijalna šteta “ozbiljna” ne treba da se donosi isključivo od strane kompanija kao što je Google DeepMind, već da bi društvo u celini trebalo da ima ključnu ulogu u tome, vođeno zajedničkim rizicima i razumevanjem moguće štete.
Četiri glavne kategorije rizika od AGI:
Rad kategorizuje rizike povezane sa AGI u četiri glavne oblasti: zloupotreba, neusaglašenost, greške i strukturalni rizici. Među njima, zloupotreba se ističe kao naročito velika opasnost – situacija u kojoj pojedinci ili grupe mogu namerno koristiti AGI za nanošenje štete drugima. Google DeepMind stavlja poseban akcenat na prevenciju koja direktno adresira ovaj potencijal za zloupotrebu.
Ovi rizici nisu predstavljeni kao hipotetički ili daleki, već kao konkretne mogućnosti koje bi se mogle ostvariti u bliskoj budućnosti i koje zahtevaju hitnu reakciju od strane razvojnih AI timova, regulatora i globalnih institucija.
Jezik u radu jasno pokazuje da ozbiljna šteta, uključujući postojanje egzistencijalnih pretnji, spada u realne ishodne mogućnosti ako se razvoj AGI nastavi bez adekvatnog nadzora.
Globalna koordinacija za bezbednost AGI:
Demis Hassabis, CEO DeepMind-a, ističe da za uspešan dalji razvoj AGI-a, čovečanstvo treba da stvori globalne mehanizme koordinacije i bezbednosne mere. On predlaže uspostavljanje “CERN-a za AGI,” centralne međunarodne istraživačke inicijative koja bi se bavila bezbednim napredovanjem veštačke opšte inteligencije. Hassabis takođe sugeriše da bi trebalo da postoji organizacija poput Međunarodne agencije za atomsku energiju (IAEA) koja bi nadgledala opasne projekte, kao i “tehnički UN” koji bi imao zadatak da upravlja primenom AGI sistema na globalnom nivou.
Razlika između AGI i tradicionalne AI:
Za razliku od tradicionalne AI koja je dizajnirana za specifične zadatke, AGI je zamišljena da oponaša fleksibilnost ljudske inteligencije. AGI bi imala sposobnost da razume, uči i rešava probleme u različitim oblastima bez ograničenja na određenu funkciju. U suštini, AGI bi bila mašina koja bi se prilagodila novim okruženjima i ciljevima na isti način kao što to rade ljudi.
Ova razlika je u srcu optimizma, ali i zabrinutosti koja okružuje AGI. Iako obećava transformativne koristi, njena svestranost i autonomija unose nepredvidive elemente koje trenutni bezbednosni mehanizmi možda nisu u mogućnosti da obuhvate.
Kao što rad naglašava, potencijal od “ozbiljne štete” čini od suštinskog značaja da se AGI razvoju pristupi sa velikim oprezom i koordiniranim globalnim odgovorom, prenosi IDR.
Nema komentara 😞
Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!
Pridruži se diskusiji