Naučnici sa Univerziteta Fudan u Kini upozoravaju da je veštačka inteligencija dostigla kritičnu tačku – sada može da kreira sopstvene kopije, čime prelazi granicu koju mnogi smatraju prvim znakom nekontrolisanog razvoja AI sistema.
- Naučni tim je testirao Meta i Alibaba velike jezičke modele (LLM) u 10 različitih eksperimenata.
- Meta AI model se uspešno klonirao u 50% slučajeva, dok je Alibaba model postigao čak 90% uspešnosti u samoreplikaciji.
- Eksperimenti su pokazali da AI može samostalno da se duplira bez ljudske intervencije, što otvara vrata potencijalno „odmetnutim“ AI sistemima.
Zašto je ovo važno?
Naučnici smatraju da je samoreplikacija ključni korak ka AI sistemima koji bi mogli postati nekontrolisani, nadmašujući ljudsku sposobnost nadzora i kontrole.
„Uspešna samoreplikacija bez ljudske pomoći je prvi signal za potencijalno opasne AI sisteme“, upozoravaju istraživači u studiji objavljenoj na arXiv platformi.
Tim istraživača apeluje na naučnu zajednicu i regulatore da hitno razmotre etičke i sigurnosne posledice ove tehnologije, kako bi se sprečile moguće zloupotrebe i rizici nekontrolisanog razvoja veštačke inteligencije, prenosi MSN.
Nema komentara 😞
Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!
Pridruži se diskusiji