Google okuplja tehnološke gigante u koaliciji za bezbedan AI

Coalition for Secure AI (CoSAI) okuplja tehnološke gigante poput Google-a, Amazon-a, Microsoft-a i NVIDIA-e radi unapređenja sigurnosnih mera za AI

Google okuplja tehnološke gigante u koaliciji za bezbedan AI

Protekle dve godine tehnološkog napretka zasenjene su uvođenjem AI u mejnstrim. OpenAI-ov ChatGPT je očigledno bio katalizator u AI trci, primoravajući gigante poput Google-a, Microsoft-a, Apple-a, Meta-e, Samsung-a i mnogih drugih da pokušaju da ga sustignu.

Brzi razvoj AI izaziva zabrinutost. Prošle godine, nekoliko javnih ličnosti i AI istraživača napisalo je otvoreno pismo globalnim AI laboratorijama tražeći da se zaustavi razvoj velikih AI sistema, citirajući “duboke rizike po društvo i čovečanstvo”, što nije imalo velikog efekta.

Prepoznajući kritičnu potrebu za snažnim merama oko AI i njegovog razvoja, Google je prošle godine uveo Secure AI Framework (SAIF). Nadovezujući se na to, tehnološki gigant sada uvodi novu koaliciju sa svim velikim igračima.

Na Aspen Security Forumu danas, u četvrtak, 18. jula, Google je zvanično predstavio Coalition for Secure AI (CoSAI), navodeći da su tokom protekle godine radili na okupljanju tima kako bi “unapredili sveobuhvatne mere sigurnosti za rešavanje jedinstvenih rizika koje AI donosi,” kako kratkoročnih (onih koji se javljaju u realnom vremenu) tako i dugoročnih (onih koji se tek naziru).

Prijavi se na nedeljni Benchmark newsletter
Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Osnivači CoSAI-a uključuju Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal i Wiz. Google je detaljno opisao koaliciju i njene planove u blog postu, a postoji i posvećen sajt za CoSAI.

Google koalicija se bavi rizicima u vezi sa bezbednošću AI tehnologija

U svom blog postu, Google je spomenuo mnogo tehničkog žargona, poput fokusa CoSAI-a na “Sigurnost lanca snabdevanja softverom za AI sisteme,” što će u suštini osigurati da AI kod bude građen korišćenjem sigurnog i pouzdanog softvera, pratiti kako se AI softver razvija i identifikovati probleme rano.

Koalicija takođe ima za cilj kreiranje zaštitnih mera ili “defender’s framework” sa alatima za identifikaciju i borbu protiv AI pretnji kako se pojave. “Ovaj radni tok će razviti bezbednosni okvir kako bi pomogao braniteljima da identifikuju investicije i tehnike ublažavanja za rešavanje sigurnosnog uticaja upotrebe AI. Okvir će skalirati strategije sa pojavom ofanzivnih sajber bezbednosnih mogućnosti u AI modelima,” stoji u blog postu.

Na kraju, CoSAI namerava da kreira pravilnik koji definiše kako razvijati AI i osigurati njegovu sigurnu upotrebu, sa kontrolnim listama i tablicama za “vođenje implementacija u procenama spremnosti.”

Napori CoSAI-a uglavnom su usmereni na sigurnosni aspekt AI. Dok je njihova inicijativa pohvalna i neophodna, mogla bi biti i suvišna. Ranije formirane organizacije poput Frontier Model Forum-a i Partnership on AI već imaju uloge koje se preklapaju sa planovima CoSAI-a.

Pored toga, CoSAI uključuje sve velike igrače, što može biti mač sa dve oštrice. Koalicija svih velikih igrača donekle pomaže cilju, s obzirom na to da neće nedostajati resursa potrebnih za sprovođenje planova. Međutim, to bi moglo dovesti do pitanja o pristrasnosti, gde CoSAI favorizuje svoje članove i štiti sopstvene AI interese. Koalicija može minimizirati pitanja o pristrasnosti tako što će biti transparentna u vezi sa svojim odlukama, ali ćemo morati da sačekamo i vidimo kako će se stvari razvijati, prenosi Android Police.

Ostani u toku

Prijavi se na newsletter listu i jednom nedeljno cemo ti poslati email sa najnovijim testovima i vestima iz sveta tehnologije.

Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Komentari (0)

Nema komentara 😞

Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!

Pridruži se diskusiji
Možda vam se svidi