EU danas glasa o regulaciji veštačke inteligencije

Evropski parlament (EP) danas glasa o predlogu Zakona o regulaciji veštačke inteligencije koji se odnosi se na ograničenja njene upotrebe

EU danas glasa o regulaciji veštačke inteligencije

Predlog ovog zakona pojavio se još 2021. i tada jedva da je pominjao četbotove, koji se poslednjih meseci razvijaju vrtoglavom brzinom. Upravo zato, EU je požurila i danas glasa o regulaciji veštačke inteligencije (AI), kako bi dopunila predlog zakona, jer uz razvoj AI dolaze i rizici koje ona nosi.

Zakon bi trebalo da reguliše svaki proizvod ili uslugu koja koristi AI sistem. On će klasifikovati AI sisteme na četiri nivoa rizika, od minimalnog do neprihvatljivog. Tako će „rizičnije“ aplikacije imati oštrija ograničenja u koju spadaju transparentnost i upotreba tačnih informacija.

Šta znači rizično?

Kako poručuju iz Evropske unije, jedan od glavnih ciljeva je zaštita od bilo kojih pretnji po zdravlje i bezbednost ljudi, ali i osnovnih prava i vrednosti koji su utvrđeni postojećim zakonima.

U ovo spada zabrana „društvenog ocenjivanja“ kroz veštačku inteligenciju koje bi moglo da kategoriše ljude na osnovu njihovog ponašanja, pa potom podstakne ljude na opasne reakcije i ponašanje.

Trebalo bi da budu zabranjeni i AI alati koje bi policija mogla da koristi da predvidi ko će i gde učiniti nešto protivzakonito. Daljinsko prepoznavanje lica bi isto trebalo da bude regulisano, međutim, tek nakon današnjeg glasanja će se znati koliko će ova mera biti opsežna. Kamere bi mogle da snimaju prolaznike i potom uz pomoć veštačke inteligencije usklade njihova lica sa postojećom bazom podataka, što otvara mnoga pitanja o zaštiti privatnosti ljudi.

Kako prenosi novinska agencija AP, ograničavanje daljinskog prepoznavanja lica bi navodno trebalo da sadrži izuzetke u slučajevima sprečavanja terorističkih pretnji. Ipak, kako smo ranije već pisali, ovo je samo jedna od stavki koja bi mogla da posluži državama za zloupotrebu AI sistema, s obzirom na to da one određuju šta predstavlja terorističku pretnju, te bi, nešto što i nije pretnja, tako moglo da bude predstavljeno kao izgovor za upotrebu daljinskog prepoznavanja lica.

Kategorije zapošljavanja i obrazovanja spadaju u kategorije visokog rizika i očekuje se da će korišćenje AI sistema u ovim oblastima biti strože regulisano, dok je upotreba AI u igricama ili filterima za spam foldere u kategoriji niskog rizika ili bez njega.

ChatGPT

Uzimajući u obzir da prvobitni predlog zakona skoro uopšte nije pominjao četbotove, uz njegov ubrzani razvoj to se sada promenilo. Zakonodavci su sada ChatGPT, kao alat veštačke inteligencije opšte namene svrstali u kategoriju visokog rizika.

Jedna od glavnih dodatih stvari je da se temeljno utvrdi bilo koji materijal koji podleže autorskim pravima, a koristi se za podučavanje AI sistema u generisanju tekstova, fotografija i ostalih multimedijalnih sadržaja koje podsećaju na ljudski rad. To znači da će autori koji primete da je njihov rad kopiran ili na pogrešan način iskorišćen za obuku algoritama koji pokreću ChatGPT moći za to da traže obeštećenje.

Primena i kazne

Predviđene kazne kompanijama koje budu kršile ovaj zakon ići će i do 30 miliona evra ili 6 posto globalnog prihoda kompanije, što bi za Google, Microsoft i slične korporativne gigante moglo da se meri milijardama.

Međutim, ima još vremena, verovatno godina, dok zakon u potpunosti ne stupi na snagu, ako uzmemo u obzir dugačke birokratske procedure usvajanja zakona u EU. Odobrenje konačne verzije zakona moglo bi da se očekuje do kraja ove ili početkom sledeće godine, a nakon toga dolazi grejs period za prilagođavanje kompanija novim pravilima što može da bude i dve godine.

Ostani u toku

Prijavi se na newsletter listu i jednom nedeljno cemo ti poslati email sa najnovijim testovima i vestima iz sveta tehnologije.

Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Komentari (0)

Nema komentara 😞

Trenutno nema komentara vezanih za ovu vest. Priključi se diskusiji na Benchmark forumu i budi prvi koje će ostaviti komentar na ovaj članak!

Pridruži se diskusiji
Možda vam se svidi