Huangove tvrdnje o kraju ere programiranja možda i ne budu ostvarene

Pojedini IT stručnjaci demantuju Huangove tvrdnje o kraju ere programiranja tvrdeći da veštačka inteligencija neće direktno zameniti ljudske programere

Huangove tvrdnje o kraju ere programiranja možda i ne budu ostvarene

Nakon što je Džensen Huang, izvršni direktor jedne od najmoćnijih tehnoloških kompanija sveta izneo tvrdnje o kraju ere programiranja, uzdrmao je mnoge pripadnike IT industrije. Neki od njih trudili su se da objasne da on nije u pravu, ili bar da nije sasvim u pravu. Jedan od takvih je i Piter Šnajder, radnik finske softverske kompanije QT Group koji kaže da veštačka inteligencija (AI) neće direktno zameniti ljudske programere već bi mogla da ih transformiše u neku vrstu arhitekti.

On kaže da generativna AI verovatno neće zameniti programere, ali čovek koji koristi generativnu veštačku inteligenciju bi već mogao. Međutim, sa toliko mnogo velikih jezičkih modela (LLM) koji su osnova funkcionisanja AI, u ponudi danas, put do tog trenutka mogao bi da varira.

Ponuda LLM AI modela toliko raste, da pojedine tehnološke kompanije lansiraju po nekoliko različitih modela namenjenih različitim primenama. Ipak, kako tvrdi Šnajder, oni postaju i manji.

Za programersku zajednicu je relevantno brzo razvijanje AI modela posebno prilagođenih za generisanje koda, kao što je Meta nedavno objavila Code Llama 70B. Prirodno, AI je preplašio više od nekoliko programera. Skoro polovina njih u jednoj nedavnoj studiji izrazilo je strahove o uspehu u svetu sa njihovim trenutnim tehničkim veštinama, piše Šnajder za TheNewStack.

Međutim, on se pita da li je strah zaista opravdan. Izveštaji o kraju ere programiranja su ipak u jednoj meri preterani, kaže on i navodi da ljudi možda imaju više vremena da se pripreme za svet kojim dominira AI nego što shvataju.

Umesto straha od Huangove tvrdnje, programeri treba da se prilagode

Zapravo, pravo pitanje koje bi programer trebao da postavi nije „Da li će AI uzeti moj posao?“, već „Koji LLM da koristim?“

S obzirom na to da nisu svi LLM modeli jednaki, pa je, kako on ističe, vredno istražiti zašto se pojavljuju manji jezički modeli. Najmoćniji glavni AI modeli kao što su GPT-4 i Claude 2 i dalje jedva mogu da reše pet posto stvarnih problema na GitHub-u. Tu je i ChatGPT bot koji i dalje mnogo halucinira dajući lažne promenljive ili čak koncepte koji su zastareli jednu deceniju.

Uz to oni često vode korisnike ka previše nasumičnim rezultatima, a na štetu procesorske snage. No, veća briga kod veštačke inteligencije specijalno namenjene za programiranje je poverenje. Istorijski gledano, mejnstrim AI modeli su neselektivno „usisali“ sve sa interneta poput velikog digitalnog usisivača, bez mnogo transparentnosti oko toga odakle nabavljaju podatke. Ukoliko čak samo jedan procenat koda koji kompanija isporučuje sadrži kod druge organizacije zaštićen autorskim pravima, stvara se veliki problem.

Šnajder takođe tvrdi da veliki jezički modeli nisu dovoljno specijalizovani za programiranje i da je zbog toga, između ostalog, industriji potrebno više malih LLM-ova specijalizovanih konkretno za to. Kao što je neka od ažuriranih verzija Meta Code Llama 70b modela. Međutim, ono što je još bolje od toga su u teoriji AI modeli specijalizovani za određene programske jezike kao što je code Llama Phyton, specijalna Llama verzija namenjena Phyton programskom jeziku, a on upravo može pomoći industriji.

Manji modeli tako mogu da pomažu programerima u specifičnom programskom jeziku, pri čemu nije potrebno da veći modeli budu prepuni znanja o nekom drugom jeziku ili sasvim drugoj branši, što podrazumeva i određenu bojazan da nisu dovoljno specijalizovani. Upravo iz te nedovoljne specijalizacije i ide teorija o tome da Huang možda nije u pravu, iako u ovom momentu to zaista ne deluje tako, posebno kada to uvereno tvrdi čovek koji se nalazi na čelu jedne od najmoćnijih tehnoloških kompanija na svetu.

Zbog toga Šnajder kaže da „što je manji skup podataka, lakše je održavati stvari relevantnim, jeftinije je za obuku i manja je verovatnoća da ćete namerno ukrasti nečije podatke zaštićene autorskim pravima“.

Teze o kraju ere programiranja možda se završe kao i one o Fukujaminom „kraju istorije“

Uzevši u obzir sve ove informacije, Šnajder oponira Haungu tvrdeći da AI neće zameniti programere osim ukoliko tačnost njenih odgovora ne poraste do prihvatljive granice greške što je 98 do 100 procenata.

No, on u tekstu dalje, radi argumentacije pretpostavlja i da AI dositgne granicu ove greške. Kaže da je takva hipoteza u osnovi pogrešna, posebno ukoliko u obzir uzmemo princip „četiri oka“. To je jedan od najvažnijih mehanizama interne kontrole rizika, koji nalaže da svaka aktivnost od materijalnog rizika, kao što je isporuka softvera, mora da bude proverena od strane drugog, nezavisnog i kompetentnog lica. Osim ukoliko veštačka inteligencija nije redefinisana kao nezavistan i kompetentan oblik života, onda ne bi trebalo da se kvalifikuje kao jedan par očiju u toj jednačini, bar ne u skorije vreme.

Ukoliko postoji budućnost u kojoj AI postaje sposobna za razvoj od početka do kraja i izgradnju interfejsa između ljudi i mašina, to nije u bliskoj budućnosti, te nema potrebe za brigu zaključuje Šnajder. U poređenju sa programiranjem, mnogo je teže za AI da samostalno preuzme dizajn koji se odnosi na grafičke i UI/UX tokove rada, iako to nije nemoguće.

Programiranje je dakle samo jedan deo razvoja, a ostalo je ulaganje u nešto novo, pronalaženje publike, prevođenje ideja u nešto konkretno gde ljudski faktor u ovoj industriji dolazi do izražaja. Bez obzira na to koliko AI napreduje, jedan princip za programere bi uvek trebalo da važi: tretirajte svaki kod kao da je vaš, što znači obavite pregled i nikad ne verujte veštačkoj inteligenciji slepo, zaključuje Šnajder.

Ostani u toku

Prijavi se na newsletter listu i jednom nedeljno cemo ti poslati email sa najnovijim testovima i vestima iz sveta tehnologije.

Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Možda vam se svidi