Branko Maksimović
NVIDIA GeForce GTX280 – ASUS
Uvod
Nakon 18. novembra 2006. godine, NVIDIA je gotovo zauvek preuzela primat u high-endklasi. Tog dana je čuveni GeForce 8800 GTX, tj. G80 GPU ugledao svetlost dana, a ATI je ubrzo nakon toga obelodanio da nema nameru da pravi rešenja koja su na granici isplativosti i da će se njihov najjači akcelerator takmičiti, tj. biti pozicioniran ka slabijem G80 modelu, GeForce 8800 GTS kartici. Od tada pa do danas, čitaoci Benchmark sajta su bili u prilici da pročitaju veliki broj testova G80 baziranih akceleratora, a nedavno je objavljen i izuzetno dobro “prihvaćeni” uporedni test čak šesnaest GeForce 8800 kartica poslednje (G92) generacije. Pre njega, na sajtu je objavljen veliki broj testova GeForce 8500, 8600 i 8800 kartica, u Ultra, Ultra SLI, GTX i GTS (320 i 640MB) varijantama. To ne znači da smo svaki drugi dan objavljivali test nekog GeForce-a; kao što već većina vas vrlo dobro zna, GeForce 8800 je u svom izvornom obliku, a to znači sa istim referentnim nivoom performansi (ne vezano za to da li je baziran na G80 ili G92 grafičkom čipu), bio aktuelan preko 20 meseci, što je u IT industriji izuzetno dug period. Kao što je poznato, prvi izdanci “devete” generacije GeForce kartica – 9800 GTX i GX2 su bazirani na reviziji ovog G92 čipa i to u njegovom neizmenjenom obliku (drugi stepping-a i dizajnu štampane ploče). Samo revizije G92 procesora, memorijske, ROP i shader konfiguracije i radne učestanosti razdvajaju jeftini GeForce 8800 GS (120 evra) od akceleratora GeForce 9800 GTX, koji je do skoro predstavljao perjanicu ponude, a sada se i zvanično seli u mainstream. Dežurni kritičari su “na nož” dočekali G92 bazirane high end modele, pogotovo preglomazni GX2. Jer, razlika između starijeg i fizički većeg G80 i još uvek aktuelnog G92 procesora nije bezazlena – oba imaju 128 unified shader-a i isti broj teksturnih i render back- end particija, ali je kod G92 memorijska magistrala 256-bitna, dok je kod G80 šira za 128 bita (GPU ima dva crossbar izvoda više što rezultuje 384-bitnim bus-om). G92 je izrađen u sitnijoj, 65-nm litografiji, pa njegove streaming processor jedinice rade na višim učestanostima (oko 1800 – 2000 MHz), u odnosu na iste kod G80 čipa (1350 – 1500 MHz), što je bilo dovoljno da se kompenzuje uža memorijska magistrala.
Isto tako, G92 ima nešto savršeniji ROP i algoritme za uštedu, ali i poboljšane jedinice za teksturni menadžment. GeForce 9800 GTX stigao čak dvadeset meseci nakon modela 8800 GTX i doneo za 50% užu memorijsku magistralu (256 = 384 – 128) i 50% manje video memorije (8800 GTX je imao 768 MB) istog tipa VRAM-a. Međutim, nekoliko meseci pre isteka drugog rođendana G80 čipa, NVIDIA je pripremila pravog naslednika – GT200 GPU, koji pokreće GeForce GTX280. Kao što ste mogli da predpostavite, vodeći američki dizajner GPU-ova je uradio mali reboot u nomenklaturi. Slovni sufiks je prebačen ispred, a brojka, za sada trocifrena, prebačena je iza. Za sada nismo sigurni da li će niže klase NVIDIA označavati sa GTS 2xx ili će samo smanjivati broj (GTX 240 i GTX220 npr.), mada je ova prva varijanta izvesnija. Ono što je sigurno jeste da će i narednih nekoliko generacija biti označavano ovakvom nomenklaturom – GTX380, GTX480… GT200 je čudesno veliki GPU monstrum, koga čini 1.4 milijarde tranzistora i koji je nekoliko puta veći od Intel Penryn procesora. Došlo je vreme kada je GPU computing krenuo izvan pukih gaming okvira, upravo u trenutku kada parče silicijuma i uređaj skromnih dimenzija i potrošnje pruža količinu procesorske moći koja se izražava u TeraFLOPS-ima i koja je ravna onoj koji su davali super-kompjuteri od pre samo nekoliko godina… NVIDIA je ponovo inovator i zamajac industrije, ali joj i nije toliko teško, jer je još uvek na svom terenu…
Nakon igranja
NVIDIA opisuje ono u šta je GPU evoluirao sa dve fraze: Gaming Beyond i Beyond Gaming. Ako dovoljno poznajete engleski jezik, znaćete tačno na šta se misli. Prva fraza oslikava današnje igre i igre koje nas uskoro očekuju, odnosno već aktuelni hiper-realistični gaming. Druga fraza, „više od igranja“, označava upravo inicijativu kojoj teži ne samo NVIDIA, već čitava IT industrija. Jasno je da je i vodećem proizvođaču GPU-ova vrlo stalo do toga da se grafički procesori uskoro uposle i na (svim) drugim poljima u kojima je neophodan intenzivan computing. Jer, kada bi Photoshop, 3DS Max, AutoCAD ili Premiere tokom renderinga ili kalkulacije filtera koristio GPU, a ne CPU, onda bi postalo praktično nebitno koji se centralni CPU koristi da „vozi Windows“. Zamislite koliko je veliko to novo tržište za NVIDIA-u! Cela priča oko vezanosti IT industrije za „x86“ je morala da se završi pre deset godina, ali kad već nije, možda bi CPU mogli da zadržimo u sistemu, kao nekakvu zaostavštinu (legacy), dok bi se za ozbiljnije taskove koristio ionako (već duži vremenski period) moćniji GPU. NVIDIA ne smatra da je GPU dovoljno ozbiljan proizvod samo za običnog korisnika, već se može iskoristiti i u drugim industrijama. Mnogo je novca potrošeno na farme superkompjutera, koje sada mogu biti zamenjene energetski efikasnijim GPU-om. U ovom trenutku i sama skraćenica – GPU počinje da nam bode oči. Jer, ako GPU preraste samog sebe, možda ga više nećemo tako oslovljavati.
NVIDIA je, nakon uspešnog lansiranja G80 čipa, krenula na razvoju nove generacije; G92 je bio samo spin-off, kome su teksturne i keš jedinice usavršene onim što je do tada postignuto na razvoju GT200 čipa. Dodati su Hybrid Power i poboljšani UVD engine, ali je za fantastično veliki next gen GPU bilo neophodno mnogo više. Cilj koji je NVIDIA postavila svojim inženjerima je da kreiraju čip koji će na akceleratoru odgovarajuće cene davati dva puta veće performanse od GeForce 8800 GTX-a. To znači da količina memorije ne sme da bude nelogično velika, memorijska magistrala mora biti dovoljno skromna kako layout ne bi uslovljavao PCB sa previše slojeva, a sama memorija ne sme da bude ona iz poslednje, polu-eksperimentalne serije koja bi po gigabajtu koštala toliko da sama kompanija na prodaji pravi gubitke. GPU mora imati solidan yield, kako partneri ne bi bili u deficitu u trenutku kada krene promocija i na kraju – arhitektura mora biti dobro balansirana. Jer, kao što kažu – moć ne znači mnogo bez balansa. Balansiranje znači poboljšanje efikasnosti arhitekture kada je kada je prostor koji operativni blok CPU-a zauzima na die-u, ali i kada je efikasnost po utrošenom vatu u pitanju. DirectX10 arhitektura se mora razraditi, a performanse geometrijskog procesora moraju biti značajno više. Takođe, ALU jedinice bi trebalo da budu još efikasnije kada je rad sa CUDA aplikacijama i GPU fizikom u pitanju. I na kraju, NVIDIA je zahtevala da se energetski menadžment GPU-a odradi – od nule.
Nije više bilo dovoljno da GPU samo uspori u 2D režimu, već se potrošnja u „mirovanju“ mora približiti vrednostima od oko 1-2% od maksimalne moguće potrošnje. Nivo performansi koje bi taj novi GeForce ponudio igračima i timovima koji razvijaju igre omogućio bi fantastičan nivo detalja: developeri bi mogli da stave mašti na volju kada su animacija i skinning u pitanju, a posebnu pažnju bi mogli da usmere na facijalnu animaciju, kao i na simulaciju tkanina i tečnosti. Broj poligona ne mora da bude sakriven displacement mapama, a ni na do skora veoma intenzivnim i retko viđanim volumetric efektima više ne bi moralo da se štedi (dim, magla, oblaci i sl.). Fizika je još uvek u dosta ranom stadijumu u igrama (rekli bi smo, dosta manje nego grafika) – svako raspadanje materijala, oštećenja od eksplozija na velikim građevinama i sl. još uvek je pre-kalkulisano. Zamislite igru u kome bi se apsolutno svaki objekat ponašao kao u realnom svetu! Bukvalno svaki first person shooter bi onda morali da odigramo ponovo, zar ne? Simulacija atmosferskih efekata je takođe zapostavljana – kiša i sneg uglavnom padaju u beskonačnost, ali se na akumuliraju u određenoj 3D sceni. Isto tako, do sada nismo viđali uverljive i ne-predefinisane scene u kojima, recimo drveni objekat gori dok se ne pretvori u pepeo. Iako je dosta napredovao, sistem osvetljenja i dalje može biti daleko realističniji. AMD je preko svojih DirectX10.1 ekstenzija kreirao odličan global illumination i NVIDIA je svom R&D timu naložila da kreira bolji i napredniji kroz standardni DirectX 10. Podrška za DisplayPort iz GPU-a podrazumeva i prikaz rezolucija većih od 2650 x 1600, ali je ovoga puta i podrška za rad u 3D rezolucijama većim od ove, takođe dodata. GT200 podržava i rad sa 10-bitnom kolor paletom (po kolornom kanalu) i to ne samo interno, već i na izlazu. Podrške za SLI i 3-way SLI se podrazumevaju.
CUDA je jedna od osnovnih i konkretnih inicijativa da se GPU uposli na izvršavanju kalkulacija za koje tradicionalno bio zadužen centralni procesor. Kako je i krajem devedesetih godina prošlog veka, CPU izgubio bitku od GPU-a kada je kalkulacija u 3D scenama (transformacija i osvetljenje), tako se i sada, više od decenije kasnije, još jedan bitan deo posla preuzima od CPU-a. CUDA, ekstenzija popularnog programskog jezika „C“ predstavlja funkcionalan i vrlo dobro osmišljen alat za programiranje. Kada kažemo programiranje, to znači da nismo izuzeli ni rekompajliranje postojećih aplikacija napisanih, recimo, kroz Visual Basic. Sintaksa je gotovo identična, pa programeri koji su „odrasli“ na C-eu, mogu da obezbede svojim korisnicima značajan speed-bump „prostim“ rekompajliranjem svojih programa. Ozbiljno se šuška i da će nova verzija nezamenljivog Photoshopa (CS4) imati mogućnost da sve kalkulacije izvršava uz pomoć GPU-a! Za medicinsku inicijativu Folding@home su gotovo već svi čuli, ali manje čitaoca je upoznato sa primerom RapidHD video softvera, transcoding aplikacije koju je razvila kompanija Elemental, a koja rekompresuje HD video materijal i do 10 puta brže na high-end GPU akceleratoru nego na najbržem četvorojezgarnom Intel Core 2 procesoru. Ovo je, već sada, samo vrh ledenog brega, jer i mnoge inženjerske, naučne, finanskijske i medicinske aplikacije pokazuju veliki ili enormni porast performansi kada se za kalkulacije koristi GPU umesto centralnog procesora.
GT200 GPU
GT200 nećemo opisivati u toliko sitne detalje, jer na nivou shader-a nije napravljeno mnogo izmena. Feature set je uglavnom identičan, pa bi vas molili da detaljno proučite naš najdetaljniji G92-round-up test koji sadrži sve informacije o G92 čipu, njegovoj arhitekturi, unified shader-ima, prednostima DirectX10 API-ja i najčešće sretanim karticama baziranim na njemu. Pogledajmo zvaničnu tabelu sa osnovnim karakteristikama novog GPU-a u dve osnovne konfiguracije i videćemo d je broj shader jedinica povećan za gotovo duplo (ima ih 240), količina memorije i širina memorijske magistrale je uvećana dva puta (ili oko 25% u odnosu na GeForce 8800 GTX). Sve to ne bi imalo mnogo smisla da i kritični delovi GPU-a kada su gaming performanse u pitanju, a to su TMU i ROP jedinice, nisu uvećane i to poprilično. GeForce GTX280 tako poseduje čak 32 render back-end unit-a i fantastičnih osamdeset teksturnih jedinica! Novi GPU ima površinu od čak 567 kvadratnih milimetara.
GeForce GTX 200 serija kartica integriše novu NVIDIA unified shader generaciju grafičkih procesora (G80 i G92 predstavljaju prvu generaciju). NVIDIA tvrdi da GT200 pruža, u proseku, oko 50% više performanse od najviše klase GeForce 8 i 9 familija. Izrađen u TSMC-ovom 65-nm litografskom postupku, ovaj monstruozni GPU čini čak 1.4 milijarde tranzistora i predstavlja najmoćniji i najkompleksniji GPU koji je ikad proizveden i ponuđen potrošačkom tržištu. Takođe, GTX 200 GPU je i najveći procesor koji je “Tajvanska Semikonduktorska Kompanija” ikad proizvela. Prva unified shader GPU arhitektura kompanije NVIDIA je bila bazirana na SPA fragmentima (Scalable Processor Array), pa je tako obezbeđena i laka derivacija na manje složene, tj. manje snažne pripadnike namenjene nižim cenovnim segmentima. I druga unified shader generacija je bazirana na sličnom konceptu, jer u biti predstavlja njenu rafiniranu i poboljšanu verziju. Na dijagramu koji možete videti, uočavamo deset velikih celina, grupa, koje NVIDIA naziva thread processing cluster ili TPC. TPC se može nazvati i shader blok unutar G80 čipa, a kod ovog, dve godine starog GPU-a prisutno ih je osam. Ako bliže pogledamo TPC, uočićemo niz zelenih blokova – stream processor jedinica.
Kao što bolje možete videti na dijagramu dole, na kome je TPC izdvojen i uvećan, svaki od deset thread klastera poseduje dva puta po četiri shader odnosno streaming jedinice. S obzirom na to da je broj klastera u odnosu na G80 veći za samo dva, neki će se pitati kako to da je onda broj shader jedinica veći za skoro dva puta. Trik je u tome što je kod GT200 GPU-a, broj streaming multiprocessor jedinica u okviru shader-a povećan sa dva na tri, pa je računica u slučaju G80 bila ovakva: 8 klastera x 8 shader jedinica x 2 streaming multiprocessor unit-a = 128 “SP”. Ista jednačina u slučaju GT200 izgleda ovako: 10 x 8 x 3 = 240. Braon kvadratići označavaju jedinice za adresiranje i filtering tekstura, ali je odnos SP prema TF jedinica povećan za 50%, sa 2 : 1 na 3 : 1. To se možda neće odraziti dobro na performanse u starijim igrama, jer je efektivan broj teksturnih jedinica samo blago povećan u odnosu na G80, dok je shader moć otišla “nebu pod oblake”. Očigledno je da se trend povećanja shader moći unutar GPU-ova novijih generacija, nastavlja, a po prvi put je on ispraćen i u igrama – ako malo bolje razmislimo, rezolucija tekstura se nije menjala (naviše) već nekoliko godina, ali je broj shader rutina i post-processing efekata u igri značajno veći. Ako ponovo pogledamo dijagram iznad, uočićemo osam ROP particija uokvirenih plavom bojom. Broj raster operator ili render back-end particija kod G80 je šest, dok ih kod G92 ima svega četiri (zbog uske memorijske magistrale veći broj ne bi bio ni iskorišten). Kod GT200 čipa, ovaj broj se konačno penje na osam, a ako pogledamo vezu ovog broja sa širinom magistrale, biće nam jasnije: G92 – 256-bit bus -> 4 ROP particije, G80 – 384-bit bus -> 6 ROP particija, GT200 – 512-bit bus -> 8 ROP particija. Svaka ROP particija može da “izbaci” četiri piksela po ciklusu, što znači da je ukupan broj ovih “jedinica” kod GT200 – 32. Svaka od ovih particija je direktno vezana na jedan izvod crossbar memorijskog kontrolera širine 64 bita. Pomenućemo još i da svaka od streaming multiprocessors jedinica takođe sadrži texture fetch i jedinice za filtriranje (ali se one mogu koristiti za ne-grafičke kalkulacije), a svaki thread processing cluster ima i lokalnih 16 KB keš memorije koje dele sve SP jedinice u njemu.
Iako ne donosi zvaničnu podršku za DirectX10.1, NVIDIA smatra da ima tehnološki napredniji GPU od konkurenta. Kada smo videli global illumination demo na Radeon HD3850 karticama, bili smo gotovo sigurni da će i NVIDIA ponuditi slično rešenje ili bar “svoju verziju” DirectX10+ feature-set-a, ali se to nije desilo ili bar, za sada, nije zvanično predstavljeno. NVIDIA se definitivno više fokusirala na GP-GPU priču, ali i podizanje performansi u globalu. Osim GI demoa, DX10.1 proširuje mogućnosti standardne verzije ovog API-ja, te ukida neka osnovna ograničenja, nudi bolju kontrolu antialiasing-a direktno iz GPU-a. NVIDIA navodi da GT200 poseduje neke od mogućnosti DX10.1 API-ja, ali nedovoljno da bi on mogao da se nazove DX10.1 kompatibilnim. Iako je NVIDIA svakako dovoljno velik igrač da bi sebi mogla da dozvoli da jednostavno ignoriše i ne AMD-ovu, već Microsoft-ovu zvaničnu specifikaciju, smatramo da je ovo mali ali nizak udarac za razvoj ovog API-ja i igara na PC platformi uopšte. Ne samo da je čitava inicijativa vezana za globalnu iluminaciju real-time 3D scena usporena, već je i odloženo rešenje problema antialiasing-a u igrama koje koriste tzv. deffered shading (kakve su neke Unreal Engine 3 igre). NVIDIA čak i zvanično navodi da smatra da DirectX10.1 i nije toliko važan. Za one koji vole “prljave” detalje, evo i dopisa iz njihovog zvaničnog dokumenta:
Note: DirectX 10.1 Not Supported
DirectX 10.1 is not supported in GeForce GTX 200 GPUs. DirectX 10.1 includes incremental feature additions beyond DirectX 10, some of which GeForce 8/9/200 GPUs already support (multisample readback for example). We considered DirectX 10.1 support during the initial GPU design phase and consulted with key software development partners. Feedback indicated DirectX 10.1 was not important, so we chose to focus on delivering better performance and architectural efficiency.
Paralelizam 2.0
Jedna od najbitnijih dobrih osobina G80 i G92 GPU-ova je fantastično uređen paralelizam. GT200 je, naravno, u svemu tome još bolji, pa može da izvršava preko 30 hiljada threadova! Ako to ne treba nazvati HyperThreading-om, onda zaista ne znamo šta zaslužuje da se tako nazove. Kontrolna logika GPU-a, Thread Scheduller brine o tome da sve streaming jedinice budu u svakom trenutku 100% opterećene. Svaka SM jedinica može da izvršava do 1024 različita thread-a u datom trenutku, dok je kod G80 i G92 ovaj broj bio ograničen na 768 po SM-u, odnosno na oko 12 hiljada po GPU-u. Zapravo, specijalna jedinica, koju NVIDIA naziva IU, grupiše thread-ove u thread-blokove (po 32), koji se nazivaju “warp”. IU operiše sa maksimalno 32 warp-a (1024 thread-a), po streaming multiprocessor klasteru, pa tako ponovo dolazimo do cifre od oko 30 hiljada thread-ova koji se paralelno mogu izvršavati u bilo kom trenutku. Osnovna jedinica mere za procesiranje thread-a unutar GPU-a je upravo warp, a on se može poistovetiti sa pikselom, ako se GPU bavi grafičkim kalkulacijama. Ovakva teška paralelizacija i nije iznenađujuća ako znamo da je broj tranzistora u odnosu na G80 više nego duplo veći (681 milion prema 1400 miliona), kao i da sam GPU ima površinu od čak 567 kvadratnih milimetara. Ovako veliki GPU izrađen u sada već starom 65-nm procesu nije jeftin za proizvodnju, a i količina škart primeraka verovatno još uvek nije mala, a kamoli zanemarljiva.
Kao što smo već napomenuli, svaki thread processing cluster ima tri sopstvena shader multiprocessor unit-a (SM-a), osam teksturnih i filter jedinica i nepoznatu količinu prvostepene keš memorije. Dodatnih 16K deljene memorije koristi se za internu komunikaciju između SM-ova prilikom ne-grafičkih kalkulacija, što je još jedan indikator koliko NVIDIA ulaže i veruje u uspeh sopstvene GP-GPU inicijative. U odnosu na SM kod G80 čipa, register keš je dvostruko povećan. Shader ALU jedinice su i ovoga puta skalarnog SIMT tipa (single instruction, multiple threads), što znači da se svaka vrednost vezana za informaciju o pikselu računa posebno (x, y, z, r, g, b, alpha…). SIMT sistem procesiranja podrazumeva da UI jedinica u slučaju da se pojavi warp blok višeg prioriteta (zahteva se niža latencija), može da ga “u letu” zameni onim koji se trenutno obrađuje i postavi, čime se praktično maskira latencija i povećava efikasnost. Ovaj princip je prvi put viđen kod G80 i o njemu smo već pisali, ali je dosta usavršen kod G92 čipa i dodatno poboljšan kod GT200 kako bi bio pogodan i za ne-grafičke primene. S obzirom na to da je G92b i zvanični GeForce 9800 GTX+ model prvi GeForce 9 koji podržava CUDA computing, neće biti iznenađujuće ako kasnije saznamo da je UI sistem i kod G92b čipa na ovaj način unapređen i da G92b nije samo običan optical shrink G92 čipa.
Svaka SP jedinica unutar G80, G92 i GT200 čipa može da izvrši dve operacije nad brojevima sa pokretnim zarezom u sekudni (FLOPS-a) po kloku kroz multiply-add instrukciju (MAD). Međutim, kako SP podržava i kompleksnije setove za transcendente i interpolaciju (MUL), u istom ciklusu može da “provuče” još jedan FLOPS. U kombinaciji kada shader program ili neka druga rutina izvršava MAD+MUL simultano i ako se ovakve instrukcije izvršavaju redom, u teoriji će GeForce 8800 GTX izbaciti 518 GFLOPS-a, a GTX 280 čak 933 GFLOPS-a. U overklokovanom SLI režimu, dve ovakve kartice imaju processing moć od dva teraflopsa, što je zaista impresivan podatak. U odnosu na G80 i G92, kontroverzni dual-issue (situacija kada izvršavanje MUL instrukcije u svakom narednom ciklusu nakon izvšenog MAD+MUL seta, nije moguć), je poboljšan, što se najbolje može primetiti u teorijskim testovima 3DMark Vantage programa kada se uporede GeForce 8800 GTX i novi GTX 280. Još jedna očigledna mana G80 i G92 GPU-ova je anulirana pojavom GT200 čipa. NVIDIA u svojim grafikonima pokazuje da G80 ima problema u sintetičkim testovima koji mere efikasnost geometry shader jedinice, jednog od ključnih delova zaduženih za adekvatnu DirectX 10 funkcionalnost. Čak i realno sporiji Radeon HD3850 u ovim testovima ostavlja G80 kartice daleko iza sebe. NVIDIA zna u čemu je problem, pa je kod GT200 čipa povećala bafer za stream output geometry shader jedinice za čak šest puta! Isto tako, NVIDIA priznaje da je i dual issue bio veliki problem G80 procesora i njegovih derivata, koji je sada rešen.
Velika computing moć novog procesora je iskorištena i za povećanje preciznosti brojeva sa kojima se operiše. Po potrebi, u situacijama koje to nalažu (a to ne mora da bude vezano za grafiku) GPU može da radi u većoj FP preciznosti (koja je sada komplementarna po IEEE 754R matematičkom standardu, što podrazumeva 64-bitno dvostruko precizno FP procesiranje). U ovu svrhu, svaka shader multiprocessor jedinica sadrži posebne jedinice koje dopunjuju postojeće ALU procesore u izvršavanju matematičkih operacija uz dvostruko veću preciznost. Uz ovakvu preciznost, sirova matematička moć GPU-a nije tako velika kao kad se radi sa FP16 ili FP24 formatom, ali NVIDIA navodi da i tada GT200 kalkuliše do 90 GFLOPS-a, što je uporedivo sa mogućnostima osmojezgarnog Xeon procesora.
Kada se proizvodi tako veliki čip, nekada se i dodaju još jedan ili dva klastera kako bi se poboljšao yield odnosno broj upotrebljivih čipova, međutim kod GT200 to nije slučaj. Da GT200 ima 12 umesto 10 TPC jedinica, svi primerci sa jednim ili dva nefunkcionalna TPC-a bi mogli da prođu. Svakako, NVIDIA će i dalje primerke čipova sa jednim ili dva TPC-a manje moći da markira kao GTX260, dok će potpuno ispravni čipovi ići na dalje testiranje za najjači model. Ovako veliki GPU svakako ima veliku potrošnju, a zvaničan TDP je frapantnih 236W pod punim opterećenjem, dok je u idle režimu potrošnja svega 25W, što je daleko manje od 65W koliko je u istim situacijama trošio G80. GT200 stiže sa podrškom za HybridPower, ali je ona u odnosu na G92 dodatno poboljšana, a kod novog čipa sve je dovedeno na još viši nivo. Procesor sada skalira potrošnju i broj aktivnih jedinica konstantno i prema upotrebi, a u igri je još više nivoa opterećenosti, pa je dobar deo GPU-a potpuno neaktivan kada je u 2D režimu, samo malo “budniji” kada se prikazuje 3D interfejs Windows Vista OS-a (pod uslovom da u sistemu nema integrisane grafike – u tom slučaju je opet potpuno neaktivan, a Vista Aero prikazuje integrisani čip na matičnoj ploči), još aktivniji kada se prikazuje Blu-Ray film i još aktivniji pri prikazu manje zahtevne 3D grafike. Verujemo da je 100% uključen kada se igra Crysis, naravno. Prvi nivo aktivnosti GPU-a (Idle or 2D( ima potrošnju od oko 25 W, gledanje HD ili Blu Ray videa zahtevaće potrošnju od oko 35W. Poseban sistem analizira pakete podataka koji se šalju GPU-u na obradu i shodno opterećenju bira performance mod, odnosno odgovarajuću frekvenciju i radni napon, ali i isključuje delove GPU-a koji nisu potrebni u datom trenutku.
Druge optimizacije
Već smo pomenuli da je veličina registar memorije dva puta veća u odnosu na G8x i G9x čipove, što se dobro vidi u pojedinim sintetičkim testovima 3DMark Vantage benchmark programa. Pominjali smo i da je poboljšan tzv. dual issue – tehnologija koja omogućava da se izvrše dve instrukcije u ciklusu unutar jednog shader-a (MAD+MUL). Svaki shader multiprocessor poseduje jedinicu za specijalne funkcije tj. special function units (SFU) koje su tu za izvršavanje kompeksnih funkcija kakve su interpolacije ili multiplikacije. Dakle, shader ALU izvršava MAD instrukcije, dok posebna SFU podjedinica paralelno sa njom eventualno radi na MUL tipu instrukcije.
Sve lepo zvuči kada se navode teoretske cifre, ali moramo priznati da 240 “jezgara” koje rade na 1300 MHz ne zvuči kao nešto čime ne bi smo bili impresionirani, čak i ako su te cifre nešto niže u praksi. Svakako, GeForce GTX 280 je uporediv sa Dual-GPU karticama kakve su GeForce 9800 GX2 i Radeon HD3870X2 kada se overklokuje, iako neke mogu razočarati nešto skromnije radne učestanosti, pogotovo za shader jedinice. Verujemo da je NVIDIA bila primorana da ih “klokuje” na skromnih 1300 MHz zbog kompleksnosti čipa, iako je najverovatnije ciljano da se postigne teoretski fill-rate od jednog teraFLOPS-a (kartica postiže 933 gigaFLOPS-a, ali uvek je tu overklok).
Kada je teksturisanje u pitanju GT200 stiže sa brojnim poboljšanjima, što smo i očekivali kada smo prvi put čuli za sirovu količinu tranzistora koji čine ovaj GPU. Podsećanja radi, G80 je imao osam teksturnih klastera, svaki sa osam jedinica za filtriranje (64 piksela po ciklusu) i četiri jedinice za adresiranje. Uz mogućnost fetch-ovanja do tridesetdva osmobitna piksela po ciklusu uključujući i 2x tap aniso mod ili isti broj bilinearno filtriranih tekstura 8-bitne ili 16-bitne preciznosti. Kod G92 je, kao što smo nekoliko puta pisali, dodato više jedinica za adresiranje tekstura po teksturnom klasteru, pa ovaj GPU može da pohrani 64 piksela po ciklusu uz 8-bitnu ili 32 piksela po ciklusu uz 16-bitnu FP preciznost. GT200 poseduje identičan broj jedinica za filtriranje i adresiranje po klasteru, ali su same jedinice nešto efikasnije (NVIDIA tvrdi i do 22%!). S obzirom na niže radne učestanosti, bilo bi bolje za NVIDIA-u da su ove tvrdnje istinite.
Kao što smo već konstatovali, broj teksturnih jedinica nije povećan u onoj meri u kojoj je povećan broj ALU tj. shader jedinica, a NVIDIA je ovo učinila nakon analize texture-look-up scenarija u modernim igrama i u naslovima koji se tek očekuju. Ipak, u ovome su i dalje nešto konzervativniji od ATI-ja, koji je odavno imao još agresivniji odnos shader-to-texture jedinica. I ROP (render back-end) jedinice su pretrpele izmene i sada su brojnije i efikasnije, pa su spremne da izbace 32 piksela po ciklusu (četiri piksela unutar svakog od osam ROP klastera) u 8-bit formatu uz FP24 blending. ROP jedinica je 50% veća od one kod G80 čipa i dva puta veća od one kod G92 grafičkog procesora. Osim što su brojnije, ROP jedinice sada mogu da izvrše i blending unutar frame-buffer-a u okviru samo jednog (umesto dva) ciklusa. Zato, bez obzira na više radne učestanosti kod GeForce 9800 GX2 kartice, GTX280 poseduje veći output pixel fillrate nego doskorašnja DualGPU perjanica u NVIDIA ponudi. Masivnija ROP jedinica, kao i šira memorijska magistrala, pozitivno će se odraziti na performanse u opterećenih modovima, pogotovo pri visokim antialiasing filterima.
GeForce GTX280 stiže sa već dugo prisutnom GDDR3 memorijom, ali podržava, kao i njegov prethodnik – G92, i GDDR4. Na default radnim frekvencijama, GTX 280 ima memorijski bandwidth od čak 142 GB/s. Kao što smo već napomenuli, prethodne dve generacije GeForce akceleratora (8 i 9) su pružale nešto lošije geometry i stream out performanse, što se nije bitno izrazilo u igrama, s obzirom da se ove DirectX 10 funkcije još uvek ne koriste intenzivno. Interni baferi su povećani (neki od njih čak i šest puta, ali većina dva ili tri puta) kako bi se rešio ovaj problem. Algoritmi za filtriranje teksura su bili dodatno poboljšani kod G80 generacije i tu nema dodatnih novina, ali ih na ovom polju svakako nismo ni očekivali. Za više informacija, pogledajte naš inicijalni i vrlo detaljni GeForce 8800 GTX test. Slična priča se može primeniti i kada je antialiasing u pitanju – algoritmi su ostali isti, ali je sirova snaga kartice učinila da su sada i modovi kakav je CSAA16x sasvim upotrebljiva opcija.
NVIDIA navodi da su i neke druge komponente GT200 GPU-a dodatno usavršene kako bi se postigla veća efikasnost i više performanse novog akceleratora. Memorijski interfejs na nivou assembler-a podataka i frejm bafer jedinica je pretrpeo dosta promena, pa se praktično može nazvati novim rešenjem. Brži pristup indeksiranim tipskim paketima podataka je gotovo trenutan, a upravo je ovo polje na kome je G80 imao određenih problema. Još jedna od bitnih novina je i obavezno prisustvo čak gigabajta video memorije, koje je i logično za GPU klase kojoj pripada GT200. Kompleksna geometrija i sve češće korištene normal i occlusion mape zauzimaju dosta prostora, te se često i color mape moraju spuštati na niže rezolucije kako bi igra radila kako treba na karticama sa 512 ili 256MB video memorije. Ovoga puta nećemo pominjati enviroinment i shadow mape koje se još uvek koriste u kompleksnim scenama rasterske grafike (jednom kada u upotrebi bude ray-tracing, a pre njega i global illiumination, neće biti potrebe za njima). Crysis i brojne druge, mahom Unreal 3 igre koriste i hi-res “imidže” za post processing efekte i deffered rendering, a to opet traži mnogo frejm bafer memorije. 512-bitna memorijska magistrala je prvi put viđena kod Radeona HD2900XT, pre nego što je ATI krenuo sa cost-effective rešenjima za nižu i srednju klasu i DualGPU solucijama za najvišu klasu i vratio se 256-bitnoj komunikaciji sa VRAM-om. NVIDIA je, pre GT200 imala 384-bitni bus kod G80 čipa, ali se takođe “vratila na 256-bita” kod G92 čipa. Međutim, jedino rešenje za GPU kakav je GT200 je upravo 512-bitni memorijski bus i tu je svaka dalja rasprava izlišna.
CUDA
GT200 GPU je dizajniran da bude najbrži igrački akcelerator, ali je njegova arhitektura skrojena tako da ga čini odličnim general-purpose procesorom. CUDA je jednostavan i moćan alat koji kalkulacije koje tradicionalno izvršava CPU – prebacuje na teret GPU-a. Upravo i najviše zbog toga, GT200 poseduje deljenu keš memoriju, ali i podršku za rad sa kalkulacijama dvostruke preciznosti. CPU je idealan za serijsko izvršavanje sa velikim brojem grananja sa slučajnim pristupima memoriji, dok je GPU odličan u paralelnom izvršavanju sa ogromnim brojem operacija na brojevima sa pokretnim zarezom. Aplikacije kao što su Word i druge ne-matematičke Office aplikacije, Web browseri i E-mail klijenti su dobri primeri aplikacija koje imaju ponajviše serijskih kalkulacija, dok su video plejeri, enkoding softver, simulacije fizike, kalkulacije nad brojevima, procesiranje fotografija i videa, rad sa 3D grafikom (bilo da je rasterska ili ray-tracing metoda u pitanju) – prepuni paralel-kalkulacija. Najveći problem koji je parallel computing imao na PC platformi je upravo način na koji se programira softver. GeForce GTX280, ali i novi 9800GTX+ podržavaju CUDA programski jezik, dizajniran upravo za parallel computing i trenutno je najjači FP procesor koji postoji za PC platformu. CUDA je zapravo svojevrsna ekstenzija programskih jezika C i C++ koje već koristi preko 70 miliona programera širom sveta, a zanimljivo je da se bez problema izvršava i na sistemskom procesoru, ali i na GPU-u. CUDA programski jezik ne treba svrstavati u isti koš sa drugim GP-GPU inicijativama, za koje je neophodan 3D API lejer da bi radile (DirectX ili OpenGL) i za koje je neophodno poznavanje ovih oblasti kako bi aplikacija mogla da pristupi grafičkom procesoru. Programiranje u CUDA okruženju je praktično isto kao i programiranje u C++-u, ali nas nemojte citirati kada je ova tvrdnja u pitanju, pošto lično nismo programeri, već samo prenosimo ono što NVIDIA na sav glas tvrdi.
Ostvarivanje kvalitetnog paralelizma se u praksi pokazalo kao težak izazov za programere, pa i danas vrlo kompleksne i kvalitetno napisane igre ne umeju da iskoriste više od dva jezgra sistemskog procesora. Međutim, CPU i jeste napravljen za serijsko izvršavanje koda, pa je jako teško da x86 softver naterate da se izvršava paralelno. Kreiranje i kompajliranje programa u CUDA-i napraviće i poseban kernel koji će GPU direktno izvršavati pokretanjem na hiljade instanci istog programa, a kako je CUDA zapravo ekstenzija jezika “C”, vrlo je lako i postojeće aplikacije portovati na ovaj “standard”.
Jedna od slikovitih primena GPU computing-a je re-enkoding video fajla visoke definicije. Kompanija Elemental je kompajlirala svoj RapidHD softver i za GPU i nakon testa koji je sproveden, pokazalo se da je GTX 280 akcelerator čak više od 10x brži od najbržeg trenutno dostupnog desktop procesora. Elemental je zapravo razvio plug-in za Adobe Premiere, ali i posebnu transkoder aplikaciju (BadaBoom), i testovi su više puta pokazali da se dva minuta dug HD klip pomoću CPU-a enkoduje oko 2 minuta, dok isti posao GPU odradi za 21 sekundu. Folding@Home projekat radi sa koagulacijom molekula proteina, a ove simulacije pomažu da se sazna kakve sve bolesti mogu da izazovu tzv. loši proteini. Ove kalkulacije GPU izvršava na desetine, pa čak i stotine puta brže od sistemskih procesora. Kada je distribuirani computing u pitanju, NVIDIA navodi da je trenutno u svetu u upotrebi preko 70 miliona CUDA-ready grafičkih kartica sa prosečnom processing moći od oko 100 gigaFLOPS-a. CUDA SDK se može besplatno preuzeti sa NVIDIA sajta, a izvršavaće se na svakom DirectX10 kompatibilnom GeForce akceleratoru.
Da nije sve samo mrtvo slovo na papiru, pokazuje i kompanija Adobe, koja je nedavno prikazala radnu verziju Photoshop-a koji koristi GPU za ubrzavanje manipulacija nad fotografijama. Učitana je slika rezolucije od 442 megapiksela, teška čak 2GB, a GPU je omogućio da se sa njom radi kao sa slikom od 5 megapiksela na u CS3 verziji ovog programa. Zumiranje i manipulacija nad fajlom je delovala impresivno, ali nova verzija Photoshopa je otišla i korak dalje u radu sa 3D objektima, pa možemo samo da zamislimo koliko će GPU biti od pomoći kod ovakvih poduhvata. Takođe, CUDA se može iskoristiti i za gaming, a kompanija Rayscale (sada deo NVIDIA-e) je razvija ray-tracing aplikaciju koja se kroz CUDA-u izvršava na GPU-u i omogućava da se klasična rasterska 3D scena kombinuje sa ray-tracing metodom za refleksije, senke i refrakcije.
PhysX by NVIDIA
Programeri i inženjeri kompanije AGEIA, koja je sada takođe deo NVIDIA-e, nedavno su počeli da rade na portovanju kalkulatora fizike i PhysX API-ja u CUDA okruženje, a prve rezultate su pokazali nakon samo mesec dana posla. Odmah je zaključeno da čak i u alfa-fazi, PhysX radi brže na GeForce GTX 280 akceleratoru i do15 puta (simulacija tečnosti) nego na Intel Core 2 Quad procesoru. GPU je u slučaju simulacije mekih objekata 12 puta brži, dok se simulacija tkanina izvršava 13 puta brže. Neke od već najavljenih igara koje će koristiti PhysX su u poslednjim fazama izrade i očekuju se vrlo skoro (Mirror's Edge je, recimo, jedna od njih). GTX 280 akcelerator je, čak i sa alfa drajverom za PhysX oko 15-ak puta brži od posebnih AGEIA akceleratora fizike koji su se do nedavno prodavali (doduše, vrlo vrlo slabo).
NVIDIA PhysX je engine za kalkulaciju fizike u realnom vremenu, a koristi se već neko vreme u igrama na PC platformi i konzolama (lista broji čak 150 igara koje koriste PhysX, a pojavile su se za PC, Sony Playstation 3, Microsoft Xbox 360 i Nintendo Wii). Kada PhysX za CUDA bude gotov, biće integrisan u ForceWare drajvere (mi smo sa FTP-a skinuli posebne biblioteke teške oko 45 MB, koje se za sada instaliraju zasebno) i tako će svaki vlasnik GeForce 8, 9 i GTX 280 i 260 kartica imati hardverski akcelerator fizike. Ovo će svakako biti lep poklon od kompanije NVIDIA, a videćemo šta će AMD da uradi po tom pitanju.
PureVideo HD druge (i po) ili treće generacije (zavisi kako ih brojite) je deo novog GTX 280 grafičkog procesora ali audio kodeka i dalje nema. PureVideo je napredan sistem za hardversku reprodukciju novih formata namenjenih za filmove visoke rezolucije. VC-1 i H.264 su izuzetno zahtevni kodeci, a ako želite kvalitetno i napredno filtiranje, kompenzaciju pokreta i najviši kvalitet reprodukcije onda će i skoro svaki budžetski dual-core CPU današnjice biti opterećeni i do 80-90% samo tokom dekodiranja, uz ogroman broj propuštenih frejmova i nemogućnost da se neki resurs preusmeri na druge zadatke. NVIDIA PureVideo koristi 3D pipeline samog grafičkog procesora i ubrzava reprodukciju i to kroz Windows Media Player, ali i nove verzije PoweDVD i WinDVD plejera. PureVideo HD ima i mogućnost dinamičkog redukovanja šuma i izoštravanja slike, uz dodatno poboljšane performanse. Ne treba zaboraviti da će nove verzije kodeka uvek brzo biti hardverski podržane, pošto je PureVideo HD programabilan. Novi model PureVideo HD „procesora” druge generacije sadrži i BSP engine, koji omogućava od CPU-a potpuno nezavisno dekodiranje H.264, VC-1 i MPEG-2 formata rezolucije do 1920 x 1080 piksela uz bitrate od čak 40 i više Mbit-a po sekundi, sa in-vivo kalkulacija CABAC i CAVLC faza u ovim vrlo intenzivnim matematičkim procesima dekodiranja. Štaviše, u teoriji ćete, sa G86, G92 ili G94 GPU-om, moći da gledate Blu-Ray ili HD-DVD filmove čak iako imate jednojezgarni AMD Sempron ili neki Intel Celeron CPU. Ipak, treba napomenuti da NVIDIA PureVideo HD 2nd gen. zaostaje u dekodiranju VC-1 materijala u odnosu na konkurentski AVIVO, tj. da jednu fazu i dalje radi CPU. To ne važi za H.264 enkodovan video, koji se u svim fazama kodira pomoću GPU-a. Međutim, NVIDIA tvrdi da je i u odnosu na 8400, 8500, 8600 i 8800 GT PureVideo HD poboljšan, jer je kod GeForce 9600 GT i 9800 GTX, ali i GTX 280 i 260 kartica aktiviran i novi set funkcija. Novine se svode na dinamičko podešavanje kontrasta i zasićenja boja, što je čisto softverska intervencija. Ovo nije loš dodatak za korisnike koji koriste monitore za gledanje filmova i igranje igara, jer monitori često nemaju ili nemaju dobro rešen sistem intenziviranja kontrasta i saturacije boja, tim pre što se sami “ne bave” procesiranjem videa. Međutim, grafički procesor u svakom frejmu analizira njen histogram (poput histograma kod digitalnih fotoaparata ili u Photoshop-u). Ako histogram pokazuje da frejm ima nizak kontrast ili loš balans, algoritam, u odnosu na željeni profil slike (vivid, high contrast itd.) radi izmenu levels-a, tj. povećava kontrast. Ono što je bitno je i to što se kontrast analizira i povećava po frejmu, tj. bez zakašnjenja, tako da su rezultati bolji nego kada se to radi neposredno, unutar engine-a nekog LCDTV uređaja ili monitora.
Kartica na testu – ASUS EN280GTX
Prva GeForce GTX280 kartica koju smo tesitrali bila je u NVIDIA mašini, ali to se ne računa, pošto je trajalo kratko, pa smo sačekali da stigne u naš test sistem i da je uporedimo sa drugim karticama koje smo ranije imali na testu. GT200 je srce dva modela GeForce kartica – GTX 280 i GTX 260. Jači odel ima 240 SP-a i sve što smo navodili u ovom testu se odnosilo na njega. Frekvencija čipa je 602 MHz, mada već postoje fabrički overklokovani modeli, a shader domain je postavljen na 1296 MHz. Gigabajt posvećene GDDR3 memorije radi na 1107 MHz. Kartica je spakovana u lepo, luksuzno pakovanje sa unutrašnjom kutijom, što prvi put vidimo kod ASUS-a. Kožna DVD futrola i kožni mouse-pad su lep gest velikog tajvanskog proizvođača, a ni ostalogo softvera ni dodataka ne manjka – standardno.
Kartica je prilično glomazna i svakako ima dual-slot kuler, koji je kompletno prekriva poput oklopa srednjevekovnog vojnika. Čak je i druga strana potpuno prekrivena metalnim poklopcem, a to smo prvi put videli kod GeForce 9800 GX2 akceleratora koji su po dimenzijama veoma slični GTX 280 kartici. Metalni profil sa druge strane štampe je istovremeno i heat-spreadder za memorijske čipove smeštene sa ove strane PCB-a. Kartica je dugačka 264 milimetra, poseduje jedan osmopinski i jedan šestopinski konektor za napajanje, a maksimalna potrošnja (TDP) je 236W.
Kao i kod GeForce 9800 GX2 kartica, dva SLI konektora su prekrivena gumenom kapicom, kako ne bi bio narušen monolitni izgled same kartice. Dva SLI konektora su neophodna za kreiranje 3-way SLI niza. Desno od konektora za napajanje, nalazi se SPDIF audio konektor koji je prekriven sopstvenom gumenom kapicom. Na njega možete dovesti audio sa nekog eksternog kodeka ili zvučne kartice, a zatim ga proslediti kroz prvi DVI-I konektor preko HDMi adaptera na LCDTV uređaj ili Plazmu. Kao i kod GeForce 8800 GTX i Ultra kartica, čip zadužen za sve video izlaze, koji je istovremeno TMDS transmitter i SLI composing engine, izveden je na poseban die, i ovoga puta nosi naziv NVIO2. Ne samo što pojednostavljuje ionako prekompleksan GPU, već i omogućava da se on, bez dodatne i nepotrebne NVIO elektronike ugrađuje u GP-GPU i CUDA uređaje kakva je NVIDIA Tesla linija proizvoda. Njima zaista nije neophodna funkcionalnost koju integriše NVIO, jer nisu grafičke kartice. S druge strane, prisustvo posebnog NVIO čipa podiže cenu GTX 280 kartice.
Naponska jedinica je potpuno digitalna, ali ćemo o njoj i o samom kuleru reći nešto više u narednom testu GTX 280 kartice, kada stignemo da ih detaljnije ispitamo. Upotrebljena je GDDR3 memorija sa potpisom kompanije Hynix (H5RS5223CFR-N2C), a njen rejting je svega 0.83 nanosekunde, tj. 1200 MHz (2400 MHz DDR) i to je najbrža GDDR3 memorija koja se proizvodi. Kuler je neobično tih kada je kartica u stanju mirovanja – kao da se radi o potpuno pasivnom rešenju. Ipak, nešto je čujnija u 3D režimu, ali svakako spada u vrlo tihe akceleratore.
Test Setup
PCI Express kartice smo testirali na test sistemu prikazanom u tabeli:
Procesor
Intel Core 2 Quad Q6600 @ 3600 MHz (400 MHz x 9), 1600 MHz QPB
Matična ploča
ASUS P5K Premium Black Pearl 18th Anniversary Edition
Memorija
2 x 1Gb Geil PC2-8500 1066GHz @1200MHz 2.25V
Hard Disk
Samsung SpinPoint SATA II, 320 GB, 16MB
Western Digital Caviar 2500JS SATA II 250 GB, 16MB
Video Karte
Gainward Bliss 8800 GT – (512MB DDR3) – Forceware 169.28
Gainward Bliss 8800 GTS 512 – (512MB DDR3) – Forceware 169.28
XFX GeForce 8800 GTX (768MB DDR3) – Forceware 174.12
ASUS GeForce 8800 Ultra (768MB DDR3) – Forceware 174.12
GeForce 9800 GTX (768MB DDR3) – Forceware 175.19
ASUS ENGTX280 – 1024 MB DDR3 – Forceware 177.39, 175.19
ASUS EAH3870 X2 (1024MB DDR3) – Catalyst 8.2b
HIS Excalibur HD3870 X2 (1024MB DDR3) – Catalyst 8.2b
Gigabyte Radeon HD3850 256MB (256MB DDR3) – Catalyst 8.2b
AMD ATI Radeon HD3870 (512MB GDDR4) – Catalyst 8.2b
Monitor
Samsung SyncMaster 244T / 245T
Cooling, Case, PSU
CoolerMaster GeminII
CoolerMaster Stacker 832 / WaveMaster
CoolerMaster Real Power 850W SLI Certified
DVD uređaj
Pioneer DVR-112L
DVD uređaj
Pioneer DVR-108D
Operativni sistem
Windows XP Service Pack 2 (optimized for performance)
Windows Vista (default)
DirectX 9.0c
DirectX 10
Igre/Bench programi
3D Mark Vantage
3D Mark 06
SPECORG SpecVIEW Perf 8.1
Doom 3
Quake 4
Prey
Company of Heroes 1.3
Battlefield 2142
Unreal Tournament 3
Lost Planet: Extreme Conditions
Call of Duty 4: Modern Warfare
Half Life 2: Episode Two
FarCry v1.4
Crysis Demo
The Elder Scrolls IV: Oblivion
Need For Speed: Carbon
X3 Reunion Demo Benchmark
World in Conflict
S.T.A.L.K.E.R
F.E.A.R 1.08
ATI kartice smo testirali sa Catalyst A.I podešenim na Standard. Ako je AF bio uključen, to je podrazumevalo Quality setting, dok su Adaptive i Temporal anisotropic filtering bili isključeni. Wait for vertical refresh odnosno Vertical Sync smo isključili. Kod nVidia kartica, podrazumevani mip-map setting je Quality, trilinearne optimizacije su uključene, anisotropic mip filter i sample optimizacije isključene, a gamma correction pri antialiasingu uključen. S obzirom na to da se NVIDIA kartice testiraju sa teksturnim filterom podešenim na High Quality (default je Quality), dobijeni rezultati su možda niži u odnosu na rezultate koje bi neko drugi mogao da dobije na sličnom test sistemu.
Dužni smo da napomenemo da je novi drajver, 177.39 doneo podršku za GeForce PhysX, a samim tim i aktivaciju za hardversku kalkulaciju fizike u programu 3DMark Vantage, pa su i rezultati daleko veći nego kod kolega koji su koristili stariji drajver (175.19). Ipak, zbog nedostatka vremena objavljujemo rezultate iz nekih igara koje smo testirali sa 175.19 drajverom, koji nema podršku za PhysX (ali koja to igra zapravo i pravi razliku?).
FutureMark 3DMark 06 Pro
Novo izdanje 3DMark benchmarka može da se izvršava samo sa Direct X 9 kompatibilnim akceleratorima. Tri prerađena testa iz prošlogodišnje verzije koriste Shader Model verzije 2.0, dok najnoviji zahteva SM3.0 i 256 MB video memorije Sva tri game demoa su izuzetno zahtevni, karakteriše ih još veći broj poligona koji opterećuje VS jedinicu, kompleksni shader programi (mapiranje neravnina, osvetljenja, emulacija pravog HDR osvetljenja, particle efekti, dinamične i meke senke, subface scattering, napredni fog efekti (emulacija volumetric efekta), ali i dosta postprocesing efekata. Novi test – Deep Freeze je grafički najimpresivniji, a novi 3DMark ima i napredni CPU test, koji simulira upotrebu A.I. rutina u igrama, kao i kalkulacije vezane za samu fiziku.
FutureMark 3DMark Vantage
Iako nije toliko vizuelno impresivan kao njegovi prethodnici, 3DMark Vantage je zapravo dosta bolje osmišljen GPU i gaming benchmark uopšte. Pažnja je ovoga puta usmerena na funkcije koje se izvršavaju ili će se uskoro izvršavati unutar igračkih “endžina”, a ne na sam artwork. Prvi od dva grafička testa, Jane Nash (Graphics Test 1) testiraju simulaciju tečnih povšina i generisanih tekstura, kao i GPU-kalkulisane sisteme čestica, a u čitavoj sceni se u realnom vremenu u obzir uzimaju i uticaj gravitacije na objektima (pa i na “objektima” glavne junakinje), zakon inercije i impulsa sile (prva dva Njutnova zakona), kao i zakon akcije i reakcije, uz uticaj otpora vazduha. Fiziku kalkuliše GPU, a da sve ne bi ostalo samo na kalkulacijama “ispod”, 3D scena je opterećena brojnim dinamičkim izvorima osvetljenja sa kompleksnim senkama, a voda, koja je refleksivna i refraktivna, se ne pomera na predefinisan način, već se svaki talas u realnom vremenu i dinamički generiše. Drugi test, New Calico, podseća na igru X3:The Threat i ne sadrži objekte sa skinovima (bez zglobova), ali zato poseduje ogroman broj objekata u sceni, sa shadow mapama različitog tipa. Po prvi put u 3DMark benchmark programu, prisutni su i global raytracing efekti ((Parallax Occlusion Mapping, True Impostors i volumetric fog). Treći test pokušava da izmeri performanse CPU-a u kalkulacijama veštačke inteligencije i fizike. Broj “gejtova” kroz koje proleću avioni je srazmeran broju jezgara sistemskog procesora, a ako u sistemu posedujete i hardver za kalkulaciju fizike (PPU), ovaj broj se povećava za tri. Nakon, standardnih, na red dolaze i “sintetički” testovi: texture fillrate, color fillrate, paralax occlusion mapping, gpu clothing, particles, noise…
SpecORG SpecVIEW Perf 8.1
Koristili smo poslednju aktuelnu verziju koji se sastoji od čak osam celina. SpecviewPerf meri performanse sistema pod OpenGL API-jem tako što simulira osam standardnih industrijskih aplikacija. 3Dsmax-03 je bayiran na SPECapc za 3dS MAX u OpenGL okruženju. U sceni su tri modela sastavljena od po približno 1.5 miliona vertices-a, a testiranje se vrši uz nekoliko tipičnih tipova osvetljenja. Catia-01 je bazirana na Dassault CATIA inžinjering aplikaciji u kojoj modeli imaju do dva miliona osnovnih linija. Ensight-01 je simulacija CEI EnSight inžinjering aplikacije koja se koristi za vizuelizaciju. U test su ubačeni displej-list i fast preview modovi rada. Light-07 je baziran na Discreet-ovoj Lightscape aplikaciji koja koristi realtime radiosity senčenje. Maya-01, kako joj i samo ime govori, simulira radno okruženje paketa kompanije Alias – Maya 5, nezamenljivi alat filmadžija u Holivudu. Proe-03 je baziran na SPECapc okruženju za Pro-Engineer 2001, koji u sceni primenjuje dva modela u tri shade moda (senčeni, wireframe i hidden-line removal). SW-01 simulira Solidworks 2004 aplikaciju, koju izdaje Dassault Systems i konačno, test Ugs-04, baziran na SPECapc Unigraphics V17 aplikaciji (odnosno simulaciji iste), u kojem je prikazan model motora sastavljen od preko četiri miliona osnovnih linija.
Lost Planet: Extreme Condition
Lost Planet: Extreme Condition je za Xbox360 izašao početkom 2007 godine, a nešto više od godinu dana kasnije, pojavio se i u verziji za Windows XP i Vista platformu sa podrškom za rad kroz DirectX 9 i DirectX 10 API-je. Kao i u verziji za Xbox360, poseduje veliki broj “next-gen” efekata, uključujući i filmske efekte poput full-frame motion blur-a, depth of field-a, a posebno se ističu napredni particle efekti koji verno oslikavaju žestoke zimske uslove, vatru, paljbu iz futurističkog oružja i sl. Na Microsoft konzoli radi u 720p rezoluciji sa oko 30-35 fps, ali kako podržava više radne rezolucije na Windows platformi (rezolucije tekstura, poligoni i sl. su identični Xbox360 verziji), predstavlja dosta dobar alat za testiranje novih grafičkih kartica. Iako gotovo tri godine nakon što je završena, igra po današnjim standardima ne izgleda impresivno, ume da bude prilično zahtevna. Mi smo testirali kroz prvi “built-in” test, uz maksimalan nivo detalja, u DirectX10 okruženju pa pogledajmo rezultate:
Call of Duty 4: Modern Warfare
Za razliku od prethodnika, Call of Duty 4: Modern Warfare igrača postavlja u okršaje novijih datuma. Baziran je na unapređenom “motoru” svojih prethodnika, posebno verzije iz trećeg dela, koji se pojavio isključivo u verziji za Xbox360 konzolu. Iako smatramo da bi rezultati koje daje sa današnjim hardverom (kraj 2007. godine) mogli biti veći, ipak je u pitanju dobro optimizovana igra: broj detalja odnosno dešavanja u sceni u svakom trenutku je fantastično veliki, bilo da su u pitanju sitnice poput mapiranja neravnina, bloom i HDR efekti, dinamičke senke i osvetljenja, efekti eksplozija i dima ili sveprisutni depth-of-field tokom zumiranja. U igri svaki metak prolazi kroz materijale kroz koje bi prošao i u realnoj borbi (drvo, staklo, tanak metal), uz adekvatno usporenje i izmenu pravca. Igra koristi isključivo DirectX 9.0c, odnosno Shader Model 3.0, a u verzijama za Xbox360 i PlayStation 3 izgleda kao i sa maksimumom detalja na PC-ju, kako smo je i mi testirali. Pogledajmo rezultate:
Doom 3
Doom 3 testiramo sa ugrađenim Demo1 demo-om, na high podešavanjima (highest koristimo kod kartica koje imaju bar ili više od 512 MB memorije), što podrazumeva da je zvuk isključen, svi detalji na maksimumu (sve senke, poligoni i najveće teksture), ali i da je uključeno osmostruko anizotropno filtriranje. Dodat je i UltraHighQuality.pk4, koji omogućava da objekti bacaju senku sami na sebe (tzv. self-shadow). Zvuk, AI i fizika su isključeni automatski, samim pokretanjem timedemo komande.
Quake 4
Definitivno jedna od najboljih igara 2006. godine – “duhovni” naslednik fenomenalnog Quake-a 2. Iako ne može da “prikazuje” velike otvorene nivoe, Doom 3 engine itekako pokazuje koliko detalja sa lakoćom može da prikaže u jednoj sceni. Apsolutno je neverovatno sa kolikom je pažnjom tim dizajnera i programera u “Raven”-u pristupio pri izradi ove igre, koja je, uz Call of Duty 2, jedan od najlepših FPS-ova, čak i nakon 18 meseci od pojavljivanja. Za ljubitelje pravog hardcore uzbuđenja – obavezno štivo je Quake 4 i to nekoliko puta, na najtežem nivou! Kao i uvek, testirali smo sa najzahtevnijim “setup”-om, osim što smo “zadržali” kompresiju color i specular tekstura, što znači da je Ultra Quality korišten samo pri testiranju kartica koje imaju bar 512 MB memorije.
Prey
Jedna od najzanimljivijih i najinventivnijih “pucačina”, koja stiže od kreatora “čuvenog” Duke Nukema, igra Prey zadržava sve osobine klasičnog First Person Shootera, u koji uvodi elemente izmene gravitacije, letenja u Descent stilu, a tu su i delovi koji traže da uključite “vijuge” kako bi pronašli ostatak puta. Izrađena oko modifikovanog Doom III engine-a (kome je dodata “Portal” tehnologija), Prey je vizuelno izuzetno atraktivan, a igra je, iako dobro optmizovana, vrlo “stresna” za nove grafičke kartice. Kao i uvek, testirali smo sa najzahtevnijim “setup”-om, osim što smo “zadržali” kompresiju color i specular tekstura – što znači da nije “aktiviran” Ultra Quality (koji se uključuje iz konzole), već High Quality mod.
X3: Reunion
X3 Reunion je igra koja vam omogućava da iskusite život u svemiru, u dalekoj budućnosti. Možete graditi, trgovati, boriti se ili biti samo istraživač. Naravno, igra ne bi bila toliko zanimljiva da nije grafičkih dostignuća koji se mogu opisati samo superlativima. Iako nema nekih do sada neviđenih tehnologija, modelima brodova su bogato dizajnirani, raznovrsni i po tipu, i po veličini i po ulozi koju imaju, sa velikim brojem poligona (često preko pola miliona po sceni) , opskrbljeni fantastičnim color i displacement (bump) teksturama. Okolina (sam svemir, planete, asteroidi, magline…), kao da je još impresivniji, pa vas ova igra uvlači u priču i svet i samim gledanjem rolling demoa.
Company of Heroes 1.3
Prva real-time strategija u našem test-suite-u, Company of Heroes, koristi posebni next-gen engine koji Relic naziva “Essence Engine”. Ovaj engine podr žava sve nove fancy efekte kao što su High Dynamic Range i dinamičko osvetljenje, per-pixel senke, a displacement (normal) mapping je vidljiv na mnogim objektima. Takođe, igra se obilato oslanja na napredne shader rutine, ali i licenciranu Havoc fiziku, a pojedini objekti su destruktabilni, što donekle važi i za teren. Kao i obično, u igri smo uključili sve moguće efekte, što se po frame-rate-u i vidi:
World in Conflict
Druga real-time strategija u našem test-suite-u, World in Conflict, verovatno je i dalje najimpresivnija RTS igra koja je izašla na PC tržište. Bazirana je na novom Direct3D “endžinu” koji podržava čitav spisak novih efekata kakve smo do sada viđali samo u, po pravilu najinovativnijim FPS igrama. Dakle, tu su HDR, bloom i dinamičko osvetljenje, per-pixel senke, destruktabilni teren i adekvatni view-sight, paralax i normal mapping, depth of field i čitav niz drugih filmskih postprocessing efekata . Naravno, mi smo testirali sa maksimalnim nivoom detalja:
Battlefield 2142
Umesto igre Battlefield 2, koristili smo novi Battlefield 2142 sa 1.10 zakrpom (aktuelna verzija je 1.50). Ova igra je bazirana na istoj mašini kao i Battlefield 2, ali uz nekoliko dodataka u koje spadaju detaljnije teksture, povremeni normal mapping, parallax mapping, dinamičke senke, detaljniji post processing efekti (mada ni blizu onog nivoa kao kod novijih igara)… Igru smo testirali na najvišim setovanjima na jednoj od zahtevnijih mapa. Pogledajmo rezultate:
Unreal Tournament 3 Demo
Unreal Engine 3 je najpopularniji “motor” koji koristi poslednje dve generacije DirectX API-ja i pored CryEngine 2, predstavlja trenutni “vrh ponude” kad je igračka industrija u pitanju. Nema potrebe da nabrajamo šta sve podržava, samo ćemo pomenuti neke prelepe naslove koje ste verovatno već videli ili igrali: Bioshock, Rainbow Six: Vegas, Medal of Honor: Airborne, BlackSite: Area 51, Gears of War, Mass Effect, Stranglehold i plejada drugih igara koje su već izašle u verzijama za Xbox 360 ili su u najavi… Demo Unreal Tournament 3 igre ne omogućava maksimalan već samo visok nivo detalja kad su u pitanju teksture, međutim, i ovo je dovoljno zahtevno da i najnovije grafičke kartice stavi na muke.
Far Cry v1.4
Igra koja je po mnogima redefinisala žanr, odnosno pooštrila kriterijume kada su vizuelni aspekt, ali i gameplay u pitanju. CryTek-ov engine je demonstracija mogućnosti Direct X 9 API-ja u praksi – tu je ogroman broj poligona i efekata koji se izvršavaju u Shader jedinicama, celih 128 MB video memorije je po nivou rezervisano i zajedno sve izgleda jednostavno fenomenalno. Fotorealistična grafika i do sada najbolja fizika i dizajn nivoa su atributi ove fenomenalne igre. Tu su i shaderi za Normal mapping, napredne enviroinment fizike, promenljiva geometrija terena, dinamičke senke i osvetljenja, motion capture animacije… Testirali smo sa Very high i Ultra high podešavanjima (gde je moguće), uz pomoć već snimljenog i opšte prihvaćenog demoa. GeForce 6 i 7 serija kartica koristi Shader Model 3.0, ali smo, kao i kod Splinter Cell Chaos Theory, ovoga puta, aktivirali HDR.
Crysis 1.1 Benchmark
Šta reći o najdetaljnijoj, grafički najimpresivnijoj igri i najzahtevnijoj igri današnjice. U odnosu na Call of Duty 4 ili bilo koju drugu igru koja vam može pasti na pamet – Crysis je bar za dva koplja iznad. Čak i na GeForce 8800 Ultra karticama i Quad Core mašinama, prosečan frame-rate iznosi dvadesetak frejmova po sekundi, u iole višim rezolucijama. Mi smo testirali kroz standardni GPU benchmark i to uz trik koji nam omogućava da “DX10-only” efekte vidimo i u DX9 okruženju. Najbolji opis ove igre zvuči otprilike ovako: koliko je FarCry tehnički ispred Duke Nukem 3D (ili bolje rečeno 2.5D) igre, toliko je Crysis ispred svog pomenutog prethodnika.
Half Life 2: Episode Two
Treća epizoda Half Life 2 priče, odnosno četvrto poglavlje priče o “Frimenu protiv korumpiranih vanzemaljaca”. Source Engine je bolji nego ikad, ali se već vidi da počinje da gubi korak sa Unreal 3, a pogotovo Crytek tehnologijom. No, poslednji build ipak ima svoje lepe osobine: broj pixel shader efekata je veći, a teksture i objekti su detaljniji. Na pravi način su dodati i efekti poput motion blur i depth of field-a, novi particle sistem omogućava bolje efekte varnica i vatre, a sistem osvetljenja i senčenja je realniji (dostigao je nivo igre Doom 3 i Quake 4). Alpha teksture (ograda, trava, drveće, šine) kojih ima u velikim količinama, sada imaju obavezno napredno filtriranje, pa izgledaju znatno bolje u odnosu na iste iz prethodnih epizoda. I fizika je znatno poboljšana, mada u ovom aspektu ni inicijalni Half Life 2 nije zaostajao. Druga epizoda donosi i multi-core podršku, a sama igra je jako dobro optimizovana.
F.E.A.R 1.08
Ova fantastična, grafički impresivna i veoma zahtevna horror igra je dobila zasluženo mesto u našem test batch-u. Testirali smo u “ugrađenom” walkpath demou, koji ispisuje prosečan broj frejmova. Naravno, sve moguće opcije vezane za grafiku, fiziku i zvuk smo stavili na maksimum – sve osim mekih senki, koje ne rade sa antialiasingom.
S.T.A.L.K.E.R
Ova pomalo bagovita igra, nakon dugog perioda razvoja, stiže na PC mašine širom sveta. Neke je razočarala, ali je činjenica da predsavlja popriličan stres za mašinu, a pogotovo grafičku karticu. Koristi napredne Shader Model 3.0 “efekte”, ali se izrazito oslanja i na klasičan multitexturing i fiksne funkcije (nije ni čudo, jer je razvoj na igri počeo kada je DirectX 7 bio aktuelan). Mi smo tesitrali sa maksimalnim nivoom detalja dostupnim iz same igre. Testiranje obavljamo fraps-om, nakon čega dajemo prosečan framerate tokom prvih 30 sekundi trčanja, a test lokacija je deo mape sa samog početka igre.
The Elder Scrolls IV: Oblivion
O ovoj igri zaista ne treba mnogo pisati, jer je u pitanju ne samo najbolja RPG igra iz prvog lica i dostojni naslednik prethodnih igara TES serijala, već i grafički revolucionaran naslov. Oslonjen na poslednju verziju Gamebryo engine-a (koji koriste i mnoge druge igre – Sid Meier's Pirates!, Civilization IV, Dark Age of Camelot itd.), Oblivion je sposoban da prikaže ogromna prostranstva prepunu bogatom florom i faunom uz nezapamćeno visok nivo detalja. Igra podržava i Havok engine za kalkulaciju fizike (nažalost, za sada samo od strane CPU-a). Zbog tehnike na koju su Bethesdi ponosni, SpeedTree, koja svaki put drugačije generiše raspored drveća i manjih stena, benchmark-ovanje u ovoj igri je pomalo nekonzistentno, te zahteva veći broj ponavljanja. Mi smo se odlučili za merenje performansi unutar veoma guste šume, u kojoj prolazimo između dva Eyelid-a (podzemne prostorije drevne civilizacije) na konju, sve posmatrajući iz prvog lica (postoji i mogućnost igranja iz trećeg lica). Svaka od tri vožnje je merena Fraps-om, zabeleženi su srednji rezultati, a onda je dat prosek. Naravno, koristili smo najviši nivo detalja koji je moguće postići iz same igre (bez self-shadows, koje nisu lepo rešeni), uključujući i HDR+AA, gde je to moguće.
Need For Speed: Carbon
A za sve ljubitelje Need For Speed serijala, evo i rezultata iz novog nastavka ove popularne franšize – Carbon. Igra je inicijalno razvijana za Xbox360 i znatno je grafički poboljšana u odnosu na Most Wanted (mnogima se doduše ne sviđa motion blur); teksture su detaljnije, broj objekata koji su animirani znatno veći, AI NPC-ova je bolji, a broj poligona je tri puta viši uz bolje efekte. Tu su i neki lepi noviteti kao što je DOF, HDR i poneka paralax occlusion mapa… Pogledajmo rezultate iz verzije 1.2.
Overclocking
GeForce GTX 280 kartica je podešena na 602 / 1296 / 2106 MHz, a mi smo uspeli da je ubrzamo do fantastičnih 665 / 1395 / 2420 MHz. Izuzetan rezultat za GPU ovih gabarita, koji je tek počeo da se proizvodi. Pogledajmo rezultate:
Zaključak
Sa GeForce GTX280 akceleratorom, NVIDIA je ponovo prevazišla sva očekivanja igrača i ljubitelja brze 3D grafike širom planete. Nema nikakve sumnje u činjenicu da se smena na tronu desila 16. juna 2008. godine, kada je predstavljen najjači GT200, perjanica GeForce ponude. Sa gigabajtom video memorije, dvostruko širom memorijskom magistralom, 88% većim brojem shader jezgara, mogućnošću simultanog izvršavanja čak dva i po puta više tredova i eliminisanim problemima sa dual issue i geometry shader-om, GTX280 je svakako najpoželjnija igračka kartica i jedan od najimpresivnijih hardverskih komponenti na desktop tržištu uopšte. Iako je štedljiva u idle režimu, ume prilično da se zagreje i povuče dosta “struje” kada se optereti, mada je to i bilo očekivano od GPU-a koji ima gotovo milijardu i po osnovnih poluprovodničkih elemenata, a koji je jednostavno morao da bude takav kako bi na pravi način stao na tron i bio dostojan naslednik čuvenog G80 čipa. Njegove mane su zaista visoka cena i drajveri kojima je potrebno još mnogo dorade da bi kartica pokazala koliko zaista ume i može. Međutim, čak i uz sve svoje mane, GeForce GTX280 je daleko bolji proizvod od DualGPU rešenja kakav je GeForce 9800GX2, ali i Radeon HD3870X2. Ruku na srce, AMD-ov najbrži akcelerator i jeste skoro dva puta jeftiniji, pa joj se, uprkos “boljkama” koje su nažalost još uvek standardne za DualGPU konfiguracije (loše skaliranje, problemi u pojedinim igrama i jednostavno – nepredvidivost), može progledati kroz prste. Vredna pomena je i Radeon HD3850X2 kartica koja je još jeftinija, a u najvećem broju slučajeva, kada se overklokuje, nudi iste ili bolje performanse od HD3870X2 modela na default-u. GeForce 9800GX2 jeste brže rešenje od AMD-ove perjanice, ali ima nepovoljniji odnos cene i performansi. Međutim, čak i ova kartica, koja se trenutno može kupiti za oko 450 evra, ima daleko bolji indeks isplativosti od novog GeForce GTX280 akceleratora, koji je na tržištu bar 100 evra skuplji. NVIDIA jednostavno mora da smanji cenu ovim proizvodima, jer će u suprotnom CrossFire varijante Radeon HD4850 i HD4870 akceleratora koji su počeli da se pojavljuju na tržištu, predstavljati atraktivniju alternativu.
GeForce GTX280 ima potencijalnog konkurenta i u sopstvenom “dvorištu”, a to nije GeForce 9800GX2, već GeForce 8800 GTS i GT u SLI režimima. Sve to nikako ne znači da GTX 280 nema budućnost. Naprotiv, GTX 280 tek može da pokaže zube, jednom kada se pojave kvalitetniji drajveri, zahtevnije igre (Crysis već sada, lepo pokazuje koliko GT200 može biti brži od G92) i kada cena ovih kartica bude bliža količini novca od kojeg će širi krug korisnika biti spreman da se odvoji zarad posedovanja najjačeg grafičkog akceleratora koji može da se kupi. GT200 svakako ima budućnost, a NVIDIA dosta ulaže u razvoj CUDA jezika i radi na konkretnim stvarima koje će lagano izmeniti način na koji doživljavamo video igre (PhysX je najbolji primer). Kada yield za GT200 GPU bude bolji, a pogotovo kada NVIDIA izbaci njegov optical shrink u vidu 55-nm verzije, bićemo svedoci daljeg porasta performansi i obaranja cene, ali i potrošnje (iako 55-nm retko kada omogućava bitno više performanse), jer sadašnjih 260W, koliko GeForce GTX280 može da povuče pod punim opterećenjem, nikako nije zanemarljiva stavka. Međutim, GT200 se već sada može isplatiti za kompaniju NVIDIA, jer će se uskoro naći na skupljim Quadro karticama i Tesla GPU/GP-GPU computing klasterima. U svakom slučaju, NVIDIA je ponovo u samom vrhu i to sa SingleGPU rešenjem. AMD se odlučio da u high-end-u bude prisutan isključivo sa DualGPU karticom. Kada se pojavi Radeon HD4870X2, biće zanimljivo uporediti performanse i isplativost ova dva modela. Sada, a verovatno i još neko vreme, GeForce GTX280 će biti usamljen na tronu…
ASUS karticu na test ustupio Pakom Distribution System