NVIDIA GeForce GTX260 - MSI

NVIDIA GeForce GTX260 - MSI

GeForce GTX260 je baziran na najjačem grafičkom procesoru kompanije NVIDIA, kome je spolja i iznutra veoma sličan, ali nudi nešto manje sirove snage. U proseku je oko 15% sporiji i 40% jeftiniji od najjačeg GeForce GTX280 modela. Međutim, da li je dovoljno brz i dovoljno konkurentan da se izbori sa već provereno odličnim AMD Radeon HD4870 modelima, pogledajte u našem detaljnom testu...

    Sadržaj

      Branko Maksimović

      NVIDIA GeForce GTX260 – MSI N260GTX

      NVIDIA nikako ne uspeva da ponovi uspeh koji ju je pre dve godine iznova proslavio. 18. novembar 2006. godine, kada je predstavljen GeForce 8800 GTX, tj. G80 GPU i zaposleni u kompaniji ATI će verovatno dugo pametiti, jer su već tada znali da će morati da priznaju poraz i obelodane da nemaju nameru da se takmiče sa rešenjima koja su na granici isplativosti i da će se njihov najjači akcelerator takmičiti, tj. biti pozicioniran ka slabijem G80 modelu, GeForce 8800 GTS kartici. Za protekle dve godine, čitaoci Benchmark sajta su bili u prilici da pročitaju veliki broj testova G80 baziranih akceleratora, a nedavno je objavljen i izuzetno dobro “prihvaćeni” uporedni test čak šesnaest GeForce 8800 kartica iz “G92 generacije”. GeForce 8800 je u svom izvornom obliku, sa istim referentnim nivoom performansi (ne vezano za to da li je baziran na G80 ili G92 grafičkom čipu), bio aktuelan preko 20 meseci, što je u IT industriji izuzetno dug period. Kao što je poznato, prvi izdanci “devete” generacije GeForce kartica – 9800 GTX i GX2 su bazirani na reviziji ovog G92 čipa i to u njegovom neizmenjenom obliku (drugi stepping-a i dizajnu štampane ploče). Samo revizije G92 procesora, memorijske, ROP i shader konfiguracije i radne učestanosti razdvajaju jeftini GeForce 8800 GS (120 evra) od akceleratora GeForce 9800 GTX, koji je do skoro predstavljao perjanicu ponude, a sada se i zvanično seli u mainstream. Dežurni kritičari su “na nož” dočekali G92 bazirane high end modele, pogotovo preglomazni GX2. Jer, razlika između starijeg i fizički većeg G80 i još uvek aktuelnog G92 procesora nije bezazlena – oba imaju 128 unified shader-a i isti broj teksturnih i render back- end particija, ali je kod G92 memorijska magistrala 256-bitna, dok je kod G80 šira za 128 bita (GPU ima dva crossbar izvoda više što rezultuje 384-bitnim bus-om). G92 je izrađen u sitnijoj, 65-nm litografiji, pa njegove streaming processor jedinice rade na višim učestanostima (oko 1800 – 2000 MHz), u odnosu na iste kod G80 čipa (1350 – 1500 MHz), što je bilo dovoljno da se kompenzuje uža memorijska magistrala. No, nekoliko meseci pre isteka drugog rođendana G80 čipa, NVIDIA je pripremila pravog naslednika – GT200 GPU, koji pokreće GeForce GTX280 i GTX260 modele. GT200 je bez ikakve dileme najveći procesor koji se proizvodi, a da je namenjen desktop PC tržištu – ovaj GPU monstrum čini 1.4 milijarde tranzistora i on je nekoliko puta veći od Intel Penryn procesora.

      Međutim, NVIDIA trenutno nema razloga za slavlje, jer u svim cenovnim kategorijama, njihov konkurent ima bolju ponudu. Počev od najjeftinijih modela, koji kvalitetom nadmašuju integrisana rešenja, a koštaju tek tridesetak evra, sve do skupog, ultra-brzog X2 modela sa dva gigabajta GDDR5 memorije na efektivnom taktu od gotovo četiri gigaherca, sa kojim ni Crysis u XHD rezoluciji nije nezamisliv. Još sa Radeon HD3800 familijom, AMD ojačava ponudu i predstavlja novu koncepciju u poslovanju, ali i usavršava 55-nm proizvodni proces. Još tada, AMD predstavlja podršku za DirectX 10.1. Sa familijom HD4800, a onda i HD4600, AMD zadaje dva dodatna snažna udarca na konkurenta, koji ubrzano radi na reviziji GT200 jezgra i predstavlja model kome daje nesrećni naziv GeForce GTX260 Core 216. Pa ipak, od kada su stigli GeForce GTX280 i GTX260 modeli na naše tržište, do danas, dosta toga se promenilo, a ponajviše cena ovih kartica. U novom svetlu, potrebno je ponovo proveriti šta to nude, jer su se cenovno smestili u neke druge klase, pa od njih imamo i nešto drugačija očekivanja…
      GTX260 – slabiji ili malo manje slabiji brat

      Kao što je već poznato, predstavljanje GeForce GTX2x0 serije kartica ostalo je u senci fenomenalnih rezultata i odnosa cene i performansi koje nudi Radeon HD4800 serija, bez obzira na to što ove kartice u startu nisu pripadale istim klasama. NVIDIA je užurbano predstavila GeForce 9800GTX+ dok GeForce 8800 GT i GTS 512 menja GeForce 9800GT sa jačim marketinškim akcentom koji se baca na PhysX. GeForce 9600GT se cenovno pozicionira još niže. Fantastični Radeon HD4870, koji na tržište stiže par nedelja nakon HD4850 modela, pokazao se kao znatno brži od svog “manjeg i tanjeg brata” zahvaljujući prebrzoj GDDR5 memoriji, pa se pokazalo da mu i takmičenje sa većom i skupljom GeForce GTX260 karticom – ne predstavlja problem. To je svakako problem za NVIDIU i partnere jer je GeForce GTX260 kartica bazirana na istom GT200 čipu kao i monstrumski GTX280 te su troškovi u proizvodnji slični. Bez obzira na to, NVIDIA nema izbora i obara cenu GTX260 modela sa 449 na 399 dolara, a zatim i na 349 dolara, dok njeni partneri samoinicijativno spuštaju cenu i na 299 dolara. Po prvi put u istoriji kompanije desilo se da jedan GeForce pojeftini za 50% u roku od samo nekoliko sedmica. Ovo je za NVIDIA-u zabrinjavajuć podatak, ali kupce svakako ne zanima koliko zarađuje američka kompanija, koju je interna kriza zadesila u najnezgodnijem periodu u kome, kao što znate, vlada i opšta ekonomska kriza.

      O velikom i ne toliko slavnom GT200 grafičkom čipu, koji čini gotovo milijardu i po tranzistora, već smo detaljno pisali u testu GeForce GTX280 akceleratora. GTX260, model koji ovom prilikom opisujemo, zapravo je identična kartica sa nešto manje memorije i „ponekim“ teksturnim, ROP i shader blokom manje. Kao i ranije, NVIDIA je krenula od najjačeg GeForce GTX280 modela i oduzela mu dva memorijska čipa, ostavljajući tako na kartici 896 MB, ali i automatski isključujući 2 x 32-bit memorijska crossbar izvoda sa GPU-a. GPU je sa 602 usporen na 575 MHz, a memorija sa efektivnih 2200 MHz dovedena na 2 GHz. Unutar grafičkog čipa, dva TMU i dva ROP bloka su ostala neaktivna, pa je NVIDIA mogla da iskoristi i delimično neispravne primerke GT200 čipa kao pogon za GeForce GTX260 modele.
       

      Ako je GeForce GTX260 samo malo sporiji od inače odličnog jačeg brata, šta može biti problem za ovu karticu? AMD Radeon HD4870, naravno. Nova GDDR5 memorija donosi veći „bandwidth po pin-u na layout-u čipa“, a naravno i veću propusnu moć: GDDR3 i GDDR4 generacija je maksimalno mogala da “provuče” 4GB/s po pinu, dok GDDR5 može do osam, što znači da uparivanje GDDR5 memorije na 256-bitnu magistralu daje iste rezultate kao i upotreba GDDR3 memorije na 512-bitnom bus-u. Ovo omogućava još viši memorijski bandwidth, te u tom smislu, Radeon HD4870 možete posmatrati i kao karticu koja ima GDDR3 memoriju na taktu od 1000 MHz, ali sa 512-bitnom memorijskom magistralom. Kao što znamo, sam PCB je znatno kompleksniji kada GPU koristi 512-bitnu magistralu – broj slojeva i izvoda ka memorijskim čipovima se u tom slučaju bitno povećava. GeForce GTX260 kartica bazirana na istom GT200 čipu i štampanoj ploči kao i monstrumski GTX280. Kako se nije pokazao kao ekstra isplativ, NVIDIA GeForce GTX260 modelu “podaruje” dodatni broj shader jedinica u jezgru, a onda i tiho lansira novi model – GTX260 Core 216.

      GT200 rekapitulacija

      NVIDIA opisuje ono u šta je GPU evoluirao sa dve fraze: Gaming Beyond i Beyond Gaming. Ako dovoljno poznajete engleski jezik, znaćete tačno na šta se misli. Prva fraza oslikava današnje igre i igre koje nas uskoro očekuju, odnosno već aktuelni hiper-realistični gaming. Druga fraza, „više od igranja“, označava upravo inicijativu kojoj teži ne samo NVIDIA, već čitava IT industrija. Jasno je da je i vodećem proizvođaču GPU-ova vrlo stalo do toga da se grafički procesori uskoro uposle i na (svim) drugim poljima u kojima je neophodan intenzivan computing. Jer, kada bi Photoshop, 3DS Max, AutoCAD ili Premiere tokom renderinga ili kalkulacije filtera koristio GPU, a ne CPU, onda bi postalo praktično nebitno koji se centralni CPU koristi da „vozi Windows“. Zamislite koliko je veliko to novo tržište za NVIDIA-u! Cela priča oko vezanosti IT industrije za „x86“ je morala da se završi pre deset godina, ali kad već nije, možda bi CPU mogli da zadržimo u sistemu, kao nekakvu zaostavštinu (legacy), dok bi se za ozbiljnije taskove koristio ionako (već duži vremenski period) moćniji GPU. NVIDIA ne smatra da je GPU dovoljno ozbiljan proizvod samo za običnog korisnika, već se može iskoristiti i u drugim industrijama. Mnogo je novca potrošeno na farme superkompjutera, koje sada mogu biti zamenjene energetski efikasnijim GPU-om. U ovom trenutku i sama skraćenica – GPU počinje da nam bode oči. Jer, ako GPU preraste samog sebe, možda ga više nećemo tako oslovljavati.

      NVIDIA je, nakon uspešnog lansiranja G80 čipa, krenula na razvoju nove generacije; G92 je bio samo spin-off, kome su teksturne i keš jedinice usavršene onim što je do tada postignuto na razvoju GT200 čipa. Dodati su Hybrid Power i poboljšani UVD engine, ali je za fantastično veliki next gen GPU bilo neophodno mnogo više. Cilj koji je NVIDIA postavila svojim inženjerima je da kreiraju čip koji će na akceleratoru odgovarajuće cene davati dva puta veće performanse od GeForce 8800 GTX-a. To znači da količina memorije ne sme da bude nelogično velika, memorijska magistrala mora biti dovoljno skromna kako layout ne bi uslovljavao PCB sa previše slojeva, a sama memorija ne sme da bude ona iz poslednje, polu-eksperimentalne serije koja bi po gigabajtu koštala toliko da sama kompanija na prodaji pravi gubitke. GPU mora imati solidan yield, kako partneri ne bi bili u deficitu u trenutku kada krene promocija i na kraju – arhitektura mora biti dobro balansirana. Jer, kao što kažu – moć ne znači mnogo bez balansa. Balansiranje znači poboljšanje efikasnosti arhitekture kada je kada je prostor koji operativni blok CPU-a zauzima na die-u, ali i kada je efikasnost po utrošenom vatu u pitanju. DirectX10 arhitektura se mora razraditi, a performanse geometrijskog procesora moraju biti značajno više. Takođe, ALU jedinice bi trebalo da budu još efikasnije kada je rad sa CUDA aplikacijama i GPU fizikom u pitanju. I na kraju, NVIDIA je zahtevala da se energetski menadžment GPU-a odradi – od nule.

      Nije više bilo dovoljno da GPU samo uspori u 2D režimu, već se potrošnja u „mirovanju“ mora približiti vrednostima od oko 1-2% od maksimalne moguće potrošnje. Nivo performansi koje bi taj novi GeForce ponudio igračima i timovima koji razvijaju igre omogućio bi fantastičan nivo detalja: developeri bi mogli da stave mašti na volju kada su animacija i skinning u pitanju, a posebnu pažnju bi mogli da usmere na facijalnu animaciju, kao i na simulaciju tkanina i tečnosti. Broj poligona ne mora da bude sakriven displacement mapama, a ni na do skora veoma intenzivnim i retko viđanim volumetric efektima više ne bi moralo da se štedi (dim, magla, oblaci i sl.). Fizika je još uvek u dosta ranom stadijumu u igrama (rekli bi smo, dosta manje nego grafika) – svako raspadanje materijala, oštećenja od eksplozija na velikim građevinama i sl. još uvek je pre-kalkulisano. Zamislite igru u kome bi se apsolutno svaki objekat ponašao kao u realnom svetu! Bukvalno svaki first person shooter bi onda morali da odigramo ponovo, zar ne? Simulacija atmosferskih efekata je takođe zapostavljana – kiša i sneg uglavnom padaju u beskonačnost, ali se na akumuliraju u određenoj 3D sceni. Isto tako, do sada nismo viđali uverljive i ne-predefinisane scene u kojima, recimo drveni objekat gori dok se ne pretvori u pepeo. Iako je dosta napredovao, sistem osvetljenja i dalje može biti daleko realističniji. AMD je preko svojih DirectX10.1 ekstenzija kreirao odličan global illumination i NVIDIA je svom R&D timu naložila da kreira bolji i napredniji kroz standardni DirectX 10. Podrška za DisplayPort iz GPU-a podrazumeva i prikaz rezolucija većih od 2650 x 1600, ali je ovoga puta i podrška za rad u 3D rezolucijama većim od ove, takođe dodata. GT200 podržava i rad sa 10-bitnom kolor paletom (po kolornom kanalu) i to ne samo interno, već i na izlazu. Podrške za SLI i 3-way SLI se podrazumevaju.

      CUDA je jedna od osnovnih i konkretnih inicijativa da se GPU uposli na izvršavanju kalkulacija za koje tradicionalno bio zadužen centralni procesor. Kako je i krajem devedesetih godina prošlog veka, CPU izgubio bitku od GPU-a kada je kalkulacija u 3D scenama (transformacija i osvetljenje), tako se i sada, više od decenije kasnije, još jedan bitan deo posla preuzima od CPU-a. CUDA, ekstenzija popularnog programskog jezika „C“ predstavlja funkcionalan i vrlo dobro osmišljen alat za programiranje. Kada kažemo programiranje, to znači da nismo izuzeli ni rekompajliranje postojećih aplikacija napisanih, recimo, kroz Visual Basic. Sintaksa je gotovo identična, pa programeri koji su „odrasli“ na C-eu, mogu da obezbede svojim korisnicima značajan speed-bump „prostim“ rekompajliranjem svojih programa. Ozbiljno se šuška i da će nova verzija nezamenljivog Photoshopa (CS4) imati mogućnost da sve kalkulacije izvršava uz pomoć GPU-a! Za medicinsku inicijativu Folding@home su gotovo već svi čuli, ali manje čitaoca je upoznato sa primerom RapidHD video softvera, transcoding aplikacije koju je razvila kompanija Elemental, a koja rekompresuje HD video materijal i do 10 puta brže na high-end GPU akceleratoru nego na najbržem četvorojezgarnom Intel Core 2 procesoru. Ovo je, već sada, samo vrh ledenog brega, jer i mnoge inženjerske, naučne, finanskijske i medicinske aplikacije pokazuju veliki ili enormni porast performansi kada se za kalkulacije koristi GPU umesto centralnog procesora.

      GT200 GPU

      GT200 nećemo opisivati u toliko sitne detalje, jer na nivou shader-a nije napravljeno mnogo izmena. Feature set je uglavnom identičan, pa bi vas molili da detaljno proučite naš najdetaljniji G92-round-up test koji sadrži sve informacije o G92 čipu, njegovoj arhitekturi, unified shader-ima, prednostima DirectX10 API-ja i najčešće sretanim karticama baziranim na njemu. Pogledajmo zvaničnu tabelu sa osnovnim karakteristikama novog GPU-a u dve osnovne konfiguracije i videćemo d je broj shader jedinica povećan za gotovo duplo (ima ih 240), količina memorije i širina memorijske magistrale je uvećana dva puta (ili oko 25% u odnosu na GeForce 8800 GTX). Sve to ne bi imalo mnogo smisla da i kritični delovi GPU-a kada su gaming performanse u pitanju, a to su TMU i ROP jedinice, nisu uvećane i to poprilično. GeForce GTX280 tako poseduje čak 32 render back-end unit-a i fantastičnih osamdeset teksturnih jedinica! Novi GPU ima površinu od čak 567 kvadratnih milimetara.

      GeForce GTX 200 serija kartica integriše novu NVIDIA unified shader generaciju grafičkih procesora (G80 i G92 predstavljaju prvu generaciju). NVIDIA tvrdi da GT200 pruža, u proseku, oko 50% više performanse od najviše klase GeForce 8 i 9 familija. Izrađen u TSMC-ovom 65-nm litografskom postupku, ovaj monstruozni GPU čini čak 1.4 milijarde tranzistora i predstavlja najmoćniji i najkompleksniji GPU koji je ikad proizveden i ponuđen potrošačkom tržištu. Takođe, GTX 200 GPU je i najveći procesor koji je “Tajvanska Semikonduktorska Kompanija” ikad proizvela. Prva unified shader GPU arhitektura kompanije NVIDIA je bila bazirana na SPA fragmentima (Scalable Processor Array), pa je tako obezbeđena i laka derivacija na manje složene, tj. manje snažne pripadnike namenjene nižim cenovnim segmentima. I druga unified shader generacija je bazirana na sličnom konceptu, jer u biti predstavlja njenu rafiniranu i poboljšanu verziju. Na dijagramu koji možete videti, uočavamo deset velikih celina, grupa, koje NVIDIA naziva thread processing cluster ili TPC. TPC se može nazvati i shader blok unutar G80 čipa, a kod ovog, dve godine starog GPU-a prisutno ih je osam. Ako bliže pogledamo TPC, uočićemo niz zelenih blokova – stream processor jedinica.

      Kao što bolje možete videti na dijagramu dole, na kome je TPC izdvojen i uvećan, svaki od deset thread klastera poseduje dva puta po četiri shader odnosno streaming jedinice. S obzirom na to da je broj klastera u odnosu na G80 veći za samo dva, neki će se pitati kako to da je onda broj shader jedinica veći za skoro dva puta. Trik je u tome što je kod GT200 GPU-a, broj streaming multiprocessor jedinica u okviru shader-a povećan sa dva na tri, pa je računica u slučaju G80 bila ovakva: 8 klastera x 8 shader jedinica x 2 streaming multiprocessor unit-a = 128 “SP”. Ista jednačina u slučaju GT200 izgleda ovako: 10 x 8 x 3 = 240. Braon kvadratići označavaju jedinice za adresiranje i filtering tekstura, ali je odnos SP prema TF jedinica povećan za 50%, sa 2 : 1 na 3 : 1. To se možda neće odraziti dobro na performanse u starijim igrama, jer je efektivan broj teksturnih jedinica samo blago povećan u odnosu na G80, dok je shader moć otišla “nebu pod oblake”. Očigledno je da se trend povećanja shader moći unutar GPU-ova novijih generacija, nastavlja, a po prvi put je on ispraćen i u igrama – ako malo bolje razmislimo, rezolucija tekstura se nije menjala (naviše) već nekoliko godina, ali je broj shader rutina i post-processing efekata u igri značajno veći. Ako ponovo pogledamo dijagram iznad, uočićemo osam ROP particija uokvirenih plavom bojom. Broj raster operator ili render back-end particija kod G80 je šest, dok ih kod G92 ima svega četiri (zbog uske memorijske magistrale veći broj ne bi bio ni iskorišten). Kod GT200 čipa, ovaj broj se konačno penje na osam, a ako pogledamo vezu ovog broja sa širinom magistrale, biće nam jasnije: G92 – 256-bit bus -> 4 ROP particije, G80 – 384-bit bus -> 6 ROP particija, GT200 – 512-bit bus -> 8 ROP particija. Svaka ROP particija može da “izbaci” četiri piksela po ciklusu, što znači da je ukupan broj ovih “jedinica” kod GT200 – 32. Svaka od ovih particija je direktno vezana na jedan izvod crossbar memorijskog kontrolera širine 64 bita. Pomenućemo još i da svaka od streaming multiprocessors jedinica takođe sadrži texture fetch i jedinice za filtriranje (ali se one mogu koristiti za ne-grafičke kalkulacije), a svaki thread processing cluster ima i lokalnih 16 KB keš memorije koje dele sve SP jedinice u njemu.

      Iako ne donosi zvaničnu podršku za DirectX10.1, NVIDIA smatra da ima tehnološki napredniji GPU od konkurenta. Kada smo videli global illumination demo na Radeon HD3850 karticama, bili smo gotovo sigurni da će i NVIDIA ponuditi slično rešenje ili bar “svoju verziju” DirectX10+ feature-set-a, ali se to nije desilo ili bar, za sada, nije zvanično predstavljeno. NVIDIA se definitivno više fokusirala na GP-GPU priču, ali i podizanje performansi u globalu. Osim GI demoa, DX10.1 proširuje mogućnosti standardne verzije ovog API-ja, te ukida neka osnovna ograničenja, nudi bolju kontrolu antialiasing-a direktno iz GPU-a. NVIDIA navodi da GT200 poseduje neke od mogućnosti DX10.1 API-ja, ali nedovoljno da bi on mogao da se nazove DX10.1 kompatibilnim. Iako je NVIDIA svakako dovoljno velik igrač da bi sebi mogla da dozvoli da jednostavno ignoriše i ne AMD-ovu, već Microsoft-ovu zvaničnu specifikaciju, smatramo da je ovo mali ali nizak udarac za razvoj ovog API-ja i igara na PC platformi uopšte. Ne samo da je čitava inicijativa vezana za globalnu iluminaciju real-time 3D scena usporena, već je i odloženo rešenje problema antialiasing-a u igrama koje koriste tzv. deffered shading (kakve su neke Unreal Engine 3 igre). NVIDIA čak i zvanično navodi da smatra da DirectX10.1 i nije toliko važan. Za one koji vole “prljave” detalje, evo i dopisa iz njihovog zvaničnog dokumenta:

      Note: DirectX 10.1 Not Supported
      DirectX 10.1 is not supported in GeForce GTX 200 GPUs. DirectX 10.1 includes incremental feature additions beyond DirectX 10, some of which GeForce 8/9/200 GPUs already support (multisample readback for example). We considered DirectX 10.1 support during the initial GPU design phase and consulted with key software development partners. Feedback indicated DirectX 10.1 was not important, so we chose to focus on delivering better performance and architectural efficiency.

      NVIDIA GeForce GTX280 – ASUS – Paralelizam 2.0

      Paralelizam 2.0

      Jedna od najbitnijih dobrih osobina G80 i G92 GPU-ova je fantastično uređen paralelizam. GT200 je, naravno, u svemu tome još bolji, pa može da izvršava preko 30 hiljada threadova! Ako to ne treba nazvati HyperThreading-om, onda zaista ne znamo šta zaslužuje da se tako nazove. Kontrolna logika GPU-a, Thread Scheduller brine o tome da sve streaming jedinice budu u svakom trenutku 100% opterećene. Svaka SM jedinica može da izvršava do 1024 različita thread-a u datom trenutku, dok je kod G80 i G92 ovaj broj bio ograničen na 768 po SM-u, odnosno na oko 12 hiljada po GPU-u. Zapravo, specijalna jedinica, koju NVIDIA naziva IU, grupiše thread-ove u thread-blokove (po 32), koji se nazivaju “warp”. IU operiše sa maksimalno 32 warp-a (1024 thread-a), po streaming multiprocessor klasteru, pa tako ponovo dolazimo do cifre od oko 30 hiljada thread-ova koji se paralelno mogu izvršavati u bilo kom trenutku. Osnovna jedinica mere za procesiranje thread-a unutar GPU-a je upravo warp, a on se može poistovetiti sa pikselom, ako se GPU bavi grafičkim kalkulacijama. Ovakva teška paralelizacija i nije iznenađujuća ako znamo da je broj tranzistora u odnosu na G80 više nego duplo veći (681 milion prema 1400 miliona), kao i da sam GPU ima površinu od čak 567 kvadratnih milimetara. Ovako veliki GPU izrađen u sada već starom 65-nm procesu nije jeftin za proizvodnju, a i količina škart primeraka verovatno još uvek nije mala, a kamoli zanemarljiva.

      Kao što smo već napomenuli, svaki thread processing cluster ima tri sopstvena shader multiprocessor unit-a (SM-a), osam teksturnih i filter jedinica i nepoznatu količinu prvostepene keš memorije. Dodatnih 16K deljene memorije koristi se za internu komunikaciju između SM-ova prilikom ne-grafičkih kalkulacija, što je još jedan indikator koliko NVIDIA ulaže i veruje u uspeh sopstvene GP-GPU inicijative. U odnosu na SM kod G80 čipa, register keš je dvostruko povećan. Shader ALU jedinice su i ovoga puta skalarnog SIMT tipa (single instruction, multiple threads), što znači da se svaka vrednost vezana za informaciju o pikselu računa posebno (x, y, z, r, g, b, alpha…). SIMT sistem procesiranja podrazumeva da UI jedinica u slučaju da se pojavi warp blok višeg prioriteta (zahteva se niža latencija), može da ga “u letu” zameni onim koji se trenutno obrađuje i postavi, čime se praktično maskira latencija i povećava efikasnost. Ovaj princip je prvi put viđen kod G80 i o njemu smo već pisali, ali je dosta usavršen kod G92 čipa i dodatno poboljšan kod GT200 kako bi bio pogodan i za ne-grafičke primene. S obzirom na to da je G92b i zvanični GeForce 9800 GTX+ model prvi GeForce 9 koji podržava CUDA computing, neće biti iznenađujuće ako kasnije saznamo da je UI sistem i kod G92b čipa na ovaj način unapređen i da G92b nije samo običan optical shrink G92 čipa.

      Svaka SP jedinica unutar G80, G92 i GT200 čipa može da izvrši dve operacije nad brojevima sa pokretnim zarezom u sekudni (FLOPS-a) po kloku kroz multiply-add instrukciju (MAD). Međutim, kako SP podržava i kompleksnije setove za transcendente i interpolaciju (MUL), u istom ciklusu može da “provuče” još jedan FLOPS. U kombinaciji kada shader program ili neka druga rutina izvršava MAD+MUL simultano i ako se ovakve instrukcije izvršavaju redom, u teoriji će GeForce 8800 GTX izbaciti 518 GFLOPS-a, a GTX 280 čak 933 GFLOPS-a. U overklokovanom SLI režimu, dve ovakve kartice imaju processing moć od dva teraflopsa, što je zaista impresivan podatak. U odnosu na G80 i G92, kontroverzni dual-issue (situacija kada izvršavanje MUL instrukcije u svakom narednom ciklusu nakon izvšenog MAD+MUL seta, nije moguć), je poboljšan, što se najbolje može primetiti u teorijskim testovima 3DMark Vantage programa kada se uporede GeForce 8800 GTX i novi GTX 280. Još jedna očigledna mana G80 i G92 GPU-ova je anulirana pojavom GT200 čipa. NVIDIA u svojim grafikonima pokazuje da G80 ima problema u sintetičkim testovima koji mere efikasnost geometry shader jedinice, jednog od ključnih delova zaduženih za adekvatnu DirectX 10 funkcionalnost. Čak i realno sporiji Radeon HD3850 u ovim testovima ostavlja G80 kartice daleko iza sebe. NVIDIA zna u čemu je problem, pa je kod GT200 čipa povećala bafer za stream output geometry shader jedinice za čak šest puta! Isto tako, NVIDIA priznaje da je i dual issue bio veliki problem G80 procesora i njegovih derivata, koji je sada rešen.

      Velika computing moć novog procesora je iskorištena i za povećanje preciznosti brojeva sa kojima se operiše. Po potrebi, u situacijama koje to nalažu (a to ne mora da bude vezano za grafiku) GPU može da radi u većoj FP preciznosti (koja je sada komplementarna po IEEE 754R matematičkom standardu, što podrazumeva 64-bitno dvostruko precizno FP procesiranje). U ovu svrhu, svaka shader multiprocessor jedinica sadrži posebne jedinice koje dopunjuju postojeće ALU procesore u izvršavanju matematičkih operacija uz dvostruko veću preciznost. Uz ovakvu preciznost, sirova matematička moć GPU-a nije tako velika kao kad se radi sa FP16 ili FP24 formatom, ali NVIDIA navodi da i tada GT200 kalkuliše do 90 GFLOPS-a, što je uporedivo sa mogućnostima osmojezgarnog Xeon procesora.

      Kada se proizvodi tako veliki čip, nekada se i dodaju još jedan ili dva klastera kako bi se poboljšao yield odnosno broj upotrebljivih čipova, međutim kod GT200 to nije slučaj. Da GT200 ima 12 umesto 10 TPC jedinica, svi primerci sa jednim ili dva nefunkcionalna TPC-a bi mogli da prođu. Svakako, NVIDIA će i dalje primerke čipova sa jednim ili dva TPC-a manje moći da markira kao GTX260, dok će potpuno ispravni čipovi ići na dalje testiranje za najjači model. Ovako veliki GPU svakako ima veliku potrošnju, a zvaničan TDP je frapantnih 236W pod punim opterećenjem, dok je u idle režimu potrošnja svega 25W, što je daleko manje od 65W koliko je u istim situacijama trošio G80. GT200 stiže sa podrškom za HybridPower, ali je ona u odnosu na G92 dodatno poboljšana, a kod novog čipa sve je dovedeno na još viši nivo. Procesor sada skalira potrošnju i broj aktivnih jedinica konstantno i prema upotrebi, a u igri je još više nivoa opterećenosti, pa je dobar deo GPU-a potpuno neaktivan kada je u 2D režimu, samo malo “budniji” kada se prikazuje 3D interfejs Windows Vista OS-a (pod uslovom da u sistemu nema integrisane grafike – u tom slučaju je opet potpuno neaktivan, a Vista Aero prikazuje integrisani čip na matičnoj ploči), još aktivniji kada se prikazuje Blu-Ray film i još aktivniji pri prikazu manje zahtevne 3D grafike. Verujemo da je 100% uključen kada se igra Crysis, naravno. Prvi nivo aktivnosti GPU-a (Idle or 2D( ima potrošnju od oko 25 W, gledanje HD ili Blu Ray videa zahtevaće potrošnju od oko 35W. Poseban sistem analizira pakete podataka koji se šalju GPU-u na obradu i shodno opterećenju bira performance mod, odnosno odgovarajuću frekvenciju i radni napon, ali i isključuje delove GPU-a koji nisu potrebni u datom trenutku.

      Druge optimizacije

      Već smo pomenuli da je veličina registar memorije dva puta veća u odnosu na G8x i G9x čipove, što se dobro vidi u pojedinim sintetičkim testovima 3DMark Vantage benchmark programa. Pominjali smo i da je poboljšan tzv. dual issue – tehnologija koja omogućava da se izvrše dve instrukcije u ciklusu unutar jednog shader-a (MAD+MUL). Svaki shader multiprocessor poseduje jedinicu za specijalne funkcije tj. special function units (SFU) koje su tu za izvršavanje kompeksnih funkcija kakve su interpolacije ili multiplikacije. Dakle, shader ALU izvršava MAD instrukcije, dok posebna SFU podjedinica paralelno sa njom eventualno radi na MUL tipu instrukcije.

       

       

       

       

       

       

       

       

       

       

       

       

       

      Sve lepo zvuči kada se navode teoretske cifre, ali moramo priznati da 240 “jezgara” koje rade na 1300 MHz ne zvuči kao nešto čime ne bi smo bili impresionirani, čak i ako su te cifre nešto niže u praksi. Svakako, GeForce GTX 280 je uporediv sa Dual-GPU karticama kakve su GeForce 9800 GX2 i Radeon HD3870X2 kada se overklokuje, iako neke mogu razočarati nešto skromnije radne učestanosti, pogotovo za shader jedinice. Verujemo da je NVIDIA bila primorana da ih “klokuje” na skromnih 1300 MHz zbog kompleksnosti čipa, iako je najverovatnije ciljano da se postigne teoretski fill-rate od jednog teraFLOPS-a (kartica postiže 933 gigaFLOPS-a, ali uvek je tu overklok).

      Kada je teksturisanje u pitanju GT200 stiže sa brojnim poboljšanjima, što smo i očekivali kada smo prvi put čuli za sirovu količinu tranzistora koji čine ovaj GPU. Podsećanja radi, G80 je imao osam teksturnih klastera, svaki sa osam jedinica za filtriranje (64 piksela po ciklusu) i četiri jedinice za adresiranje. Uz mogućnost fetch-ovanja do tridesetdva osmobitna piksela po ciklusu uključujući i 2x tap aniso mod ili isti broj bilinearno filtriranih tekstura 8-bitne ili 16-bitne preciznosti. Kod G92 je, kao što smo nekoliko puta pisali, dodato više jedinica za adresiranje tekstura po teksturnom klasteru, pa ovaj GPU može da pohrani 64 piksela po ciklusu uz 8-bitnu ili 32 piksela po ciklusu uz 16-bitnu FP preciznost. GT200 poseduje identičan broj jedinica za filtriranje i adresiranje po klasteru, ali su same jedinice nešto efikasnije (NVIDIA tvrdi i do 22%!). S obzirom na niže radne učestanosti, bilo bi bolje za NVIDIA-u da su ove tvrdnje istinite.

      Kao što smo već konstatovali, broj teksturnih jedinica nije povećan u onoj meri u kojoj je povećan broj ALU tj. shader jedinica, a NVIDIA je ovo učinila nakon analize texture-look-up scenarija u modernim igrama i u naslovima koji se tek očekuju. Ipak, u ovome su i dalje nešto konzervativniji od ATI-ja, koji je odavno imao još agresivniji odnos shader-to-texture jedinica. I ROP (render back-end) jedinice su pretrpele izmene i sada su brojnije i efikasnije, pa su spremne da izbace 32 piksela po ciklusu (četiri piksela unutar svakog od osam ROP klastera) u 8-bit formatu uz FP24 blending. ROP jedinica je 50% veća od one kod G80 čipa i dva puta veća od one kod G92 grafičkog procesora. Osim što su brojnije, ROP jedinice sada mogu da izvrše i blending unutar frame-buffer-a u okviru samo jednog (umesto dva) ciklusa. Zato, bez obzira na više radne učestanosti kod GeForce 9800 GX2 kartice, GTX280 poseduje veći output pixel fillrate nego doskorašnja DualGPU perjanica u NVIDIA ponudi. Masivnija ROP jedinica, kao i šira memorijska magistrala, pozitivno će se odraziti na performanse u opterećenih modovima, pogotovo pri visokim antialiasing filterima.

      GeForce GTX280 stiže sa već dugo prisutnom GDDR3 memorijom, ali podržava, kao i njegov prethodnik – G92, i GDDR4. Na default radnim frekvencijama, GTX 280 ima memorijski bandwidth od čak 142 GB/s. Kao što smo već napomenuli, prethodne dve generacije GeForce akceleratora (8 i 9) su pružale nešto lošije geometry i stream out performanse, što se nije bitno izrazilo u igrama, s obzirom da se ove DirectX 10 funkcije još uvek ne koriste intenzivno. Interni baferi su povećani (neki od njih čak i šest puta, ali većina dva ili tri puta) kako bi se rešio ovaj problem. Algoritmi za filtriranje teksura su bili dodatno poboljšani kod G80 generacije i tu nema dodatnih novina, ali ih na ovom polju svakako nismo ni očekivali. Za više informacija, pogledajte naš inicijalni i vrlo detaljni GeForce 8800 GTX test. Slična priča se može primeniti i kada je antialiasing u pitanju – algoritmi su ostali isti, ali je sirova snaga kartice učinila da su sada i modovi kakav je CSAA16x sasvim upotrebljiva opcija.
       

      NVIDIA navodi da su i neke druge komponente GT200 GPU-a dodatno usavršene kako bi se postigla veća efikasnost i više performanse novog akceleratora. Memorijski interfejs na nivou assembler-a podataka i frejm bafer jedinica je pretrpeo dosta promena, pa se praktično može nazvati novim rešenjem. Brži pristup indeksiranim tipskim paketima podataka je gotovo trenutan, a upravo je ovo polje na kome je G80 imao određenih problema. Još jedna od bitnih novina je i obavezno prisustvo čak gigabajta video memorije, koje je i logično za GPU klase kojoj pripada GT200. Kompleksna geometrija i sve češće korištene normal i occlusion mape zauzimaju dosta prostora, te se često i color mape moraju spuštati na niže rezolucije kako bi igra radila kako treba na karticama sa 512 ili 256MB video memorije. Ovoga puta nećemo pominjati enviroinment i shadow mape koje se još uvek koriste u kompleksnim scenama rasterske grafike (jednom kada u upotrebi bude ray-tracing, a pre njega i global illiumination, neće biti potrebe za njima). Crysis i brojne druge, mahom Unreal 3 igre koriste i hi-res “imidže” za post processing efekte i deffered rendering, a to opet traži mnogo frejm bafer memorije. 512-bitna memorijska magistrala je prvi put viđena kod Radeona HD2900XT, pre nego što je ATI krenuo sa cost-effective rešenjima za nižu i srednju klasu i DualGPU solucijama za najvišu klasu i vratio se 256-bitnoj komunikaciji sa VRAM-om. NVIDIA je, pre GT200 imala 384-bitni bus kod G80 čipa, ali se takođe “vratila na 256-bita” kod G92 čipa. Međutim, jedino rešenje za GPU kakav je GT200 je upravo 512-bitni memorijski bus i tu je svaka dalja rasprava izlišna.

      CUDA
       

      GT200 GPU je dizajniran da bude najbrži igrački akcelerator, ali je njegova arhitektura skrojena tako da ga čini odličnim general-purpose procesorom. CUDA je jednostavan i moćan alat koji kalkulacije koje tradicionalno izvršava CPU – prebacuje na teret GPU-a. Upravo i najviše zbog toga, GT200 poseduje deljenu keš memoriju, ali i podršku za rad sa kalkulacijama dvostruke preciznosti. CPU je idealan za serijsko izvršavanje sa velikim brojem grananja sa slučajnim pristupima memoriji, dok je GPU odličan u paralelnom izvršavanju sa ogromnim brojem operacija na brojevima sa pokretnim zarezom. Aplikacije kao što su Word i druge ne-matematičke Office aplikacije, Web browseri i E-mail klijenti su dobri primeri aplikacija koje imaju ponajviše serijskih kalkulacija, dok su video plejeri, enkoding softver, simulacije fizike, kalkulacije nad brojevima, procesiranje fotografija i videa, rad sa 3D grafikom (bilo da je rasterska ili ray-tracing metoda u pitanju) – prepuni paralel-kalkulacija. Najveći problem koji je parallel computing imao na PC platformi je upravo način na koji se programira softver. GeForce GTX280, ali i novi 9800GTX+ podržavaju CUDA programski jezik, dizajniran upravo za parallel computing i trenutno je najjači FP procesor koji postoji za PC platformu. CUDA je zapravo svojevrsna ekstenzija programskih jezika C i C++ koje već koristi preko 70 miliona programera širom sveta, a zanimljivo je da se bez problema izvršava i na sistemskom procesoru, ali i na GPU-u. CUDA programski jezik ne treba svrstavati u isti koš sa drugim GP-GPU inicijativama, za koje je neophodan 3D API lejer da bi radile (DirectX ili OpenGL) i za koje je neophodno poznavanje ovih oblasti kako bi aplikacija mogla da pristupi grafičkom procesoru. Programiranje u CUDA okruženju je praktično isto kao i programiranje u C++-u, ali nas nemojte citirati kada je ova tvrdnja u pitanju, pošto lično nismo programeri, već samo prenosimo ono što NVIDIA na sav glas tvrdi.

      Ostvarivanje kvalitetnog paralelizma se u praksi pokazalo kao težak izazov za programere, pa i danas vrlo kompleksne i kvalitetno napisane igre ne umeju da iskoriste više od dva jezgra sistemskog procesora. Međutim, CPU i jeste napravljen za serijsko izvršavanje koda, pa je jako teško da x86 softver naterate da se izvršava paralelno. Kreiranje i kompajliranje programa u CUDA-i napraviće i poseban kernel koji će GPU direktno izvršavati pokretanjem na hiljade instanci istog programa, a kako je CUDA zapravo ekstenzija jezika “C”, vrlo je lako i postojeće aplikacije portovati na ovaj “standard”.

      Jedna od slikovitih primena GPU computing-a je re-enkoding video fajla visoke definicije. Kompanija Elemental je kompajlirala svoj RapidHD softver i za GPU i nakon testa koji je sproveden, pokazalo se da je GTX 280 akcelerator čak više od 10x brži od najbržeg trenutno dostupnog desktop procesora. Elemental je zapravo razvio plug-in za Adobe Premiere, ali i posebnu transkoder aplikaciju (BadaBoom), i testovi su više puta pokazali da se dva minuta dug HD klip pomoću CPU-a enkoduje oko 2 minuta, dok isti posao GPU odradi za 21 sekundu. Folding@Home projekat radi sa koagulacijom molekula proteina, a ove simulacije pomažu da se sazna kakve sve bolesti mogu da izazovu tzv. loši proteini. Ove kalkulacije GPU izvršava na desetine, pa čak i stotine puta brže od sistemskih procesora. Kada je distribuirani computing u pitanju, NVIDIA navodi da je trenutno u svetu u upotrebi preko 70 miliona CUDA-ready grafičkih kartica sa prosečnom processing moći od oko 100 gigaFLOPS-a. CUDA SDK se može besplatno preuzeti sa NVIDIA sajta, a izvršavaće se na svakom DirectX10 kompatibilnom GeForce akceleratoru.

      Da nije sve samo mrtvo slovo na papiru, pokazuje i kompanija Adobe, koja je nedavno prikazala radnu verziju Photoshop-a koji koristi GPU za ubrzavanje manipulacija nad fotografijama. Učitana je slika rezolucije od 442 megapiksela, teška čak 2GB, a GPU je omogućio da se sa njom radi kao sa slikom od 5 megapiksela na u CS3 verziji ovog programa. Zumiranje i manipulacija nad fajlom je delovala impresivno, ali nova verzija Photoshopa je otišla i korak dalje u radu sa 3D objektima, pa možemo samo da zamislimo koliko će GPU biti od pomoći kod ovakvih poduhvata. Takođe, CUDA se može iskoristiti i za gaming, a kompanija Rayscale (sada deo NVIDIA-e) je razvija ray-tracing aplikaciju koja se kroz CUDA-u izvršava na GPU-u i omogućava da se klasična rasterska 3D scena kombinuje sa ray-tracing metodom za refleksije, senke i refrakcije.

      PhysX by NVIDIA

      Programeri i inženjeri kompanije AGEIA, koja je sada takođe deo NVIDIA-e, nedavno su počeli da rade na portovanju kalkulatora fizike i PhysX API-ja u CUDA okruženje, a prve rezultate su pokazali nakon samo mesec dana posla. Odmah je zaključeno da čak i u alfa-fazi, PhysX radi brže na GeForce GTX 280 akceleratoru i do15 puta (simulacija tečnosti) nego na Intel Core 2 Quad procesoru. GPU je u slučaju simulacije mekih objekata 12 puta brži, dok se simulacija tkanina izvršava 13 puta brže. Neke od već najavljenih igara koje će koristiti PhysX su u poslednjim fazama izrade i očekuju se vrlo skoro (Mirror's Edge je, recimo, jedna od njih). GTX 280 akcelerator je, čak i sa alfa drajverom za PhysX oko 15-ak puta brži od posebnih AGEIA akceleratora fizike koji su se do nedavno prodavali (doduše, vrlo vrlo slabo).

      NVIDIA PhysX je engine za kalkulaciju fizike u realnom vremenu, a koristi se već neko vreme u igrama na PC platformi i konzolama (lista broji čak 150 igara koje koriste PhysX, a pojavile su se za PC, Sony Playstation 3, Microsoft Xbox 360 i Nintendo Wii). Kada PhysX za CUDA bude gotov, biće integrisan u ForceWare drajvere (mi smo sa FTP-a skinuli posebne biblioteke teške oko 45 MB, koje se za sada instaliraju zasebno) i tako će svaki vlasnik GeForce 8, 9 i GTX 280 i 260 kartica imati hardverski akcelerator fizike. Ovo će svakako biti lep poklon od kompanije NVIDIA, a videćemo šta će AMD da uradi po tom pitanju.

      PureVideo HD druge (i po) ili treće generacije (zavisi kako ih brojite) je deo novog GTX 280 grafičkog procesora ali audio kodeka i dalje nema. PureVideo je napredan sistem za hardversku reprodukciju novih formata namenjenih za filmove visoke rezolucije. VC-1 i H.264 su izuzetno zahtevni kodeci, a ako želite kvalitetno i napredno filtiranje, kompenzaciju pokreta i najviši kvalitet reprodukcije onda će i skoro svaki budžetski dual-core CPU današnjice biti opterećeni i do 80-90% samo tokom dekodiranja, uz ogroman broj propuštenih frejmova i nemogućnost da se neki resurs preusmeri na druge zadatke. NVIDIA PureVideo koristi 3D pipeline samog grafičkog procesora i ubrzava reprodukciju i to kroz Windows Media Player, ali i nove verzije PoweDVD i WinDVD plejera. PureVideo HD ima i mogućnost dinamičkog redukovanja šuma i izoštravanja slike, uz dodatno poboljšane performanse. Ne treba zaboraviti da će nove verzije kodeka uvek brzo biti hardverski podržane, pošto je PureVideo HD programabilan. Novi model PureVideo HD „procesora” druge generacije sadrži i BSP engine, koji omogućava od CPU-a potpuno nezavisno dekodiranje H.264, VC-1 i MPEG-2 formata rezolucije do 1920 x 1080 piksela uz bitrate od čak 40 i više Mbit-a po sekundi, sa in-vivo kalkulacija CABAC i CAVLC faza u ovim vrlo intenzivnim matematičkim procesima dekodiranja. Štaviše, u teoriji ćete, sa G86, G92 ili G94 GPU-om, moći da gledate Blu-Ray ili HD-DVD filmove čak iako imate jednojezgarni AMD Sempron ili neki Intel Celeron CPU. Ipak, treba napomenuti da NVIDIA PureVideo HD 2nd gen. zaostaje u dekodiranju VC-1 materijala u odnosu na konkurentski AVIVO, tj. da jednu fazu i dalje radi CPU. To ne važi za H.264 enkodovan video, koji se u svim fazama kodira pomoću GPU-a. Međutim, NVIDIA tvrdi da je i u odnosu na 8400, 8500, 8600 i 8800 GT PureVideo HD poboljšan, jer je kod GeForce 9600 GT i 9800 GTX, ali i GTX 280 i 260 kartica aktiviran i novi set funkcija. Novine se svode na dinamičko podešavanje kontrasta i zasićenja boja, što je čisto softverska intervencija. Ovo nije loš dodatak za korisnike koji koriste monitore za gledanje filmova i igranje igara, jer monitori često nemaju ili nemaju dobro rešen sistem intenziviranja kontrasta i saturacije boja, tim pre što se sami “ne bave” procesiranjem videa. Međutim, grafički procesor u svakom frejmu analizira njen histogram (poput histograma kod digitalnih fotoaparata ili u Photoshop-u). Ako histogram pokazuje da frejm ima nizak kontrast ili loš balans, algoritam, u odnosu na željeni profil slike (vivid, high contrast itd.) radi izmenu levels-a, tj. povećava kontrast. Ono što je bitno je i to što se kontrast analizira i povećava po frejmu, tj. bez zakašnjenja, tako da su rezultati bolji nego kada se to radi neposredno, unutar engine-a nekog LCDTV uređaja ili monitora.
       

      Kartica na testu – MSI N260GTX

      MSI nam je na test poslao prvu GTX260 karticu i, na prvi pogled, ona se ne razlikuje od skupljeg brata. Uz karticu, proizvođač poklanja i kompletne igre Lord of the Rings: Shadows of Angmar i odličnu reli vožnju Colin McRae DIRT. Kartica je prilično glomazna i svakako ima “dual slot” kuler, koji je prekriva sa svih strana, poput oklopa srednjevekovnog vojnika. Čak je i druga strana potpuno zarobljena metalnim poklopcem koji služi i za raspodelu toplotne energije oslobođene od memorijskih čipova na poleđini PCB-a. Za razliku od GTX280 modela, koji je takođe dugačak 264 milimetra, GTX260 ima dva šestopinska konektora za napajanje, jer je maksimalna potrošnja i ovog modela iznad 200W. Desno od konektora za napajanje, nalazi se SPDIF audio konektor na koji možete dovesti audio signal sa nekog eksternog kodeka ili zvučne kartice, a zatim ga proslediti putem DVI- HDMi adaptera na LCDTV ili Plazma uređaj.

      Kao što znamo, GT200 je srce dva modela GeForce kartica – GTX 280 i GTX 260. Jači odel ima 240 SP jedinice, a slabiji 192, mada noviji modeli imaju 216 SP jedinica. Frekvencija čipa je kod testiranog MSI modela iznosila 575 / 1240 MHz za jezgro, odnosno njegov veći deo, koji radi na bar dva puta višem taktu. 896 MB posvećene GDDR3 memorije radi na 1002 MHz, odnosno 2 GHz, efektivno, a vezano je za memorijsku magistralu ukupne širine od 448 bita. Broj teksturnih procesora je 64, a render back-end procesora 24, što je najveći hendikep u odnosu na GTX280 model, koji ih ima 32. MSI N260GTX je prilično glomazna kartica i svakako ima dual-slot kuler, koji je kompletno prekriva poput oklopa srednjevekovnog vojnika. Čak je i druga strana potpuno prekrivena metalnim poklopcem, a to smo prvi put videli kod GeForce 9800 GX2 akceleratora koji su po dimenzijama veoma slični GTX280 i GTX260 modelima. kartici. Metalni profil sa druge strane štampe je istovremeno i heat-spreader za memorijske čipove smeštene sa ove strane PCB-a.

      Kao i kod GeForce 9800 GX2 kartica, dva SLI konektora su prekrivena gumenom kapicom, kako ne bi bio narušen monolitni izgled same kartice. Dva SLI konektora su neophodna za kreiranje 3-way SLI niza. Desno od konektora za napajanje, nalazi se SPDIF audio konektor koji je prekriven sopstvenom gumenom kapicom. Na njega možete dovesti audio sa nekog eksternog kodeka ili zvučne kartice, a zatim ga proslediti kroz prvi DVI-I konektor preko HDMi adaptera na LCDTV uređaj ili Plazmu. Kao i kod GeForce 8800 GTX i Ultra kartica, čip zadužen za sve video izlaze, koji je istovremeno TMDS transmitter i SLI composing engine, izveden je na poseban die, i ovoga puta nosi naziv NVIO2. Ne samo što pojednostavljuje ionako prekompleksan GPU, već i omogućava da se on, bez dodatne i nepotrebne NVIO elektronike ugrađuje u GP-GPU i CUDA uređaje kakva je NVIDIA Tesla linija proizvoda. Njima zaista nije neophodna funkcionalnost koju integriše NVIO, jer nisu grafičke kartice. S druge strane, prisustvo posebnog NVIO čipa podiže cenu GTX260 kartica.

      Kao i kod GeForce 8800 GTX i Ultra kartica, čip zadužen za sve video izlaze, koji je istovremeno TMDS transmitter i SLI composing engine, izveden je na poseban die i ovoga puta nosi naziv NVIO2. Ne samo što pojednostavljuje ionako prekompleksan GT200 GPU, već omogućava da ga, bez dodatne i u tom scenariju nepotrebne NVIO elektronike ugrađuje u GP-GPU / CUDA uređaje kakva je NVIDIA Tesla linija proizvoda. S druge strane, prisustvo posebnog NVIO čipa podiže cenu GTX2xx kartica, što posebno dolazi do izražaja kod GTX260 modela. Kao i GeForce GTX280, i MSI N260GTX koristi  najbržu GDDR3 memoriju koja se proizvodi – Hynix H5RS5223CFR-N2C sa latencijom od 0.83 ns (2400 MHz DDR). Kuler je neobično tih kada je kartica u stanju mirovanja, ali nije mnogo bučnija ni u 3D režimu. Došao je na red i najzanimljiviji i najinformativniji deo teksta, pa da se, nakon tabele sa test sistemom, bacimo na pregled rezultata…

      Test sistem

       

      PCI Express kartice smo testirali na test sistemu prikazanom u tabeli:

      Procesor

      Intel Core 2 Quad Q6600 @ 3600 MHz (400 MHz x 9), 1600 MHz QPB

      Matična ploča

      ASUS P5K Premium Black Pearl 18th Anniversary Edition

      Memorija

      2 x 1Gb Geil PC2-8500 1066GHz @1200MHz 2.25V

      Hard Disk

      Samsung SpinPoint SATA II, 320 GB, 16MB
      Western Digital Caviar 2500JS SATA II 250 GB, 16MB

      Video Karte

      MSI N280GTX (1024MB GDDR3) – Forceware 177.39
      MSI N260GTX (869MB GDDR3) – Forceware 178.13
      ASUS EAH3870 X2 (1024MB GDDR3) – Catalyst 8.2b
      Gainward HD4850 512MB (512MB GDDR3) – Catalyst 8.7
      Gainward HD4850 Golden Sample 512MB (512MB GDDR3) – Catalyst 8.9b
      Radeon HD4870X2 2048MB (2048MB GDDR5) – Catalyst 8.8b

      Monitor

      Samsung SyncMaster 244T / 245T

      Cooling, Case, PSU

      CoolerMaster GeminII
      CoolerMaster Stacker 832 / WaveMaster
      CoolerMaster Real Power 850W SLI & CrossFire Certified

      DVD uređaj

      Pioneer DVR-112L

      DVD uređaj

      Pioneer DVR-108D

      Operativni sistem

      Windows XP Service Pack 2 (optimized for performance)
      Windows Vista (default)
      DirectX 9.0c
      DirectX 10

      Igre/Bench programi

      3D Mark Vantage

      3D Mark 06

      SPECORG SpecVIEW Perf 8.1

      Enemy Territory: Quake Wars

      Prey

      Company of Heroes 1.3

      Battlefield 2142

      Unreal Tournament 3

      Lost Planet: Extreme Conditions

      Call of Duty 4: Modern Warfare

      Half Life 2: Episode Two

      Assassin's Creed DX10.0

      Crysis 1.1

      The Elder Scrolls IV: Oblivion

      Need For Speed: Carbon

      Need For Speed: ProStreet

      X3 Reunion Demo Benchmark

      World in Conflict

      S.T.A.L.K.E.R

      F.E.A.R 1.08

      ATI kartice smo testirali sa Catalyst A.I podešenim na Standard. Ako je AF bio uključen, to je podrazumevalo Quality setting, dok su Adaptive i Temporal anisotropic filtering bili isključeni. Wait for vertical refresh odnosno Vertical Sync smo isključili. Kod nVidia kartica, podrazumevani mip-map setting je Quality, trilinearne optimizacije su uključene, anisotropic mip filter i sample optimizacije isključene, a gamma correction pri antialiasingu uključen. S obzirom na to da se NVIDIA kartice testiraju sa teksturnim filterom podešenim na High Quality (default je Quality), dobijeni rezultati su možda niži u odnosu na rezultate koje bi neko drugi mogao da dobije na sličnom test sistemu.

      FutureMark 3DMark 06 Pro

       

      Novo izdanje 3DMark benchmarka može da se izvršava samo sa Direct X 9 kompatibilnim akceleratorima. Tri prerađena testa iz prošlogodišnje verzije koriste Shader Model verzije 2.0, dok najnoviji zahteva SM3.0 i 256 MB video memorije Sva tri game demoa su izuzetno zahtevni, karakteriše ih još veći broj poligona koji opterećuje VS jedinicu, kompleksni shader programi (mapiranje neravnina, osvetljenja, emulacija pravog HDR osvetljenja, particle efekti, dinamične i meke senke, subface scattering, napredni fog efekti (emulacija volumetric efekta), ali i dosta postprocesing efekata. Novi test – Deep Freeze je grafički najimpresivniji, a novi 3DMark ima i napredni CPU test, koji simulira upotrebu A.I. rutina u igrama, kao i kalkulacije vezane za samu fiziku.

       

      FutureMark 3DMark Vantage

       

      Iako nije toliko vizuelno impresivan kao njegovi prethodnici, 3DMark Vantage je zapravo dosta bolje osmišljen GPU i gaming benchmark uopšte. Pažnja je ovoga puta usmerena na funkcije koje se izvršavaju ili će se uskoro izvršavati unutar igračkih “endžina”, a ne na sam artwork. Prvi od dva grafička testa, Jane Nash (Graphics Test 1) testiraju simulaciju tečnih povšina i generisanih tekstura, kao i GPU-kalkulisane sisteme čestica, a u čitavoj sceni se u realnom vremenu u obzir uzimaju i uticaj gravitacije na objektima (pa i na “objektima” glavne junakinje), zakon inercije i impulsa sile (prva dva Njutnova zakona), kao i zakon akcije i reakcije, uz uticaj otpora vazduha. Fiziku kalkuliše GPU, a da sve ne bi ostalo samo na kalkulacijama “ispod”, 3D scena je opterećena brojnim dinamičkim izvorima osvetljenja sa kompleksnim senkama, a voda, koja je refleksivna i refraktivna, se ne pomera na predefinisan način, već se svaki talas u realnom vremenu i dinamički generiše. Drugi test, New Calico, podseća na igru X3:The Threat i ne sadrži objekte sa skinovima (bez zglobova), ali zato poseduje ogroman broj objekata u sceni, sa shadow mapama različitog tipa. Po prvi put u 3DMark benchmark programu, prisutni su i global raytracing efekti ((Parallax Occlusion Mapping, True Impostors i volumetric fog). Treći test pokušava da izmeri performanse CPU-a u kalkulacijama veštačke inteligencije i fizike. Broj “gejtova” kroz koje proleću avioni je srazmeran broju jezgara sistemskog procesora, a ako u sistemu posedujete i hardver za kalkulaciju fizike (PPU), ovaj broj se povećava za tri. Nakon, standardnih, na red dolaze i “sintetički” testovi: texture fillrate, color fillrate, paralax occlusion mapping, gpu clothing, particles, noise…

       

       

      SpecORG SpecVIEW Perf 8.1

      Koristili smo poslednju aktuelnu verziju koji se sastoji od čak osam celina. SpecviewPerf meri performanse sistema pod OpenGL API-jem tako što simulira osam standardnih industrijskih aplikacija. 3Dsmax-03 je bayiran na SPECapc za 3dS MAX u OpenGL okruženju. U sceni su tri modela sastavljena od po približno 1.5 miliona vertices-a, a testiranje se vrši uz nekoliko tipičnih tipova osvetljenja. Catia-01 je bazirana na Dassault CATIA inžinjering aplikaciji u kojoj modeli imaju do dva miliona osnovnih linija. Ensight-01 je simulacija CEI EnSight inžinjering aplikacije koja se koristi za vizuelizaciju. U test su ubačeni displej-list i fast preview modovi rada. Light-07 je baziran na Discreet-ovoj Lightscape aplikaciji koja koristi realtime radiosity senčenje. Maya-01, kako joj i samo ime govori, simulira radno okruženje paketa kompanije Alias – Maya 5, nezamenljivi alat filmadžija u Holivudu. Proe-03 je baziran na SPECapc okruženju za Pro-Engineer 2001, koji u sceni primenjuje dva modela u tri shade moda (senčeni, wireframe i hidden-line removal). SW-01 simulira Solidworks 2004 aplikaciju, koju izdaje Dassault Systems i konačno, test Ugs-04, baziran na SPECapc Unigraphics V17 aplikaciji (odnosno simulaciji iste), u kojem je prikazan model motora sastavljen od preko četiri miliona osnovnih linija.

      Lost Planet: Extreme Condition

      Lost Planet: Extreme Condition je za Xbox360 izašao početkom 2007 godine, a nešto više od godinu dana kasnije, pojavio se i u verziji za Windows XP i Vista platformu sa podrškom za rad kroz DirectX 9 i DirectX 10 API-je. Kao i u verziji za Xbox360, poseduje veliki broj “next-gen” efekata, uključujući i filmske efekte poput full-frame motion blur-a, depth of field-a, a posebno se ističu napredni particle efekti koji verno oslikavaju žestoke zimske uslove, vatru, paljbu iz futurističkog oružja i sl. Na Microsoft konzoli radi u 720p rezoluciji sa oko 30-35 fps, ali kako podržava više radne rezolucije na Windows platformi (rezolucije tekstura, poligoni i sl. su identični Xbox360 verziji), predstavlja dosta dobar alat za testiranje novih grafičkih kartica. Iako gotovo tri godine nakon što je završena, igra po današnjim standardima ne izgleda impresivno, ume da bude prilično zahtevna. Mi smo testirali kroz prvi “built-in” test, uz maksimalan nivo detalja, u DirectX10 okruženju pa pogledajmo rezultate:

      Call of Duty 4: Modern Warfare

      Za razliku od prethodnika, Call of Duty 4: Modern Warfare igrača postavlja u okršaje novijih datuma. Baziran je na unapređenom “motoru” svojih prethodnika, posebno verzije iz trećeg dela, koji se pojavio isključivo u verziji za Xbox360 konzolu. Iako smatramo da bi rezultati koje daje sa današnjim hardverom (kraj 2007. godine) mogli biti veći, ipak je u pitanju dobro optimizovana igra: broj detalja odnosno dešavanja u sceni u svakom trenutku je fantastično veliki, bilo da su u pitanju sitnice poput mapiranja neravnina, bloom i HDR efekti, dinamičke senke i osvetljenja, efekti eksplozija i dima ili sveprisutni depth-of-field tokom zumiranja. U igri svaki metak prolazi kroz materijale kroz koje bi prošao i u realnoj borbi (drvo, staklo, tanak metal), uz adekvatno usporenje i izmenu pravca. Igra koristi isključivo DirectX 9.0c, odnosno Shader Model 3.0, a u verzijama za Xbox360 i PlayStation 3 izgleda kao i sa maksimumom detalja na PC-ju, kako smo je i mi testirali. Pogledajmo rezultate:

      Enemy Territory: Quake Wars

      Multiplayer igra u Quake univerzumu, koja cilja publiku “navučenu” na Battlefield, Team Fortress i Unreal Tournament, zapravo je svojevrsni prequel Quake-a II i njena radnja je smeštena na Zemlju, u sred sukoba Strogg-ova i ljudi. Novi Doom 3 MegaTexture engine u ETQW je negde na pola puta do pravog naslova sledeće generacije (koji ćemo u različitim verzijama videti u igrama Doom 4 i Rage), ali je princip rada identičan. Engine se oslanja na OpenGL i baziran je na mapiranju terena i svih objekata jednom mega-teksturom koja se direktno “ucrtava” na geometriju. Ova pametna, gigantska tekstura objektima daje i svojstva, što developerima igara daje puno slobode pri kreiranju ogromnih, detaljnih terena i vrlo unikatnih objekata (teksture se ne ponavljaju). Iako prva Doom 3 MT igra ne izgleda toliko impresivno (Crysis je ipak postavio neke standarde isuviše visoko), vrlo je dobro optimizovana. Testirali smo, naravno, na maksimalnom nivou detalja…

      Prey

      Jedna od najzanimljivijih i najinventivnijih “pucačina”, koja stiže od kreatora “čuvenog” Duke Nukema, igra Prey zadržava sve osobine klasičnog First Person Shootera, u koji uvodi elemente izmene gravitacije, letenja u Descent stilu, a tu su i delovi koji traže da uključite “vijuge” kako bi pronašli ostatak puta. Izrađena oko modifikovanog Doom III engine-a (kome je dodata “Portal” tehnologija), Prey je vizuelno izuzetno atraktivan, a igra je, iako dobro optmizovana, vrlo “stresna” za grafički podsistem. Kao i uvek, testirali smo sa najzahtevnijim “setup”-om, ali smo ovoga puta izbacili i kompresiju color i specular tekstura – što znači daje aktiviran Ultra Quality (koji se uključuje iz konzole) mod.

      X3: Reunion

      X3 Reunion je igra koja vam omogućava da iskusite život u svemiru, u dalekoj budućnosti. Možete graditi, trgovati, boriti se ili biti samo istraživač. Naravno, igra ne bi bila toliko zanimljiva da nije grafičkih dostignuća koji se mogu opisati samo superlativima. Iako nema nekih do sada neviđenih tehnologija, modelima brodova su bogato dizajnirani, raznovrsni i po tipu, i po veličini i po ulozi koju imaju, sa velikim brojem poligona (često preko pola miliona po sceni) , opskrbljeni fantastičnim color i displacement (bump) teksturama. Okolina (sam svemir, planete, asteroidi, magline…), kao da je još impresivniji, pa vas ova igra uvlači u priču i svet i samim gledanjem rolling demoa.

      Company of Heroes 1.3

      Prva real-time strategija u našem test-suite-u, Company of Heroes, koristi posebni next-gen engine koji Relic naziva “Essence Engine”. Ovaj engine podr žava sve nove fancy efekte kao što su High Dynamic Range i dinamičko osvetljenje, per-pixel senke, a displacement (normal) mapping je vidljiv na mnogim objektima. Takođe, igra se obilato oslanja na napredne shader rutine, ali i licenciranu Havoc fiziku, a pojedini objekti su destruktabilni, što donekle važi i za teren. Kao i obično, u igri smo uključili sve moguće efekte, što se po frame-rate-u i vidi:

      World in Conflict

      Druga real-time strategija u našem test-suite-u, World in Conflict, verovatno je i dalje najimpresivnija RTS igra koja je izašla na PC tržište. Bazirana je na novom Direct3D “endžinu” koji podržava čitav spisak novih efekata kakve smo do sada viđali samo u, po pravilu najinovativnijim FPS igrama. Dakle, tu su HDR, bloom i dinamičko osvetljenje, per-pixel senke, destruktabilni teren i adekvatni view-sight, paralax i normal mapping, depth of field i čitav niz drugih filmskih postprocessing efekata . Naravno, mi smo testirali sa maksimalnim nivoom detalja:

      Battlefield 2142

      Umesto igre Battlefield 2, koristili smo novi Battlefield 2142, smešten u periodu dva veka nakon Drugog svetskog rata. Igra je patch-ovana na 1.10 verziju (aktuelnu v1.50 ne koristimo zbog baze rezultata za kartice koje smo već testirali). Ova igra je bazirana na istoj mašini kao i Battlefield 2, ali uz nekoliko dodataka u koje spadaju detaljnije teksture, povremeni normal mapping, parallax mapping, dinamičko osvetljenje i senke, post processing efekti. Igru smo testirali na najvišim setovanjima na jednoj od zahtevnijih mapa. Pogledajmo rezultate:

      Unreal Tournament 3 Demo

      Unreal Engine 3 je najpopularniji “motor” koji koristi poslednje dve generacije DirectX API-ja i pored CryEngine 2, predstavlja trenutni “vrh ponude” kad je igračka industrija u pitanju. Nema potrebe da nabrajamo šta sve podržava, samo ćemo pomenuti neke prelepe naslove koje ste verovatno već videli ili igrali: Bioshock, Rainbow Six: Vegas, Medal of Honor: Airborne, BlackSite: Area 51, Gears of War, Mass Effect, Stranglehold i plejada drugih igara koje su već izašle u verzijama za Xbox 360 ili su u najavi… Demo Unreal Tournament 3 igre ne omogućava maksimalan već samo visok nivo detalja kad su u pitanju teksture, međutim, i ovo je dovoljno zahtevno da i najnovije grafičke kartice stavi na muke.

      Assassin's Creed DirectX 10.0

      Smeštena u vreme Templata, u drevni Jerusalim (ali zapravo i u blisku budućnost), igra Assassin's Creed je akciona igra sa elementima šunjalice, koja se izvodi iz trećeg lica. Pokreće je revolucionarni engine koji je razvijan za konzole aktuelne generacije (Xbox360 i PS3), ali tek na PC-ju pokazuje koliko zaista može, jer može da radi u značajno višoj rezoluciji od one koja je za konzole standardna (1280 x 720 piksela). Igra koristi sve napredne shader tehnike koje možete videti u najmodernijim igrama kakav je, recimo Crysis, a još uvek spada u jednu od najlepših igara koje se mogu igrati na PC platformi. Mi smo testirali na najvišem mogućem nivou detalja, u DirectX 10.0 režimu, bez patch-a za DirectX 10.1 i narednog, koji ga je poništio.

      Crysis 1.1 Benchmark

      Šta reći o najdetaljnijoj, grafički najimpresivnijoj igri i najzahtevnijoj igri današnjice. U odnosu na Call of Duty 4 ili bilo koju drugu igru koja vam može pasti na pamet – Crysis je bar za dva koplja iznad. Čak i na GeForce GTX280 karticama i Quad Core mašinama, prosečan frame-rate iznosi tridesetak frejmova po sekundi, u iole višim rezolucijama. Mi smo testirali kroz standardni GPU benchmark i to uz trik koji nam omogućava da “DX10-only” efekte vidimo i u DX9 okruženju, ali smo koristili naš custom .ini fajl koji omogućava još veću daljinu iscrtavanja (slično smo ranije radili i sa FarCry igrom), veći broj dinamičkih osvetljenja i senki, precizniji enviroinment mapping i refleksije… Najbolji opis grafičkog nivoa ove igre na ovakvom nivou detalja, koji je u odnosu na Very High za jedan stepenik iznad, zvuči otprilike ovako: koliko je FarCry tehnički ispred prvog Quake-a, toliko je Crysis ispred svog pomenutog prethodnika.

      Half Life 2: Episode Two

      Treća epizoda Half Life 2 priče, odnosno četvrto poglavlje priče o “Frimenu protiv korumpiranih vanzemaljaca”. Source Engine je bolji nego ikad, ali se već vidi da počinje da gubi korak sa Unreal 3, a pogotovo Crytek tehnologijom. No, poslednji build ipak ima svoje lepe osobine: broj pixel shader efekata je veći, a teksture i objekti su detaljniji. Na pravi način su dodati i efekti poput motion blur i depth of field-a, novi particle sistem omogućava bolje efekte varnica i vatre, a sistem osvetljenja i senčenja je realniji (dostigao je nivo igre Doom 3 i Quake 4). Alpha teksture (ograda, trava, drveće, šine) kojih ima u velikim količinama, sada imaju obavezno napredno filtriranje, pa izgledaju znatno bolje u odnosu na iste iz prethodnih epizoda. I fizika je znatno poboljšana, mada u ovom aspektu ni inicijalni Half Life 2 nije zaostajao. Druga epizoda donosi i multi-core podršku, a sama igra je jako dobro optimizovana.
       

      F.E.A.R 1.08

      Ova fantastična, grafički impresivna i veoma zahtevna horror igra je dobila zasluženo mesto u našem test batch-u. Testirali smo u “ugrađenom” walkpath demou, koji ispisuje prosečan broj frejmova. Naravno, sve moguće opcije vezane za grafiku, fiziku i zvuk smo stavili na maksimum – sve osim mekih senki, koje ne rade sa antialiasingom.
       

      S.T.A.L.K.E.R

      Ova pomalo bagovita igra, nakon dugog perioda razvoja, stiže na PC mašine širom sveta. Neke je razočarala, ali je činjenica da predsavlja popriličan stres za mašinu, a pogotovo grafičku karticu. Koristi napredne Shader Model 3.0 “efekte”, ali se izrazito oslanja i na klasičan multitexturing i fiksne funkcije (nije ni čudo, jer je razvoj na igri počeo kada je DirectX 7 bio aktuelan). Mi smo tesitrali sa maksimalnim nivoom detalja dostupnim iz same igre. Testiranje obavljamo fraps-om, nakon čega dajemo prosečan framerate tokom prvih 30 sekundi trčanja, a test lokacija je deo mape sa samog početka igre.

      The Elder Scrolls IV: Oblivion

      O ovoj igri zaista ne treba mnogo pisati, jer je u pitanju ne samo najbolja RPG igra iz prvog lica i dostojni naslednik prethodnih igara TES serijala, već i grafički revolucionaran naslov. Oslonjen na poslednju verziju Gamebryo engine-a (koji koriste i mnoge druge igre – Sid Meier's Pirates!, Civilization IV, Dark Age of Camelot itd.), Oblivion je sposoban da prikaže ogromna prostranstva prepunu bogatom florom i faunom uz nezapamćeno visok nivo detalja. Igra podržava i Havok engine za kalkulaciju fizike (nažalost, za sada samo od strane CPU-a). Zbog tehnike na koju su Bethesdi ponosni, SpeedTree, koja svaki put drugačije generiše raspored drveća i manjih stena, benchmark-ovanje u ovoj igri je pomalo nekonzistentno, te zahteva veći broj ponavljanja. Mi smo se odlučili za merenje performansi unutar veoma guste šume, u kojoj prolazimo između dva Eyelid-a (podzemne prostorije drevne civilizacije) na konju, sve posmatrajući iz prvog lica (postoji i mogućnost igranja iz trećeg lica). Svaka od tri vožnje je merena Fraps-om, zabeleženi su srednji rezultati, a onda je dat prosek. Naravno, koristili smo najviši nivo detalja koji je moguće postići iz same igre (bez self-shadows, koje nisu lepo rešeni), uključujući i HDR+AA, gde je to moguće.

      Need For Speed: Carbon

      A za sve ljubitelje Need For Speed serijala, evo i rezultata iz prethodnog nastavka ove popularne franšize koji nosi podnaslov – Carbon. Igra je inicijalno razvijana za Xbox360 i znatno je grafički poboljšana u odnosu na Most Wanted (mnogima se doduše ne sviđa motion blur); teksture su detaljnije, broj objekata koji su animirani znatno veći, AI NPC-ova je bolji, a broj poligona je tri puta viši uz bolje efekte. Tu su i neki lepi noviteti kao što je DOF, HDR i poneka paralax occlusion mapa… Pogledajmo rezultate iz verzije 1.2.

      Need For Speed: ProStreet

      Još jedan naslov iz neizbežnog Need For Speed serijala, koji koristi unapređeni “engine”, specijalno razvijan za Xbox360 i SonyPlaystation 3, a onda i portovana za PC platformu. Nije mnogo zahtevnija od prethodnika, a iako se to ne može odmah primetiti, znatno je grafički poboljšana u odnosu na njega. Modeli automobila i okolinih objekata su značajno bolji, sa više poligona i detaljnijim teksturama. Omraženi, lažni motion blur iz Carbon-a je izbačen, a dodat je daleko suptilniji efekat dinamički primenjenog blura; teksture su detaljnije, broj animiranih objekata znatno veći, a particle efekti, a posebno dim, značajno su upečatljiviji. Depth of Field i HDR su standardna pojava, a dizajneri igre tvrde i da su oblaci volumetrijski.

      Overclocking

      Karticu smo ubrzali sa početnih 576 / 1242 MHz (core / shader) na 670 / 1460, dok smo memoriju sa 2000 na 2420 MHz, efektivno. Na tim frekvencijama, kartica je u rangu sa modelom GTX280, koji, pak takođe može da se overklokuje – često i još više. Pogledajmo rezultate:

       

      Zaključak

      Da smo zaključak o GeForce GTX260 kartici donosili u trenutku kada se pojavila i kada smo tek videli koliko je, tada bezmalo dva puta jeftiniji Radeon HD4870, zaista brz i nezgodan konkurent, verovatno ne bi smo mogli da napišemo ništa lepo o novom NVIDIA akceleratoru. U međuvremenu, neke stvari su došle na svoje mesto i tu najviše mislimo na cenu ovih kartica, koja je sada prihvatljiva za ono što ona nudi. Svakako, GTX260 nije ni izbliza impresivan koliko je to NVIDIA želela da on bude, niti će nekome izazvati wow efekat nakon kraćeg druženja sa jačim modelom. Jer, slabiji GT200 bazirani akcelerator jeste bitno sporiji od GeForce GTX280 modela, čak i ako u celoj priči ne postoji Radeon HD4870X2. S druge strane, ako ne posmatramo samo najveće rezolucije i najzahtevnije modove, tih 15% razlike u performansama na najbolji mogući način opravdava razlika u ceni koja nadmašuje 40% i u tom smislu, GeForce GTX260 jeste dobra kupovina. Na našem tržištu, cena ove kartice je u rangu sa cenom direktnog konkurenta – Radeon HD4870 modela, koji je od nje u većini slučajeva nešto brži, pogotovo u najvišim testiranim rezolucijama i kada se aktiviraju anisotropic i antialiasing. GeForce GTX260 je i veći potrošač od konkurenta, osim ako ne posedujete najnoviju nFORCE matičnu ploču koja podržava Hybrid Power, u kom slučaju će u 2D režimu, GT200 kartica potpuno da se uspava i prepusti prikaz desktopa integrisanoj grafici. Ali, nije samo Radeon HD4870 konkurent GTX260 modelima. Korisnici sistema koji podržavaju Crossfire, a to su praktično svi oni koji imaju neku od poslednje tri generacije matičnih ploča za Core 2 procesore, mogu da se odluče i za dva Radeon HD4850 akceleratora. Potrošnja neće biti (mnogo) veća, ali će zato performanse biti u rangu sa bržim, GeForce GTX280 modelom, za manje novca. Dve Radeon HD4850 kartice koštaju tek nešto malo više od jednog GeForce GTX260 modela. Ruku na srce, po toj logici, mogli bi smo preporučiti i dva GeForce 9800GT modela za SLI kombinaciju, ali ako ste entuzijasta i zahtevan korisnik računara, nijedan moj kolega vam neće iskreno preporučiti nFORCE matičnu ploču za Intel procesor i onda se ponovo vraćamo na prvu alternativu našoj glavnoj preporuci.

      Još jedan problem za GeForce GTX260 kartice, pa čak i najnovije, GTX260 Core 216 modele koji će se i kod nas vrlo brzo pojaviti, jeste Radeon HD4870 sa 1GB GDDR5 video memorije, koji se u visokim rezolucijama pokazao kao solidno brži od modela sa 512 MB. Da li ćete se odlučiti za GeForce GTX260 ili Radeon HD4870 je samo na vama. Gore potpisani i dalje daje veću prednost sistemu koji radi sa ForceWare drajverima, ali to je već sada više samo subjektivan kriterijum. N260GTX je klasična kartica ovog tipa, a baš MSI možemo preporučiti zbog tradicionalno bogatog propratnog paketa i konkurentne cene.

      Karticu na test ustupila kancelarija kompanije MSI: MSI Balkan

      Ostani u toku

      Prijavi se na newsletter listu i jednom nedeljno cemo ti poslati email sa najnovijim testovima i vestima iz sveta tehnologije.

      Hvala!

      Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

      Možda vam se svidi
      X870E Aorus Pro i X870 Aorus Elite Wi-Fi7 test