Spotreba 9800GTX
http://resources.vr-zone.com/newzhun...00gtxpower.png
Printable View
Spotreba 9800GTX
http://resources.vr-zone.com/newzhun...00gtxpower.png
cena/vykon je lepsi, ale vykon/naroky her se zhorsuje...takze to zas takova vyhra neni. ikdyz si koupis novou/vykonejsi a levnejsi (nez kdysi) grafiku, tak zaplatis, a nekdo plati i kazdeho pul roku....
jinak preznaceni 88 na 98 mi prijde celkem logicke, 29 na 38 taky slo (ikdyz pres 55nm) a pohled na ty karty je uplne jiny
Jenže u HD to znamenalo nejen nový výrobní proces, ale i implementaci PowerPlay, DX10.1 kompatibilitu a určité zvýšení efektivity (ať z hlediska výkon/bandwidth, výkon/tranzistor, výkon/spotřeba nebo výkon/náklady). V případě GF9 jde o tentýž čip, maximálně v jiné revizi. Kdyby se ho alespoň "obtěžovali" přeznačit, aby to minimálně naoko vypadalo, jako nová generace, tak budiž, ale takhle...
Je to to samý co Nvidia dělá vždy. Vždy má jednu generaci co přinese technologie a druhou co umí prakticky to samé ale je to trochu upravenější, vylepšenější, opravené případně chyby. Nvidia má vždy jednu technologickou generaci čipu na 2 řady karet.
Viz:
TNT - TNT2
Geforece 256 - Geforce2
Geforce3 - Geforce4
Geforce FX5800 - FX5900
Geforce 6 - 7
Geforce 8 - a nyní 9.
Naprosto to odpovídá, a tato strategie je dost výhodná a lepší než ta co dělá ATI, která se snaží prorazit skoro každym čipem a dost často na to spíš naletěj, Rv670 je celkem vyjímka, aneb upravená R600 tak aby to bylo prodejný a za celkem nízké náklady. To ale nic nemění na tom, že ATI nepředvedla zatim žádnej čip co by porazil starou G80, kdyže to vyšla? Listopad 2006?
U vetsiny tech co zminujes to znamenalo aspon vylepseny vyrobni proces a zyseni efektivity at uz vuci spotrebe, teplote nebo taktu. Tady ma pravdu no-X v tom, ze G92 je soucasti generace 8800 a paradoxne naprosto tentyz cip je zakaldem i "nove generace", takze to je neco, co tu v historii jeste nebylo.
A s tim, ze ATi nepredvedla zatim zadny cip, ktery by porazil G80/G92, se da polemizovat. Co se tyce vykonu ve 3D, pak samozrejme ne. Ale osobne nechci od grafiky jen masivni 3D vykon, aby ve vsech ostatnich vecech, ktere ma graficka karta obstaravat, propadala. Predevsim mi jde o vykon ve 2D a subjektivni kvalitu videa, ktere je na NV vhodne leda tak pro primy softwarovy processing a rescaling. Jinak dle podpisu co mas, bys mel vedet, ze napriklad v UT2004 a vetsich mapach ma G92 alias 8800GTS/GT neprijemny bug ve forme asi pul sekundovych zaseku. Jinymi slovy, pro lidi, kteri maji hlavni casovou napln na PC hrani novych her, je NV idealni. Pro ten zbytek to uz neni pravda...
NV4 vs NV5 (TNT/TNT2): nový výrobní proces, lepší RAMDAC, podpora 32bit Z/Stencil Bufferu, AGP 4x + 1,5V podpora, tuším ještě lepší řadič schopný adresovat dvojnásobek paměti
NV10 vs NV15 (GF256/GF2): nový výrobní proces, nový texturing engine (2x bilinear oproti 1x trilinear), tuším ještě vylepšení pipeline (register combiner)
NV20 vs NV25 (GF3/GF4): PS1.3, druhý VS, z-komprese, fast-z-clear, quad-cache, auto pre-charge, vylepšený FSAA (posun quincux grid, SS)
NV30 vs NV35 (FX58/FX59): širší rozhraní řadiče, překopaná PS unit (místo 2 FX12 Mini-ALU z nichž každá uměla 2 MULs nebo 1 ADD nebo 1 MAD byla použita 2 FP32 mini ALU z nichž každá umí 1 MUL nebo 1 ADD nebo 1 FP16 MAD, nějaké změny na VS (ty z hlavy dohromady nedám), UltraShadow, vylepšené kompresní algoritmy
NV30 vs G70 (GF6800/GF7800): o 50% více pixel pipelines, clock domains, podpora transparentního AA (tuším v driverech časem doplněna i na NV4x, ale s niží úrovní akcelerace), MSAA gamma correction (sice jen pro MSAA 4x a ne zcela ideální, ale NV4x ho neuměla vůbec), upravený PS engine (2x MADD místo 1x MADD + 1x MUL) a ještě jeden rozdíl, který mi díky skleróze vypadl z hlavy (snad si někdo vzpomene) //ed: jo, oproti NV40 lepší (plně funční) mini ALUs, ale třeba i nativní implementace PEG a SLI
jenže... jaké lze čekat rozdíly mezi G92 a G92 rev.2? Ani s G94 (GF9600) nVidia neuvedla, že by přinášela něco nového... věřím, že tam určité změny budou, ale pokud by se týkaly uživatele, proč nVidia mlčí? Napadá mě jedině, že by v původní verzi G92 nefungovalo něco, co souvisí s DX10.1 a nVidia o tom nechce mluvit, aby si nezabila prodeje GF8, než bude nová revize G92 na trhu. Ale stejně tak je možné, že to není pravda a nVidia se jen pokouší vyvolat v uživatelích dojem či naděje, že nová revize G92 bude něčím lepší...
G84 aka 8600GT/GTS. Nizky vykon, neodpovidajici cena. Prichod G94, logicka snaha o max. distancovani se, cimz vznika 9600GT. Prichazi "refresh" G92 s podporou Tri-SLI atd. Vydat vykonnejsi kartu s oznacenim 8900, kdyz uz na trhu mate produkt o "tridu" vyssi vychazi jako nesmysl. Vznika nam 9800GT/GTX. Jak jednoduche.
btw. kdo se chce pobavit - vykon GT200 v 2560x1600 ;D
http://img204.imageshack.us/img204/8205/usrwp2.jpg
A teď já: Původně měla G94 vyjít dříve, jako konkurent RV670. G92 měla podle původních plánů konkurovat HD2900PRO. HD2900 se ukazuje jako slabší soupeř, naopak RV670 je oproti původním specifikacím rychlejší (4 quady místo 3) a nVidia si je vědoma, že by RV670 s G94 neporazila. G94 je tedy odložena a proti RV670 je místo ní postavena částečně osekaná verze G92. Ta je sice rychlejší, ale zároveň má zpočátku jako první větší 65nm čip nVidie v ranné revizi problémy s výtěžností a je nedostatkový. Navíc je pro nVidii ekonomičtější tento čip prodávat za vyšší cenu jako GTS-512, která vychází výrobně levněji, než GTS-640 (méně paměti, levnjěí PCB, levnější chladič, absence NVIO). G94 vychází později, ale zato v revizi, která zvládá vyšší frekvence a RV670 se dokáže alespoň vyrovnat. Mezitím je pro lepší výtěžnost na vyšších frekvencích upravena i G92, přičemž totéž provádí ATi s RV670, jejíž rychlejší verze, bude-li třeba, může vyjít na jaře. Nečekal bych ovšem, že ji ATi nazve HD4800 :)
tak to je jen dobre, doufam, ze s eobjevi nova revize upravena:)
No, sám moc taky nevidím v řadě 9800 přínos. Na prvních driverech je GTX dokonce pomalejší než 8800 GTS 512 MB, spotřeba je ještě vyšší - 230 W, PROBOHA !!! To bude mít těžko GX2 250 W, sice nemá všechno to co dvě karty a jde na nižších taktech, ale přece...docela věřím, že ve finále to bude těžce přes 250 W. Navíc to musí mít kryt chladiče z plechu aby to něco málo tepla odvedlo, otvor na vyfoukávaný vzduch je malinkatý...bude i nejtěžší v historii...k tomu je zatím výkon stejný jako u GTX, uvidíme co udělají drivery...když si k tomu vezmu, že zatím jsou ceny kolem šesti set dolarů (a v EU obvykle USD = EUR), tak nezlobte se na mě, ale myslím si, že AMD to má s 3870 X2 jasné...
Nevim o tom, ze by byl nekde test nove GTX vs GTS 512, ale pokud ho mas, urcite se radi podivame.
230W je cela sestava v loadu, ne karta samotna...
Neverim tomu, ze by kdokoliv vydal kartu se spotrebou vyssi jak 250W. Uz kvuli napajeni je to nesmysl. Opet vidim nejake odhady vykonu i kdyz ani jeden test se zatim nikde neobjevil.
Ano, GX2 je jinak docela zbytecne monstrum, hlavne kdyz to vypada, ze 2x9600GT by bylo daleko levnejsi reseni a s 3870X2 by si ve vetsine pripadu poradilo.
EH - GTS v Marku 212W / GTS v Crysis 216W
Taky dost zalezi na jake sestave se testuje a cim se karta zatezuje.
- Na 2x GF9600GT potřebuješ desku se dvěma PEG sloty, která navíc podporuje SLI, takže jsi omezený na nForce čipsety a podporu SLI
- 2x GT9600GT překonává nebo dohání X2 ve třech případech: pokud jde o situace limitované výkonem procesoru (tzn. framerate kolem 100FPS, což není výhra, protože rozdíl mezi 110 a 130FPS je irelevantní), pokud jde o hru, kde zároveň SLI funguje optimálně a CF ne (což je záležitost SW, která se pravděpodobně zlepší) a nebo pokud jde o hru, která není ATi-friendly (LP, WiC) - pouze v tom vidím problém, ale nikterak velký, protože takových her je stále menšina
- při kombinaci vysokého rozlišení a vysokého FSAA má X2 o nějakých 30-40% navrch, což je dle mého názoru relevantní hledisko při výběru karty v nejvyšším výkonnostním segmentu
GeForce 9800 GX2, 9800 GTX & 3870 X2 Compared
VR-ZoneCitace:
VR-Zone has gotten some preliminary 3DMark06 scores on the upcoming GeForce 9800 GX2 and 9800 GTX cards. The setup : Core 2 Quad Q6700 2.66GHz processor on a P965 board with Forceware 173.67 drivers and Catalyst driver version 8.451. GeForce 9800 GX2 scored 14225, 9800 GTX scored 13167 while Radeon HD 3870 X2 scored 14301. Nvidia is still tuning up the drivers and the clock speeds aren't finalized yet so we should be seeing some improvements when launched. Currently, 9800 GX2 is slated for March 18th launch while 9800 GTX is slated for end March.
http://resources.vr-zone.com//newspi...00vs3870x2.jpg
neni to nejak malo, kdyz s C2D a 8800GTS to dava 12k ?
To me vic zarazi, ze jeste porad nemaji urcene takty.
Výsledek v 3DMARK06 nám bohužel už moc toho neřekne o výkonu nejnovějších karet, divím se, že ještě neunikl nějaký výsledek z her...
Geforce 9800 GX2 first scores are in
FudzillaCitace:
The first test is done on a 600MHz core, 2000MHz memory and 1500MHz Shader clock and at 3Dmark05 default settings we scored 17600.
In 3Dmark 06 the card at the same clock scored 14400 and this is the normal default score.
If you push the card to 730MHz core and 2080MHz memory and leave the Shaders at 1500MHz you end up with 19400 in 3Dmark05 and about 16100 in 3Dmark 06.
Ja bych jenom doplnil, ze CPU byl C2Q 3GHz.
mne sa pacil tento obrazok :D aj ked nv ma len nejake beta driveri ale ked si vzemem aky je to pekac :)
http://resources.vr-zone.com//newspi...00vs3870x2.jpg
____
http://vr-zone.com/articles/GeForce_...ared/5614.html
9800 GTS pictured, clock speeds revealed
FudzillaCitace:
Two new Nvidia cards stripped in a day, can it get better? Well, it seems like the clock speeds of the 9800 GTS are out as well, as this puppy will be clocked at 600MHz for the core with its Shaders at 1,500MHz and the memory at 900MHz (1,800MHz effectively).
The 9800 GTS doesn't support 3-Way SLI, due to the single SLI connector, and it looks like a clear message from Nvidia: 3-Way SLI is only for the top of the range products and if you can't afford them, then you don't deserve to run 3-Way SLI. So much for caring about what its customers want.
GeForce 9800 GTX gets undressed
FudzillaCitace:
Expreview has a whole bunch of pictures of the upcoming GeForce 9800 GTX in the nude and it looks very different from the GeForce 8800 GTX that they've put next to it on one of the pictures. The card is about as long as the old 8800 GTX, but as it's using a 256-bit memory interface, it has a very different board layout.
The card does, of course, support 3-Way SLI, as it has a pair of connectors toward the front of the PCB. The reference card has a pair of dual link DVI ports and a TV-out connector, but there's also some wierd connection between the PCB and the rear I/O shield. This might be some kind of support brace, but it looks very strange and we've never seen anything like it on past Nvidia cards.
You can check out the pictures here.
GeForce 9800 GX2 card taken apart
Obrazky muzete najit na PC Games Hardware
9800GTS jen 600/1500/1800 ? v cem bude vyhoda oproti 8800GTS 650/1625/1944 ? ze by mela vic nez 128 SP ? nebo jinak bude taky 256-bit, takay 512 MB DDR3.... tak nejak nechapu vyhodu ? .. ma nekdo napad ?