Vyvodit definitivní závěr o úspěchu grafické karty z výsledku jediné hry, to je monumentální...
No nic, hodím pár myšlenek do ringu...
- RV570 se již nevyrábí, X1950PRO už jsou de-facto doprodeje
- HD2600 má nižší spotřebu (tolika lidem vadí u HD2900, přitom u mainstreamu, kde je spotřeba důležitější, páč si málokdo s kartou za 4k může dovolit koupit zdroj za 1,5k, ale jako výhodu to nezmíní nikdo?)
- HD2600 podporuje DX10 - ano, výkonem na to stačit nebude, ale kolik šest-tisíc šestistovek nVidia prodala papírovým SM3.0?
- HD2600 zvládá přehrát jakékoli HD video i na tom nejshitovějším procesoru (UVD)
- HD2600 (alespoň GDDR3 verze) je menší
To jsou výhody oproti X1950PRO.
Těch případů je víc - X800GTO vs. X1600XT, X1800GTO vs. X1650XT... s časem ale obvykle dopadá lépe varianta č.2
Jenže PS3, to je krom kusu hardwaru ještě spousta her, které výdělek zajistí. Nic takového u grafických karet není.
Velmi by mě zajímal původ této informace
Zdaleka to není tak jednoduché - clock domains, pips-ROPs crossbar, VPE, boost primární ALU, 50% navýšení v počtu pixel pipelines
Taky není pravda. Ze 110nm na 90nm die-shrink neuděláš. Shrinkovat můžeš pouze z full-node na half-node. Jinak je třeba redesing. Krom toho má G71 oproti G70 zjednodušený pipelining, zdvojnásobený počet blending-units, zjednodušené redundatní části a ještě nějaké úpravy kolem SLI. Stačí se podívat na rozdíl v počtu tranzistorů
Nepovedený výrobní proces GF256 = mnohem nižší frekvence, než se očekávalo. Je to tedy opačně - GF2MX neměla vyšší výkon, než se plánovalo, ale GF256 byla pomalejší, než nVidia zamýšlela, proto oproti ní MX vypadala dobře.
Na úkor technologické stránky, která byla o dvě generace za high-endem.
Druhá R3xx tu už asi nikdy nebude - tahle generace byla výjimečná tím, že s minimem tranzitorů přinesla maximum použitelných technologií, maximum výkonu a vysokou kvalitu obrazu. Toho se myslím už nikdy nedočkáme. Takže je to spíš výjimka potvrzující pravidlo. Krom toho v době vydání taktéž nebyla R9600 rychlejší, než GF4600Ti...
Minimální technologický rozdíl = NV4x byla designovaná pro okamžitou efektivitu ve výkonu. Možnosti výrobního procesu byly využité pro frekvence = výkon.
Taky minimální technologický rozdíl - plocha jádra uvolněná menším výrobním procesem je využita na výkon, ne na technologickou výbavu.
Opravdu? Stále zapomínáš na to, že tady jde (vůči GF7) o brutální rozdíl v architekturře a technologické výbavě. GF7 není po stránce architektury nic víc, než čip s typickou fixní SM2.0 architekturou, jehož výpočetní jednotky splňují specifikace SM3.0. Kdežto G8x je něco úplně jiného a nejen technologicky, ale i v kvalitě obrazu. To, co nVidia "ošidila" na GF7, musela nyní chtě nechtě dohnat a to stojí tranzistory (viz. rozdíl mezi G7x a R5xx)
Co je to sposuta situací? Rozhodně ne většina. Ve většině situací i v průměru vede 8600 nad předchůdci s přehledem. Kvalitou obrazu jí pak nemůžou konkurovat nikdy.
Nenapadlo tě popřemýšlet nad tím, proč? V první řadě je třeba si uvědomit, že mainstream vychází technologicky z high-end čipů. Ty jsou navrhovány tak, aby do poslední kapky vyždímaly možnosti aktuálních výrobních procesů takovým zpsůobem, aby výkon i technologická stránka čipu byly co nejvýše, jak to jen jde. Pokud bude čip větší než konkurentnční, vůbec to nevadí, jen když konkurenci porazí. Zaplatí se.
Jenže, v mainstreamu je situace opačná. Mainstreamový čip musí mít kolem 150mm2, ne o moc víc, protože by jinak výsledný produkt nevydělával, kolik je potřeba.
GeForce 6600: 150mm2
Radeon X700: 156mm2
Radeon X1600: 150mm2
GeForce 7600: 127mm2
Radeon X1650PRO: 131mm2
GeForce 8600: 169mm2
Radeon HD2600: 153mm2
Ten zdánlivý "zvyk" ve vydávání mainstreamu, který je "polovinou" high-endového čipu, je minulostí a už trend R520->RV530 naznačoval, že to takhle dál nepůjde. Výjimečnost R3xx se už opakovat nebude, R4xx byla SM2.0, NV4x a G7x byly dost "úsporné" architektury a R5xx a G8x, které jsou obecně považovány za "slušné", jsou zároveň i velké, takže půlení čipu není realizovatelné. U G80-G84 nestačil ani přechod na 80nm proces (čip je i tak na standardy mainstreamu dost velký a ani tak nenese tolik výpočetních jednotek, kolik by bylo třeba). Ale pro nVidii to byla jistota. ATi radši počkala na 65nm proces, aby čip zapadl do tradičních mainstreamových rozměrů a mohl si dovolit ještě pár "shaderů" navíc, ale zase ji to stálo pozdnější uvedení na trh.
Tak jako tak, pokud má high-end >400mm2, bude mít poloviční čip těžko 150mm2 (bez nichž nebude dostatečně výdělečný). V poslední době navíc "okleštění" čipu znamená větší a větší problémy, protože snížení výpočetních jednotek a souvisejících obvodů na polovinu znamená pokles plochy čipu ani ne o třetinu - a to vlivem prvků, které jsou v čipu přítomné nezávisle na kvantitě výpočetních jednotek (např. stále komplexnější obvody pro video, složitější paměťové řadiče, části 3D jádra, které zůstávají nbez ohledu na počet výpočeních jendotek - např. u R6xx tesselator, může to být ale i triangle-setup, některé části řídících obvodů atp.) - tedy ty části, které zůstávají beze změny
Nechtěl jsi říct spíš výkonnostním fiaskem, nebo tak něco? Žádné marketingové fiasko v souvislosti s GF8600 nepozoruju...