je pravda ze vsechny tyto 98xx karty maji mit stale jadro jako 8800GT tedy G92 ?
Printable View
je pravda ze vsechny tyto 98xx karty maji mit stale jadro jako 8800GT tedy G92 ?
Osobne sem z toho taky mirne tumpachovy :confused: Prijde mi divne, ze by NV delala podobnou vec jako ATi(2x00->3x00). Tedy vydavat novou (dloouze ocekavanou) generaci se stejnym jadrem jako 8800GT/GTS.
Osobne doufam, ze to bude cele nejak jinak, protoze jestli 9800GTX bude dejme tomu 8800GTS(G92) s 384 bit sbernici nebo neco podobneho, tak to uz bude vazne vrchol, protoze by to znamenalo, ze jsme se opet nedockali nove generace v pravem slova smyslu :mad:
No 9600GT uz ma byt na D9M s podporou DX10.1, takze predpokladam, ze nove GTX a GT budou na D9P i kdyz to znaceni je v rozporu s tim na co je vetsina lidi zvykla. GX2 by mela byt jako jedina stale na G92. Ale pak by G100 musela musela skocit o dalsi 1k ve znaceni vys a to by bylo nejak prehnane rychle.
Hlava kolem z toho jde asi vsem. Vzhledem k deni v poslednich par mesicich je to ale asi strategie.
8800 GS proti HD 3850
http://img215.imageshack.us/my.php?image=xxxxxyk9.jpg
Exklusiv: GeForce 9800 GTX im Detail
Hardware-AktuellKód:9800 GTX 8800 Ultra
Codename G100/D9E G80
Verfahren 55nm 80nm
Transistoren ~ 1800 Millionen 681 Millionen
Chiptakt 650 MHz 612 MHz
Speichertakt 1000 MHz 1080 MHz
Speicherinterface 512-Bit 384-Bit
ROPs 32 24
TMUs 96 64
Shadereinheiten 384 128
3x vic tranzistoru nez 8800Ultra :D to bude velikost a vyteznost teda pekna :rolleyes:
ale jinak to vypada pekne:D
no vzhledem k tomu, ze s takovouhle strategii, (kdy udelaj monstrozmi cip v mezich vyrobniho procesu viz. predchazejici GTXka) slavili uspech, tak bych se tomu ani nedivil...navic na mensi cip by se asi ta 512bit sbernice hure vtesnala
jenze to jen v pripade pokud si tyhle parametry nekdo nevycucal z prstu, jak jiz byva zvykem...:)
Uff -- Skoro by to pomalu chtelo mit ke zdroji 700-1000W jeste alespon jeden case jen grafiky protoze tyhle monstra v sli tam uz prestava legrace. Za cas si poridim jeden case na pul desky s procakem a druhej na grafiky + druhou pulku desky..bude se to potom dobre chladit a v kazdem casu zbyde jeste kousek mista.
Doufam, ze takovehle kokotiny jsou jen vykrikem do tmy, protoze jestli to mysli nVidia vazne, tak opravdu nevim, na co upgraduju... :rolleyes:
Ty hodnoty jsou tak monstrózní, že se mi jim nechce věřit. Navíc mě zaráží jedna věc. Jádro G80 je vyráběno pokud vím 90nm procesem, nebo udělala nVidia optical shrink na 80nm? (Pak by mi to uniklo).
tak a setrim na solarni elektrocentralu :)) ty woe to bude zrat jak cep ... ale proc ne za vykon > watiky :)
tie cisla su take velke ze ak to bude pravda, tak sa aj poserieme, ale nebojte sa, budu k tomu dodavat maly prirucny jadrovy reaktor :-)
Nástin výkonu nové "GX2" pomocí GeForce 8800 GTS SLI
http://www.pctuning.cz/index.php?opt...9959&Itemid=44
no byl bych opatrnej s tvrzenim a nastinem pctuningu..))) Nerikam, ze se nemusej trefit, ale radsi pockam na realne testy.
Chápu jako potvrzené, že GeForce 9800GX2 je duální konfigurace, což je patrné i z výše uvedených obrázků. Nedává smysl, aby nVidie vydávala zároveň monolitické GPU i single-board SLI, jejichž výsledný výkon bude podobný.
Jedině, že bychom tyhle parametry vydělili dvěma:
Čímž jsme získali snadno realizovatelný čip, který je parametrově velmi blízko G94 (GF9600). V duální konfiguraci by měl parametry uvedené serverem Hardware-Aktuell a mohl by snadno tvořit high-end produkt.Kód:Codename
Verfahren 55nm
Transistoren 900 Millionen
Chiptakt 650 MHz
Speichertakt 1000 MHz
Speicherinterface 256-Bit
ROPs 16
TMUs 48
Shadereinheiten 192
Next gen NVIDIA is GT200
FudzillaCitace:
The first time we heard about a product from NVIDIA called G100 was almost a year ago. This should be one of the codenames for the next generation NVIDIA card, but it might not be the only one.
D8E is Geforce 9800GX2, and that is already a done deal, but after that comes a new high-end card. We know that this product is expected in the middle of this year and that NVIDIA is working on it. The new codename is GT200 and we know that Dan Vivoli likes GT stuff, so we wouldn't be surprised that he came up with the name.
GT200 has over billion transistors
FudzillaCitace:
We've learned that next generation NVIDIA is going to have more than a billion transistors and if made in 55nanometre it will be the biggest chip that was ever build.
As we said yesterday 45nm simply won’t be possible this year and as far as we know GT200 will be 55nm or in worst case 65nm. We get a mixed information on this particular matter.
NVIDIA has 55nm chips taped out
FudzillaCitace:
NVIDIA already has the plans to transition to 55nm in 2008 as this half node means smaller and cooler chips. We are probably talking about second half of 2008 but NVIDIA is already talking to TSMC about going to this process.
NVIDIA GeForce 9600GT sneak peek and early bench
ExpreviewCitace:
The card’s performance is similar to 8800GS. But 8800GS is only a temporarily NVIDIA weapon fighting with ATI’s HD3850. 9600GT is a long term product for replacing the 8600GT family. So how did you think about the incoming war between HD 3850\HD 3670 and 9600GT?
http://www.expreview.com/img/news/20...0/3dmark06.png
Valve and NVIDIA Offer Portal: First Slice Free to GeForce Users
SteamPoweredCitace:
Effective immediately, all NVIDIA gamers may receive a free copy of PortalTM: First Slice, a special version of the award-winning new game from Valve, by visiting www.steamgames.com/nvidia1 and "Taking the Test." Steam will then auto-detect the presence of NVIDIA hardware and make Portal: First Slice available immediately, free of charge. To make it easy for all NVIDIA customers to redeem this offer, a link to the Steam offer will also be included in all NVIDIA drivers.
Cela nabidka obsahuje Portal: First Slice, Peggle Extreme, Half Life 2 Deathmatch a Half Life 2 Lost Coast .
Jinak to vypada, ze bundlovani her od Valve k ATI kartam uz v nejblizsi dobe neuvidime.
btw. znamena tohle snad, ze Valve vstoupilo do TWIMTBP programu?
http://www.expreview.com/img/news/2008/01/10/portal.jpg
9800 GX2 clearly wins over 3870 X2
FudzillaCitace:
We said this back in 2007 but let us be clear on one thing. Nvidia’s upcoming high end sandwich board, Geforce 9800 GX2 is going to end up faster than a single Radeon 3870 GX2.
This comes as no surprise as Nvidia’s single G92 is faster than a single RV670 and in the same matter a dual chip Nvidia beats ATI.
Radeon 3870 X2 will be very competition as its single chip brother was but it is still a bit slower compared to Nvidia. We still believe hat Radeon 3870 X2 will have quite good sales as it will be significantly cooler than Nvidia’s card and it will be available in massive numbers.
GT200 won't do DirectX 10.1
FudzillaCitace:
In this early stage, we've learned that even in the next generation Nvidia doesn’t plan to support DirectX 10.1 API.
Nvidia wants to continue its DirectX 10 path and there's a good chance that it will simply migrate to DirectX 11 before it supports DirectX 10.1.
As Nvidia has a dominant position in game development and publishing community it doesn’t look that DirectX 10.1 has a lot of chances in 2008, but ATI will certainly push a title or a few that will have full support for DirectX 10.1.
GeForce 9600GT gaming benchmarks out
http://resources.vr-zone.com/newzhun...0GT/CRYSIS.jpg
http://resources.vr-zone.com/newzhunter/9600GT/WIC.jpg
ForceGame
GeForce 9500GT (G96) First Look
TomsHardwareCitace:
D9M G96-300
65nm TSMC
P727/P729 6 layers PCB for GDDR3 & 4 layers for GDDR2 (P729 comes with DisplayPort)
Core clock : 650MHz
Shader clock : 1650MHz
Memory Interface : 128-bit
Memory capacity: 256MB memory
Memory clock : DDR2@900MHz / HYB18H512321BF-12 @ 1600MHz / Hynix HY5RS123235BFP-11 GDDR3 @ 1800MHz
Card makers may come out with 512MB variants later
Supports PCIe 2.0, DX10, SM4.0, OpenGL 2.1, PureVideo HD, 128-bit HDR, 16X AA, Hybrid Power, VP3
http://media.bestofmicro.com/0/M/751...inal/02D9M.jpg
V pripade rozumnej ceny a skutocne takehoto vykonu by to bola velmi pekna midrange karta :eek:
vykon bude fajn, ale zere hodne ... :)
Nevím kam to patří, snad sem...
NVIDIA to Acquire AGEIA Technologies
http://www.nvidia.com/object/io_1202161567170.html
ámen
Ageia Goes Green: The Future of Ageia PhysX Discussed
XbitLabsCitace:
In a rather unexpected move, Nvidia Corp. took control over Ageia Technologies, the world’s only developer of physics processing units for video games. We decided to find out some more information about the future of physics processing and asked a vice president of Ageia several questions. Will there be Nvidia-branded PhysX accelerators? Is Nvidia developing an open GPU physics platform? Let’s find out!
Co říkáte na tohle (9800 GX2): http://pretaktovani.cz/text/geforce-...ejtelpejsi.php
Největší pobaw je - cituji - "Na kartě bude dokonce varování, že je zakázáno na ni v provozu sahat, aby nedošlo k případnému popálení."
:-D
Geforce 9800GX2 to launch in March
FudzillaCitace:
A few independent sources have confirmed that Nvidia's dual chip Geforce 9800 GX2 will launch in early March. This is a few weeks later than originally planned.
Nvidia decided to push this card into March and it looks like it might launch in the week following CeBIT. We would expect that Nvidia will announce this card on the first day of CeBIT or earlier, as their partners will be there to show these cards to the world. We will report on a fixed date once we get it.
2GB 9800GX2
http://www.infomars.fr/forum/uploads...1202459646.png
GeForce 9800 GTX (D9E-20) to launch in Late March
VR-ZoneCitace:
VR-Zone learned that the fastest single card from Nvidia, the GeForce 9800 GTX (D9E-20) will be launched in late March, about 2 weeks after the 9800 GX2. It is G92 based and it is rumored to be clocked between 750-850MHz.
A aby toho nebylo malo, TheInquirer pise, ze karta bude mit 768MB pameti. Rika vam to neco? ;)
GeForce 9800 GX2 (D9E-40) Clocked @ 600MHz
http://resources.vr-zone.com//newspi...18/9800GX2.gif
VR-Zone
Geforce 9800GX2 looks good
FudzillaCitace:
Hacks from TechConnect Magazine have managed to score a screenshot of the upcoming 9800 GX2. This is nothing new from the design side as the card features the same reference design with a partner 's sticker covering the half of the top cooler cover. The card's clocksare way higher than 600/1500/2000 MHz for the GPU/shaders/memory which were reported earlier.
Anyway, this card comes with 1GB of GDDR3 memory that works at 2400MHz. We doubt this figure as it sounds a tad too high.
The GPU clock is far more interesting as it states that the new card will work at 660MHz, which is 60MHz over the earlier reported clock. We still remember that this was the clock of some super overclocked 8800 Ultra so this might be a simple copy paste job.
Tak uvidime jak to nakonec dopadne. Tyhle frekvence kazdopadne vypadaji lepe.
http://www.fudzilla.com/index.php?op...=5861&Itemid=1
We learned that the new G92 based card will be branded as 9800GTX. From what we know it is a card similar to the 8800GT(S) but it has two SLI connectors.
Finally, there will be a card to replace the retired 8800GTX. We don’t know how many people will go out and buy three high end cards, but you never know.
Geforce 9800 GX2, a dual chip card, will work with quad SLI, while Tri SLI works with three single chip cards with two connectors. It will be fun to compare the performance of three 9800GTX cards against two 9800 GX2 cards.
Specifikace GF9800GTX (?)
http://www.abload.de/img/9800gtxvwa.jpg
(tzn. o 25MHz rychlejší jádro a 130MHz rychlejší paměti, než GTS-512)
http://en.expreview.com/?p=274
proc zase vsechno matlaj 256bit, kdyz uz stary gtxko jelo na vic, uz by mohli zacit delat standardne 512bit...
Těžko, na to nemají dostatečně velké jádro. 512bit sběrnice by se se současným řadičem nemusela vejít ani na G80.
Na GTX budou zda se nakonec pouzity 0.8ns GDDR3 - http://bbs.chiphell.com/viewthread.p...extra=page%3D1
GreenOrchid: Stačí jednoduchá trojčlenka spočteš si, že 384bit sběrnice se na G92 nevejde. Datová propustnost je limit, ale pro nVidii je levnější (a výhodnější v poměru cena/výkon) nezvětšovat čip kvůli sběrnici, mít konstatní výrobní náklady, ušetřit na vývoji a náklady v podobě rychlejších pamětí přesunout na samotné výrobce karet. Navíc tak levně a rychle získají konkurenci pro X2.
5-10%
Co bys čekal? Je to podle všeho tatáž karta, jen s o 4% rychlejším jádrem a 13% rychlejšími pamětmi. Pokud vím, nepracujou v nVidii kouzelníci, aby přetaktováním čipu o 4% dostali 40% výkonu navíc ;)
GF9600 je jednak jiný čip, druhak běží na vyšších frekvencích a za třetí - porovnej si propustnost paměťové sběrnice GF9600GT a GF8800GT a uvidíš, proč se výkonem neliší tolik, jak by se dalo čekat z počtu SPs :)
Takže srovnáváním s GF9600 by jsi do toho pouze vnášel zmatek. Máme tu GF8800GTS a GF9800GTX, obě jsou založeny na stejném čipu (G92), frekvence se liší o zmíněných cca 4%/13%. To si každý může nasimulovat přetaktováním a vyzkoušet, jaký výkon bude GTX mít. Rozdíl by mohlo vnést více paměti (1GB), nějaké zásadní změny v BIOSu, ovladačích apod., ale druhé dvě možnosti víc než procenta výkonu přinesou jen těžko. Pokud se tedy nVidia nesníží k nějakým "optimalizacím", jaké přinesla GF6800Ultra (nebo to byla Ultra-Extreme?), která při frekvencích o 10% vyšších ve FarCry běhala o 40% rychleji :D
Xbit LabsCitace:
Nvidia’s code-named G92 graphics processor, which powers the latest GeForce 8800-series products, was launched as A2 with certain capabilities disabled. Those features are expected to be re-enabled only in A3 version of G92 set to be out in February or March.
Kdyby to bylo kdekoliv jinde, tak to ignoruju, ale tohle zni opravdu zajimave.
double-precision?
Nějaké info k 9800GTX
http://www.extrahardware.cz/geforce-...tx-vse-i-fotky
Zda se mi to nebo vidim jen jeden SLI konektor? Urcite je to GTX? ;)
edit:
Tak mozna tam precijen je, ale je to focene pri pekne blbem svetle.
http://xtreview.com/images/7600gt/gi...gt_sli_cap.jpg
Dle toho pidichladitka bych spis tipoval neco ala 7900GT/GS.
To neni fotka te karty, ale jen na ukazku co tam je na tom druhem konektoru asi.
btw.
http://en.expreview.com/?p=280
http://en.expreview.com/img/2008/02/26/9800GTX.jpg
no teda nic moc.. doufam ze dodelaj ovladace, pac s takovym CPU co tu kartu krmi, zadnej zazrak na to, ze se nVidia chvasta(la), ze dokaze kazdy rok vykon zdvojnasobit (ale nechejme se prekvapit)
8800GTS s timhle CPU dava asi 12k, takze ten narust neni zase tak maly.
nerozumim... (asi sem blondak:lol:), ale kdyz na C2D 65nm na 3.0 GHz dava GTS512 5500 na SM2 i na SM3(pokud jsi nemyslel starsi 320 nebo 640 GTS), tak kdyz prictu 4500 za ten eXtreme procak, tak mi vychazi dost podobny cislo ;)
tak jasny, ze 3D mark nebudem hrat ze.. ? a ve hrach to bude vypadat treba jinak.., ale jinak jsi tech 12K s takovym CPU podstrelil..
a nemeli bychom ji porovnat s 8800GTX ? JackalJackal ji ma treba a ma na default 5000 SM2 a 5300 na SM3, tak mi 5800 nepripada o moc vic...
Tech 12k je opravdu malo. Nekdo daval jinde v diskuzi odkaz na recenzi GTS, ale nevsiml si, ze je to sice C2Extreme, ale ze to neni quad. Ja zkousel ORB a nejak v Opere blbne, tak jsem to proste prevzal.
Jinak srovnavat s GTX? Proc? GTS ma stejny pocet SP, stejne velkou pamet, stejne sirokou sbernici. GTX ma sirsi sbernici, jine jadro a uz se stejne nevyrabi. Z benchmarku uvidis kde je stare GTX rychlejsi nebo pomalejsi, ale me osobne hlavne zajima, v cem, jak a jestli vubec se nejak lisi G92 pouzita pro 8800 od 9800.
a jeste ma mit GTX dva napajeci konektory. To bude zrat o tolik vic nez 8800GTS ?
no srovnat jsem chtel 8800gtx a 9800gtx, protoze ma nVidia i stejny znaceni u 9 rady.. tim myslim dle vykonu od nejnizsiho - 8800GS, GT, GTS, GTX, Ultra (GX2 nepocitam), to ze si hrajou se sbernicema me nezajima, zajima me jaky bude narust "noveho" cipu oproti cipu, ktery je rok stary - tzn. 8800gtx vs 9800gtx a podivat se na tvrzeni, ze dokaze nvidia zdvojnasobit vykon kazdy rok... (marketing se bude vzdycky chvastat, ale dvojnasobny vykon pro endusera je fakt dost mimo)
zatim to vypada, ze si nvidia vzala GTS512 neco malo tam potunila, ale dal uz to nejde... za 8500, kdy u nas to bude buhvijak vypadat, to je dost smesne..
paradoxne tak kopiruje dvojcipy ATI a snazi se hlavne co nejdriv vydat a vydelat na GX2 (coz je logicke)
Proc by vydavali novy produkt, kdyz je konkurence nikam netlaci a muzou vesele vydelavat na starem? To ze se vyvoj pozastavil je jedine dobre. Lidi co minuly nebo predminuly rok dobre nakoupili nemaji do ted duvod menit.
btw. nevim jak muze NV nekoho kopirovat s GX2, kdyz tohle neni poprve co podobnou grafiku vydavaji ;)
V článku na VR-Zone cos tu postoval píší o maximální spotřebě 168W samotné karty. U 8800GTS 512MB se udává max tuším 140W, takže na to že má 9800GTX 2 jádra to není IMHO o moc víc, ne?
EDIT: vlivem slunečních protuberancí :-) jsem grafárně 9800GTX přisoudil dvě jádra, což NENÍ PRAVDA, páč má jenom jedno. Sypu si popel na hlavu a omlouvám za případnou dezinformaci. Heh.
Řekl bych že to bylo myšleno ve smyslu "ATi udělala nejvýkonnější řešení - my uděláme výkonnější" a jiná cesta než 2 jádra teďko není :-)
no-X neprskaj hned. Obaja mate pravdu, ale inym sposobom. Masster to zrejme myslel, nie ze uplne zastavil, ale spomalil oproti temu z posledneho roka-dvoch. Vykon stale stupa, pomer cena/vykon zlepsuje, ale nie je to take ukrutne tempo, ze clovek, ktory si kupil kartu za velke peniaze si po dvoch mesiacoch moze buchat hlavu o stenu, pretoze vyrobca vydal vykonnejsiu kartu za menej/rovnako penazi.
Ono pokud se peak hodnoty u GTS opravdu pohybuji kolem 140W, tak staci 75W z PCI-E + 75W z dalsiho konektoru, ale pokud jsou tyto hodnoty u GTX vetsi, tak nic jineho nez pridat dalsi konektor nejde. Kazdy jeste PCI-E 2.0 desky nema, takze jina moznost neni.
Citace:
Původně odeslal Masster
Tak ze by prece?Citace:
Původně odeslal CJ
Co by to znamenalo pro výkon nových NV řady 9800GT* ?
Podle tohohle: http://www.svethardware.cz/art_doc-D...C0077FC83.html to vypadá s 9800 GX2 docela na průšvih, hlavně jestli bude koncová cena opravdu k 15.000,-. Spotřebu a váhu opominu :-)
EDIT: koukám zdroj VR-Zone, tak těžko říct co na tom bude pravdy, ale celkem to tak odpovídá očekávání. Nebo ne?
Nevim mno,ale porad je dnesni 9600GT pro bezne hrace tak vykonna od 4000kc,ze opravdu nechapu koho zaujme 4x drazsi GX2.4x rychlejsi asi nebude coz? :confused:
no u nas je to cela prumerna mzda... v ameru to je tak jeji ctvrtina/tretina, takze predpokladam, ze kdo bude chtit plny detaily na 22'' a vic monitorech, tak si to koupi, to samy je to s X2
Na 22'' rozliseni dnes staci i 9600GT(muj nazor,nekomu to treba nestaci :)) Pri 24'' bych asi volil SLI dvou 9600GT(pokud mam na to MB) a nejaka GX2 ani byt nemusela :) Za 14-15k je cena fakt mimo,ceny jsou ted krasne dole,X2 od ATi stoji uz od 8,5k.8800GTS 6,2kc.Ale to sem asi uz nepatri.
no nevim, call of duty 4 1680×1050, 4×AA a 16×AF dava 9600GT 38fps a to bylo testovano v singleplayeru, v multaku to pujde jeste trochu dolu.. navic to jsou prumerny fps, takze to muze padat k 20fps.. co si budem nalhavat, uz i pri tech 35 fps se to v multaku trha
pro lidi co nevi co s penezma to bude vzdycky dobry, jako kazda novinka.. :lol:
ale souhlasim, ze dobra volba je 2× 9600GT
Nikdo te nenuti hrat s mainstremovou kartou na plne detaily s max AA+AF.;)
Spotreba 9800GTX
http://resources.vr-zone.com/newzhun...00gtxpower.png
cena/vykon je lepsi, ale vykon/naroky her se zhorsuje...takze to zas takova vyhra neni. ikdyz si koupis novou/vykonejsi a levnejsi (nez kdysi) grafiku, tak zaplatis, a nekdo plati i kazdeho pul roku....
jinak preznaceni 88 na 98 mi prijde celkem logicke, 29 na 38 taky slo (ikdyz pres 55nm) a pohled na ty karty je uplne jiny
Jenže u HD to znamenalo nejen nový výrobní proces, ale i implementaci PowerPlay, DX10.1 kompatibilitu a určité zvýšení efektivity (ať z hlediska výkon/bandwidth, výkon/tranzistor, výkon/spotřeba nebo výkon/náklady). V případě GF9 jde o tentýž čip, maximálně v jiné revizi. Kdyby se ho alespoň "obtěžovali" přeznačit, aby to minimálně naoko vypadalo, jako nová generace, tak budiž, ale takhle...
Je to to samý co Nvidia dělá vždy. Vždy má jednu generaci co přinese technologie a druhou co umí prakticky to samé ale je to trochu upravenější, vylepšenější, opravené případně chyby. Nvidia má vždy jednu technologickou generaci čipu na 2 řady karet.
Viz:
TNT - TNT2
Geforece 256 - Geforce2
Geforce3 - Geforce4
Geforce FX5800 - FX5900
Geforce 6 - 7
Geforce 8 - a nyní 9.
Naprosto to odpovídá, a tato strategie je dost výhodná a lepší než ta co dělá ATI, která se snaží prorazit skoro každym čipem a dost často na to spíš naletěj, Rv670 je celkem vyjímka, aneb upravená R600 tak aby to bylo prodejný a za celkem nízké náklady. To ale nic nemění na tom, že ATI nepředvedla zatim žádnej čip co by porazil starou G80, kdyže to vyšla? Listopad 2006?
U vetsiny tech co zminujes to znamenalo aspon vylepseny vyrobni proces a zyseni efektivity at uz vuci spotrebe, teplote nebo taktu. Tady ma pravdu no-X v tom, ze G92 je soucasti generace 8800 a paradoxne naprosto tentyz cip je zakaldem i "nove generace", takze to je neco, co tu v historii jeste nebylo.
A s tim, ze ATi nepredvedla zatim zadny cip, ktery by porazil G80/G92, se da polemizovat. Co se tyce vykonu ve 3D, pak samozrejme ne. Ale osobne nechci od grafiky jen masivni 3D vykon, aby ve vsech ostatnich vecech, ktere ma graficka karta obstaravat, propadala. Predevsim mi jde o vykon ve 2D a subjektivni kvalitu videa, ktere je na NV vhodne leda tak pro primy softwarovy processing a rescaling. Jinak dle podpisu co mas, bys mel vedet, ze napriklad v UT2004 a vetsich mapach ma G92 alias 8800GTS/GT neprijemny bug ve forme asi pul sekundovych zaseku. Jinymi slovy, pro lidi, kteri maji hlavni casovou napln na PC hrani novych her, je NV idealni. Pro ten zbytek to uz neni pravda...
NV4 vs NV5 (TNT/TNT2): nový výrobní proces, lepší RAMDAC, podpora 32bit Z/Stencil Bufferu, AGP 4x + 1,5V podpora, tuším ještě lepší řadič schopný adresovat dvojnásobek paměti
NV10 vs NV15 (GF256/GF2): nový výrobní proces, nový texturing engine (2x bilinear oproti 1x trilinear), tuším ještě vylepšení pipeline (register combiner)
NV20 vs NV25 (GF3/GF4): PS1.3, druhý VS, z-komprese, fast-z-clear, quad-cache, auto pre-charge, vylepšený FSAA (posun quincux grid, SS)
NV30 vs NV35 (FX58/FX59): širší rozhraní řadiče, překopaná PS unit (místo 2 FX12 Mini-ALU z nichž každá uměla 2 MULs nebo 1 ADD nebo 1 MAD byla použita 2 FP32 mini ALU z nichž každá umí 1 MUL nebo 1 ADD nebo 1 FP16 MAD, nějaké změny na VS (ty z hlavy dohromady nedám), UltraShadow, vylepšené kompresní algoritmy
NV30 vs G70 (GF6800/GF7800): o 50% více pixel pipelines, clock domains, podpora transparentního AA (tuším v driverech časem doplněna i na NV4x, ale s niží úrovní akcelerace), MSAA gamma correction (sice jen pro MSAA 4x a ne zcela ideální, ale NV4x ho neuměla vůbec), upravený PS engine (2x MADD místo 1x MADD + 1x MUL) a ještě jeden rozdíl, který mi díky skleróze vypadl z hlavy (snad si někdo vzpomene) //ed: jo, oproti NV40 lepší (plně funční) mini ALUs, ale třeba i nativní implementace PEG a SLI
jenže... jaké lze čekat rozdíly mezi G92 a G92 rev.2? Ani s G94 (GF9600) nVidia neuvedla, že by přinášela něco nového... věřím, že tam určité změny budou, ale pokud by se týkaly uživatele, proč nVidia mlčí? Napadá mě jedině, že by v původní verzi G92 nefungovalo něco, co souvisí s DX10.1 a nVidia o tom nechce mluvit, aby si nezabila prodeje GF8, než bude nová revize G92 na trhu. Ale stejně tak je možné, že to není pravda a nVidia se jen pokouší vyvolat v uživatelích dojem či naděje, že nová revize G92 bude něčím lepší...
G84 aka 8600GT/GTS. Nizky vykon, neodpovidajici cena. Prichod G94, logicka snaha o max. distancovani se, cimz vznika 9600GT. Prichazi "refresh" G92 s podporou Tri-SLI atd. Vydat vykonnejsi kartu s oznacenim 8900, kdyz uz na trhu mate produkt o "tridu" vyssi vychazi jako nesmysl. Vznika nam 9800GT/GTX. Jak jednoduche.
btw. kdo se chce pobavit - vykon GT200 v 2560x1600 ;D
http://img204.imageshack.us/img204/8205/usrwp2.jpg
A teď já: Původně měla G94 vyjít dříve, jako konkurent RV670. G92 měla podle původních plánů konkurovat HD2900PRO. HD2900 se ukazuje jako slabší soupeř, naopak RV670 je oproti původním specifikacím rychlejší (4 quady místo 3) a nVidia si je vědoma, že by RV670 s G94 neporazila. G94 je tedy odložena a proti RV670 je místo ní postavena částečně osekaná verze G92. Ta je sice rychlejší, ale zároveň má zpočátku jako první větší 65nm čip nVidie v ranné revizi problémy s výtěžností a je nedostatkový. Navíc je pro nVidii ekonomičtější tento čip prodávat za vyšší cenu jako GTS-512, která vychází výrobně levněji, než GTS-640 (méně paměti, levnjěí PCB, levnější chladič, absence NVIO). G94 vychází později, ale zato v revizi, která zvládá vyšší frekvence a RV670 se dokáže alespoň vyrovnat. Mezitím je pro lepší výtěžnost na vyšších frekvencích upravena i G92, přičemž totéž provádí ATi s RV670, jejíž rychlejší verze, bude-li třeba, může vyjít na jaře. Nečekal bych ovšem, že ji ATi nazve HD4800 :)
tak to je jen dobre, doufam, ze s eobjevi nova revize upravena:)
No, sám moc taky nevidím v řadě 9800 přínos. Na prvních driverech je GTX dokonce pomalejší než 8800 GTS 512 MB, spotřeba je ještě vyšší - 230 W, PROBOHA !!! To bude mít těžko GX2 250 W, sice nemá všechno to co dvě karty a jde na nižších taktech, ale přece...docela věřím, že ve finále to bude těžce přes 250 W. Navíc to musí mít kryt chladiče z plechu aby to něco málo tepla odvedlo, otvor na vyfoukávaný vzduch je malinkatý...bude i nejtěžší v historii...k tomu je zatím výkon stejný jako u GTX, uvidíme co udělají drivery...když si k tomu vezmu, že zatím jsou ceny kolem šesti set dolarů (a v EU obvykle USD = EUR), tak nezlobte se na mě, ale myslím si, že AMD to má s 3870 X2 jasné...
Nevim o tom, ze by byl nekde test nove GTX vs GTS 512, ale pokud ho mas, urcite se radi podivame.
230W je cela sestava v loadu, ne karta samotna...
Neverim tomu, ze by kdokoliv vydal kartu se spotrebou vyssi jak 250W. Uz kvuli napajeni je to nesmysl. Opet vidim nejake odhady vykonu i kdyz ani jeden test se zatim nikde neobjevil.
Ano, GX2 je jinak docela zbytecne monstrum, hlavne kdyz to vypada, ze 2x9600GT by bylo daleko levnejsi reseni a s 3870X2 by si ve vetsine pripadu poradilo.
EH - GTS v Marku 212W / GTS v Crysis 216W
Taky dost zalezi na jake sestave se testuje a cim se karta zatezuje.
- Na 2x GF9600GT potřebuješ desku se dvěma PEG sloty, která navíc podporuje SLI, takže jsi omezený na nForce čipsety a podporu SLI
- 2x GT9600GT překonává nebo dohání X2 ve třech případech: pokud jde o situace limitované výkonem procesoru (tzn. framerate kolem 100FPS, což není výhra, protože rozdíl mezi 110 a 130FPS je irelevantní), pokud jde o hru, kde zároveň SLI funguje optimálně a CF ne (což je záležitost SW, která se pravděpodobně zlepší) a nebo pokud jde o hru, která není ATi-friendly (LP, WiC) - pouze v tom vidím problém, ale nikterak velký, protože takových her je stále menšina
- při kombinaci vysokého rozlišení a vysokého FSAA má X2 o nějakých 30-40% navrch, což je dle mého názoru relevantní hledisko při výběru karty v nejvyšším výkonnostním segmentu
GeForce 9800 GX2, 9800 GTX & 3870 X2 Compared
VR-ZoneCitace:
VR-Zone has gotten some preliminary 3DMark06 scores on the upcoming GeForce 9800 GX2 and 9800 GTX cards. The setup : Core 2 Quad Q6700 2.66GHz processor on a P965 board with Forceware 173.67 drivers and Catalyst driver version 8.451. GeForce 9800 GX2 scored 14225, 9800 GTX scored 13167 while Radeon HD 3870 X2 scored 14301. Nvidia is still tuning up the drivers and the clock speeds aren't finalized yet so we should be seeing some improvements when launched. Currently, 9800 GX2 is slated for March 18th launch while 9800 GTX is slated for end March.
http://resources.vr-zone.com//newspi...00vs3870x2.jpg
neni to nejak malo, kdyz s C2D a 8800GTS to dava 12k ?
To me vic zarazi, ze jeste porad nemaji urcene takty.
Výsledek v 3DMARK06 nám bohužel už moc toho neřekne o výkonu nejnovějších karet, divím se, že ještě neunikl nějaký výsledek z her...
Geforce 9800 GX2 first scores are in
FudzillaCitace:
The first test is done on a 600MHz core, 2000MHz memory and 1500MHz Shader clock and at 3Dmark05 default settings we scored 17600.
In 3Dmark 06 the card at the same clock scored 14400 and this is the normal default score.
If you push the card to 730MHz core and 2080MHz memory and leave the Shaders at 1500MHz you end up with 19400 in 3Dmark05 and about 16100 in 3Dmark 06.
Ja bych jenom doplnil, ze CPU byl C2Q 3GHz.
mne sa pacil tento obrazok :D aj ked nv ma len nejake beta driveri ale ked si vzemem aky je to pekac :)
http://resources.vr-zone.com//newspi...00vs3870x2.jpg
____
http://vr-zone.com/articles/GeForce_...ared/5614.html
9800 GTS pictured, clock speeds revealed
FudzillaCitace:
Two new Nvidia cards stripped in a day, can it get better? Well, it seems like the clock speeds of the 9800 GTS are out as well, as this puppy will be clocked at 600MHz for the core with its Shaders at 1,500MHz and the memory at 900MHz (1,800MHz effectively).
The 9800 GTS doesn't support 3-Way SLI, due to the single SLI connector, and it looks like a clear message from Nvidia: 3-Way SLI is only for the top of the range products and if you can't afford them, then you don't deserve to run 3-Way SLI. So much for caring about what its customers want.
GeForce 9800 GTX gets undressed
FudzillaCitace:
Expreview has a whole bunch of pictures of the upcoming GeForce 9800 GTX in the nude and it looks very different from the GeForce 8800 GTX that they've put next to it on one of the pictures. The card is about as long as the old 8800 GTX, but as it's using a 256-bit memory interface, it has a very different board layout.
The card does, of course, support 3-Way SLI, as it has a pair of connectors toward the front of the PCB. The reference card has a pair of dual link DVI ports and a TV-out connector, but there's also some wierd connection between the PCB and the rear I/O shield. This might be some kind of support brace, but it looks very strange and we've never seen anything like it on past Nvidia cards.
You can check out the pictures here.
GeForce 9800 GX2 card taken apart
Obrazky muzete najit na PC Games Hardware
9800GTS jen 600/1500/1800 ? v cem bude vyhoda oproti 8800GTS 650/1625/1944 ? ze by mela vic nez 128 SP ? nebo jinak bude taky 256-bit, takay 512 MB DDR3.... tak nejak nechapu vyhodu ? .. ma nekdo napad ?