Problem bude v tom, ze Victor zadnou NDA nepodepsal, podle toho co vim ja.
Tezko, 200 dolaru rozdil a jen 2k v Kc? Min. 5k, spis tech 6k, kolik by to melo byt.Citace:
Původně odeslal nex
Printable View
Už aby to bylo v prodeji :P
Spajdre, Victor je proste postavicka, ktera ma asi hodne moc penez a na rozdil od vsech ostatnich si tento hardware kupuje, takze se na nej zadne NDA nevztahuje. Sam to tak napsal.
a jak vypada?
http://vic.expreview.com/attachment/1161832741.jpg
Nox-i ty pameti vypadaji, ze se v tom oc programu zoobrazuji jako ddr 525Mhz(ddr4 2100Mhz), takze by to melo byt ok.
A kde sa da kupit 8800vka? :) myslim teraz ... nikde ano, takze ju ma bohvie odkial a je to uplne trapne ked vsetci ostatny co maju legitimne zdroje cakaju a cakaju ... btw neviem jak to vobec testoval ked ovladace pre testing boli dostupne 25.10. takze to asi ma od nejakych partnerov ukradnute alebo uz neviem
Ty drivery netusim, kde vzal, ale kdyz je schopnej sehnat a koupit 8800,tak uz zvladne si sehnat i drivery. Hledal jsem jaky drivery pouzil, ale v tomto threadu to neni:
http://www.xtremesystems.org/forums/...d.php?t=120598
treba se vic dozvime casem, ale spatne se v tom threadu neco hleda, kdyz na deseti strankach tam v pulce pripadu nekdo gratuluje nebo oslavuje vysledek.
Prvni preview - necekejte ovsem nejaka cisla z hernich benchmarku.
Pokud chcete zkusit lustit, co presne se tam pise, tak "preklad"
http://img169.imageshack.us/img169/7808/21827010oa1.jpg
A nakonec jeste presnejsi mereni velikosti karet na Inq.
http://www.theinquirer.net/default.aspx?article=35360Citace:
8800 GTX is 28 centimetres long. In comparison, we measured the Radeon X1950 XTX card the highest end ATI and it is 23.5 centimetres long.
GTS is shorter at 24 centimetres roughly the size of X1950XTX
Neber to tak tragicky. Stačí se podívat na B3Df a v příslušných threadech najdeš o G80 porodbnější info, než jaký je možný získat oficiální cestou od nVidie. Takže nějaké preview, kde jsou informace, o nichž se diskutuje téměř měsíc, není až zas taková katastrofa :-)
Krimi 2000: Ty si myslíš, že GF8800GTX bude používat GDDR4? ;)
doufam ze overclockers budou mit hned nejake na sklade-uz mi chybi jen grafika(tahle bestie) a nejakej procik-ze by cq6700?to budou ale vyhozene penize co?radeji X6800 a taktit:p
celkem by mě zajimalo proč nema 8800 GTX nebo GTS DDR4 pry protože s nimi nema Nvidia zkušenosti tak jak to je?
Těch důvodů může být víc. Vyber si...
1. Dostupnost - v největším množství se vyrábějí GDDR3, takže jsou dostupnější, nVidia se nemusí obávat, že by dostupost karet vyhořela na pamětech. Když si vezmeš, že na jednu kartu je třeba 12 modulů místo osmi, tak to je o 50% větší spotřeba pamětí, tzn. se stejným množstvím pamětí dodají o třetinu míň karet. A kdyby byla o GDDR4 nouze, tak tohle by nedostatek ještě více prohloubilo. nVidia nehce další paper-launch.
2. Sběrnice - v kombinaci s 384bit sběrnicí stačí GDDR3 bohatě a minimálně tři měsíce nebude na trhu karta, která by mohla nabídnout vyšší datovou propustnost. Je zbytečný používat dražší komponenty, když pro dosažení potřebnýho efektu stačí levnější. Jaký jediný důvod má nVidia k použití lepších pamětí? G80 ničemu nekonkuruje, ta stanovuje novou výšku laťky.
3. Latence - GDDR4 mají vyšší latence, na což je třeba mít připravený paměťový řadič, jinak pouhé navýšení frekvence nepřinese nijak znatelný nárůst ve výkonu.
4. Kompatibilita - objevily se nepodložené infromace, že současná revize G80 má s GDDR4 problémy, ale neexistují důkazy, je to jen spekulace.
docela by me zajimalo jak je to s teplotou a hlucnosti chladice.na XS foru jsou jen vysledky par benchu,ale jak to vytapi skrin nemuzu nikde najit:mad: ,doufam ze na to brzy nekdo udela vodni blok-protoze pochybuju ze se stock chladicem se to bude moc dat nejak tocit-proto asi nvidia zakazala vyrobcum delat nejake OC verze.
Ani Victor zrejme neni tak drzy, aby zverejnoval az takove podrobnosti, kdyz k oficialnimu vydani je jeste pomerne daleko, takze na takovehle udaje si jeste pockame.
Pokud se potvrdi, ze nV opravdu zakazala vyrobcum pretaktovani G80, tak to rozhodne nebylo kvuli teplote. nV, ani zadny vyrobce to pokud vim oficialne nikde nepriznali, ale predpoklada se, ze problemem minule generace bylo to, ze cely chip nebezel na stejne frekvenci a to, ze karta urcitou frekvenci nezvladala se neprojevilo okamzite, jak je zvykem, ale az po delsi dobe, kdy uz bylo bohuzel pozde. Skutecnost i tak muze byt nakonec trochu jina.
no myslim ze to IHS na cipu tomu moc nepomuze,zalezi jak to maj provedene,jakou zvejku pod to mrskly-ono 700mil.trandaku asi nebude nejak studenejch-si vzpomenu na moji bejvalou X1900XT CF a bylo mi zle(bez IHS) a tohle ma skoro 2x tolik trandaku.na druhou stranu musim priznat ze G71 bylo co se teploty a spotreby tyce lepe provedena.hold si asi budeme muset pockat na launch:(
HS spíš chrání jádro před poškozením. Čím větší plochu jádro má, tím je náchylnější a HS velmi sníží riziko poškození při manipulaci s čipem a při montáži karty.
Pokud se podíváme pár let zpět, tak jedním z největších problémů ohledně výtěžnosti R420 nebyla chybovost čipů jako taková, ale fyzikální vlastnosti čipu - tehdejší implementace low-k dielektrika nebyla moc zvládnutá a vedla k tomu, že low-k čipy byly nesrovnatelně křehčí, což obzvlášť zezačátku způsobovalo, že mnoho jader odešlo během procesu "balení" čipu a dále při manipulaci. A na dnešní dobu není R420 nic velkého. Má-li být G80 výrazně větší, viděl bych důvod pro použití HS právě v tomto.
napada ma jedna moznost preco zakazat vyrobcom taktit? Zeby rezerva do buducnosti? Pockaju co ponukne R600 a ak nebudu stihat, tak osolia stavajucu G80 a vydaju to ako nejaku ULTRAMEGASPICAGTX
Ale v tomto pripade je velkost pameti obmedzena tou novou zbernicou nie? (počtom cipov ci podobne) Inac by tam rovno supli 1Gb RAM a nie 768MB.
Ja som skorej zvedavy na derivaty G80ky ..taka 256bit zbernica by sa konecne mohla stat standardom aj prekarty typu - 7600, X1600 ..atd, 128bit je uz old. Je daco zname aj tychto "lacnejsich" kartach?
jj, tenhle postup je u nVidie běžný někdy o roku 98 (TNT2 / PRO / Ultra; GF2GTS/PRO/Ti/Ultra; GF3 / Ti500...). Co se reakce na ATi týká, tak byla první Ti500
Co jsem se ptal známýho obchodníka, tak "Phantom Edition" nebyla o nic hůř dostupná, než standardní Ultra, obojí se v době po uvedení dodávalo pro střední Evropu v počtu několika desítek kusů na měsíc. Ultra-Extreme se dodávala pouze na recenze.
nVidia má rezervu v pamětech. Ohledně jádra bych zatím nedělal závěry. OC se sice objevilo, ale nevíme s jistotou, jestli současné programy korektně taktují i SPs, nebo jestly ty zůstaly na 1350MHz a zvýšila se frekvence jen zbytku jádra (575MHz->...)
/edit: Semik: k čemu by X1600 byla 256bit sběrnice? :-)