Heh?
http://img401.imageshack.us/img401/3...25f2f92xh6.jpg
Printable View
Pokud je to pravda, pak je čip rozměrově mezi R600 a G80...
nakolik myslite ze to je pravda , a jedna se o skutecny cip ?
Screenshot samotny je fake.
Tak vylepseny fake nebo ze by tentokrat? :)
http://i114.photobucket.com/albums/n...PU-ZGT-200.png
478mm2 - to už by bylo rozměrově prakticky totožné s G80 a dvojnásobné oproti očekávané velikosti RV770.
Tak podle vseho dalsi fake.
Nvidia's David Kirk on CUDA, CPUs and GPUs
bit-techCitace:
"On the CPU, you can rip through tasks sequentially and the cache helps with that. It's a good architecture - I want to make that clear before I go any further, as it always seems like I'm picking on the CPU - because for what it does, it does it very well. If you took the same task and ran it on a GPU, it would take forever.
"However if you have a lot of things to do and they're heavily threaded, it's going to take a long time for the CPU to do those tasks. Whereas with a GPU, it will probably take about the same time or maybe a little longer than a CPU to do each individual task, but the fact you can do a lot of them at the same time means you can complete those tasks quicker.
"The ability to do one thing really quickly doesn't help you that much when you have a lot of things, but the ability to do a lot of things doesn't help that much when you have just one thing to do. However, if you modify the CPU so that it's doing multiple things, then when you're only doing one thing it's not going to be any faster."
GeForce "Next"
- 2x GT200
- 1536MB VRAM
- 384-bit MC
http://www.computerbase.de/forum/sho...d.php?t=416410
Nevim o tom, ze by NV nekde prohlasila, ze GT200 ma mit 512-bit bus.
ne, ale protoze tohle
http://www.fudzilla.com/index.php?op...=7240&Itemid=1
Takže 512bit sběrnice, NVIO a spotřeba teoreticky přesahující 225W.
GreenOrchid: Že by těch 384bit bylo míněno na jeden čip? Zřejmě kvůli zjednodušení PCB. Dvoučipové monstrum postavené na designu karty z předchozího postu by bylo dost mimo realitu. I tak mi připadá zbytečné, aby nVidia dual verzi vydávala...
Nějak ti nerozumím...
GT200 ale neměla být dvoujádrová. To si jen někteří spojili dual G92 (GF9800GX2) s GT200.
nj a gf8 nemala mat unified shaders :) tie spravy o 2jadrovej gt200 ale vysli az po tom co gx2. ale nehovorim ze to je pravda napisat si to moze kazdy :)
edit: tak uz viem kde som to asi videl http://pctuning.tyden.cz/index.php?o...0823&Itemid=67 :)
Čím by se ale pak GT200 lišila od GF9800GX2?
//ed.: a ještě jedna věc - proč by karta složená z čipů G92 potřebovala NVIO, když G92 má RAMDAC/TMDS/TV-out už integrovaný v čipu?
TGDaily vydava nejake dalsi informace http://www.tgdaily.com/content/view/37377/135/.
Docela zajimava je informace o poctu napajecich konektoru u GTS - pouze jeden. Samozrejme otazka je jestli jsou informace pravdive.
A nějaké vysvětlení pro přítomnost NVIO?
At se koukam jak se koukam, tak mi neprijde, ze by obe karty meli podporu Tri-SLI. Jinak zdroj TGDaily je ten samy, XSys forum. Jediny rozdil je ten, ze v mem postu je vyextrahovany pouze vyssi model a lepe vyrenderovany.
Pokud mate zajem, tak se muzete sami podivat na ten STEP soubor z ktereho to cele pochazi - http://www.mediafire.com/?gem3dcyjd9y
takze nakonec jsem mel pravdu.
512 bit memory
a single chip
http://www.fudzilla.com/index.php?op...=7272&Itemid=1