to jadro je asi maly obr!!
Printable View
to jadro je asi maly obr!!
No ta GTS nema zakryte pameti jen tak ze srandy. 12 chipu na 320bit a 640MB je hodne nerealne. Museli by mit 53MB chipy. Takove se nevyrabi a navic i tak by to potom byla 384bit sbernice. Spis to vypada na to, ze nejaky z tech chipu je "vypnuty". Ze to mely asi spis pro testovaci ucely.
EDIT: Jeste mi totiz nejde do hlavy jaky by melo smysl pouzivat radeji 8x64 a 4x32 oproti 10x64. Snad jenom cena 32MB chipu? Stejne rozlozeni chipu kolem patice a tim mensi rozdily mezi GTX a GTS a tim snazsi vyroba? A proc by pak nekdo zacernil ty pameti?
Taky me zajima, co to je za chip vlevo od GPU ???
Ja bych zvyraznil jen tohle, pokud to neni jeho dalsi vtip.Citace:
Původně odeslal Uttar
Kazdopadne tu mame par veci, ktere nesedi. GTS ma 12 chipu, jen jeden SLI konektor a jak GTX, tak GTS maji dalsi jadro.
Pár teorií...
1. na GTS jsou 4 moduly 16bit
2. pokud je čip opravdu 2D jádro, tak potřebuje vlastní paměť - tu by mohl sdílet s 3D jádrem (resp. její část). Tedy např. dva čipy. V případě GTX by byly sdílené (tzn. 64bit pro 2D, 384bit pro 3D) a v případě GTS by sdílené nebyly a využívalo by je jen 2D jádro (tzn. 64bit pro 2D, 320 bit pro 3D)
3. GTS nemá 320bit sběrnici (ale 384 nebo 192bit)
4. je to sample a příslušná část sběrnice je jen SW vypnutá
Čip GTS a GTX se liší (thx2 cool.user):
http://img77.imageshack.us/img77/3384/002ge8.jpg
3DMark 06
No nevim jestli je to uplne fair srovnani, sestava u GTX-ka byla zrejme lepsi, ale pro predstavu.
X1900XT vs 8800GTX
Kód:3DMark06: 6555 / 11795
SM2: 2295 / 4783
SM3: 2555 / 4095
CPU: 4076 / 4419
Zacinam toho mit dost, dalsi fotka a muzete hadat co...dalsi zakryta cast :D
http://we.pcinlife.com/attachments/f...kPAUcaDR7x.jpg
no,vypadato ze si musime pockat na ofic launch:mad: a pak se teprve dozvime co a jak-moc velkou radost z toho nemam-nevim jestli si mam na ni pockat,nebo koupit radeji neco osvedceneho-X1950XTX-ale asi pockam a uvidime se se pohnou ceny-i kdyz pred vanocema to asi moc nehrozi-maximalne smer nahoru.Jak to vidite-bude nejaky velky vykonnostni rozdil mezi GTX a GTS?myslim za GTX jsou to vyhozeny penize,GTS parametry by meli stacit na to se stat top kartou oproti dosud dostupnym kartam.
Tohle bude asi hodne obrazkovy thread - dalsi ulovek z XS fora.
Vsimnete si oznaceni, G80-300. Tri high-end SKU, ze by?
http://img108.imageshack.us/img108/5237/1kn5.jpg
http://img108.imageshack.us/img108/3950/4ic0.jpg
hmm chtělo by to více výsledků, takhle to vypadá že když přetaktuju dvě X1900, tak budu na tom lépe zase než 8800GTX, je to prakticky to samé kurník.
Cenove te to vyjde mozna nastejno.
Ovsem co se tyce podpory DX10, tak tam je asi jasno.
Pak tu mame VCAA, ktere jeste nikdo nevidel a mozna dalsich par veci, ktere vubec nevime.
A posledni jsou ovladace, ktere nemuzou byt skoro vubec odladene, takze vykon pujde nahoru.
koukam ze tech 14dni bude hodne dlouhejch-no,jelikoz mam jen jeden slot,tak uz mam asi jasno-jen pockam jakej bude vykonostni rozdil mezi GTX a GTS.:cool:
je velká blbost doměnka že ten malej čip je něco na způsob pci-e řadiče + má na starost SLI ?Někde na fórech jsem četl doměnku že pod IHS je víc čipů (zdůrazňuji slovo doměnka).Nebo mě napadla ještě jedna střelená věc, nemohlo by to být úprava nějakého stávajícího čipu určená pro výpočet fyziky ?
EDIT: Pak by druhý SLI konektor fungoval pro škálovatelnost fyz. výkonu......
uznávám že to je střelený :rolleyes:
sorry neuměl sem si vzpomenout na ten nazev GPU tak sem to tak napsal;)
Na fyziku to určitě nebude, nedávala by smysl pozice čipu na PCB. Poblíž toho čipu jsou: DVI, VIVO, SLI. Takže to bude souviset s některým ze zmíněných konektorů. Je možné (a já to vidím docela reálně), že by mohlo jít o čip pro podporu HDCP, třeba video-in a možná ještě nějaký další funkce pro video, případně by ještě mohl obsahovat TMDS transmitter či nějaký RAMDAC. Konkrétně poždavky trhu ohledně videa a výstupů se mění dost rychle, takže je klidně možný, že se nVidia rozhodla tyhle věci nechat na malým externím čipu, který lze připravit/upravit na poslední chvíli. Kdyby musela např. kvůli podpoře HDCP přepracovávat G80, mohlo by to způsobit několikaměsíční zpoždění. Takhle stačí pouze doplnit G80 o čip, který bude nabízet to, co trh aktuálně vyžaduje.
Teď mě ještě napadá, že funkce potřebné pro video (např. blending) jsou v podstatě identické s funkcemi, které se používají při skládání obrazu při multi-GPU renderingu, takže by to mohlo být využito i při SLI (dosavadní čipy nVidie používaly ke skládání obrazu ROPs, tedy 3D jádro; neobsahovaly specializovanou jednotku, která by byla vyhrazena pouze pro tento účel). Ale to už je trochu divoká teorie, i když neříkám, že by se mi takový přístup ze strany nV nezamlouval.
G90? :-D
http://img287.imageshack.us/my.php?i...0gtx0eppu3.jpg (nejaky borec z XS sa nudil)
edit:
Obrazok ktory sa nikdy nemal dostat na verejnost :-D
http://img128.imageshack.us/img128/7...owerry4.th.jpg
Co takhle tohle?
Z pohledu nVidie a jejiho obriho jadra se nV rozhodla oddelit vse nepotrebne od hlavniho cipu, aby tak vubec dokazala vtesnat do hlavniho jadra vypocetni jednotky pri rozumne vyteznosti. Nepotrebnym myslim hlavne casti, ktere nepotrebuji byt z hlediska lateci primo na cipu a staci jim tak externi sbernice. Realne bych to videl na kompozitni engine pro SLI + vystupy + nejake dalsi veci, ktere zatim nevime. Take velikost toho "sekundarniho" cipu se mi zda pomerne velka.
Do grafickych karet moc nevidim, ale napadla me mozna silena (nerealizovatelna) myslenka: na sekundarnim cipu pocitat AA (treba z vice karet v SLI) by asi neslo ze?