Kód:GeForce 9600 GT
Stream (Shader) Processors 64
Core Clock (MHz) 650
Shader Clock (MHz) 1625
Memory Clock (MHz) x2 900
Memory amount 512 MB
Memory Interface 256-bit
Recenze:
Printable View
Kód:GeForce 9600 GT
Stream (Shader) Processors 64
Core Clock (MHz) 650
Shader Clock (MHz) 1625
Memory Clock (MHz) x2 900
Memory amount 512 MB
Memory Interface 256-bit
Recenze:
Co tohle má být, pamatuji si že už jednou byla zmínka o řadách 9xxx a byla to kachna!!!Kdy mají tyhle karty padnout na pulty??:o
divim se ze vubec vypousteji kartu s takovym oznacenim, kdyz neco takoveho resila ati
Oficialni datum uvedeni na trh ma byt 14. unora. Cena jeste neni 100%, ale slysel jsem o 169-179USD.
GeForce 9600GT SLI performance tests
http://resources.vr-zone.com/newzhun...GT/compare.jpg
VR-ZoneCitace:
Test System
CPU: Intel C2D E6850 3.0GHz
MB: 680i SLI
Memory:DDR2 800 1G*2
GPU: Geforce 9600GT*2 PK Geforce 9600GT PK Geforce 8800Ultra
OS: Windows VIsta EN
MB Dr: 15.08
GPU Dr:171.16 beta
GeForce 9600 GT pricing revealed
VR-ZoneCitace:
9600GT 512MB - $209
9600GT 256MB - $167
Nooo, tohle bude hodne zajimave.
Gainward 9600GT v CZC.
http://www.czechcomputer.cz/product.jsp?artno=52998
A ještě Gainward 9600GT Golden Sample
www.czechcomputer.cz/product.jsp?artno=53019
9600 GT to launch on February 19th
FudzillaCitace:
Nvidia has set the launch date of Geforce 9600 GT a new mainstream card based on G94 chip for end of February.
The new card is set to replace 8600 generation and it should be selling for about €150 or less in retail while we guess Nvidia will try to faze 8800 GS out of the market at the same time.
GeForce 9600GT board diagram pictured
FudzillaCitace:
We've gotten our hands on a board diagram of the 9600GT and it looks as if these cards will be available with a wide range of memory options from the word go. The diagram below lists 256, 512MB and 1GB as possible memory configurations and it also suggests that we'll see DDR2 and GDDR3 based cards.
It also looks like some 9600GT's will get dual slot cooling judging by the rear bracket configurations shown here.
Official GeForce 9600GT picture
http://www.fudzilla.com/images/stori.../gf_9600gt.jpg
Nova recenze 9600GT na PCOnline
Teda cekal jsem vsechno, ale neco podobneho opravdu ne. Prvni anglicka recenze:
Wtf? No nazdar, to je masaker
Nechápu jak může být 9600GT tak výkonná když má jen polovinu stream procesorů proti 8800GT.
Oproti stock je tam rozdil 25MHz na GPU a 200MHz na pametech.
Oficialni spec. jeste nejsou nikde dostupne, ale vypada to, ze G94 pouziva jine SP nez G92.
Ona vlastně 9600GT má více než polovinu shader-procesorů tzn. 64 ku 112 u 8800GT, ale ten výkon je stejně ohromný pokud není test fake...
Skoro určitě jich má 64.
je ich 64 ;) vykon velmi zaujimavy, takty vysoke - pomer cena/vykon vyborny ... nechapem preco vydavali 8800GT 256 > taky shit oproti tomuto
GIGABYTE GeForce 9600 GT 512MB (PCIe), CENA S DPH
4 380 Kč
http://www.powercomp.cz/komponenty/g...gt-512mb-pcie/
Tyhle 9600 vypadaji zajimave.
http://i28.tinypic.com/auv591.jpg
http://we.pcinlife.com/attachments/f...aQ8lmp0rht.jpg
http://we.pcinlife.com/attachments/f...k7LVvMFib1.jpg
http://we.pcinlife.com/attachments/f...sAGLUTJd3Y.jpg
Ostatni se zda pouzivaji referencni chladic. Cely vyber je tady.
A pro zmenu jedna pasivne chlazena.
http://we.pcinlife.com/attachments/f...KdxRmnK8an.jpg
VR-Zone
First GeForce 9 series GPU to be launched on Feb 21
DigiTimesCitace:
Nvidia is planning to launch its first GeForce 9 series graphics chip, the GeForce 9600 GT (G94), for the mid-range market on February 21, according to sources at graphics card makers.
The 9600 GT adopts a 65nm process and is manufactured by Taiwan Semiconductor Manufacturing Company (TSMC). The GPU sees an increase in processing units, 64, and memory bus width, 256-bit, over previous 8600 GTS cards, 32 and 128-bit. The GPU's performance should see an increase of over 40% compared to the 8600 GTS, said the sources.
The new GPU also introduces Dual-Streaming Decode technology which allows two high-definition image decoding processes to be performed at the same time and provides picture in picture (PIP) functionality.
GeForce 9600 GT graphics cards will be priced at around US$169-189, with GeForce 8600 GTS pricing expected to be adjusted to the US$139-149 range, revealed the sources.
Recenze pasivne chlazene 9600GT na OCWorkBench - bohuzel porovnani jen s 8800GT/GTS.
http://www.ocworkbench.com/2008/ecs/...699%20copy.jpg
Ten test na OCworkBench je po stránce grafického ztvárnění jako z dob děrných štítků, ale díky za odkaz. 9600GT by mohla být srovnatelná s 3870 a s přetaktem se dorovnává 8800GT v defaultu. Jen, aby to byla pravda.
Opet docela divoka recenze co se tyce zpracovani, tentokrat na VR-Zone. Zacina se ale potvrzovat, ze test na TweakTownu nelhal a 9600GT ve vetsine benchmarku porazi bez problemu 3850 a nekde prozene i 3870.
Dalsi recenze:
- LegionHardware
- ExtremeTech
- Guru3D
- HardSpell - testovano i SLI
- Zol - cinsky
Tohle myslim ATI neumi a cenove sla 3870 na 189USD, coz je nejvyssi doporucena cena 9600GT, pravdepodobne pro OC edice a cena 3850 spadla na 169USD, coz je min. doporucena cena, zrejme pro stock verze 9600GT. V cene problem tedy nevidim.Citace:
Dual-Streaming Decode technology which allows two high-definition image decoding processes to be performed at the same time and provides picture in picture (PIP) functionality.
Sice to nevie, ale nechapem, k comu to je ako dobre? 9600gt pre zmenu nema podporu v dual-link rezime a zaroven nema integrovanu zvukarnu pre HDMi spojenie co asi bude vacsi (aj ked stale nie velky) problem ....
Inak ceska realita trhu bude asi taka, ze 3870tka bude stat rovnako a menej ako 9600gt, zrejme aj celkom dlho. A to pri +-rovnakom vykone
A co je tohle? Ma to byt fotka 9600GT.
http://www.fudzilla.com/images/stori...%20news/dp.jpg
To je 9800GX2... 9600GT to je těžko.
GX2 ma zatim na vsech fotkach otocene DVI porty, takze tim bych si nebyl tak jisty.
http://i26.tinypic.com/23j1sg3.jpg
btw. dalsi recenze:
že by nějaká 9600X2 :-) .
A posledni pridel recenzi, dalsi uz nehledam :)
Je to Palit GeForce 9600 GT Sonic,
http://www.hothardware.com/articles/...ootout/?page=6
Koukam na Jyxo a jednou tam 9600 dokonce vidim pod 4k. To je skoro na urovni nejlevnejsich 3850. Ted uz jen zalezi na tom, jak je to v techto obchodech s dostupnosti.
Pozeram na SLI test v CB.de a je to teda slusne ..
Inak, skusal niekto nakupovat na tych hyper najlacnejsich obchodoch z jyxa? mne prijdu dost divne :)
v alfě mají ode dneška skladem za 4300Kč s DPH a výše
http://www.alfacomp.cz/php/index.php...SearchSubmit=1
SLI dvou 9600GT je opravdu pekne a vetsinou si podle testu na CB hrave poradi i s 3870X2, coz jsem teda necekal.
Takhle zpetne kdyz se na to clovek diva, tak to vypada, ze jsou 112/128 SP G92 necim neuveritelne limitovane a vlastne i G80. Kdo vi, jestli s tim dokaze NV neco udelat a jestli nas neceka jeste nejake prekvapeni.
jop, to ma presne tiez napadlo ... jednoducho sa tam tie dalsie SP nejak nudia/nic moc nerobia :) zeby pamete? ale taktovanie ramiek to zase neposuva nejak brutalne, takze neviem :\ skoda len, ze na to SLI clovek potrebuje nV chipset :))
Skoda, ze 9600GT nepodporuje Tri-SLI. To by bylo asi opravdu hodne pekne, hlavne by pokud cena sla na nejakych 3.5k za kus.
spotreba v IDLE by ma teda moc nebrala a 9600GT nepodporuje hybrid power
No prave... Nejak mi to neide do hlavy. 8800GS ma sice 3/4 pamate aj zbernice 9600GTcky, ale ma o 50% viac SP..., co aj ked spocitam v pomere frekvencie SP, tak vychadza 32% viac vykonu u GS. Zeby v nizsich rozliseniach, kde nehraje taku velku ulohu sirka zbernice a mnoztvo pamate, by mohlo GS bodovat?
Koukám na testy jsem docela překvapen čekal jsem že ta karta nebude tak blízko 8800GT. A za cenu kolem 4k s daní je to imho i výhodnější koupě v poměru cena/výkon, za vyšší výkon o cca 15% v defaultu oproto 8800GT se musí připlatit o cca 30% navíc což bych v tuto chvíly asi neakceptoval a šel do 9600GT. Nákup nové GK jsem plánoval asi až na konec roku ale možná ho udělám o něco dřív 9600GT se mi zdá opravdu jako dobrá koupě a s trochou OC i velmi rychlá grafárna :)
K te recenzi bych jen dodal, ze upravu RT 2.06 pro 9600GT sam Unwinder nedoporucuje, protoze neobsahuje codepath pro G94. Mozna by nebylo spatne na to upozornit, muze to zpusobovat problemy.
Tak je zřejmě vyřešeno, kde se bere onen "magický" výkon GF9600GT...
GeForce 9600GT na rozdíl od ostatních karet nVidie totiž generuje frekvenci GPU podle frekvence PCI-E sběrnice. To sice samo o sobě příliš korektní není, ale v podstatě to není nic proti ničemu. V době GeForce 7 nVidia tiše uvedla technologii "LinkBoost", což je v podstatě automatické přetaktování PCI-E sběrnice, pokud čipset zadetekuje příslušné GPU nVidie. To by bylo také OK. Jenže - GF9600GT je ale navržena tak, že zvýšením frekvence PCI-E vzroste i frekvence jádra, takže dojde k přetaktování cca o 10%. Ovladače, stejně jako některé utilitky, ale hlásí základní frekvenci - nikoli skutečnou.
GeForce 9600GT tedy běží přetaktovaná, ačkoli hlásí, že běží na základní frekvenci. To způsobuje, že v recenzích vychází zdánlivě lepší, než by měla a zároveň se dost nekorektním způsobem staví do lepšího světla, protože pokud ji uživatel nebude provozovat na nForce čipsetu, bude karta podávat nižší výkony oproti konkurenci, než jak ji prezentují recenze, kde bylo na nF testováno.
Považuju to za podvod a manipulaci testů, protože pokud se karta tváří, že běží na základní frekvenci a přitom běží přetaktovaná a tato "funkce" se navíc týká jen nForce čipsetů a není oficiálně zdokumentovaná, jde o cílené zkreslení výsledků testů.
Detaily a testy zde: http://www.techpowerup.com/reviews/N...9600_GT/2.html
esteze sme v testovacej zostave mali P965 a prechadzame na X38 ... :roll: hnus velebnosti
Velka vetsina testu 9600GT v single byla provadena na Intel platforme. Aby byl tedy vysledek testu ovlivnen, musela by byt PCI-E frekvence manualne zvysena. Z cehoz osobne vyvozuji, ze tady k zadnemu ovlivneni nedoslo.
U SLI by se mohlo zdat, ze to bude o neco horsi, ale co jaksi no-X opomnel nebo nevi je, ze Link Boost byl z biosu u nF680 odstranen, protoze zpusoboval problemy. Takze i tady je ovlivneni vysledku velice pravdepodobne minimalni.
Najednou uz to neni tak strasne, ze?
Ma uz tahle karta podporu pro HW dekodovani VC-1, nebo na to nVidia jeste porad hazi bobek?
To ale nemění nic na tom, že dost high-end desek nemá frekvenci PCI-E defaultně nastavenou na 100MHz (ať už kvůli kompatibilitě, či stabilitě) a též mlžení nVidie, které je ve článku zmíněné, mluví samo za sebe...
Ale líbí se mi, jak obhajuješ, že ten podvod není až tak velký, jak by se mohlo zdát ;D
jestli bude podporovat moje WB tak do ni jdu a zvazim kvuli SLI i nejakou Nforce desku :-)
Jinak to budu smerovat porad k Abitu
2 all :
tak ja ju uz mam 9600 od gainwardu GS, ak chcete mozem spravit nejake testy , len treba napisat ake :-)
Taky mi nejak unika kde je ten "podvod".
Pochopil bych, kdyby se nekdo zlobil, ze karta je zamerne zpomalovana na konkurencnim cipsetu, ale to ze je karta zamerne urychlovana na cipsetu ze stejne staje mi prijde naprosto normalni.
Normalni mi neprijde jak to nvidia komentuje, ale to neni nic noveho pod sluncem - u teto spolecnosti me neprekvapi uz nic.
Nikomu nebrani si vyssi PCI-E frekvenci nastavit i na Intel cipsetu atd.
Navic z minulosti znam mnoho pripadu, kdyz byla urcita karta zvyhodnena na cipsetu urcite znacky (napr. PCI Matrox na Intel cipsetech).
Taky mi unika, ze by 10% frekvence jadra vedlo k nejakym zazracnym vysledkum.
Caleb: Špatné je, že výkon, který je uváděn jako defaultní výkon karty, je ve skutečnosti výkon po přetaktování. Na to nVidia nepoukazuje, navíc je ovladač nastaven tak, aby hlásil, že karta běží na defaultu, přestože je přetaktovaná. Tím jsou zkresleny výsledky testů na deskách, jejichž PCI-E z jakéhokoli důvodu neběží na 100MHz.
Aby toho nebylo málo, přišel jeden uživatel na to, že ačkoli BIOS na 780i (referenční deska od eVGA) zobrazuje 100MHz, běží PCI-E po připojení PCI-E 2.0 grafické karty na 125MHz, přičemž tuto frekvenci není možné ručně upravit:Citace:
According to ViperJohn, a 780i using a video card that is PCIe 2.0 does increase the PCIe Frequency.
http://forums.guru3d.com/showpost.ph...1&postcount=12Citace:
The middle 16x PCIe 1.0x slot is 100Mhz default and is adjustable in system bios. The top and bottom 16x PCIe 2.0 slots are 125Mhz and not adjustable.
Pokud tedy BIOS hlásí, že vše běží na defaultu, ovladač grafické karty taktéž hlásí defaultní frekvence, ale ve skutečnosti se frekvence PCI-E po detekci grafické karty zvedne na 125MHz, což kartu přetaktuje, je to velmi podivná praktika. Údajně se takto nechovají desky, které nejsou postavené na referenčním návrhu/BIOSu nVidie, jako např. Asusy...
Jestli bude karta stabilní a bude podávat větší výkon tak není co řešit, tzn. vstřícný krok NVIDIA k zákaznikovi,,,
Co je proboha vstřícného na pokusu o zkreslení výsledků recenze? :rolleyes:
Pokud si jako zákazník přečtu recenzi, kde karta podává výsledek o 10% lepší, než konkurenční produkt (bez toho, aby bylo specifikováno, že jde o situaci, ke které dochází pouze za nějakých specifických podmínek) a doma mi pak karta poběží o 10% pomaleji, než konkurenční produkt, pak se neztotožňuji s tvým výkladem slova "vstřícnost" :)
Pokud by mělo jít o vstřícný krok, tak proč nVidia nenastavila referenční frekvence prostě rovnou vyšší, nebo neuvedla, že ve spojení s některými čipsety karta poběží přetaktovaná? Pokud nVidia mlčí, ovladače hlásí def. takty, BIOS také a ve skutečnosti je systém přetaktovaný, aby produkt prezentoval v lepším světle, pak je něco špatně.
Uz si nejakou zkreslenou recenzi diky jine PCI-E frekvenci videl?
Že si recenzenti nevšimli, neznamená, že ke zkreslení nedošlo. Jak by taky mohli, když ovladač i BIOS hlásí něco jiného, než pravdivé hodnoty. Více-méně si toho začali všímat až uživatelé, viz odkazy na fóra.
Nebudeme se tu handrkovat o to, kolik recenzí mohlo nebo nemohlo mít zkreslené výsledky; nejsme jejich autoři, nemáme jak to zjistit. Ale je snadno prokazatelné, že kombinace konkrétního hardwaru nVidie se nechová korektně.
Promiň, ale řešit, v kolika případech se nVidii tento podvod podařil, je odvádění pozornosti od samotného problému. Podstatné je, že se nVidia pokusila zkreslit výsledky testů a že se výsledky mohly lišit o více než 10%.
Ja jsem zatim videl jedineho uzivatele s nF780, kteremu se automaticky zmenila frekvence PCI-E na 125MHz v pripade vlozeni jakekoliv PCI-E 2.0 karty i kdyz mel v biosu nastavenu PCI-E frekvenci na 100MHz. Bohuzel ten test byl proveden s pretaktovanou FSB a nektere desky jsou zname tim, ze OC zrusi PCI-E lock. Takze se to neda brat jako smerodatne.
Na druhou stranu jsem videl lidi se stejnym cipsetem, kteri nic podobneho nehlasi.
Co se tyce recenzi, tak ty na Intel platforme jsou s 99% pravdepodobnosti spravne a vetsinou primo uvadi frekvenci PCI-E sbernice 100MHz. nF680 uz Link Boost polozku v biosu ani nema. O nF780 jsem uz psal.
btw. o jakem ovladaci tu porad pises, ze uvadi jine frekvence?
EDIT: Tak potvrzeno, samozrejme, ze za to "vnucene" OC PCI-E u nF780 muze nefunkcni PCI-E lock...
Já si no-Xe vážím pro jeho dřívější osvětu křížemkrážem po fórech, ale teď ti teda nerozumím. Vykazovala někde karta (na tzv. default. rychlosti PCIe) chyby v zobrazení? Pokud ne tak to ber jako OC edici.
PODVOD??? Věříš na SPRAVEDLNOST? Já jako zákazník dostávám za svoje peníze více než je garantováno a to mi teda vůbec nevadí. Tobě jo?
Pro mě je podvod něco ve smyslu nedávné aféry s betadrivery, kdy karta neprováděla tolik operací kolik měla, aby si odfoukla a stíhala FPS, ale zlobit se na to, že je rychlejší než konkurence...
Je to muj povrchni pohled na vec, ale myslim si, ze pci-e na 125MHz by mohla delat problemy i ostatnimu hardwaru v pc. (nevim, jak to presne u nforce chipsetu je, jestli souvisi frekvence pci-e s pci)
Noxi, muzes mi nejak vysvetlit, jak vyssi frekvence pci-e zvysi vykon? Neber to jako utok, ale proste me to zajima. Vim, ze na xtremesystems to nekdo pouziva, aby dostal vyse OC pameti na grafikach. Respektive pouzivaji to vsichni top overclockeri, ale vykon sam o sobe?
Tady jsem nasel porovnani vlivu pci-e frekvence na vykon karty(ne 9600GT)
a jak je videt, rozdil je nulovy:
http://www.nbsgaming.com/PCIEBus.html
Krimi 2000: Vysvětloval jsem to ve svém prvním postu. GF9600GT je navržená tak, že frekvenci GPU odvozuje od taktů PCI-E. Tzn. zvýšíš frekvenci PCI-E, přetaktuje se ti automaticky GPU. Přišlo se na to náhodou...
rousini: Jenže ona to OC edice není, protože se tak chová jen na určitých sestavách, nikoli všude. Tzn. zákazník A za stejné peníze získá výkon až o 25% jiný, než zákazník B, přičemž nikde nenajde uvedeno ani popsáno, že se za nějakých okolností výkon může lišit, nakolik se může lišit, nebo proč by za stejné peníze měl dostat výkon horší, než jaký mají jiní zákazníci, obzvlášť když oba mají tentýž produkt.
Ale stejně karta má jisté OC možnosti a ty se tedy dají dosáhnout - podle tvých informací dvojí cestou:
- Zvednutím rychlosti PCIe na některých chipsetech
- Zvýšením core clock
V žádném případě 1. varianta neumožní vyšší výkon než 2. Všichni OCchtiví dosáhnou ne strop daného kusu.
Víš co by mě zajímalo? Jak se bude chovat karta, které nastavím PCIe=125, jaký snese core clock/ PCIe=100 vs. core clock?
Ale já neřeším, jak lze nebo nelze kartu přetaktovat. Problém je, že karta běží přetaktovaná, přičemž se "tváří", jako by běžela na základních frekvencích. To je špatně z několika důvodů:
1. Výsledky testů mohou být zkreslené - uživatel si tedy vybírá kartu podle výsledků, které jsou lepší, než jaké ve skutečnosti karta bez přetaktování podává.
2. Uživatel logicky může očekávat, že kartu přetaktuje a získá tím vyšší výsledky, než vidí v testu na "default", jenže tyto výsledky jsou ve skutečnosti naměřené už po přetaktování.
3. Karta může uživateli dát jiné výsledky, než jaké viděl v testu, podle kterého si ji vybíral.
Pokud je hardware navržený tak, aby ve specifických situacích podával vyšší výkony a zároveň "zametal stopy", pak je to prostě špatně. Když v roce 2004 vyšel Radeon X800 a na Tomshardware přišel vzorek, který měl jádro taktované o 5MHz rychleji (525 místo 520MHz), než ostatní kusy, udělala z toho nVidia podvod století, vydala prezentaci, kde na pěti slajdech rozmazávala, jak ATi posílá recenzentům přetaktovaný hardware a snaží se falzifikovat výsledky ("[the card] was markedly overclocked" / "enough to falsify measurments" / "extremely misleading on clock speeds"). Teď, když na referenční platformě nVidie karta běhá přetaktovaná i víc než o 100MHz, je vlastně všechno v pořádku...
Uz jsem se jednou ptal. Ktery ovladac udava puvodni frekvence i kdyz je karta pretaktovana?
Az doneses dukaz o tom, ze karta byla v testu nekde opravdu pretaktovana aniz by o tom nekdo vedel, tak se muzeme dal bavit. Zatim je to same kdyby, kdyby.
Nestojim ani na jedne strane barikady, ale verejnost nejsou tupci a pokud by nejaky vazny podvod nastal, tak se to dozvime. Tohle mi ale vazne prijde uz trochu silna kava, mluvime tady o hypotetickych pripadech, bez odkazu na nejake usvedcujici recenze. V podstate at si delaji firmy co chteji, pokud budou existovat fora jako toto a upozorni na pripadne problemy s taktovanim, ktere se neda ovlivnit tak to dal neresim a koupim neco jineho.
V tehle situaci mi prijde ponekud brzo to hodnotit, s opravdu masivnim prichodem na trh se informacni databaze ustali a lidi co maji podvedomi o hw si budou moci vybrat, nebo pripadne zkusit uhrat nejakou reklamaci. To je muj subjektivni nazor a pokud karta bude mit za slusny penize pekny vykon, coz zatim vypada ze ano, tak si ji koupim, ale rozhodne tomu neobetuji stabilitu.
Tady o nějaké nestabilitě nemůže být ani řeč. V nějaké recenzi (už si nepamatuju které - byly jich spousty) přetaktovali Zotac na 800MHz jádro, moje Gigabyte jede 775/2000 a to není strop.
Na tom, co píše no-X něco pravdy bude, ale já v tom nevidím racionální problém. Dobrá, 9600GT OC via PCIe, dosáhla na udávané def. frekvenci 100FPS v benchmarku a druhá 9600GT nonOC dosáhla na udávané def. frekvenci 97FPS. Je to logické bude ji třeba trochu polechtat, ale o to tady neběží.
no-X poukazuje na to, že na udávané frekvenci karta podává nadstandardní výkon a je neporovnatelná asi s ostatními kartami, ale každé jádro má jinou architekturu a tudíž na základě tohoto parametru jsou karty mezi sebou neporovnatelné, stejně jako bysme chtěli hodnotit výkon na základě velikosti VRAM...
Jak už jsem jednou uvedl: pokud karta nedodrží specifikace, resp. jejich dolní hranici, tak to beru jako PROBLEM, ale v tomto př. je to o ničem nebo o rozmýškách z nepřátelského tábora.
Tak jsem si prave vyzvedl tohle : MicroStar N9600GT-T2D512-OC 512MB
http://www.czechcomputer.cz/product.jsp?artno=53559
tak jsem na to zvedavej. Sice v mem pripade budu mit vykon horsi o 15-20%, protoze MB ma pouze pcI 4x, ale dle zkusenosti ze zahranici by vsechny 9600gt a 8800gt s novym biosem meli fungovat na via chipsetu..
Tak uvidim.
Chtěl bych se zeptat ještě na jednu věc těch zasvědcenějších.
Dneska jsem se dočetl na netu, že nVidia vydala pro 9600GT nějaké ovladače, se kterými má o dost vyšší výkon. Nevíte o tom někdo něco více?
Zajímá mě, jestli pak bude podávat lepší výsledky než 8800GS.
Zvažoval bych pak výměnu.
No ona spis nvidia vydala vlastne prvni oficialni drivery pro 9600GT :) a je to pry zrychleni ve vistach v crysis 1024x768 s 4xAA. 8xAF z 12fps na 21fps. Je to sice pokrok (na druhou stranu, kdo bude hrat v takovem nastaveni pri 21fps?), ale srovnavali to s drivery, ktere nebyly primarne urceny pro 9600GT. Ostatni vysledky uz tak moc zhave nejsou ;)
http://games.tiscali.cz/news/news.asp?id=26428
Díky za info.
Takže pořád jsou 8800GS a 9600GT v 1280x1024 tak nějak srovnatelné.
mel jsem v rukach asi 3 karty 9600GT a vsechny delaly to same.. tedy ze na nekterych monitorech nenabehl obraz pritom comp normalne zacal bootovat a v poho nabehl do OS.. jednalo se jenom o CRT, vetsinou 17''.. na LCD jsem to nezkousel ale zda se mi to docela podivny.. nesetkal se s tim nekdo treba i u jine znacky?? znacky to byly Foxconn a Point of View
No ja jsem mel problem s 9600GT od MSI, pri zatezi proste najednou vytuhly (bral jsem 2 kusy), ale stylem, ze prestal jit signal do monitoru, vetrak se rozhucel na maximum a proste konec, vypnout a zapnout.. , kdyz jsem si pak kartu prohlizel, tak na ni bylo napsano rev 1.0 A, coz ji taky zrovna na verohodnosti nepridalo.
Jestli nebude nakonec lepsi jit do vyzkousene 8800GT...
Když kupuješ MSI tak se nediv, snad nejhorší značka grafik, boardů a podle mě i Notebooků na trhu.
Osobně jsem za poslední dobu montoval 6 boardů a 4 grafiky MSI. 80% z toho šlo na reklamaci.
Moje karta dělá přesně to, co popisuješ. Navíc tak 1x z dvaceti startů. Chová se to přesně takto:
Vidím logo WinXP, jak nabíhají, potom se monitor úplně vypne (17" LCD Acer 1730 zappojený přes DVI) a po cca 1-2 sekundách naběhné to bleděmodré vítejte nebo co. Občas to zůstane v tom režimu, co se monitor vypne, ale je zajímavé, že kontrolka na monitoru je stále modrá, ale v monitoru cvaká po jedné sekundě přesně jako když se přepíná rozlišení. Zatím jsem to řešil takto: stisknu na klávesnici měsíček a PC se po startu přepne do spánku. Jak vím, že se přepnulo do spánku, vzbudím jej :-) a pokaždé to naběhne ok. Zkusil jsem přepojit na druhý DVI konektor na kartě. Zatím se to chová ok, ale jak říkám, udělá to tak 1x z 20-ti startů.
jak je to s hlucnosti referencniho chlazeni? hodi se karta do ticheho PC ?
premyslim, zda vzit s pasivnim chlazenim nebo s referencnim (vyplati se dat 600,- navic ?)
to zavisi hlavne od toho, aky tichy mas pocitac ...
rombo & Antonín Plhal: zistili ste, čo by to mohlo zapríčiňovať? Mám novú Gigabyte 9600GT (pasívna) a vyskytuje sa mi presne ten istý problém. Niekedy v pohode zapnem počítač a všetko ide normálne, ale niekedy mi nemôže nabehnúť LCD. Niekedy to urobí už pri POSTe, niekedy až po nabehnutí do systému. Čierna obrazovka a monitor sa akoby vypínal zapínal (alebo menil rozlíšenie?). Dám reštart a všetko ide v pohode. Keď to ide, tak karta všetko zvláda (nemrzne, nerozpadáva sa obraz a pod.). Mám už postarší display Hyundai L70A a pripojený ho mám cez DVI. Tak ma napáda, či tam niekde nemôže byť problém!? Ak mi to bude často robiť skúsim LCDčko napojiť cez redukciu na D-SUB. Ale keby ste už vedeli kde bol problém dajte vedieť, aby ste ma ušetrili od hľadania. Ďakujem.
Mam taky tenhle problem. Mam kartu od Gigabyte asi tri dny a uz mi to jednou udelalo. Logo WinXP jeste naskocilo, potom uz jen cerna obrazovka. Ale po uspani/probuzeni PC obraz naskocil. Vypada to na nejakou chybku v cipu, bych rekl. Netrapilo neco podobneho GF6800?Citace:
Niekedy v pohode zapnem počítač a všetko ide normálne, ale niekedy mi nemôže nabehnúť LCD. Niekedy to urobí už pri POSTe, niekedy až po nabehnutí do systému. Čierna obrazovka a monitor sa akoby vypínal zapínal (alebo menil rozlíšenie?). Dám reštart a všetko ide v pohode. Keď to ide, tak karta všetko zvláda (nemrzne, nerozpadáva sa obraz a pod.).
S timhle o čem tu mluvíte jsem se už setkal, a doteď jsem si stál za tim že jde o nekompatibilitu RV770 a P45, protože P45 má PCI-E dost problémovej, ale jak tak koukám stěžujou si tu na to samé i lidi s AMD platformou, tak to asi nebude tim chipsetem.
Já ji teda mám, ale od asusu s aktivním chlazením, běží mi s cca 8-11% OC (dle rivatuneru) a zatim nebyl nejmenší problém, nehřeje se mi a je stabilní, blbnout začala až když jsem zvedl frekvence k 15ti %.