Zilla:
Aj mne to piska.... grrr. Zaujmave, ze to ale nerobi stale. Napr. s 3D markami a oblivionom problem nemam, pri hrani c&c3 to ale piska slusne.
Printable View
Zilla:
Aj mne to piska.... grrr. Zaujmave, ze to ale nerobi stale. Napr. s 3D markami a oblivionom problem nemam, pri hrani c&c3 to ale piska slusne.
No ja bych rekl ze tohle ale neni ani tak problem nV jako spis vyrobcu jaky kondiky tam narvou takze svuj hnev bych smeroval trochu jinam :)
Nechtelo se mi kvuli tomu zakladat novy thread, ale kdosi si tu stezoval, ze mu na P965 nejde SLI. Tak zhava novinka je, ze Intel ziskal licenci na SLI :eek:
Takze se brzo muzeme tesit na Intel systemy v kombinaci s grafikama ve SLI ! Ze by mozna uz 38X chipset? Kazdopadne je to lehce stunning... Dalsi hrebicek do ATi Crossfire.
Nehci tě zklamat, ale referenční design nemá vůbec nic společného s kvalitou použitých součástek, je tam návrh PCB a předepsané kapacity/hodnoty osazených součástek, takže s tím nVidia opravdu nemá nic společného, navíc se najdou i stejně tak pískající Radeony :)
sry, nechtěl jsem editovat tvůj post, jen jsem se uklepl :)
Mne je jasne, ze pocitacove komponenty obecne obcas piskaji. Jak je to presne s tim referencnim designem opravdu nevim, to priznavam, vychazel jsem z informace, kterou jsem nekde cetl. Tvrdili tam, ze nVidia ted v podstate vyrabi cele karty a ostatni vyrobci si na ne maximalne lupnou svoji nalepku a strci je do krabice. Taky by to vysvetlovalo, proc je zvysene procento piskajicich 8800ek prave od ruznych vyrobcu.
Ovsem ve vysledku je mi vlastne jedno, KDO to blbe navrhnul, vadi mi ten dusledek, s pricinou stejne nic neudelam... ;-)
No uprime to je hodne pritazene za vlasy. To by si to mohla nV rovnou prodavat sama kdyby mela takove vyrobni kapacity ,aby dokazala zasobovat vyrobce kompletnimi kartami a ti jen nalepili svoje logo :) Vysvetleni muze byt proste. Vice vyrobcu osadilo karty socastkami od stejne firmy nebo zamerne kvuli snizeni ceny osadili mene kvalitni. Kazdopadne opravdu tohle konkretne neni vina nV.
Chlapi, nevite cim regulovat otacky ventasu na 88GTS tak, abych ve 2D nastavil pevnou fixaci a ve 3D dynamickou, tzn. otacky dle teploty karty? V ATI Toolu nic, v Rivatuneru bud fixovanou (porad stejne %) nebo dynamickou, kde nejde nastavit pro 2D malo otacek. Zkousel jsem i Experttool od Gainwardu ale ten se nechyta vubec (nereaguje nic).
Docasne jsem to poresil klavesovymi zkratkami, takze kdyz poustim 3D tak kl. zkr. a prepnu se na automatickou regulaci, ale neni to tak pohodlne no. Obcas zapomenu a VGA pak hori.
G80 žádnej 2D mod nemá, takže neni jak by rozlišovala otáčky mezi 2D a 3D, jediná možnost je Rivatuner (např podle teploty) a u ASUSu Smartdoctor (ale ten s novejma driverama otáčky taky řídit neumí). Osobně nechávám kartu at si to reguluje sama.
Chtel bych se zeptat nekoho kdo trosku rozumi grafikam.
Uvazuju o nove 8800GTS, vaham mezi 320MB a 640MB. mam monitor ktery umi jen 1280x1024. Otazka zni ma smysl kupovat GPU s 640 megama , kdyz rozliseni bude vzdy max 1280x1024 , nejaky 8xAA, 16xAF ?
Diky moc za osvetleni problematiky.....
a jeste jeden minoritni dotaz. kdy se maji objevit +- 9800GTS s GDDR4 a ma cenu cekat ? :p
Vetsinou co jsem koukal na netu na testy (vali se vsude), tak 640MB nebo 320 je jedno. Otazka je jak dlouho to stacit bude, ale staci to i na 1600x1200.
A nez ti to prestane stacit, tak ta karta stejne bude k nicemu ....
http://www.firingsquad.com/hardware/...ance/page6.asp
http://www.pctuning.cz/index.php?opt...1&limitstart=7
http://www.pctuning.cz/index.php?opt...1&limitstart=3
ja som kukal ze aj v 1920x1200 je rozdiel tak 1-2fps v par hrach bol rozdiel vacsi.
a company of heroes bol rozdiel nejako 18 a 31 fps to bolo najviac v tom rozliseni
http://www.xbitlabs.com/articles/vid...8-roundup.html
mal som 320MB verziu a teraz mam 640MB a nelutujem toho...ak chces hrat na max detaili tak s 320MB verziou to asi nepojde, tam treba robit kompromisi prave vdaka malej vram + nedoladenemu nvidia memory managemantu u GF8...
jednoducho u 320MB verzie dost casto dochadza k preplneiu vram a poklesu fps na 1/2 .. po urcitom case (napr. vo Fear combat, oblivion, stalker...v coh a cod2 je vidno rozdiel medzi 320MB a 640MB pri max detailoch hned)
Ano, v běžných testech není velký rozdíl, ale to je taky otázka nastavení testů...pokud jde o novější hry, co používají velké textury, tak tam bude propad maličko větší a hra může i více lagovat..takže se budeš muset spokojit s nižší, než nejvyžší kvalitou textur...Nejvíce se to asi projeví u nově příchozích her, jako UT2007, Enemy Territory: Quake Wars ..apod. Stejný případ je i u vysokých hodnot nastavení AA+AF při vyžší rozlišení, které si ukrojí taky pořádnou porci paměti. Navíc u hry není důležité ani tak maximální fps, které se ve většině testů uvádí, ale minimální fps a celková plynulost hry a tam platí čím více paměti, tím lépe. Jinak jak zde bylo už zmíněno, na běžné "lepší" paření to stačí, pokud nejsi maximalista a nechceš max. výkon, kvalitu a plynulost. Dnešní vyžší třída gr.karet už má celkem běžně velikost paměti 512MB, takže 320MB je už taková z nouze ctnost jak ušetřit. Pro některé hry (neni jich moc) je to zkrátka už i dnes málo :)
Takže zkráceně..pokud na to máš, smysl to rozhodně má!
Diky vsem za rozbor. je pavda ze 320MB je kolem 7500 a 640Mb za 9150 s DPH. Dobra tedy. priklanim se asi k te 640 MB.
Pravda je takova ze pokud vyjde v tom zari crysis..... budu si ho chtit zahrat rovnou v nejvyssich det. Jen nevite jak to bude s DX10 pod XP ?
No podla tohoto testu rozdiel v tej pameti nema skoro dopad na vykon a to ani na minimalne FPS a ani v 1920x1200 4xFSAA + Aniso 16x a to vlastne v dost novych hrach.
bohužiaľ je pravda že 320 je síce super kúpa ale chýba jej vramka...
napr. na oblivion pri max. deatiloch NESTACI...
testy na nete iba pustia timedeomo a to je všetko...
konkretne Oblivion zabierie takmer 400MB vramky...
a s HQ modmi dokonca cez 700 ale to je extrém, ale normálne sa to pohybuje tesne pod 600...
keby nebol mem. managment taký aký je tak je 320 úlne super ale takto...
ja odporúčam 640MB...
p.s. ...alebo teda R600 :) čo je podobné ako tá 320, je super, ale má svoje mäsiarky
Uprimne nechapu lidi, kteri si koupi 320MB verzi 8800. Zivotnost te karty je tim neuveritelne omezena. Zvlast v dnesni dobe, kdy je vetsina her vyvijena na PS3/X360, ktera ma 512MB a hry jsou na to delane. V praxi to na PC znamena MINIMALNE 512MB VRAM a minimalne 1GB system RAM. Tim nemluvim o Ackovych hrach ciste na PC, ktere dnes pocitaji s minimalne 512MB VRAM a vic. Muj nazor na 320MB verzi je, ze jestli chcete hrat hry na max detaily (a to ani nemusi byt s AA a AF), tak ji rozhodne nekupujte.
EDIT: Sorry za OT, ale tisici prispevek, HA !!! Dame vinko ? :)
Nie, u PS3 je pamäť napevno rozdelená na 256 VRAM a 256 RAM. U X360ky je 512 zdielaných VRAM aj RAM, takže tiež nemožno použiť všetko. U konzol je však memory manažment ručne dotiahnutý k dokonalosti, takže sa to nedá porovnávať. (optimalizacia)
Ináč by som samozrejme tiež volil 640MB ak chceste hrať v Max detailoch. Tých 320 stačí na sučasné hry ale u PC treba trochu pridať, aby to tak šlo aj u zajtrajších hier.
Edit..
Vse ne, ale diky architekture X360 je treba si uvedomit, ze hodne dat, ktere jsou na PC duplikovane (napr pozice vertexu nebo vubec schema modelu) jsou na konzoli sdilene. Tim chci rict, ze na PC ty data musis mit v RAMce a v pripade potreby je nahodis do VRAM a tim je duplikujes a zabiraji misto i v RAM i VRAM. Na X360 tim muzes hodne usetrit. Proto sem psal, ze v realu je na PC pro X360 hru potreba mit aspon 1GB RAM (zapocitavat je treba i OS a backround aplikace) a 512 VRAM.
Random slowdown bug plagues GeForce 8800 cards
http://www.techreport.com/onearticle.x/12877Citace:
We decided to contact Nvidia about the issue, and Nvidia Technical Marketing Director Nick Stam has now gotten back to us with the following message:
Sorry for delay, took a while to gather info.
We are aware of this issue and our driver team is working on it now.
We expect a fix some time in July.
Zajimalo by me, jestli pak uverejni v cem byl problem, protoze ja jsem se s tim napriklad vubec nesetkal.
More data on the GeForce 8800 random slowdown bug
http://www.beyond3d.com/content/news/349Citace:
Yesterday the good folks at The Tech Report reported on an issue affecting a good chunk of GeForce 8800 users, where 3D graphics performance would fall into the toilet at random and wouldn't come back until you restarted the game or tabbed out and back in.
NVIDIA got back to them and said it was a driver issue and that the driver team were working on a fix. Not enough info, Nick! So we did a bit of poking and it turns out to be caused by texture eviction from device memory. Textures aren't being evicted when they should be, causing a loss of available device memory for other resources.
So it stands to reason that if you restart the app or tab out and back in, both of which reset the device which causes a VRAM flush, you'll be good to go again. It's somewhat application dependent and depends on how the app does surface management, but a general fix should be possible for all but the most misbehaved programs.
We're not sure the fix will make it in to a driver this month, as TR noted yesterday, but fingers crossed.
Naprosto souhlasím. Je to stejné, jako dkyž si lidi před pár lety kupovali "levnou" 128MB verzi GeForce 6800GT a za pár měsíců litovali, že si nepřiplatili těch dvanáct stovek navíc, protože v nových hrách kvůli nedostatku paměti padal framerate i na polovinu toho, co s 256MB verzí.
A když jsou již nyní na trhu hry, kterým 320MB nestačí (a tím nemyslím jen, že se textury nevejdou do grafické paměti, ale tahají se z RAM, ale i takový DiRT, který se při nastavení vyšších detailů kvůli nedostatku paměti odmítne spustit úplně) považuju 320MB GTS opravdu za nevhodnou investici. GTS-640MB se z tohoto hlediska vyplatí mnohem víc.
Já bych také souhlasil a také jsem koupil 640MB, ale myslím si, že ještě dlouho 320MB stačit bude. A před pár měsíci to byl super kup za super kačky a pořád jím je. Až jí bude docházet dech, tak už bude na pultech 9 řada. ;)
On jí právě dech dochází už teď, devítková řada nebude dřív než koncem roku a ne každý si může dovolit každý půlrok dávat za grafickou kartu 8000Kč (což, mám dojem, GTS-320 při vydání stála)...
G8x vs R6xx in Rightmark3D 2.0
http://www.ixbt.com/video3/rightmark2.shtmlCitace:
Conclusion on synthetic tests So debut of RightMark3D 2.0 for research on the site was held. Tests in a touch almost all aspects of innovation in Direct3D 10, they flexibly configured, allowing us to assess the relative performance of all the lines of Direct3D 10 chips from AMD and NVIDIA.
Both unified architecture of these companies have shown in our new Direct3D 10 tests is good, big failures were not found, except for a couple of cases with obvious errors in the drivers AMD.
Both family : R6xx G8x and high performance computing and texture, they are good at the complex components of all types. Taking the results in general, the decisions NVIDIA have certain advantages over the competition from AMD, for the moment, are ahead of their video, in most cases. But in some AMD chips tests showed better results, such as complex geometry tests and pixel shaders.
The advantage of AMD chips in such tests with increasing load even growing. So the outcome of the battle of DirectX 10 games has not been determined, it is rather difficult to say which of his rivals to win. It can only be assumed that there will be similar to our results in the majority of applications R6xx and G8x be close to each other would lead to some solutions on the basis of the company NVIDIA, AMD others. And this will depend largely on developers and their methods and algorithms.
Tests pixel shaders 4.0 showed that multiple texture with a relatively small sample loading ALU better job video NVIDIA. Solutions AMD, in turn, ahead of competitors in the computer tests pixel shaders. In one video card based on chip architecture R6xx showed very good results and ahead of competitors from NVIDIA operation and the situation in the second test is not yet clear because of errors in the drivers.
As we have noted, tests geometry and vertex shaders give different results, some leading solutions NVIDIA, AMD others. Because of the growing complexity of the work to go forward geometric Shader video AMD, it can be assumed that the applications with the extensive use of geometric shaders, if any in the near future, will lead the company's chips.
The last couple of tests RightMark3D 2.0-speed tests on the sample texture of vertex shaders. The figures shown in the results clearly indicate that the video card based on NVIDIA chips G8x perform our tests texture samples from vertex shaders faster than solutions based on the AMD architecture R6xx. This is different from the traditional balance between texture and computing chips from two competing companies. "whittle down" the number sheydernyh blocks and blocks TMU ROP quite hitting decisions middle and lower levels, greatly reducing their productivity.
Low card behind the masthead of times, the best of mid-end 2-3 times (on HD 2900 XT and GeForce 8800 GTS), and low-end further to 4-8 times. As evidenced by the results of game tests, has only Direct3D 9. Judging from the reactions we have results, the drivers for Vista AMD clearly worse refined than the drivers NVIDIA.
If the second company's products in our tests, no errors have been found, the decisions of AMD were two distinct issues : the rest of the line chips in the second "test" computer pixel shaders ( "Fire") and the head of the 2900 XT HD solutions in the most difficult test mode, the speed of the sample texture vertex shaders "Earth". It would like to believe that these shortcomings will be addressed in the next version of CATALYST drivers.
Prelozeno pomoci google, ale casem se urcite objevi anglicka verze celeho clanku.
ty testy jsou dělané ještě ze starýma ovladačema u obou karet, u ATI s posledníma co vyšly je nárůst 1-40 procent, záleží na testu.
No zda se, ze tady se na to podivali s novou verzi ovladacu na obou stranach i kdyz vysledky jsou uvedene jen z par testu. Nejak dukladne jsem to neprohlizel, ale nevypada to, ze by se situace nejak podstatne zlepsila.
svaca: Software nedělá firma, ale lidi. A konkrétně z větší části tentýž driver tým, který dělal před lety v nVidii "slavný" trojkový detonátory, který nVidii udělaly pověst firmy s kvalitníma a rychlýma driverama. Právě tnehle tým přešel k ATi a začal s Catalysty. Takže řeči jako že "ATi neumí a neuměla" jsou... no... víš co ;-)
Vyjimecne s tebou NAPROSTO nesouhlasim a asi nebudu sam....
Jsem (byl) dlouholety uzivatel ATi a jeji ovladace jsou a byly peklo. Prechod na nVidia je pro me slast .... :-) Vsechny problemy co jsem resil (sobe a zakaznikum ) s pripojenim ATi na televizi, bugy ve hrach atd jsou s nVidii pryc ... Sice kolega , co se stara o obchod, tak protezuje Ati, ale jen ciste z duvodu pomer cena/vykon...
Pravda je, ze nove catalysty, rekneme od verze tusim 6.3 se extremne zlepsily v nastavovani na pripojeni na TV, ale furt to neni ono.
Taky neprekousnu, ze ati ovladace maji pres 100 MEGA !!!!! (ovladace + net framework) - kdepak to jsme ??? No ale kdyz muze mit "prazdy cisty" system Vista po nainstalovani 10G tak se asi neni cemu divit .... :-)
Drivery pro XP mají 35MB, .NET stahneš jednou. Pro visty .NET ani nepotřebuješ. TV-out používám od prvního Radeonu - ovládací panel se od té doby změnil 3x a ani s jedním jsem neměl problém TV out zapnout a nastavit tak, jak jsem potřeboval (bylo pár driverů, kde kvůli chybě něco konkrétního nefungovalo, ale nic co by přetrvávalo víc verzí). Ale ATi tu rozebírat nechci. Pokud to chceš ještě řešit, šoupnem se vedle :-)
Pamatujes na force TV detection ? ani to poradne nemakalo. Ne, nemusime to resit. Nepresvedsis me. Jak rikam od R7500 do R9800 jen Ati, ale pak uz jsem presedlal. Fandim Ati, spickovy HW, ale soft bida. BTW mam Ati TV wonder VE - spickova karta, spickovy obraz, BOHUZEl, nikdy korektne nechodila pod Okny, v linuxu spica ...
http://4um.ocguru.cz/showthread.php?...ghlight=ati+tv
Nvidia pinpoints 8800 slowdown cause, delays fix
Citace:
Původně odeslal Geo@B3D
XFX launch super-fast GeForce 8800 GTS 320MB
XFXCitace:
So, what's so special about this board aside from the branded sticker? How does a core clock speed of 650MHz with Stream Processors clocked at 1500MHz strike you? How about coupling it with 320MB of GDDR3 memory clocked at 2GHz? Compare that to NVIDIA's reference clocks of 500MHz core, 1200MHz Stream Processors and 1.6GHz memory, and it's pretty clear that this is one incredibly fast card!
S rozumnou cenou tohle vubec nebude spatna karta.