Citace Původně odeslal DOC_ZENITH Zobrazit příspěvek
No moje GTX480 je ve starym UT pod OpenGL pokud zapnu transparency AA zhruba o 50% pomalejší než GTX260. Ano u starších her se takto může dít.

Ad Furmark - NV karty začínej throtlovat na 105 stupňích, jinak se ve Furmarku niak nezpomalujou.
Je to složitější Nevím, jak to má nVidia na GF1xx (zřejmě to bude stejné), ale od G80 výš to fungovalo tak, že jakmile driver zachytil kód furmarku, vkládal automaticky prázdné cykly. Z toho důvodu taky měly GeForce ve Furmarku o tolik nižší skóre než Radeony a ze stejného důvodu tehdy dopadaly GeForce v testech spotřeby ve Furmarku tak dobře.

ATi naproti tomu neměla žádnou specifickou ochranu. Někdy v době RV7xx zavedla, že se v případě detekce spuštěného furmark.exe začaly vkládat prázdné cykly (tehdy si uživatelé všimli mírného poklesu výkonu). Pak ale nV fans vinili ATi z toho, že cheatuje (netušili, že nVidia podobný způsob ochrany používá také), tak to ATi v driverech změnila a nedetekovala furmark.exe, ale kód (podobně jako nVidia, aby přejmenování aplikace nemělo vliv). Na RV8xx ale přišla změna a ochrana byla inplementovaná na hardwarové úrovni detekcí teplot a proudů, takže jakmile dojde k překročení určité hranice, přepne se karta o jednu PowerPlay úroveň níž.

Proto je taky měření spotřeby furmarkem míchání hrušek a jablek. Nové ATiny teoreticky jedou na maximu, pokud nedojde k přehřátí nebo nadlimitnímu proudu, zatímco GeForce 8/9/200 jsou zpomalované průběžně.

Některý weby o tom informovaly při vydání HD5xxx.

Jestli to u GF1xx funguje stejně jako u starých GeForce, nebo jestli to nVidia nějak změnila, netuším... nikde se o tom nepsalo. Stejně tak není jasné, jestli to ATi od vydání HD5xxx nějak neupravoval. Každopádně to znamená, že Furmark je extrémně nevhodný nástroj pro objektivní měření čehokoli