Je to složitějšíNevím, jak to má nVidia na GF1xx (zřejmě to bude stejné), ale od G80 výš to fungovalo tak, že jakmile driver zachytil kód furmarku, vkládal automaticky prázdné cykly. Z toho důvodu taky měly GeForce ve Furmarku o tolik nižší skóre než Radeony a ze stejného důvodu tehdy dopadaly GeForce v testech spotřeby ve Furmarku tak dobře.
ATi naproti tomu neměla žádnou specifickou ochranu. Někdy v době RV7xx zavedla, že se v případě detekce spuštěného furmark.exe začaly vkládat prázdné cykly (tehdy si uživatelé všimli mírného poklesu výkonu). Pak ale nV fans vinili ATi z toho, že cheatuje (netušili, že nVidia podobný způsob ochrany používá také), tak to ATi v driverech změnila a nedetekovala furmark.exe, ale kód (podobně jako nVidia, aby přejmenování aplikace nemělo vliv). Na RV8xx ale přišla změna a ochrana byla inplementovaná na hardwarové úrovni detekcí teplot a proudů, takže jakmile dojde k překročení určité hranice, přepne se karta o jednu PowerPlay úroveň níž.
Proto je taky měření spotřeby furmarkem míchání hrušek a jablek. Nové ATiny teoreticky jedou na maximu, pokud nedojde k přehřátí nebo nadlimitnímu proudu, zatímco GeForce 8/9/200 jsou zpomalované průběžně.
Některý weby o tom informovaly při vydání HD5xxx.
Jestli to u GF1xx funguje stejně jako u starých GeForce, nebo jestli to nVidia nějak změnila, netuším... nikde se o tom nepsalo. Stejně tak není jasné, jestli to ATi od vydání HD5xxx nějak neupravoval. Každopádně to znamená, že Furmark je extrémně nevhodný nástroj pro objektivní měření čehokoli![]()