Ano, vím, že TDP se nerovná spotřebě, byť se jí velmi blíží. Chtěl jsem pouze ukázat jeden příklad, jak výrobce šetřil náklady.
On je problém v tom, že spotřeba se v současné době měří dost šarlatánským způsobem, většina meření stojí za houby a úloha spotřeby se u domáích PC dosti přeceňuje. Samotného by mě zajímalo, jak to se spostřebou za vyzářeným teplem u CPU je. Za dob K7 byla ke každé frekvenci přiřazena jiná hodnota TDP. Dokonce existovaly programy pro odhad vyzářeného tepla při zvýšené frekvenci a napětí. Nyní jsou pocesory rozházeny do několika skupin.
Je fajn, že se dokážeš na problém podívat i z druhé strany. Za dob P4 se u některých NTB postavných na této architektuře stávalo, že kvůli nedostatečnému chlazení docházelo ke zpomalování procesoru u většiny náročnějších aplikací. Měli bychom tedy přepsat tyto apliakce?
Ono když výrobce prezentuje své výrobky teoretickými čísly, které zřejmě vycházejí ze zapražení všech jednotech GPU na 100 %, tak proč nemohu požatovat, abych je tedy mohl využít? Navíc je zde totiž důležitejší problém. Kam tohle osekávání jednou dojde? Jednou ce může stát, že nepůjde o testovací software, ale o náročnou hru. Navíc už se tenhle problém objevil a stalo se to ve Futuremarku.
Jistě chápu, že výrobce karet bude hledat problém u výrobce daného programu a výrobce programu zase u výrobce karet. Ale myslím, že zde na tomo fóru si můžeme dovolit reálně zhodnotit se všech stran.
Čili dle mého názoru se stalo toto. Výrobce uvedl kartu s nějakými teoretický výkonem, ale na tento výkon dostatečně nadimenzoval chlazení a napájení. Objevil se kód, který využíval výkon karty více než byla tato dimenzace a karta odešla. Názor ať si na to udělá každý sám, kdo by si měl zamést před vlastím dvorem...