sorry, ale taky neco napisu.
O GPU tady zacal Eagle, ktery napsal neco v tom smyslu, ze vice jadrove procesory jsou nesmysl, a ze kdyz uz je potreba vetsi vykon, tak ze to jde pomoci GPU. Takze pokud ti srovnani GPU a CPU pripada "uhozeny", reklamuj to u Eagla, ja s tim nezacal. Zaroven take reaguji na jeho posty z debaty o cellu, kde take argumentoval, ze cell je nesmysl a ze GPU je mnohem lepsi a vykonejsi. Ja jsem tam psal neco v tom smyslu, ze vyuziti GPU pro jine nez graficke operace bude min problematicke a ze vykon GPU nebude zdaleka tak ohromny, jako pro graficke operace...take jsem zduraznoval, ze zatim neni zadna realna aplikace pouzivajici GPU. Proto jsem tedy sem napsal, ze uz tedy nejaka je, ale ze to je dosti problematicke a ze nejenom podle meho nazoru to v nejblizsi budoucnosti nebude lepsi.
Kdyz si prectes muj post o F@H GPU klientu, tak tam nenajdes zadny "vypad", proste jsem jen shrnul, jak tato konkretni realna aplikace funguje a jake jsou s ni problemy. Na tento celkem neutralni post reagoval madcap vypadem, ze akorat zvatlam a ze jsem uplne mimo, protoze uz je prece jedna dostupna grafika s unifikovanymi shadery, ktera vse zazracne zmeni. Jakej jsem trotl, ze.
Ted k veci, i kdyz je mi jasne, ze podle tebe a dalsich odborniku to budou jen naproste zvasty.
1)ovladace nejsou pripravene na neco takoveho.
No oni nejsou pripravene ani na hry, kdyz je autori musi porad opravovat, ze? Nebo tobe propada normalni, ze v kazdem vydani novych driveru jsou opravy pro bugy, ktere se projevuji v novych hrach? Me proste pripada, ze cely navrh toho 3D API je natolik slozity, ze neni mozne jej pouzivat a psat pro nej ovladace, aniz by se neustale musely opravovat nejake drobne, ale obcas i dost zasadni chyby. Pokud se to ale pouziva pouze pro grafiku ve hrach, tak to ani moc nevadi...hraci si proste stahnou nove drivery a je to, nejaky ten spatne vykresleny stin ci textura nikoho nezabije....pro jine pouziti to vsak muze mit katastrofalni nasledky.
2) grafiky jsou mezi sebou tezce nekompatibilni
To je mimo jine duvod, proc si myslim, ze jen tezko muzou uspet jako nahrada CPU. Pravda je, ze s pomoci 3D API se vsechny muzou jakoby pouzivat stejne, ve hrach to tak vpodstate funguje, ale pro jine pouziti to je zda se problematicke.
3) řešit jestli je lepší používat druhé jádro nebo grafický procesor...
Samozrejmne, ze 30x vetsi vykon se druhym jadrem neziska, ale zase tam maj jistotu, ze aplikace psana pro vice CPU pobezi vzdy spravne, coz u GPU nyni neplati a pochybuji, ze nekdy bude.
Pokud to z toho jeste dostatecne nevyznelo, tak duvod, proc jsem vubec zacal s debatou o GPU vs. CPU je ten, ze vyuziti GPU pro jine vypocty nez graficke sice muze prinest obrovsky narust vykonu, ovsem zaplaceny velikymi problemy s drivery, DX a pod. Proto ma podle me smysl vykon dohanet pomoci vice jader, protoze tam sice v soucasne dobe takovy narust ocekavat nelze, ale zato to je bez problemu s kompatibilitou. Navic se pomalu, ale jiste zacinaji objevoval CPU ala Cell, ktere jdou na vec zcela jinak a to se muze ukazat jako vytezna strategie. Shrnuto a podtrzeno: vice jader podle me smysl ma, protoze ocekavat, ze super vykonna GPU vse spasi, je min. v blizke budoucnosti dosti nepravdepodobne.
Ale jinak je klidne mozny, ze placam naproste kraviny, to necham na posouzeni kazdeho ctenare. Jen jsem proste dal priklad realneho pouziti GPU a problemu s tim spojenych....ze se to nekomu nehodi do kramu, za to nemuzu.
PS: "Grafiky jsou mezi sebou těžce nekompatibilní (což jim taky umožňuje být mnohem výkonější pro jednotlivé účely)"
Ja myslel, ze vsechny grafiky chteji delat vice mene to same, totiz pocitat grafiku pro hry, resp pocitat ukoly zadane nejakym 3D API. Jake jsou tedy ty "jednotlive ucely", pro ktere jsou mezi sebou tezce nekompatibilni? ...jasne, je to vypadek, ale kdyz pouzijes nesmyslny argument na obhajobu toho, ze placam kraviny a nemam skill, tak se nemuzes divit, ze.