2Mir: K uvodnimu postu asi tolik, ze uvazujes spatnym smerem. Mas totiz nespravne predpoklady.

Zobrazovani neprobiha tak, ze by CPU predpocitaval jednotlive obrazky. CPU pocita vektory sceny, ale obecne predava GPUcku jen pocatecni stav + zmeny => pro samotny zobrazeni jej temer nepotrebujes. Tudiz graficka karta nemuze byt zahlcena je jen otazka, jestli ti GPU pri zmene vektoru z A na B zobrazi 10/20/30 obrazku, ale ten vypocet provadi vyhradne GPU. Pri dnesnich pametech VGA ses schopen do pameti karty dostat i velice slozitou scenu a CPU ti pak trebas jen posle info "natocit o 30 stupnu doprava a 10 dolu, posunout o metr doprava ..." a GPU ti tuto zmenu muze ukazat jako "strih" nebo jako plynuly prechod nebo ji neukaze vubec, protoze mezi tim prijde dalsi info o zmene (to je samozrejme velice zjednoduseno).

CPU je spis omezujici pro vypocet AI - pokud se po scene(!= viditelne scene) pohybuje prilis mnoho nezavislych objektu, u kterych je potreba pro kazdy spocitat vektory, pripadne jeste interakci s okolim + spoustu dalsich "pokud X tak Y a kdyz ne tak Z ..." tak CPU nemusi stihat a na viditelne scene se to pak muze projevit jako lag - scena se meni skokove, ac je FPS vysoke. Ovsem do podobnych situaci se muzes dostat v offline gamesach spis velice vyjimecne, neznam zadnou hru ve ktere by svet opravdu "zil", spis se pocita jen blizke okoli a proto se casto stava ze s kazdym prichodem do mesta vidis NPC zahajujici stejnou cinnost na stejnem miste, pripadne pokracujici tam kde si je pred X hodinami opustil, ...
V Online svete se tyto potize objevuji casteji - nestihajici server, prilis mnoho interagujicich objektu = lag. Ostatne proto je svet online games vetsinou (krom hracu samotnych) daleko mrtvolnejsi nez offline (NPC stoji a cumi na jednom miste, maximalne se pohybuji neustale z bodu A do B a cekaji na interakci s hracem).

Proto i situace v predchozich postech, temer libovolny CPU ti staci i na ten nejvykonejsi GPU. Hry, ktere budou realne (ne jen "podpora" dobastlena v posledni fazi vyvoje aby byla hra in) umet vyuzivat vice jader teprve prijdou (pocitam jeste tak 2-3 roky) a nezbyva nez doufat, ze podpora bude obecna a ne "umi 2/4 jadra" jak je tomu u nekterych aplikaci dnes :/ .

Co se fyziky tyce, jeji pocitani pomoci GPU je nesmysl. Podivejme se na to tak, ze i ta nejvykonejsi sestava ktera se da postavit jeste stale nezvladne pocitat "dostatecne" realisticky zobrazovani. A vy tomu zobrazovani jeste kus vykonu seberete na vypocet fyziky. Jiste, muzete pocitat "dost dobrou" grafiku jednim GPU a k tomu druhym pripocitavat fyziku, ale pak by asi bylo lepsi mit specializovany procesor, ktery by jiste pri stejnem odberu podaval mnohonasobne vyssi vykon nebo pri stejnem vykonu mel mnohonasobne nizsi odber (viz testy Ageia vs NV, vykon +- totez, prikon 10x vetsi u NV).
Bohuzel hype a ekonomicke zajmy se ubiraji jinou cestou.

(BTW: casticovy efekty, kour, vzhled vody, ... nepovazuju za fyziku. Za fyziku povazuju realistickou nenascriptovanou destrukci okoli )