Mam core 2 duo a jsem spokojeny, i pres vynalozene penize
Mam core 2 duo a jsem spokojeny, ale za ty penize to nestalo
Nemam core 2 duo, ale koupim si ho
Nemam core 2 duo a nechci ho
Ani já nezpochybňuju, že časem bude MT aplikací přibývat. To ale neznamená, že jsou teď. A pokud můžu nákup odložit, tak ho odložím, protože na tom jedině vydělám. Dual-core bohužel není spása a jak tento thread a ona anketa dokázaly, vyvíjet nové aplikace stojí programátory čas, a tedy ve výsledku i peníze, což samozřejmě nechce nikdo dát. A to pomíjím, že spousta situací se do multithreadingu převádí pomocí prasáren, kdy nejsou identické výsledky.
Par pozamek k vyuziti GPU pro jine vypocty nez graficke.
Folding@home pred nejakym casem uvolnilo betu GPU klienta, ktery je cca 20x-30x rychlejsi nez CPU klient. Az po tud dobre zpravy. ted to horsi:
klient je urcen jen a vyhradne pro ATI Radeon X1900/1950, protoze jej udajne bylo nutne z velke casti napsat primo na konkretni cip. Zadny jiny chip pry navic nedosahuje potrebneho vykonu, takze Eaglovy uvahy o 100x a vetsim vykonu GPUcek v debate o cellu jsou min. prehnane. Navic je velmi zavisly na konkretni verzi DX a predevsim ovladacu. Pokud to chapu dobre, pro kazdou novou verzi ovladacu jej patrne bude nutne pokazde upravit, aby fungoval dobre, stejne tak pro kazde vydani directX, ktere mimochodem vychazi snad kazdy mesic nove. Dalsi neprijemna vlastnost tohoto GPU klienta je fakt, ze graficky ovladac se musi velmi casto dotazovat GPU jadra, zda je hotove, coz pry zere cca 25% systemoveho casu CPU.
Co z toho vypliva? Predpokladam ze programatori standfordske univerzity nejsou nejaci lameri, takze pokud to udelali takto "blbe", patrne k tomu byl nejaky duvod. Ono to tak je ostatne i ve hrach, kde se bezne stava, ze pro nove hry je potreba upravit/opravit ovladace, aby to fungovalo dobre. U pocitani grafiky se ale sem tam nejaka drobna chybka ztrati, u jinych ukolu to tak byt nemusi a klient folding@home je toho prikladem. Pokud se tedy programovani pro GPU nejak zasadne nezmeni, vidim veliky problem se spravnou funcnosti s ruznymi verzemi DX a driveru. Tento problem u vice jadrovych CPU nehrozi, proto si myslim, ze pouzivat GPU na pocitani neceho jineho nez grafiky bude min. velmi komplikovane a spise nez toto reseni se zacne prosazovat SW schopny vyuzivat vice jader CPU. Mimochodem, masivne MT programovani se pri pouziti GPU stejne vyhnout nejde, protoze pokud to chapu dobre, tak X1900 se tvari jako 48 procesoru, je tedy nutne mit min. 48 vlaken, aby bylo GPU vyuzito cele. Jinak se take pripravuje klient pro cell v playstation 3, tak jsem zvedav, jak na tom bude vykonove vzhledem ke GPUckam
http://folding.stanford.edu/FAQ-ATI.html
Mimochodem, pokud chcete prispet k rozvoji mediciny, pripojte se k folding@home!
Naposledy upravil Petrik; 15.11.2006 v 11:21.
desktop: i5-2500K@3700MHz, MSI P67A-C43-B3, 2x4GB Kingston Value, Sapphire 5850 Xtreme 1GB 850/1100, 2xWD10EALX fake RAID-1, LG W2600HP-BF S-IPS,Razer DiamonBack, Seasonic SS-400ET-F3, Windows 7 x64 SP1 + ubuntu x64
notebook: IBM T41p, 1.7 Pentium M, 14" 1400x1050, 1.5GB RAM, 40GB 4200r, Ubuntu 9.04
ultraportable: IBM X41, 12" XGA 1.5GHz Dothan, 2GB RAM, 32GB CF Pretec 233x SSD, Ubuntu 9.10
repro: Teufel Concept E Magnum PE 5.1
zvatlas tu o vyuziti GPU na starej atine, dnes je tu doba unified shaderov a tie pojdu vyuzit univerzalne a lepsieto len na okraj
Sound (Sennheiser HD 580 + Meier Corda Move) just great
Workstation (Intel i5 4590 + Noctua DH14×Asus Z97-A×24GB DDR3×480GB Sanmsung 850 Pro + 1TB WD + 1TB WD + 1TB Samsung+×MSI N760 TF 2GD5/OC ×Enermax Pro82+ 425W×Antec Solo Modded×Dell UltraSharp U2713HM 27"×Logitech MX3200×Inspire T3030) not so silent anymore
Photo (Sony A6000×32GB SD×stuff×Crumpler Long Schlong+Tenba D-15c×Velbon V2000×Lomo LC-A) creative
Notebook (IBM ThinkPad T420s×nejaká i5×240GB Samsung 850Pro×8GB RAM×dve baterky×blabla) mobile
Neděkujte, nenadávejte, pokud se vám něco líbí nebo nelíbí, používejte prosím reputaci (tj. ikonka s vahami pod avatarem), už můžete i "anonymně".
Fer. Takze odted uz nebudou vubec zadne problemy s ovladaci ve hrach? ParadaTakze vlastne uz ani nebude potreba vydavat nove ovladace, ze
Vsadim se s tebou, ze min ze zacatku tech problemu bude vyrazne vice nez nyni. Mozna, ze az se stav ustali, az budou stabilni ovladace a az se programatori pro ne nauci psat, tak to bude lepsi nez nyni, ale nejak neverim tomu, ze najednou vsechny problemy spojene s psanim v high-level grafickem jazyku pominou. Nevim, kde presne je chyba, zda u vyrobcu ovladacu / HW, nebo u programatoru, ktery pisou pro 3D API, ale nejak to porad idealne nefunguje...v kazdem novem vydani driveru jsou hromady oprav pro konkretni bugy ve hrach...kdyz to srovnam se svetem SW pro CPU, tak to je nebe a dudy....nebo snad intel a AMD vydavaji nove revize CPU / mikrokodu pro nove verze programu? nevsiml jsem si
A jinak X1950 jeteda hodne stara ATina, souhlasse divim tem programatorum ve standfordu, ze to rovnou nenapsali pro HW, ktery bude za 5 let...vis MAdcape, ono napsat takovy SW nejakou dobu trva a to se nezmeni ani do budoucna.
PS: poznamka pro uzivatele, ktery mi stale dava spatnou karmu za "invektiva": Doufam ze madcap ji dostane take za to "zvatlani"
Naposledy upravil Petrik; 15.11.2006 v 15:31.
desktop: i5-2500K@3700MHz, MSI P67A-C43-B3, 2x4GB Kingston Value, Sapphire 5850 Xtreme 1GB 850/1100, 2xWD10EALX fake RAID-1, LG W2600HP-BF S-IPS,Razer DiamonBack, Seasonic SS-400ET-F3, Windows 7 x64 SP1 + ubuntu x64
notebook: IBM T41p, 1.7 Pentium M, 14" 1400x1050, 1.5GB RAM, 40GB 4200r, Ubuntu 9.04
ultraportable: IBM X41, 12" XGA 1.5GHz Dothan, 2GB RAM, 32GB CF Pretec 233x SSD, Ubuntu 9.10
repro: Teufel Concept E Magnum PE 5.1
Normálně to nedělám, ale teď už si to neodpustim. Možná by se dalo říct, že to bude takové malé OT. Petříku, Petříku, máš tady v tomhle threadu skoro nejvíc postů. Já jsem to tu nečetl celé, ale poslední příspěvky, co od tebe čtu, jsou vážně spíše jen výpady. To už na forech bývá běžné, ale pokud chceš argumentovat, tak musíš mít argumenty a taky skill, kterym to můžeš podložit a nějak ty argumenty prodat. To ty ale nemáš a tak by ses neměl snažit tak útočit. Vypadá to pak dost směšně. Pokud je nouze o odborníky, co by přispěli do diskuze, tak je lepší ať je thread spíš prázdnější, než ho takhle "nastavovat".
No a abych napsal ještě něco málo k tématu. Vem si, že ty ovladače momentálně nejsou zrovna připravené na něco takového u těch grafických karet, až dojde k nějaké pokročilejší iniciativě ještě u vývojářů ovladačů, tak se to může hned změnit. Pokud tady srovnáváš CPU a grafiky (což mi přijde hodně uhozený), tak musíš brát v potaz, že CPUčka jsou všechna kompatibilní navzájem (proto to x86). Grafiky jsou mezi sebou těžce nekompatibilní (což jim taky umožňuje být mnohem výkonější pro jednotlivé účely). Chyba je momentálně tedy v ovladačích. nVidia i ATI jsou velcí hráči a pochybuju, že se nechytnou již brzy dostatečně silně této příležitosti (zisků).
Jo a ještě na závěr bych zmínil, že řešit jestli je lepší používat druhé jádro nebo grafický procesor (aspoň tak trochu vyzněl tvůj příspěvek) je totálně mimo. Už jenom na příkladě s tou ATInou. Zaměstnáním obou jader na CPU bychom asi 30x vyššího výkonu nezískali.
Diagon Swarm - redaktor NOTEBOOK.cz
Nikdy se nehádej s blbcem, nezasvěcený by nemusel poznat, že je mezi vámi rozdíl.
Blog o mobilní technice -> [WWW]
sorry, ale taky neco napisu.
O GPU tady zacal Eagle, ktery napsal neco v tom smyslu, ze vice jadrove procesory jsou nesmysl, a ze kdyz uz je potreba vetsi vykon, tak ze to jde pomoci GPU. Takze pokud ti srovnani GPU a CPU pripada "uhozeny", reklamuj to u Eagla, ja s tim nezacal. Zaroven take reaguji na jeho posty z debaty o cellu, kde take argumentoval, ze cell je nesmysl a ze GPU je mnohem lepsi a vykonejsi. Ja jsem tam psal neco v tom smyslu, ze vyuziti GPU pro jine nez graficke operace bude min problematicke a ze vykon GPU nebude zdaleka tak ohromny, jako pro graficke operace...take jsem zduraznoval, ze zatim neni zadna realna aplikace pouzivajici GPU. Proto jsem tedy sem napsal, ze uz tedy nejaka je, ale ze to je dosti problematicke a ze nejenom podle meho nazoru to v nejblizsi budoucnosti nebude lepsi.
Kdyz si prectes muj post o F@H GPU klientu, tak tam nenajdes zadny "vypad", proste jsem jen shrnul, jak tato konkretni realna aplikace funguje a jake jsou s ni problemy. Na tento celkem neutralni post reagoval madcap vypadem, ze akorat zvatlam a ze jsem uplne mimo, protoze uz je prece jedna dostupna grafika s unifikovanymi shadery, ktera vse zazracne zmeni. Jakej jsem trotl, ze.
Ted k veci, i kdyz je mi jasne, ze podle tebe a dalsich odborniku to budou jen naproste zvasty.
1)ovladace nejsou pripravene na neco takoveho.
No oni nejsou pripravene ani na hry, kdyz je autori musi porad opravovat, ze? Nebo tobe propada normalni, ze v kazdem vydani novych driveru jsou opravy pro bugy, ktere se projevuji v novych hrach? Me proste pripada, ze cely navrh toho 3D API je natolik slozity, ze neni mozne jej pouzivat a psat pro nej ovladace, aniz by se neustale musely opravovat nejake drobne, ale obcas i dost zasadni chyby. Pokud se to ale pouziva pouze pro grafiku ve hrach, tak to ani moc nevadi...hraci si proste stahnou nove drivery a je to, nejaky ten spatne vykresleny stin ci textura nikoho nezabije....pro jine pouziti to vsak muze mit katastrofalni nasledky.
2) grafiky jsou mezi sebou tezce nekompatibilni
To je mimo jine duvod, proc si myslim, ze jen tezko muzou uspet jako nahrada CPU. Pravda je, ze s pomoci 3D API se vsechny muzou jakoby pouzivat stejne, ve hrach to tak vpodstate funguje, ale pro jine pouziti to je zda se problematicke.
3) řešit jestli je lepší používat druhé jádro nebo grafický procesor...
Samozrejmne, ze 30x vetsi vykon se druhym jadrem neziska, ale zase tam maj jistotu, ze aplikace psana pro vice CPU pobezi vzdy spravne, coz u GPU nyni neplati a pochybuji, ze nekdy bude.
Pokud to z toho jeste dostatecne nevyznelo, tak duvod, proc jsem vubec zacal s debatou o GPU vs. CPU je ten, ze vyuziti GPU pro jine vypocty nez graficke sice muze prinest obrovsky narust vykonu, ovsem zaplaceny velikymi problemy s drivery, DX a pod. Proto ma podle me smysl vykon dohanet pomoci vice jader, protoze tam sice v soucasne dobe takovy narust ocekavat nelze, ale zato to je bez problemu s kompatibilitou. Navic se pomalu, ale jiste zacinaji objevoval CPU ala Cell, ktere jdou na vec zcela jinak a to se muze ukazat jako vytezna strategie. Shrnuto a podtrzeno: vice jader podle me smysl ma, protoze ocekavat, ze super vykonna GPU vse spasi, je min. v blizke budoucnosti dosti nepravdepodobne.
Ale jinak je klidne mozny, ze placam naproste kraviny, to necham na posouzeni kazdeho ctenare. Jen jsem proste dal priklad realneho pouziti GPU a problemu s tim spojenych....ze se to nekomu nehodi do kramu, za to nemuzu.
PS: "Grafiky jsou mezi sebou těžce nekompatibilní (což jim taky umožňuje být mnohem výkonější pro jednotlivé účely)"
Ja myslel, ze vsechny grafiky chteji delat vice mene to same, totiz pocitat grafiku pro hry, resp pocitat ukoly zadane nejakym 3D API. Jake jsou tedy ty "jednotlive ucely", pro ktere jsou mezi sebou tezce nekompatibilni? ...jasne, je to vypadek, ale kdyz pouzijes nesmyslny argument na obhajobu toho, ze placam kraviny a nemam skill, tak se nemuzes divit, ze.
Naposledy upravil Petrik; 16.11.2006 v 01:28.
desktop: i5-2500K@3700MHz, MSI P67A-C43-B3, 2x4GB Kingston Value, Sapphire 5850 Xtreme 1GB 850/1100, 2xWD10EALX fake RAID-1, LG W2600HP-BF S-IPS,Razer DiamonBack, Seasonic SS-400ET-F3, Windows 7 x64 SP1 + ubuntu x64
notebook: IBM T41p, 1.7 Pentium M, 14" 1400x1050, 1.5GB RAM, 40GB 4200r, Ubuntu 9.04
ultraportable: IBM X41, 12" XGA 1.5GHz Dothan, 2GB RAM, 32GB CF Pretec 233x SSD, Ubuntu 9.10
repro: Teufel Concept E Magnum PE 5.1
no, ciastocne pise k veci, pretoze ukazuje vyuzitie vysoko paralelneho (a menej univerzalneho) hw. Na novych nvidiach (a snad R600) by sa to malo dat vyuzit este lepsie.
A k tomu co tu hovori eagle, ze DC je drahe a ze programovanie pre DC je drahe. Aj vyvoj novej architektury je drahy. A co ty vies, kolko z ceny C2D je za to druhe pridane jadro (ja tvrdim ze to je ta mensia cast) a kolko je na zaplatenie nakladov za vyvoj? A ten vyvoj (ktory kritizujes ze je slaby a ze sa pouzivaju lacne triky s pridanim druheho jadra a ze by si rad 5ghz 10 isssue single core za 10kc) je celkovo dost drahy. Vyrobne naklady su u novych procesorov iba mensou castou ceny. Navyse instruction level paralelizmus nemozno zvysovat donekonecna. Dobrym prikladom je itanium, ktory aj ked vsetky programy kompilujes priamo pren (a teda na nom nespustas nejake starsie neoptimalizovane programy ako je to zvykom v x86), tak stale nedokazal vacsinou vyuzit tych 6 "pipeline" co mal.
Programovanie vo viacerych threadoch len robi to, co procesor sam nedokaze - odlisit nezavisle casti kodu. Na servroch to ma OS lahke - tam bezi vela nezavislych threadov a tak nie je problem vyuzit takyto procesor. Ale u thread level paralelizmu uz nedokaze sam procesor odlisit thready a preusporaduvat instrukcie. Reorder buffery tiez nemozes zvacsovat donekonecna, pretoze po istom case budes uz mat aj tak instrukcie spracuvajuce vysledky predch. vypoctov, takze instr. level paralelizmus tiez nemozno donekonecna zlepsovat. A navyse - ak si pustis program ktory vypisuje momentalne IPC procesora, tak zistis ze to aj tak v priemere a pri beznej praci nie je nejak vela.
Predstav si, ze by novy procesor od intelu nebol dual core, ale single core, ale za to s 8 pipeline a hyper threadingom. Tam by si tiez musel optimalizovat, aby si dokazal vyuzit potencial tohto "sirokeho" jadra. A musel by si to optimalizovat rovnako ako na DC. Navyse by to malo asi este nejake dalsie nevyhody (napr. teraz ked sa ti jedno jadro nepodari, tak snad to este mozes stale predat ako single core procak).
A ak povazujes itanium za uspesny, tak napr. taky vyvoj G80 stal 400mil dolarov, ale do itania islo uz 20 miliard. To je trocha rozdiel. Navyse - HP prestal vyrabat PA risc a Alfu, takze vymizla (lacnejsia - lebo netrebalo novy sw) konkurencia. Itanium zdaleka nie je taky uspech, ako sa prezentuje (vzhladom na to kolko stal vyvoj toho procaka, kolko stoji (a kolko stoja servre)). Z pohladu nakladov a zisku je to oproti x86 totalny prepadak.
3570K, 16G, x25-m, itx
xj40
Toto téma si právě prohlíží 2 uživatelů. (0 registrovaných a 2 anonymních)