Ja sice mam rad sci-fi, ale kluciii, vratte se do reality ... specialne na PC se vec jako 'Dobre napsany software' nekona a konat nebude ...Dobre napsany software
Ja sice mam rad sci-fi, ale kluciii, vratte se do reality ... specialne na PC se vec jako 'Dobre napsany software' nekona a konat nebude ...Dobre napsany software
Hrrrr, will you stop using people as human driven search engines? Google.com has all the answers you need.
Pockat, pokud se nepletu, tak se tu v tuto chvili nebavime o PC, ale o nejvykonnejsim pocitaci, jaky brzy bude na svete. Kdyby byly graficke GPU tak uzasne, jak pises, Eagle, urctite by je nekdo do nejakeho super pocitace jiz davno pouzil, tim si jsem jisty. Ja se obavam, ze ty SIMD jednotky v grafikach nejsou zdaleka tak univerzalni jako SPE v cellu, nebo snad ano? Nebo ze by se rozhodli pro cell jen kvuli potrebe a cene? neverim... Nezapomen, ze cell muze mit diky revolucni architekture podstatne lepsi zasobovani vypocetnich jednotek daty, takze mozna ze GPU maji vetsi teoreticky vykon, ale myslim si ze diky relativne pomalemu pristupu (oproti rychlosti pristupu SPE do sve lokalni SRAM) do jedine centralni pameti bude vetsina GPU pri pocitani nejake fyziky nebo jinych vypoctu zahalet. Dale nevim, kde jsi vzal ze 99% programu je nutne sigle threaded, koukni se na benmarky noveho 4-jadra od intelu a uvidis, ze ve vetsine programu je jiz velmi znatelny narust vykonu, nekdy az 4-nasobny. A ze vsechny superpocitacove programy jsou jaxi nutne mega-multithreadove (kdyz to bezi na tisicech procesoru, tak to ani jinak nejde, ze) asi netreba dodavat. Pokud se nepletu, tak pomoci GPU se zatim krome vyvojovych center nic jineho nez rendering her pocitat realne nedari, coz se neda rici o cellu. Byly nejake pokusy pocitat prostorovy zvuk, ATi se snazi pocitat fyziku a nvidia myslim chce enkodovat video (to uz mozna nejak funguje), ale zatim kde nic tu nic. Psat pro GPU je zrejmne jeste vetsi nocni mura nez pro Cell, pro ktery navic jsou nebo budou relativne pratelske nastroje a kompilery, ktere doufam odvedou vetsinu spinave prace za cloveka (automaticka paralelizace kodu, optimalizace pro cell a pod.). Konsorcium kolem Cellu slibuje, ze by to v budoucnu (mozna uz ted) melo vypadat tak, ze se proste vezme stavajici kod v Cku, prozene se specialnim kompilerem a voala, staci to pustit na cellu a valit oci na rychlost, jakou to cell chroupa...
Me proste bavi, jak jste vsichni desne chytri a tvrdite, ze to fungovat nemuze, ze to je nanic, ze se na to neda psat a pod. a jaxi ignorujete fakt, ze nejenom ze uz jsou hry pro playstation 3, ale ze kdyz se IBM rozhodne vybudovat nejvykonejsi superpocitac na svete, tak ze to ma asi sakra posefovany, nemyslite?
Naposledy upravil Petrik; 12.09.2006 v 12:15.
desktop: i5-2500K@3700MHz, MSI P67A-C43-B3, 2x4GB Kingston Value, Sapphire 5850 Xtreme 1GB 850/1100, 2xWD10EALX fake RAID-1, LG W2600HP-BF S-IPS,Razer DiamonBack, Seasonic SS-400ET-F3, Windows 7 x64 SP1 + ubuntu x64
notebook: IBM T41p, 1.7 Pentium M, 14" 1400x1050, 1.5GB RAM, 40GB 4200r, Ubuntu 9.04
ultraportable: IBM X41, 12" XGA 1.5GHz Dothan, 2GB RAM, 32GB CF Pretec 233x SSD, Ubuntu 9.10
repro: Teufel Concept E Magnum PE 5.1
Dyť na nich chtějí počítat fyziku a dekódovat HDTV MPEG4 AVC, tak proč by to nezvládly?
Revoluční? Co je na nějaké SRAM revolučního? To si vážně myslíš, že to nemá někde úzké hrdlo? Třeba přístup do RAM, závislosti výpočtů, latence mezi SPE a hlavním jádrem (jak dlouho asi bude trvat překonat takovou fyzickou vzdálenost...), sdílení dat mezi SPE... aby to mohlo dosahovat dobrého výkonu, bude to vyžadovat software, který bude mít kvanta SIMD operací a hlavně navzájem nezávislých - takový mě napadá jen jeden: práce s videem. Na jakékoli jiné věci (včetně např. her) je to jaksi na nic, protože všechny ty jednotky až na jednu budou stát a čekat, co se stane.
No a? Do registrů bude mít přístup za 0T jako jakýkoli jiný procesor. Ale o tom to není, důležitý je prefetch, náhodné vyhledávání, latence do RAM atp. Grafická karta má přirozeně taky nějakou svojí SRAM na mezivýpočty.
95 % her pro Xbox 360 v době vydání používalo jediné ze třech jader. Programátoři z toho byli nešťastní. Od Sony a jeho "úchvatného" Cellu dokonce utíkali, že se pro něco takového nedá programovat. Zrovna dělám test dual-core vs. single-core a je to bída - až na kódování videa a rendering je přínos dual-core ubohý, pokud už lze někde hovořit o nárůstu výkonu vlivem multithreadingu, je to tak kolem + 10 %. V mnoha testech je navíc dual-core pomalejší než single-core. Upozorňuju tě, že používám striktně reálně používané aplikace, ne nějaké synteťáky typu PCMark (navíc optimalizovaný na Intel pomocí jejich Math Library) či podobné věci.
Superpočítače počítají vědecké výpočty:
1) které jsou paralelizovatelné
2) do jejichž vývoje byly investovány miliony dolarů
Ani jedna z těchto podmínek není u běžného použití splněna (proto taky s dual-core přišli až v okamžiku, kdy neměli jinou možnost, jelikož jsou to neschopáci v dosahování frekvencí).
Přátelský nástroj je Visual Studio od Microsoftu, které pro Cell určeno není. Všechny proprietární řešení mají malou podporu vyplývající z toho, že tam nejsou peníze.
Zapomeň. Žádný kompilátor není schopen určit, které části kódu jsou paralelizovatelné a které ne. Nejlepší kompilátor světa - Intel C++ Compiler - umí auto-paralelizaci pouze u cyklů a výsledky jsou nepostřehnutelné. S vektorovými výpočty je na tom podobně. Vešketé paralelizace a výkonové vektorizace jsou dělány ručně... proto jich je taky tak málo.
Kompilátor, který by uměl určit závislosti kódu, by musel používat nějakou formu umělé inteligence a profile-guided optimalizace. Navíc by to byl tak složitý úkon, že by kompiloval odhadem týden.
Sci-fi. Možná ve Startreku. Mimochodem, je úplně jasné, že nic jiného říct nemůžou. Hypováním si získávají pověst u lidí slyšících na velká čísla (podobně jako například u aut se děti chlubí maximálkou, i když každý řidič ví, že o té to zdaleka není)... hodně GFlopů, ale že je to jen někde, to už se neříká (podobně jako McLaren F1 může jet 380 jen na okruhu nebo na runwayi).
Protože třeba víme něco o programování? Máme s ním zkušenosti, víme něco o assembleru, pointerech atd.?
Upřímně - myslíš si, že hry na Playstation budou lepší než hry na PC ? Nedávno nějaká firma tvořící jakousi novou střílečku prohlásila, že jí na konzole jako PS3 a XBox 360 nebude portovat, protože jsou na ní příliš pomalé! Fakt si myslíš, jak to všem Cell natře, když je Conroe schopen zásobovat daty dvojnásobný grafický výkon PS3ky? (high-end SLI jsou dvě grafiky, každá na úrovni té z PS3).
No a? Itanium 2 má šest paralelním ALU jednotek. A už do něj taky cpou HyperThreading, aby je bylo možné nějak využít.
Souhlas. Zkuste si něco programovat v shaderech. Na grafikách se shader modelem 3.0 jsou cykly, větvení, skoky,...
Jako grafiky maj v sobě kurevsky velkej potenciál.
To je i důvod proč neuznávám třeba samostatné fyzikální akcelerátory. Proč si přidávat další vektorový procesor do počítače, když jeden velmi výkonný už tam máme v podobě grafické karty.
Diagon Swarm - redaktor NOTEBOOK.cz
Nikdy se nehádej s blbcem, nezasvěcený by nemusel poznat, že je mezi vámi rozdíl.
Blog o mobilní technice -> [WWW]
Ano, presne tak, chteji. A pokud vim, chteji to uz sakra dlouho a porad kde nic tu nic. Proc asi, hm?
Ano Eagle, totalne revolucni. Nic jako 8+1 core NUMA system on chip pokud vim krome cellu skutecne neexistuje. Nechci se s tebou hadat, nevim jakou velikost maji registry GPUcek, ale 256kB na jednotku to asi nebude, ze? A pokud beres jako uzke hrdlo tu centralni sbernici, ktera ma propustnost 100GBps (GigaByte), tak souhlas, to je skutecne uzke hrdlo) to nema zadna L1 cache v zadnem procesoru, Eagle. Otakzka jakou ma latenci, ale predpokladam ze zadnou nebo velmi malou. a co se pristupu do centralni pameti tyka, jak jiste vis, je to super rychla XDR.
Tady jde o to, ze kazda SPE ma 256kB SRAM primo u sebeprefetch a ostatni veci bude resit kompilator resp vysledny kod ktery na tom pobezi stejne jako to ma transmeta pokud se nepletu.
Tak to delas neco blbe, eagle, dual core by skutecne nemelo byt pomalejsi nez single core. Navic se koukni na tomshardware, tak testovali 2-core 2 duo (4 jadra) a skoro ve vsem je rychlejsi nez pbyc core 2 duo.
Pokud sis vsiml meho minuleho prispevku, ja se tu ted bavim o superpocitacich a ne o beznem pouziti.
No tak si pis ze tady penize skutecne budou)
Podle toho, co jsem o tom cetl, to vypada, ze se alespon castecne mylis. A intel c++ je mozna nejlepsi v c++, ale co jsem pochytil z linuxove komunity, vsechny dulezite veci se pisi v samotnem C a v tom v hodne kodech exceluje GCC :P
Nechame se prekvapit, co rikas? Tyhle tvoje nazory, ze neco nejde, mi pripominaji takovej ten forek, ze nejakej programator nevedel, ze neco nejde a sel a udelal toA to se deje docela casto, Eagle, pozor na to.
Neni to nahodou spis tim, ze jste nejchytrejsi na svete, takze nikdo nemuze udelat nic lepsiho nez si vy myslite, ze jde udelat? Hm? Ja ti neberu, ze toho vis hodne, ale zkus byt nekdy trochu vice otevrenejsi.
Eagle, to je ale ubohe... patrne myslis vyvojare hry crysis a jejich pokracovani, ze. Tak kdybys to jejich prohlaseni cet pozorne, tak bys vedel, ze to neni kvuli vykonu (ten je u obou dostatecny), ale proto, ze to je psany pro DX10, ktere ani jedna nepodporuje.
Nejak nechapu, co to ma delat s tematem, ale budiz.
Naposledy upravil Petrik; 17.09.2006 v 23:49.
desktop: i5-2500K@3700MHz, MSI P67A-C43-B3, 2x4GB Kingston Value, Sapphire 5850 Xtreme 1GB 850/1100, 2xWD10EALX fake RAID-1, LG W2600HP-BF S-IPS,Razer DiamonBack, Seasonic SS-400ET-F3, Windows 7 x64 SP1 + ubuntu x64
notebook: IBM T41p, 1.7 Pentium M, 14" 1400x1050, 1.5GB RAM, 40GB 4200r, Ubuntu 9.04
ultraportable: IBM X41, 12" XGA 1.5GHz Dothan, 2GB RAM, 32GB CF Pretec 233x SSD, Ubuntu 9.10
repro: Teufel Concept E Magnum PE 5.1
http://www.scienceworld.cz/sw.nsf/ID...ocument&cast=1
Predpokladam eagle, ze jim jdes napsat, at se na to vykaslou, ze to prece nemuze nikdy fungovat a ze i kdyby, tak ze se pro to neda programovat. Mozna ze mas pravdu v tom, ze pro bezne pouziti to neni a mozna ze ani nidky nebude, ale myslim ze tohle je pro Cell genialni vyuziti.
desktop: i5-2500K@3700MHz, MSI P67A-C43-B3, 2x4GB Kingston Value, Sapphire 5850 Xtreme 1GB 850/1100, 2xWD10EALX fake RAID-1, LG W2600HP-BF S-IPS,Razer DiamonBack, Seasonic SS-400ET-F3, Windows 7 x64 SP1 + ubuntu x64
notebook: IBM T41p, 1.7 Pentium M, 14" 1400x1050, 1.5GB RAM, 40GB 4200r, Ubuntu 9.04
ultraportable: IBM X41, 12" XGA 1.5GHz Dothan, 2GB RAM, 32GB CF Pretec 233x SSD, Ubuntu 9.10
repro: Teufel Concept E Magnum PE 5.1
Protože zatím nemají čipset, který by jim umožňoval 2+1 grafiky.
Na 486ce s pár SIMD procesory mi nic revolučního nepřijde.
To rozhodně nebude, když registry je úplně něco jiného než cache. Mimochodem, právě ses prokecnul, že jsi nikdy v assembleru neprogramoval. To je pak složité ti něco vysvětlovat, když ti chybí základní znalosti.
Kdyby byly XDR tak super-rychlé a úžasné, už by je dávno použili na grafických kartách.
No a? Itanium 2 má 24 MB cache a 1.7 miliardy transistorů. Velikost cache je čistě záležitostí výrobních nákladů a požadavků pro jakž tak plynulý výkon. Nemyslíš, že to je spíš důkazem zaostalosti, když nějaká SIMD jednotka potřebuje 256 kB cache? Logicky by měla využívat jen malou cache a vše ostatní si tahat ze sdílené cache, aby nebyl problém s koherencí.
Transmeta má x86 -> VLIW dekodér. To je kapánek něco jiného.
Dual-core může být vcelku snadno pomalejší než single-core. Stačí něco vědět o operačních systémech a je ti to jasné.
1) To je ta stránka, kde udělali podraz na AMD, protože si u nich nechtělo objednat reklamu? P4 throttlující při 35 stupních mám ještě v živé paměti.
2) Ten test jsem viděl a až na pár specifických případů se žádný nárůst výkonu nekonal.
Ty tady fanaticky obhajuješ 486ku se SIMD procesory, protože sis někde přečetl jakési číslíčko špičkového výkonu a seš z toho na větvi.
Klidně. Už před rokem a půl mi spousta lidí nevěřila, že dual-core to bude mít na desktopu hodně těžké. Teď se ukazuje pravda.
To mi připadá, jako kdyby ses mě snažil přesvědčit, že fyzikální zákony nefungují. Úplně stejná věc - určitá pravidla o posloupnosti instrukcí platí u každého procesoru. A že je in-order čip z dnešního pohledu krutě zastaralý, je realita (viz srovnání Pentium II vs. Pentium).
Zřejmě tolik, že ani Itanium 2, které se už teď prosadilo v supercomputingu, nedokáže zcela využít svůj potenciál naplno.
http://www.cdr.cz/a/18570 Hned dva celly v rozkosne malem baleni vcetne 1GB XDR ECC. Sice je to podle Eagla uplne nanic, ale me se to moc libi)
desktop: i5-2500K@3700MHz, MSI P67A-C43-B3, 2x4GB Kingston Value, Sapphire 5850 Xtreme 1GB 850/1100, 2xWD10EALX fake RAID-1, LG W2600HP-BF S-IPS,Razer DiamonBack, Seasonic SS-400ET-F3, Windows 7 x64 SP1 + ubuntu x64
notebook: IBM T41p, 1.7 Pentium M, 14" 1400x1050, 1.5GB RAM, 40GB 4200r, Ubuntu 9.04
ultraportable: IBM X41, 12" XGA 1.5GHz Dothan, 2GB RAM, 32GB CF Pretec 233x SSD, Ubuntu 9.10
repro: Teufel Concept E Magnum PE 5.1
Nebudu to quotovat, jen neco napisu.
1)tech 256kB neni zadna cache, Eagle, ale tzv. local store a to je prave ta genialita te architektury. U cache musis resit koherenci apodobne veci, kdezto tento local store se pro SPE jevi jako normalni RAM, az na to, ze fakt rychla. Do hlavni pameti si saha pres DMA prenosy. To je prave ta genialita cellu, kteoru porad odmitas pochopit. Cely se to proste chova jako NUMA system, zadna cache (krome 512 u G5 PPE) se nekona.
2)Nikdy jsem netvrdil, ze jsem programoval v assembleru.Taky jsem nikdy netvrdil, ze rozumim procesorum.
3)mozna se milim, ale nema nahodu itanium 2 tak trochu problem se zasobovanim ALU a FPU daty? Neni to nahodu tim, ze cely chip je tak hrozne slozity, ze nez povede jeden jediny vypocet, musi nejdirv jeho logika provest tisice operaci? Cell je prvy opak, je velmi, velmi jednoduchy a v tom je podle me jeho sila. Ale mozna ze se bude opravdu hodit jen jako vykona kalkulacka pro nejake x86 procaky, jako to bude v tom movem 1PFlops superstroji (mimochodem, spickovy vykon ma byt 1.6PF, 1PT ma byt udrzitelny)
4)ad GPU: kdyz je GPU nekolikrat rychlejsi nez cell, nac vice grafik nez dve? dve grafiky das do kazde alespon trochu slusne desky.Problem bude podle me jinde.
5)ad transmeta: ja vim, co to je VLIW dekoder (je SW dekoder instrukci, ze?), ale nema nahodu i vetsinu logiky delanou pomoci SW? myslim tim prefetch a podobne veci, ktere jsou normalne zadratovany.
6)"To je ta stránka, kde udělali podraz na AMD, protože si u nich nechtělo objednat reklamu? P4 throttlující při 35 stupních mám ještě v živé paměti."
O podrazu na AMD nic nevim, ale na P4 trottlujici pri 35 stupnich neni nic divneho, u starych jader to zpusobovalo lokalni prehrivani, proc myslis, ze napr. nordwood mel jinak rozmistene ALU a FPU?
7)"Klidně. Už před rokem a půl mi spousta lidí nevěřila, že dual-core to bude mít na desktopu hodně těžké. Teď se ukazuje pravda."
To nemyslis vazne, ze? Vsichni, co si poridili dual core, na nej pejou oslavne ody, si trochu obcas precti forum, Eagle. I kdyby se vypocty nezrychlily, ve windows se ma vyrazne zlepsit odezva systemu pri vetsi zatezi (v linuxu to tak dramaticke asi nebude kvuli lepsimu CPU scheduleru). A skoro vsechny nove hry jiz samozrejmne vice jader podporuji a jsou hry, u kterych to uz ani jinak nejde, viz treba Ghost recon Advanced warfigter, ktery je brzden mojim 2.8GHz K8 sempronem a vic nez 40FPS z nej nevytahnu ani v 640x480.
desktop: i5-2500K@3700MHz, MSI P67A-C43-B3, 2x4GB Kingston Value, Sapphire 5850 Xtreme 1GB 850/1100, 2xWD10EALX fake RAID-1, LG W2600HP-BF S-IPS,Razer DiamonBack, Seasonic SS-400ET-F3, Windows 7 x64 SP1 + ubuntu x64
notebook: IBM T41p, 1.7 Pentium M, 14" 1400x1050, 1.5GB RAM, 40GB 4200r, Ubuntu 9.04
ultraportable: IBM X41, 12" XGA 1.5GHz Dothan, 2GB RAM, 32GB CF Pretec 233x SSD, Ubuntu 9.10
repro: Teufel Concept E Magnum PE 5.1
Naposledy upravil Caleb; 21.09.2006 v 10:37.
Audiotrak Prodigy HD2 (2xOPA2134PA + LT1364) => Little Dot I+ (WE408A + AD8022) => Sennheiser HD555@595
Asus Xonar D1 => Technics SU-A800 => Tesla 2xARN6608 + ARV-104
Audiotrak Prodigy HD2 (2xOPA2134PA + LT1364) => Little Dot I+ (WE408A + AD8022) => Sennheiser HD555@595
Asus Xonar D1 => Technics SU-A800 => Tesla 2xARN6608 + ARV-104
Jako ja vim, ze se chysta spousta veci, ale prave se porad chystaji...zatim. Cell je v tom dal, na tom uz neco opravdu bezi.
*UPDATE*: Ha! tak to vypada, ze se uz neco objevilo: http://www.zive.cz/h/Bleskovky/AR.asp?ARI=131337 Jestli to vyuziva jen 5% a je to pritom nekolikanasobne rychlejsi, tak nechci vedet, jak rychle to pojede, kdyz to bude vyuzivat 100%)
Par citaci z http://folding.stanford.edu/FAQ-ATI.html :
Much like the Gromacs core greatly enhanced Folding@home by a 20x to 30x speed increase via a new utilization of hardware (SSE) in PC’s, in 2006, Folding@home has developed a new streaming processor core to utilize another new generation of hardware: GPU’s with programmable floating-point capability. By writing highly optimized, hand tuned code to run on ATI X1900 class GPU’s, the science of Folding@home will see another 20x to 30x speed increase over its previous software (Gromacs) for certain applications.
In addition, through a collaboration with Pande Group, Sony has developed an analogous core for the PS3’s Cell processor (another streaming processor), which should see a significant speed increase for the science over the types of calculations we could previously do on a x86/SSE Gromacs core as well. Following what we did with the introduction of Gromacs, we will now switch benchmark machines and include an ATI X1900XT GPU in order to be able to benchmark streaming WUs (which cannot be run on non-GPU machines). This machine will also benchmark CPU units (which continue to be of value since GPUs work only for certain simulations) without using its GPU.
Mozna to ale s ostatnima GPU tak horky nebude:
What about video cards with other (non-ATI) chipsets?
The R580 (in the X1900XT, etc.) performs particularly well for molecular dynamics, due to its 48 pixel shaders. Currently, other cards (such as those from nVidia and other ATI cards) do not perform well enough for our calculations as they have fewer pixel shaders. Also, nVidia cards in general have some technical limitations beyond the number of pixel shaders which makes them perform poorly in our calculations.
Naposledy upravil Petrik; 03.10.2006 v 12:14.
desktop: i5-2500K@3700MHz, MSI P67A-C43-B3, 2x4GB Kingston Value, Sapphire 5850 Xtreme 1GB 850/1100, 2xWD10EALX fake RAID-1, LG W2600HP-BF S-IPS,Razer DiamonBack, Seasonic SS-400ET-F3, Windows 7 x64 SP1 + ubuntu x64
notebook: IBM T41p, 1.7 Pentium M, 14" 1400x1050, 1.5GB RAM, 40GB 4200r, Ubuntu 9.04
ultraportable: IBM X41, 12" XGA 1.5GHz Dothan, 2GB RAM, 32GB CF Pretec 233x SSD, Ubuntu 9.10
repro: Teufel Concept E Magnum PE 5.1
Toto téma si právě prohlíží 1 uživatelů. (0 registrovaných a 1 anonymních)