-
Intel Larrabee (GP)GPU project
Stále tu nemáme ani zmínku o novém projektu Intelu, kterým se zřejmě bude snažit konkurovat ATi(AMD) a nVidii v GPGPU a GPU segmentu. Informací je kupodivu v některých směrech nečekaně mnoho, ale v jiných zase žádné, takže celek připomíná spíš takové nedokončené puzzle.
Intel Larrabee je tedy jakási hybridní architektura CPU a GPU (což jsou dnes v podstatě všechny DX10 grafické čipy), ale Larrabee je navíc x86 kompatibilní. To je jeden z hlavních rozdílů oproti projektu TerraScale (80 jader), který byl zmiňován už dříve. Ten je spíš než grafickým jádrem specifickým multijádrovým procesorem a postrádá x86 kompatibilitu.
Larrabee - specifikace
- 1,7-2,5GHz
- launch: 2009
- cores: 16-24
- 32KB L1, 256KB L2
- RingBus
- 1-2GB GDDR
- 128GB/s
- až 1TF celkový výpočetní výkon
http://ukazto.com/img/larrabee_core.png
Jelikož jde o specifikace z prezentace Intelu, nemusíte se obávat, že by šlo o nějaký fake, hoax, či cokoli podobného, jako tomu bývá v případě nových grafických čipů (nevíme, co nabídne ATi a nVidia na podzim, ale víme, co nabídne Intel v roce 2009 :mweheh: ). Na druhou stranu je samozřejmě možné, že Intel ještě parametry upraví, či změní datum vydání - přecijen, některé se nezdají zdaleka tak ohromující, jak by se pro rok 2009 slušelo, ale to teprve zmíním
Tak... o Larrabee vyšel pěkný článek na TG-Daily, jenže je plný nesmyslů. Asi největší z nich je informace, že Larrabee je vyvíjen na základě spolupráce Intelu a nVidie. Server Beyond3D tuto informaci striktně popřel a vznik této mylné domněnky zdůvodnil nákupem Intelu několika patentů od nVidie. Tuto informaci si zřejmě TGD špatně vyložil jako spolupráci. Vzhledem k tomu, že se Beyond3D prakticky nikdy nemýlí, bych o tom nepochyboval (je celkem logické, že při návrhu GPU nastane situace, kdy je třeba využít postupy, nebo technologie, které si již někdo patentoval a případné soudní spory po vydání produktu bývají finančně náročnější, než nákup samotných patentů a navíc mohou ohrozit i samotné vydání či prodeje produktu).
http://ukazto.com/img/larrabee_specs.png
Larrabee je tedy produktem pro rok 2009, v tuto chvíli se počítá s 45nm produkcí a první věc, která je dost zarážející je frekvence 1,7-2,5GHz. To sice vzhledem k frekvencím shader-core řady nVidia G80 nepůsobí nijak nemožně, ale je třeba si uvědomit, že v G80 na této frekvenci běží jen samotné výpočetní jednotky (ALUs, či chcete-li, skalární stream-procesory), kdežto Intel nezmiňuje, že by měl čip běžet na několika frekvencích. Problém je v tom, že texturovací jednotka a zvlášť "obvod" pro texture adressing jsou naprosto nevhodné pro (ruční) optimalizace návrhu pro dosažení vysokých frekvencí a právě z toho důvodu zatím ve všech grafických čipech běží na základních taktech. Buďto tedy Intel jen "zapomněl" zmínit jejich frekvenci, nebo nás ještě překvapí :-)
Larrabee využívá výpočetní jednotky VLIW architektury (podobně jako např. ATi R600). Jeden čip jich ponese 16 či 24. Každá jednotka je x86 kompatibilní a zvládá zpracovat až 4 thready (celkem na čip tedy 64-96 threadů). Čistě teoreticky by tedy na jednom Larrabee mohlo běžet až 24 operačních systémů najednou :)
O paměťový subsystém se bude starat prstencová sběrnice (známe z R520, R600) s interní BW 256B/cyklus. Paměťové rozhraní by pak mělo mít propustnost 128GB/s (opět zhruba jako R600/HD2900XT).
Co ovšem není nijak uchvacující, je samotný hrubý výkon 1TF. Ten se totiž očekává již od grafických čipů přelomu roku 2007/2008 a v tomto ohledu bude Larrabee alespoň teoreticky pomalejší (nesmíme ale zapomínat, že výhodou Larrabee má být univerzálnost pramenící ze zpětné kompatibility).
http://xs216.xs.to/xs216/07226/larrabee_board_m.png
Osobně zatím nevím, co si o tomto projektu mám myslet - Intel už několikrát nashromáždil inženýry, kteří odešli z různých grafických firem, aby mohl připravit vlastní grafický čip, ale nikdy neměl výrazný úspěch, zvlášť ne v případě klasických grafických karet (tím myslím ty do slotu). Prvním pokusem byla i740 z roku 1998, která stavěla na AGP-texturingu, díky čemuž měla nést jen pouhé 2MB paměti pro operační buffery, jenže pád cen pamětí tuhle kartu zabil, protože konkurence mohla nabídnout 8-16MB karty, kdežto i740 sice 8MB paměti osazena být mohla, ale využít ji nedokázala (texturovala vždy přes AGP) a na výkon to tedy nemělo vliv. Podobných pokusů pak bylo ještě několik, Intel vždy po neúspěchu většinu (schopných) inženýrů vyházel (většinou to byli inženýři bývalého Real3D - firmy , která stavěla jedny z nejbrutálnějších 3D systémů poloviny devadesátých let - např. legendární Model3) a ti pak přešli k jiným firmám, z většiny k ATi (výrazný podíl na vývoji Xenos). Těžko říct, co Larrabee v roce 2009 nabídne 3D trhu, ale vzhledem k tomu, že Intel počítá s více-čipovými systémy a všestrannou použitelností, se takové řešení zajisté někde "uchytí". Tímto čipem by Intel mohl částečně konkurovat např. CELL procesoru od Sony, nebo na něm založit vlastní herní konzole...
-
Re: Intel Larrabee (GP)GPU project
Intel set to announce graphics partnership with Nvidia?
Citace:
Intel may soon be announcing a close relationship with Nvidia, which apparently will be contributing to the company’s Larrabee project, TG Daily has learned. Larrabee is expected to roll out in 2009 and debut as a floating point accelerator product with a performance of more than 1 TFlops as well as a high-end graphics card with dual-graphics capabilities.
http://www.tgdaily.com/content/view/32282/118/
-
Re: Intel Larrabee (GP)GPU project
Citace:
Původně odeslal beyond3d.com
Page 1 discusses the possibility that Larrabee is a joint effort between NVIDIA and Intel, which we find unlikely, and is just a misinterpretation of the recently announced patent licensing agreement between the two companies.
http://www.beyond3d.com/content/news/242
-
Re: Intel Larrabee (GP)GPU project
Hmm, to mi rekni, jak se ti podarilo zkopirovat tu zpravu jinak, nez je psana? :rolleyes:
Citace:
Page 1 discusses the possibility that Larrabee is a joint effort between NVIDIA and Intel, which we find unlikely, and is possibly just a misinterpretation of the recently announced patent licensing agreement between the two companies.
-
Re: Intel Larrabee (GP)GPU project
Zřejmě proto, že jsem při vkládání a úpravě tagů, kterými jsem chtěl zdůraznit to, co jsem už napsal v předchozím postu, krom špatně vloženého tagu smazal i část věty. Což ale nemění nic na tom, že B3D byl vždy v tomto směru nejlépe informovaný server a samotný fakt spolupráce Intelu s nVidií který by přesahoval prodej patentů, nedává smysl, protože nVidia asi bude těžko Intelu pomáhat s grafickým čipem, který bude přímou konkurencí pro její vlastní čipy.
-
Re: Intel Larrabee (GP)GPU project
Skoda, ze to uplne zmenilo vyznam te vety. Je jasne videt, ze i oni hadaji.
A jak moc je to nepravdepodobne? Tak moc jako spojeni AMD + ATI?
-
Re: Intel Larrabee (GP)GPU project
Citace:
Původně odeslal
Masster
Je jasne videt, ze i oni hadaji.
Stejně jako bylo jasně vidět, že hádají 16 pipelines na R520, zatímco všichni kolem s jistotou mluvili o 24-32, nebo 24pp na G70, zatímco všichni považovali za samozřejmost 32, nebo jako hádali, že R600 bude 80nm, když všechny weby psali o zrušení 80nm verze a vydání 65nm?
Beyond3D nejsou novinkáři, ale lidi, kteří z většiny pracují v různých odvětvích grafického průmyslu, takže mají ve většině případů informace z první ruky. Samozřejmě nenapíšou, že záležitost XY bude na 100% takhle, protože vše se může ještě změnit a navíc by tím mohli poškodit své zdroje. Ale pokud uvedou, že je to nepravděpodobné, s většinou spekulací z TGD nesouhlasí a odkazují se přímo na konkrétní strany v prezentaci, tak to těžko bude proto, že by dokázali "uhádnout", které ze spekulací na TGD jsou nesmyslné a které pravdivé...
-
Re: Intel Larrabee (GP)GPU project
Citace:
Původně odeslal
no-X
Stejně jako bylo jasně vidět, že hádají 16 pipelines na R520, zatímco všichni kolem s jistotou mluvili o 24-32, nebo 24pp na G70, zatímco všichni považovali za samozřejmost 32, nebo jako hádali, že R600 bude 80nm, když všechny weby psali o zrušení 80nm verze a vydání 65nm?
Spoluprace nVidia + Intel je ale uplne na jine urovni.
To ze na B3D delaji/delali lide, kteri maji podepsane NDA nebo primo pracuji pro ATI(nevim, ze by tam nekdo delal pro nV) s timhle nema nic spolecneho, takze ty tvoje priklady mi prijdou dost nevhodne.
Existuje par duvodu, proc by mohla chtit nVidia Intelu pomahat, jako napr. x86 licence.
-
Re: Intel Larrabee (GP)GPU project
Citace:
Původně odeslal
Masster
...takze ty tvoje priklady mi prijdou dost nevhodne.
G70 je snad od ATi? :roll: Totéž ty nesmysly o dual-core G7x...
Každopádně to nic nemění na tom, že TGD i ty se mýlíte mnohem častěji, než B3D a kde si B3D získává informace je irelevnatní - podstatné je, že jim to z >99% vychází.
-
Re: Intel Larrabee (GP)GPU project
nVidia kritizuje Intel Larrabee
Citace:
Původně odeslal Ars Technica - NVIDIA on the highwire: GeForce 8800 and beyond
Given the extensive discussion of oil and gas and medical imaging that Hara segued into, it's quite clear that NVIDIA is as serious about the HPC market as anyone out there. It was also clear from listening "between the lines" that right now NVIDIA see Intel's Larrabee as the number one potential threat in that space.
Hara talked a fair amount of smack about Intel's forthcoming Larrabee project, and I'm not going to summarize any of the criticisms that he had of Larrabee. However, I can't resist a quick response to them because I think one factor neutralizes pretty much all of what he had to say about Larrabee's lack of established drivers, codecs, and an overall software ecosystem: Larrabee is multicore x86, 'nuff said.
:p
http://arstechnica.com/articles/paedia...
-
Re: Intel Larrabee (GP)GPU project
Intel chystá 24 a 32 jádrové Larrabee na rok 2009 a 48 jádrové na 2010
Zatím jsme tedy věděli o 24 jádrové verzi bez texturovacích jednotek, která má sloužit jako univerzální výpočetní jednotka (jakési rozhraní CPU a GP-GPU) a 16 jádrové variantě, která má místo osmi aritmetických jednotek integrovány texturovací jednotky a slouží jako GPU. Evidentně to ale není konečná...
http://community.zdnet.co.uk/blog/0,...331777b,00.htm
-
Re: Intel Larrabee (GP)GPU project
Larrabee's Rasterisation Focus Confirmed
For many months, researchers and marketing fanatics at Intel have been heralding the upcoming 'raytracing revolution', claiming rasterisation has run out of steam. So it is refreshing to hear someone actually working on Larrabee flatly denying that raytracing will be the chip's main focus.
…
http://www.beyond3d.com/content/news/631
---
The Intel CPU is Dead says NVIDIA VP
See first we had NVIDIA CEO Jen Hsun-Huang saying to "open a can of whoop-ass" on Intel, by touting its new sub-$45 integrated platform as far superior to Celeron-based systems. But now we have good old Roy here who is a VP of Content Relations saying that "a war has started" and pronouncing the Intel CPU "dead."
According to Roy Intel is "panicking" because CPUs have "run out of steam," and that they "no longer make anything run faster." The only thing that needs to get faster is the GPU, and NVIDIA's going to make it happen, say Roy.
…
http://www.guru3d.com/news/the-intel...ays-nvidia-vp/
-
Re: Intel Larrabee (GP)GPU project
První tech previews:
Intel's Larrabee Architecture Disclosure: A Calculated First Move
http://anandtech.com/cpuchipsets/int...oc.aspx?i=3367
Intel: Mit Pentium-Kernen gegen Nvidia und ATI
http://www.heise.de/newsticker/Intel...meldung/113739
Intel details future 'Larrabee' graphics chip
http://news.cnet.com/8301-13924_3-10005391-64.html
Jsem mírně skeptický k výkonu v době vydání. Připadá mi, že kdyby se Intel chtěl tlačit do vyšších cenových segmentů, potřeboval by 24-core Larrabee už letos. Připadá mi, jakoby Larrabee mířilo spíše na poměr cena/výkon spíš než na výkon samotný. Ale rád se budu mýlit.
Nečekám, že 48-core Larrabee na 2GHz mohlo porazit high-end ATi a nVidie pro příští rok - myslím, že specializované jednotky budou mít ještě minimálně rok a půl navrch v efektivitě na kompletně programovatelným čipem...
-
Re: Intel Larrabee (GP)GPU project
Ještě bych rád doplnil jeden česky psaný článek o architektuře Larrabee čerpající z AnandTechu a toho, co Intel už v těchto dnech při konferenčních hovorech dodal:
http://www.extrahardware.cz/larrabee...-gpu-od-intelu
-
Re: Intel Larrabee (GP)GPU project
-
Re: Intel Larrabee (GP)GPU project
Podle všeho to vypadá, že Intel s Larrabee šlápnul vedle, alespoň co se využití pro klasickou 3D rasterizaci týká. Proslýchá se, že první verze snad ani nevyjde v podobě klasického 3D akcelerátoru do herních počítačů a že valnou většinu sil Intel přesunul na vývoj druhé generace, aby zachránila, co se dá.
-
Re: Intel Larrabee (GP)GPU project
Intel zveřejnil die-shot Larrabee:
http://www.pcgameshardware.de/screen...rrabee-Die.JPG
http://www.pcgameshardware.de/aid,68...fikkarte/News/
photoshopem zvýrazněná verze:
http://img8.imageshack.us/img8/5158/lrb2.jpg
Vypadá to na 32 bloků výpočetních jednotek (ty pravidelné obdélníkovité útvary) a 8 bloků texturovacích jednotek (užší útvary obsahující tmavý obdélník).
Původně bylo plánovanáno 16 výpočetních bloků + texturovací jednotky (pro hry) nebo 24 býpočetních bloků bez texturovacích jednotek (pro GP-GPU).
-
Re: Intel Larrabee (GP)GPU project
Podle toho si tak nějak nedokážu představit, že by bylo rychlejší než dnešní slabší mid-range. A to v době vydání, pokud k němu dojde, bude na trhu GT300 a RV870.
-
Re: Intel Larrabee (GP)GPU project
Taky si myslím, že po stránce rasterizace to bude slabé. Zřejmě je jejich hlavním cílem GPGPU a raytraycing...
ed.: resp. k současným slabším mid-range produktům bych to nepřirovnával, ale spíš tak k HD48xx...
-
Re: Intel Larrabee (GP)GPU project
Citace:
We were told that Larrabee is currently only capable of performance levels similar to Nvidia's GeForce GTX 285.
http://www.tomshardware.com/news/int...orce,7944.html
-
Re: Intel Larrabee (GP)GPU project
Tak to mi neprijde moc realne :) Osobne cekam v prumeru neco kolem mid-range, na GTX285 to bude mit mozna tak v naprosto specifickych aplikacich, pro ktere je Larabee architektura nejvice vhodna a kde "konvencni" GPU maji problemy s paralelizaci...
-
Re: Intel Larrabee (GP)GPU project
Oni možná mluví o nejvýkonnější verzi. Tzn. 32 jader. Původní měla mít 16 a 24. Ale taky jsem čekal trochu méně - tak na úrovni HD4870.
-
Re: Intel Larrabee (GP)GPU project
Já bych tomu i věřil, ono totiž když dva dělají totéž není to totéž...
nVidia i ATi počítají hrátky (scény) se světlem podobně, ale Larrabee je počítá od základu jinak.
Když to trochu přeženu, tak spočítat 60x2 lze udělat jako 2+2+2+2+....+2=120 tak jinou jednotkou jako 2*60=120 případně takto SHL(60)=120 (shift left - bitovy posun o jedno vlevo).
-
Re: Intel Larrabee (GP)GPU project
Tady ale stále mluvíme o rasterizaci. Ano, LRB má výhodu v mnohem efektivnějším HSR, ale vše, krom funkce texturovacích jednotek, je emulováno, což v současné době není zrovna ten nejefektivnější způsob...
-
Re: Intel Larrabee (GP)GPU project
Ono jde o to, jak moc dobře to bude emulováno a to si netroufám hodnotit. Navíc drobná změna může mít velký dopad na rychlost, což u klasického řešení "hrubou silou", jak to je u ostatních dvou, nejde provést jinak, než výměnou čipu.
Vždyť i x86 procesor emuluje CISCové instrukce vnitřním mikrokódem, a jak mu to jde rychle ;)
-
Re: Intel Larrabee (GP)GPU project
Problém je v tom, že shader modely nemůžeš srovnávat s x86. SM mají silně menší množství instrukcí, které navíc sází na makro instrukce typu skalární, vektorový součin nebo goniometrické funkce. To vše je za dané situace lepší udělat do jedné instrukce. V podstatě jediná situace, kde by mělo LRB vítězit je compute shader u DX11 a i to jenom v případě, že daný job nepůjde dobře paralelizovat.
-
Re: Intel Larrabee (GP)GPU project
Paolo: Hrubou sílu používá právě LRB :-) GPU ATi a nVidie jsou naopak optimalizované pro úlohy, ke kterým jsou primárně určeny.
Proč má LRB obsahovat texturovací jednotky? Protože emulovat filtraci textur na x86 kompatibilním čipu by byla už úplná sebevražda. Co zvládla 15 let stará grafická karta v jednom taktu, trvá současným nejvýkonnějším procesorům kolem stovky taktům. A to mluvíme o bilineárně filtrovaném texelu. Pokud bychom chtěli trilineárně-anizotropní filtraci, byly by i nejstarší 3D hry mimo možnosti současných CPU. Je to sice extrémní příklad, ale snažím se poukázat na to, že emulace není nejlepší cesta, pokud stojí víc tranzistorů, víc energie, víc peněz a výsledek je pomalejší. Širší programovatelnost uživateli nepřinese nic.
Stačí se podívat na R600. Čip, který byl optimalizovaný pro emulovaný MSAA resolve, propady při něm byly o 15% větší, než na jeho předchůdci (R520/R580), což by se mohlo jevit jako úspěch na to, že šlo o plně emulovanou funkci, jenže v dnešní době zákazníci odsoudí produkt kvůli rozdílu 5% ve výkonu, takže 15% je de facto katastrofa. A to má ATi HW i SW tým, který má 15 let zkušeností s 3D grafikou, psaním driverů, hledáním optimálních řešení...
Oproti tomu se Intel se pustil do něčeho, s čím nemá žádné zkušenosti, HW tým poprvé pracuje společně, SW tým poprvé pracuje společně, většinu SW inženýrů, kteří pracují na driverech pro LRB, Intel nabral nově... Jak to může dopadnout? Když se k tomu přičte, kolika podobných excesů se už Intel dopustil a jak LRB vidí lidi, kteří 3D grafice rozumějí, tak si nedokážu představit nic, než produkt s extrémně rozkolísaným výkonem, extrémně rozkolísanými drivery a spoustou problémů.
Řadový uživatel grafik ATi a nVidie nevidí, kolik problémů, které nemá, vychází z dlouholeté práce SW týmu, jeho zkušeností, let spolupráce s vývojovými studii a know-how, které Intel nemá.
V současné době ještě není venku ani první generace LRB, ale Intel už zjistil, že bez razantních změn to nepůjde a již nyní je známo, že třetí generace LRB bude mít omezenou x86 kompatibilitu, protože současným směrem by se daleko nedostali.
Nemohu být optimistický, pokud k tomu není racionální důvod. Vzpomínám, jak bylo loni v diskusích pod články o multi-GPU systému Hydra hafo BFUs orgasmicky nadšených jen z konstatování, že Hydra funguje vždy a za všech okolností bez grafických artefaktů ve všech aplikacích, bez lagů a s nárůstem výkonu přes 99% na kartu... Nikdo nemůže mít za zlé autorům článků, že to opsali z materiálů od výrobce, jen uživatelé nemají soudnost - když se jim říká, co chtějí slyšet, nábožně tomu věří (nábožně proto, že Hydru nikdo nikdy neviděl, ale přesto v ní věří). Nikdo z nich nebyl přístupný diskusi... Teď máme o rok víc a nejsme dál, než u těch marketingových slibů - stále ani fotka funkčního systému, natož jakékoli testy.
-
Re: Intel Larrabee (GP)GPU project
Hej nebyla náhodou R600 právě dělaná na HW resolve, ala super prostupnost, 512bit sběrnice, atd. A k shader resolve se ATI muselo stáhnout když se zjistilo že v návrhu čipu je chyba, která způsobuje nefunkčnost HW resolve a jejíž oprava by zdržela čip o dalších minimálně 6 měsíců?
SW MSAA ATI nikdy nechtěla, byl to výsledek bugu R6xx architektury a jediná cesta jak tam vůbec ňáký AA rozjet. Později se jej ATI hodně rychle zbaivla a s Rv780 se vrátila ke klasice. Není tomu tak?
Jinak ale hydra = pro mě je to obyčejnej PCI-E rozvaděč, něco jako dělá PLX své čipy. Neviděl jsem na žádných těch fotkách nic co by dovedlo jakkoliv pracovat se scénou, natož skládat oběkty scény tahané z jednotlivých GPU, jak to mělo chodit.
Aby na Wildcatu 800 3Dlabs rozjel použitelný multigpu (ne nepoužitelný AFR srágory) musel tam dát třetí čip s vlastní sběrnicí s direct burst pamětí a neni o moc menší jak samotná ostatní GPU, a to se stará jen o skládání scény.
Co se larrabee týče tipuji že se minimálně další generace do bojů nezapojí. (90%). Pokud vyhraje těch 10% a oběví se, tak to bude na 99% naprosá katastrofa. I letitá firma jako je S3 není schopná své hardwarově ok produkty uchytit, protože má k ničemi drivery.
-
Re: Intel Larrabee (GP)GPU project
Citace:
Původně odeslal
DOC_ZENITH
Hej nebyla náhodou R600 právě dělaná na HW resolve, ala super prostupnost, 512bit sběrnice, atd. A k shader resolve se ATI muselo stáhnout když se zjistilo že v návrhu čipu je chyba, která způsobuje nefunkčnost HW resolve a jejíž oprava by zdržela čip o dalších minimálně 6 měsíců?
SW MSAA ATI nikdy nechtěla, byl to výsledek bugu R6xx architektury a jediná cesta jak tam vůbec ňáký AA rozjet. Později se jej ATI hodně rychle zbaivla a s Rv780 se vrátila ke klasice. Není tomu tak?
Není. R600 měl podporovat obojí - HW resolve pro MSAA 2x, 4x a 8x a shader (DX10) resolve pro situace, kde HW resolve nelze použít nebo způsobuje artefakty, a pak pro vyšší režimy AA, kde HW box resolve nelze použít (edge-detect fitler a tent-filter). Vzhledem k tomu, že ale HW resolve v některých situacích nefungoval, nezbylo ATi, než ho úplně vypnout a i pro režimy 2x, 4x a 8x použít shader resolve. Při 8x to nemělo na výkon praktticky vliv (možná 0-10%), při 4x už byl rozdíl znatelný (tak 10-20%) a při 2x to byla největší katastrofa (propady o více než 20% vyšší, než by byly při HW resolve).
Vyřešeno to bylo v RV7xx, kde byl ještě navíc zdvojnásoben výkon v generování MSAA vzorků a ještě vylepšena podpora pro shader resolve - zvlášť edge-detect režimy.
-
Re: Intel Larrabee (GP)GPU project
LRB očividně nedá marketingu nVidie LRB spát. Vypadá to, že poslední rok jsou všichni zaměstnanci nVidie povinni LRB kritizovat ve všech rozhovorech a to i když se jich na názor nikdo neptá :D
Pokud jsou dotázáni, věnují LRB dokonce více prostoru, než svým vlastním produktům…
Naposledy v článku:
PC Games Hardware - Nvidia's Chief Scientist Bill Dally about GPU technology, DirectX 11 and Intel's Larrabee
Jinak za poslední dobu...
-
Re: Intel Larrabee (GP)GPU project
Intel Foresees GPGPU Viruses, Seeks Security Solution for Larrabee
Intel předpokládá příchod GPGPU virů, více:
http://www.xbitlabs.com/news/video/display…
-
Re: Intel Larrabee (GP)GPU project
IMHO je to správný předpoklad, protože (zatím) nižší počet GPGPU funkčních strojů bude vyvážen mnohonásobným výkonem při brute-force výpočtech.
-
Re: Intel Larrabee (GP)GPU project
Tak a je to tady, Larrabee se odkládá a vypadá to, že celkem na neurčito.
Viz Extrahardware:http://www.extrahardware.cz/vydani-larrabee-zruseno,
který to má od Anandtechu: http://www.anandtech.com/weblog/showpost.aspx?i=659.
Projekt sice žije, ale výsledky budou kdoví kdy.
Podle mě je za tím kombinace nutnosti mít k dosažení potřebného (konkurenceschopného) výkonu takový počet jednotek, který není v současné chvíli možný. Spolu s problémy čistě softwarovými, přeci jen emulovat všechno přes X86 a možná nějaké dodatečné instrukce může být dost náročné.
Jsem zvědavý, co to bude znamenat pro raytracing, přeci jenom tlačil ho hlavně Intel, takže ten se asi také zpozdí (ne že by bylo stanoveno nějaké datum).
-
Re: Intel Larrabee (GP)GPU project
Citace:
Původně odeslal
Warran
Podle mě je za tím kombinace nutnosti mít k dosažení potřebného (konkurenceschopného) výkonu takový počet jednotek, který není v současné chvíli možný.
Tak jí ale nevydají nikdy :-) Pokud jim nyní netačí N jednotek na konkurenčních X jednotek, tak v době, kdy bude mít LRB 2*N jednotek, bude jich mít i konkurence 2*X a opět to nebude stačit... Pokud prostě mají mizernou efektivitu na tranzistor, novější poces to nevyřeší...
-
Re: Intel Larrabee (GP)GPU project
Ono to zjevne neni o poctu jednotek, ale o celkove efektivite vypoctu na jednotku. O tom je Larabee... pocet jednotek pak resi ciste jen vyrobni proces, to uz s nim nema nic moc spolecneho.
-
Re: Intel Larrabee (GP)GPU project
Dle mého názoru je to od základu koncepčně špatně. Jako dělat extrémně paraelní čip založenej na zmenšeninách mnoha P54C (aka pentium bez MMX) je totálně out. Celkově vůbec to zakládat na x86 je out. x86 je neefiktivní zastaralej koncept kterýmu mělo dávno odzvonit. Je to s námi jen kvůli MS, Intelu a "zpětné kompatibilitě". I třeba takovej dnes již přes 4 roky starej cell má výkon naprosto jinde. A pokud si Intel vybral x86 jako základ larabee jen proto, že v ní má praxi, tak hodně rychle doletěl na to, že teď plave ve vodách které mu nepatří, v nichž nedominuje, a v nichž neurčuje vývoj, a ta jeho neefektivní x86 je zde naprosto useless.
Pokud bude někdy Larabe vydáno, bude to za hodně dlouho až to celý hoděj do koše a postavěj ten čip trochu jinak.
Kupodivu strašná zpráva je toto pro NV. Fermi je plánována tak, aby Larabe vyzvala a porazila. Pokud ale Larabe nebude, tak ten trh výpočtů přes GPU nebude. A Fermi se akorát utká s ATI v klasickym renderingu a pokud tam prohraje, tak to bude taková R600 od Nvidie, ale ještě mnohem horší.
-
Re: Intel Larrabee (GP)GPU project
-
Re: Intel Larrabee (GP)GPU project
Intel to pros*al s Larrabee, tak teď tvrdí, že 3D zákazníky nezajímá ;D
Intel: Většina lidí nepotřebuje výkonné grafiky
Citace:
„Když lidé uvažují o grafice, představují si 3D válečné hry a větší realističnost scény. Nemám v úmyslu tuto představu bořit, ale tahle skupina zákazníků je relativně malá. To, co doopravdy zajímá většinu, jsou média, tj. jak si jejich grafický akcelerátor poradí s neherními operacemi,“
http://www.extrahardware.cz/intel-ve...ykonne-grafiky
-
Re: Intel Larrabee (GP)GPU project
No nutno objektivně uznat, že má naprostou pravdu. Nebo si myslíš, že většina lidí (tzn víc než 50% uživatelů počítačů) potřebuje výkonnou grafickou kartu?
-
Re: Intel Larrabee (GP)GPU project
O "většině" mluví v souvislosti s multimédii, ale o uživatelích 3D akcelerace mluví jako o menšině. A nemá pravdu. Kdyby měl, nikdy by se Intel nepokoušel o vlastní 3D akcelerátor. Jaký by mělo smysl vytvářet produkt pro zanedbatelný segment? A přesto se o to Intel už 15 let snaží. A vždycky to zvorá :-)
Statistiky prodeje (tzn. zastoupení integrovaných grafik na trhu) se nedají vykládat jako nezájem o 3D hry ze strany uživatele. Jde jen o to, že téměř polovina sestav jde do kanceláří, škol a různých institucí. Ale titéž lidé, kteří používají v práci/škole integrovanou grafiku, používají doma normální slotovou.
-
Re: Intel Larrabee (GP)GPU project
Hlavně se nesmí moc koukat na podíl Intelu v GPU. On tam totiž počítá všechny prodaný GPU, ne používaný, to je dost rozdíl. On každej druhej chipse Intelu má IGP, a kolik lidí to používá? Z mejch zkušeností lidi co chtěl levnej multimédiální stroj v poslední době berou AMD + jejich IGP, nebo i ještě Nforce 8300 IGP, atd. Ale pod Intel ne, tam je moc drahá a Intelácký grafiky maj tak blbou pověst že se jim lidi vyhejbaj.
Takže každou prodanou dvoujádrovou I3 nebo I5 si intel napíše jako prodaný GPU... je to spíš pro smích.
A btw nevim co multimédiálně řešit, už prastarý GMa dovedou to co se od nich chce, podporu více monitorů, plynulou 2D akceleraci, podporu Aera, atd. Ňákou akceleraci HD videa nebo flashe se řešit nemusí, H264 v plný kvalitě v klidu přehraje dnešní nejlevnější dvoujádrovej Celeron za 1100. Nemá smysl kvůli tomu přidávat tranzistory do chipsetu.