Ty swarma asi moc neposloucháš, viď? Jasně ti tady řekl, že obecně kecat není žádná věda. Neustále se opíráš o prohlášení kohosi, ale sám nejsi schopen přinést žádný názor, jak to udělat (zjevně z toho důvodu, že žádný nemáš, neboť tomu nerozumíš). Diskutovat s tebou je zcela bezcenné, protože i když ti napíšu na tvoje přitroublé útočné dotazy, že v tom vidím řadu problémů s deathlocky, ty si opět najdeš nějaký žvást a snažíš se to zahrávat tím směrem, že multicore je úžasná věc, bez které se neobejdeme. Tak ti tedy znovu opakuju, že dokud nebudeš schopen přinést konkrétní návrh, jak ty věci paralelně provést (tj. ne že budeš kopírovat obecné plky z netu), nebudu se s tebou na tohle téma bavit.
A k tvému dotazu - jediný, kdo mě tady přesvědčil o tom, že dual-core může mít velký význam, je Fox!MURDER a to s tím šifrováním. Ty jsi mě přesvědčil tak maximálně o tom, že k tématu nemáš co nabídnout.
2THX:
ad cena - Jasně jsem řekl, že procesor, který nemá výhodný poměr price/performance (P4), nelze brát jako etalon. Proto tvoje tvrzení o 15 % navýšení je úplně mimo. Tohle už nebudu dál probírat. S touhle logikou bych totiž mohl argumentovat, že když bude Intel nabízet P4 za 10 tisíc jako historický exponát, že C2D je velmi levný.
Cache nijak s dvoujádrem nesouvisí. Intel klidně mohl udělat single-core se 4 MB L2. Neudělal, protože by na to nemohl nabalit dual-core BS a prodávat to za dvojnásobnou cenu. Lidi nejsou zas tak hloupí, aby nevěděli, že velká cache není něco, za co by se nechali nachytat a za co by byli ochotni zaplatit dvojnásobek.
Litografická maska na levný single-core Core 2 (byť jen s 1 MB L2) existuje asi tak od října a už jsou i samply. CPUID 10660, revize A0. Použijí ořezanou verzi s 512 kB L2 (zbytek deaktivovaný) pro Celeron. Taky je úplně jasné, že vývoj takového procesoru stojí jen na kosmetické změně už vyvinutého dual-core, a není tak nijak náročný.
Nevypnul, protože to nijak nesouvisí s dual-core vs. single-core. Beztak u spousty aplikací 1 MB L2 stačí, takže až na výjimky typu Photoshop nebo Civilization III by rozdíly nebyly příliš znát (latence cache, ILP a frekvence hrají mnohem větší roli). Podívej se do toho článku, jak si dual-core "skvěle" vede proti jednojádrové variantě.
Víš, jakých procesorů se prodá nejvíc, zejména ve státě typu ČR ? Jsou to levné Semprony a levné A64. Takových čipů se prodává hromada, C2D E6300 je teď v cenové relaci, která je pro hodně lidí příliš vysoká. Modelů jako E6600 se u nás prodá naprosté minimum. A jen pro zajímavost - CPU v ceně nad 20 tisíc se prodá v pár desítkách, maximálně stovkách kusů za rok. Ano, uznávám, že v porovnání s E6600 je AMD dražší, ale to nic nemění na faktu, že za pár MHz navíc bych si ty horentní sumy nepřiplatil ani u Intelu, a proto je pro mě tahle kategorie nezajímavá. Beztak v téhle kategorii už single-core nejsou a nač bych platil víc za DC, když ho nevyužiju? (= E660 stojí víc jak 3x tolik co A64 3500+, ale o kolik má vyšší výkon? 20 % ?).
Víš, ony se ty ceny změní tak, že single-core ještě zlevní. Teď máš Celeron D 347 za 1500 s DPH. P4 6xx má od ledna stát 69 dolarů (2000 s DPH). C2D zlevňovat nebude, A64 X2 asi taky ne.
Protože tohle, co tady uvádíš, ti přidá nějakou hodnotu (např. u té limonády chuť). Já vím, že je těžké pochopit, že dual-core nepřidá vůbec nic. Tak se ti to pokusím vysvětlit ještě jinak, polopaticky:
výkon SC: x
výkon DC v ST aplikaci: x
cena SC: y
cena DC: 2y
poměr výkon/cena u SC: x/y
poměr výkon/cena u DC: x/2y
Co má vyšší poměr? Jistě že SC. A nezmění se to do doby, než výkon u DC v ST aplikacích bude 2x nebo cena DC bude y. Ale taková situace teď není.
Já jsem mu napsal, že až na video je na h****. Workstationy a servery pomíjím, to není desktop, aby se to tady probíralo.
VIA tehdy nenabízela jiný SB než VT8237, který má jen 2x SATA, což mi nestačí (VT8237 mám už teď). A další výdaje spojené s CPU (tj. deska a grafika) mi za to nestály, protože nárůst výkonu by byl velmi malý (jde mi o onu cache a frekvenci, kterou A64 nemá o moc lepší než AXP.
Mobilní A64 má na desktopových deskách problémy s kompatibilitou.
Tam ti pomůže i cache OS a DRAM buffer na disku. Další prostor pro zlepšení je malý.
Pokud mi něco na default přinese jen pár desítek procent výkonu navíc a přitom to stojí majlant, tak to nepovažuju za dobrou koupi.
Cena CPU je dvojnásobná i dneska (viz opět srovnání A64 3500+ vs. C2D E6300), takže zbývá jen cena desky. Ta bývá cca. dvojnásobná, to je pravda. Ale když to moc potřebuješ, tak to dáš, ne?
NetBurst má velkou instrukční latenci, takže je jasné, že ta jeho pipeline nemůže být tak snadno naplněna, čili jeho využití jednotek je ještě horší než u C2D nebo A64. Prostě příliš mnoho stupňů vede k "bublinám".
Northwood má L2 cache o hodně rychlejší než Prescott. A taky neumí 64bit, což jeho návrh dost zjednodušuje.
Latence RAM se nemění, ale zvyšuje se propustnost, takže agresivní prefetch a velká cache můžou hodně zachránit. Kdyby ještě udělali hardwarový speculative-precomputation, podaří se jim tenhle bottleneck z velké části odbourat.
Jenže ty tu srážku musíš odhalit a to se ti bude dělat pěkně blbě, když budeš hýbat dvěma objekty současně a ne po jednom.
V tom textě nic takového napsané není. Je tam cosi o tom, že umožňují číst z jedné lokace více threadům, což ale předpokládá nezávislost operací. V reálu ale ty závislosti jsou a hodně. Zbytek zavání šílenými deathlocky, což sami autoři potvrzují. Jak je překonat, je snad jasné - prostě se na závislosti vykašlat a udělat to se zastaralými daty (= prasárna).