Vzhledem k tomu, že AMD zatím 65nm vyrobilo jen dvoujádra...
Tak to si nemyslím. C2D není zas až tak převratný CPU, je to jen procesor, který nemá skoro žádný bottleneck (vyjma 128bit instrukčního fetch, což je fakt omezení). K7 je modernější architektura než deriváty PPro a pokud AMD implementuje to samé co Intel (vyjma 4 IPC, co stejně drtivá většina aplikací nevyužije) - tedy hlavně memory disambiguation (bude) a 128bit SIMD (bude) - mohlo by se vcelku snadno na výkon C2D dotáhnout. Problém bude velká rychlá L2 cache (tajemství výkonu C2D ve spoustě aplikací), spotřeba (optimalizovat transistory asi tak rychle nestihnou) a především frekvence. C2D je velmi dobré jen na vysokých frekvencích, v základu třeba E6300 zas tak rychlý není. Frekvence je to, co určuje výkon procesoru a jelikož Intel plánuje letos jít nad 3 GHz...
Není pravda. Hlavní výhoda Prescottu je podpora 64bit. To taky výrazně změnilo jeho design (oproti Northwoodu). Intel nemohl udělat 90nm derivát Northwoodu ani kdyby chtěl. Už s Pentiem M a Core Duo měl dost problémy, protože to jsou z dnešního pohledu velmi zastaralé procesory.
Core 2 Duo už bych do téhle linie nestavěl. Je to podobný procesor, ale má změněné prakticky všechno. Komplexnost návrhu 4 IPC vs. 3 IPC je obrovská, to samé u memory disambiguation, rozšířeného instruction window a 64bit. To se taky odráží na tom, kolik má bugů.
DDR2 mají stejnou frekvenci jádra jako DDR, takže i stejné latence. A frekvence CPU se za tu dobu tolik nezvětšovala, aby to bylo nějak víc limitující. Spíš ten řadič by AMD mohlo zrychlit.
Pentium M nikdy nebylo rychlejší než K8. Pipeline P-M je pomalá, obsahuje dnes provařené bugy způsobující za určitých okolností pipeline stall (to už má od dob PPro), má málo jednotek. P-M těžilo jen z velké ultra-rychlé L2 cache, bez ní by se mohlo jít klouzat. Hrubý výkon K8 v optimalizovaném kódu je někde jinde.
To nemusí být nutně pravda. Jakákoli další úroveň cache zvyšuje latenci do RAM. Takže u streamových aplikací to může výkon naopak zhoršit. Nejlepší je samozřejmě to, co má C2D - nízkolatenční velká cache s vysokou asociativitou. Ale takovou určitě není jednoduché navrhnout a vyrobit.
Cache ti zvýší výkon jen ve specifických úlohách. Většina programů se pohodlně vejde do 512 kB a z další kapacity už moc netěží (určitě ne za tu vyšší cenu).
To je pravda. Propady výkonu v jakékoli aplikaci jsou často způsobeny absencí potřebných dat a následným pipeline stallem. Velká cache tohle dokáže hodně dobře odbourávat. Ostatně to je důvod, proč je C2D v hrách tak dobrý, o ničem jiném jeho výkon v tomhle není.
Jinak můj názor je, že AMD má teď velký problém, který vyplynul z toho, že se snažili vytvořit intenzivní superpipelining (údajně schopný trvalého 6 IPC), jenže se jim to pro komplexnost vymklo z rukou, a tak to zrušili. I Intel si je určitě vědom toho, že další zvyšování IPC není moc reálné. Protože s frekvencí jim to už asi moc nepůjde, snaží se tlačit vícejádra. To je totiž to jediné, co jim zbývá, a zároveň je to i poměrně levné (žádné náklady na vývoj). Jakmile ale Intel vyčerpá to, co získal uvedením procesoru, který v defaultním režimu spoří energii (tj. až se opět dostane s TDP nad 100 W a nepůjde to uchladit), bude problém přidávat i ty další jádra. Ostatně už dneska je to vidět - QX6700 je poměrně propadák (nízká frekvence, extrémní spotřeba a velmi vysoká teplota).