Ty by sis koupil antivir kvůli rychlosti detekce? Já teda kvůli co nejvyšší pravděpodobnosti odhalení virů a kvůli nejlepší podpoře. Pak mi taky musí sednout jeho ovládání. Rychlost je až někde na konci, protože si scan pustím v době, kdy bude počítač málo vytížen.
Tady tě asi překvapím - end-usera absolutně nezajímá, jaké instrukce procesor má. Jeho dokonce ani nezajímá, jestli je to z transistorů, laserů nebo čehosi. Jemu jde v zásadě jen o jedno - aby pro něj měl odpovídající hodnotu. Ta se povětšinou měří spolehlivostí (lidi chápou PC jako služku, ne něco, čemu budou sloužit oni) a výkonem v jimi oblíbených aplikacích.
Takže podle tebe třeba Grisoft tě může ovlivnit na jeho antivir tím, že bude tvrdit, že poběží o 10 % rychleji na dual-core (víc asi sotva - limitace diskem)? Tak to nevím, co by jim na to zákazníci řekli - viz moje odpověď na první citaci.
A já tvrdím, že až na specifické úkoly orientované především do oblasti serverů a pracovních stanic (kde si za příslušný software náležitě zaplatíš) a na některé typy multimédií to pro lidi momentálně význam nemá. Možná v budoucnu, ale do té doby klidně ušetřím.
Tak to je super. A kvůli takovéhle kravině poběží můj oblíbený program pomaleji? Děkuji, nemám zájem.
My jsme tu především dokázali, že to je podstatně dražší! Dneska se všichni na všechno dívají přes peněženku, se podívej na prodeje hardware, co frčí. A prostě málokdo bude ochoten zaplatit dvojnásobek. Podívej se třeba tady na propagátora Petrika - jede na ušmudlaném přetaktovaném Sempronu. Proč? Protože prostě nechtěl dát do počítače víc peněz. Bude je chtít dát do software?
Tohle není věc, která se nabízí. Vnímáš to lehce zkresleně. Pomineme-li to, že pro výrobce procesorů je podstatně levnější vymýšlet jednoduchá jádra než investovat zisky do R&D a zlepšovat paralelismus / frekvenci (i to se dá), pak máš dvě situace:
1) Jedno jádro (případně málo jader) na vyšší frekvenci.
2) Hodně jader s nízkou frekvencí.
Nic mezi tím neexistuje. Protože aplikace většinou další jádra nedokázou využít (a nebo si za ně sakra dobře zaplatíš!), jsem pro první řešení. Nehodlám obětovat 20 % výkonu ve většině aplikací tomu, aby mi pár aplikací běželo o řádově 40 % rychleji.
Takže sám uznáváš, že "profi CAD/CAM". Kolik že tyhle programy stojí a pro koho že jsou určeny?
Jistě. Za cenu toho, že náklady na vývoj hry budou vyšší, a tedy se to buďto projeví na prodejní ceně nebo bude nutné, aby z trhu někteří hráči zmizeli (pokud se trh nebude rozšiřovat). A už tady IMHO zaznělo, že hry zas tak ideálně paralelizovatelné nejsou a že především jsou většinou limitovány výkonem grafické karty a nikoli výkonem procesoru.
Kolik z toho dělá:
1) Novější architektura se spekulací a lepším paralelismem?
2) Velká rychlá L2 cache?
Jinak opět operuješ se slovem "profesionalne". To asi není úplně typické, že?
Tak to jsem zvědav, jak ke změně přesvědčíš BFU. To je podobné jak s Microsoftem - udělal výborný support pro školy, a tak si vychovává základnu uživatelů. Přeškolit lidi je mnohem dražší než koupit jejich software.
To je sice pravda, ale když ušetřené peníze vrazíš do grafické karty, získáš mnohem víc. Jakmile jsi totiž limitován grafikou (a to jsi v 90 % případů), pak je rozdíl mezi různými CPU téměř zanedbatelný.
1) Kdo tohle přepisování zaplatí? Ty? Pokud ano, tak si DC taky koupím.
2) Kolik že výkonu navíc WinRAR přinese? Dělaly se tu nějaké testy a z nich vyplynulo, že v průměru tak 10-15 %. Jaké že je snížení frekvence kvůli druhému jádru? Není to takhle náhodou taky tak těch 20 % ?
NetBurst: 3800 MHz SC vs. 3200 MHz DC
A64: 3000 MHz SC vs. 2800 MHz DC
Přičemž DC má v obou případech vyšší spotřebu.
Který kompilátor? Já žádný takový neznám.
V některých případech pomáhal na SSE i kompilátor. Pro určité typy struktur (zejména loopy) se to dá automatizovat a výsledky nejsou tak špatné. Optimalizace tohoto charakteru je podstatně jednodušší než pro DC.
Jeden myslel a vymyslel trakař. Pokud si tím nejsi jistý (nic jsi nenaprogramoval nebo o tom nemáš aspoň zcela jasnou představu), tak to nekomentuj.
Já jsem si žádného razantního rozdílu nevšimnul. Mnohem víc vidím více paměti a rychlý disk (Raptor). Jediný znatelný efekt z DC je při více zátěžových aplikacích spuštěných současně, přičemž:
1) se to dá na SC vyřešit prioritami
2) ti na to DC z dlouhodobého hlediska nepomůže, neboť multithreadová aplikace obsadí obě jádra a odezva půjde opět do kytek (schválně si zkus spustit dva zátěžové programy naráz, tak to bude vypadat, až budeš mít jeden optimalizovaný).
Věci jako MP3 standard jsou nezávislé na použitém OS, a proto je lhostejné, kde to spouštíš. Optimalizovat bez ztráty kvality to prostě nejde, i kdyby ses na hlavu stavěl.
Oni ti to samozřejmě naúčtují, toho se neboj. Dvojnásobek práce by nikdo za stejné peníze nedělal. A ano, ladění multithreaded programů do fáze spolehlivosti může znamenat klidně i takové zatížení navíc.
Další keyframe je vyšší kvalita? :-O Takže nejvyšší kvalita je nekomprimované video o velikosti pár set GB na hodinu? A to i když bude vizuálně stejné jako komprimované bez keyframes?
Provedl jsem testy na víc adresářích / souborech a to i s různým počtem vláken (pomocí command-line přepínače). Výsledný soubor byl při více vláknech vždy (!) větší. BTW, co ten bug ve WinRARu 3.60, který u multithreaded komprese mohl způsobit poškození dat?
Správné řešení je takové, kde je nejlepší kompresní poměr. A z onoho slova "nejlepší" zjevně plyne, že pravděpodobnost, že takových řešení bude víc, je poměrně malá.
Tahle vlastnost už je v jejich kompilátoru tak asi dva roky. Přínosy jsou prakticky nula.
Takže nepopíráš, že optimalizace na DC bude drahá a budeš jí muset jakožto koncový uživatel zaplatit? Dále budeš muset zaplatit dražší DC CPU (víc křemíku = vyšší cena). Takže ve výsledku to bude vše třeba 3x tak drahé, přičemž ti to přinese možná 50 % výkonu navíc (když budu optimista).