Stránka 2 z 2 PrvníPrvní 12
Výsledky 26 až 47 z 47

Téma: HDD Samsung

  1. #26

    Standardní

    Citace Původně odeslal Marsellus Wallace
    když už jsem u toho, tak ata/atapi-7 NENÍ stadard, takže nechápu, jak to, že disky v tabulkách podle tebe tomu standardu odpovídají...
    stejně tak neexistuje ata133 - poslední ofic. standard je ata/atapi-6, kde o udma mode 6 není ani zmínky a také SATA/ATApI-7 volume 3 alias SATA rev 1.0a, kde taky není o udma mode 6 alias ata133 ani ň.
    ATA133 je neuznávaný standard. S tím nic nenaděláš. Podporují ho Maxtor, Samsung, VIA, NVIDIA a další. Ale i utility od Seagate a Hitachi / IBM rozpoznají disk s UDMA6. Kdyby to nebyl vůbec standard, tak na to asi prdí, nemyslíš?

  2. #27
    Senior Member Avatar uživatele MaWa
    Založen
    29.11.2003
    Bydliště
    Ústí nad Labem
    Věk
    41
    Příspěvky
    1 100
    Vliv
    269

    Standardní

    Citace Původně odeslal Eagle
    Citace Původně odeslal Marsellus Wallace
    když už jsem u toho, tak ata/atapi-7 NENÍ stadard, takže nechápu, jak to, že disky v tabulkách podle tebe tomu standardu odpovídají...
    stejně tak neexistuje ata133 - poslední ofic. standard je ata/atapi-6, kde o udma mode 6 není ani zmínky a také SATA/ATApI-7 volume 3 alias SATA rev 1.0a, kde taky není o udma mode 6 alias ata133 ani ň.
    ATA133 je neuznávaný standard. S tím nic nenaděláš. Podporují ho Maxtor, Samsung, VIA, NVIDIA a další. Ale i utility od Seagate a Hitachi / IBM rozpoznají disk s UDMA6. Kdyby to nebyl vůbec standard, tak na to asi prdí, nemyslíš?
    ok jinak. ata133 neexistuje. ata100 neexistuje, překvapivě neexistuje ani ata66, ani ata33....

    vše, co existuje, je ata/atapi-1/2/3/4/5/6 a v něm definované PIO a UDMA mody 1/2/3/4/5.

    jen jsem chtěl poukázat na to, že na čistě technicky zaměřeném serveru to vypadá docela zajímavě, když se tam objevují bludy rozšířené všude po světě...a jak pak má čověk věřit těm recenzím, když nejsou ani po faktické stránce správně ?
    Oficiální distributor AlphaCool pro ČR a SR...

  3. #28

    Standardní

    Citace Původně odeslal Marsellus Wallace
    ano, jenže OS neví, an co za chvíli kliknu. pak si to už nacachuje, jenže to už je "pozdě". jde o tu počáteční fázi - které ty říkáš latency...
    Tady zjevně někdo netuší, jaký je rozdíl mezi serverem a desktopem. V desktopu je při požadavku FATka nacachovaná, DLLka obvykle taky (programy využívají pro buttony, comba atd. GUI), takže se jen udělá seek a přečte se velký blok dat (řádově stovky kByte). Důležitá je tedy schopnost číst data, schopnost read-ahead, zpožděných zápisů, velkého bufferu, seek má střední vliv. V serveru jsou požadavky úplně jiné - FATka je taky nacachovaná, DLLka nejsou potřeba, ale dat se čte málo. Obvykle je to seek -> číst 5 kByte -> seek -> číst 10 kByte... tady rychlost čtení není důležitá, záleží hlavně na seeku. Je snad jasné, že databázový server je velký a prostě nelze nacachovat všechny data na disku, protože na to není RAMka. A všimni si, že ve velkých databázových serverech nejsou nějak extra rychlé RAMky jako spíš je tam velká kapacita. Proč? No aby se dalo nacachovat větší množství dat z disku. To je sakra rozdíl mezi desktopy a servery, proto nemá smysl používat testy I/O pro desktopové použití.

  4. #29
    Senior Member Avatar uživatele MaWa
    Založen
    29.11.2003
    Bydliště
    Ústí nad Labem
    Věk
    41
    Příspěvky
    1 100
    Vliv
    269

    Standardní

    Citace Původně odeslal Eagle
    Citace Původně odeslal Marsellus Wallace
    ano, jenže OS neví, an co za chvíli kliknu. pak si to už nacachuje, jenže to už je "pozdě". jde o tu počáteční fázi - které ty říkáš latency...
    Tady zjevně někdo netuší, jaký je rozdíl mezi serverem a desktopem. V desktopu je při požadavku FATka nacachovaná, DLLka obvykle taky (programy využívají pro buttony, comba atd. GUI), takže se jen udělá seek a přečte se velký blok dat (řádově stovky kByte). Důležitá je tedy schopnost číst data, schopnost read-ahead, zpožděných zápisů, velkého bufferu, seek má střední vliv. V serveru jsou požadavky úplně jiné - FATka je taky nacachovaná, DLLka nejsou potřeba, ale dat se čte málo. Obvykle je to seek -> číst 5 kByte -> seek -> číst 10 kByte... tady rychlost čtení není důležitá, záleží hlavně na seeku. Je snad jasné, že databázový server je velký a prostě nelze nacachovat všechny data na disku, protože na to není RAMka. A všimni si, že ve velkých databázových serverech nejsou nějak extra rychlé RAMky jako spíš je tam velká kapacita. Proč? No aby se dalo nacachovat větší množství dat z disku. To je sakra rozdíl mezi desktopy a servery, proto nemá smysl používat testy I/O pro desktopové použití.
    to, co ty popisuješ u home use je ideální stav, který nikdy nenastane. teď se nebavme o nějakym wordu, tam asi je 60% nacachováno už předem (díky microsoftu).
    jde mi o větší věci - hry, SW na editaci apod. tam je v zásadě čtení naprosto stejné jako u serverů, až na jednu maličkost - lokalizaci. ano, servery mají 95% přístupů náhodných (třeba na 80gb disku), ale pokud se zaměříš na načítání takového batllefieldu 1942, tak zjistíš, že až na I/O depth a avg chunk size (a to ne zas tak moc, jak byse mohlo zdát - a navíc, o tom se zde nebavíme) JE ta patterna až na "size of area" velmi podbná té serverové - tzn, taky naprosto náhodná (akorát prostě na mnoehm menší oblasti). NIKDY se ti nepodaří uspořádat data tak, aby disk jednou seeknul a pak už jen STR. to je ideální stav. rozdíl mezi server pattern a home pattern je jen v lokalizaci, která lze v IOMeteru ovlivnit.
    Oficiální distributor AlphaCool pro ČR a SR...

  5. #30
    Senior Member Avatar uživatele MaWa
    Založen
    29.11.2003
    Bydliště
    Ústí nad Labem
    Věk
    41
    Příspěvky
    1 100
    Vliv
    269

    Standardní

    navíc, kdyby sis přečetl ten link, co se tím zde tak oháníš, nikdy bys nemohl říct, že disk načte "stovky kilobyte". za prvé ti asi uniká, že WinNT/2k/XP/2k3 neumí číst víc než 64kbyte najednou (kvůli I/O responsiveness), a za druhé jsi asi nepochopil ty grafy, kde je vidět avg transfer size explicitně pro home use.
    Oficiální distributor AlphaCool pro ČR a SR...

  6. #31
    Senior Member minceVIP Avatar uživatele Tom
    Založen
    07.10.2002
    Bydliště
    Plzeň
    Příspěvky
    844
    Vliv
    273

    Standardní

    Taky ste se mohli handrkovat pres ICQ a ne tady
    Phenom II X4 960T @ 4 GHz 1,425V 5th and 6th core functional, Arctic Cooling Freezer 13 Pro, Asus M4A785TD-V EVO, 16GB DDR3-1600 Kingston HyperX, Sapphire HD 7950 Vapor-X OC (1140/6400 MHz) , Kingston HyperX SSD - 120GB, SAMSUNG 1TB Spin Point F3, WD 20EARX 2TB, WD 15EARS 1,5TB, Dell U2412M, Seasonic M12II-620 620W, ASUS Xonar D1 soundcard + CREATIVE GigaWorks T3, LOGITECH Z-5500(placed in front of TV), Razer DeathAdder Left-Hand, Logitech Illuminated Keyboard CZ, rSeat EVO V3 RB + Logitech G27

    HONDA Accord Type-S (2,4 DOHC VTEC)

  7. #32
    Senior Member Avatar uživatele MaWa
    Založen
    29.11.2003
    Bydliště
    Ústí nad Labem
    Věk
    41
    Příspěvky
    1 100
    Vliv
    269

    Standardní

    Citace Původně odeslal Tom
    Taky ste se mohli handrkovat pres ICQ a ne tady
    kdyby jsme se "handrkovali" přes ICQ, tak by z toho nikdo další žádná informace neměl. a to by myslím byla velká škoda.
    Oficiální distributor AlphaCool pro ČR a SR...

  8. #33
    Senior Member mince Avatar uživatele Mojda
    Založen
    16.10.2002
    Bydliště
    Brno - Lisci Nora
    Příspěvky
    566
    Vliv
    271

    Standardní

    Citace Původně odeslal Marsellus Wallace
    kdyby jsme se "handrkovali" přes ICQ, tak by z toho nikdo další žádná informace neměl. a to by myslím byla velká škoda.
    Souhlas, kéž by takovýchto diskuzí tu bylo víc...

  9. #34

    Standardní

    2Marsellus Wallace: Pořád to nechápeš. Jistě že i v desktopovém využití jsou přístupy náhodné, ale kolik jich je? Omezeně! Každý program je unikátní natolik, že nemůžeš říct, že obečně to je přístup o půl délky plotny a následné čtení 500 kByte nebo naopak šílené seekování a čtení mála dat. Jak chceš vytvořit obecnou simulaci přístupů I/O, když nelze určit způsob? V serverech je přístupů hodně, fronta je velká a každý přístup je jinam (dva uživatelé čtou každý jiný program a hlavička si pěkné zalétá). To v desktopech ale není, protože napřed se čte jedna věc a pak druhá. V desktopech se jedná více méně o sekvenční čtení větších bloků dat... fronta tady nehraje takovou roli. Disk s lepšími I/O nemá pro desktopové použití jednoznačnou výhodu - ano, má jistou výhodu, ale ne nijak dramatickou. Porovnej si výsledky WD Raptor 36GB s ostatními disky (už na to odkazuju asi 100x). V serverech jasně vede, v desktopech jen velmi nepatrně. Proč? No protože seek není u desktopů tak důležitý (lépe řečeno je důležitý, ale ne tak důležitý jako v serverech).

    Pokud se ti to nezdá, tak proč lidi defragmentují? No protože po defragmentaci jsou ty data blízko a disk seekuje kratší vzdálenosti. Binární soubory jsou celistvé a čte se celý binární soubor (je jedno, po jak velkých logických blocích). Pomůže ti defragmentace u serverů, kde jsou přístupy zcela náhodné? To těžko, defragmentovat maličké bloky databází je k ničemu, když mezi nimi není žádná programová spojitost (a to v serverech není). Způsob určení výkonu v desktopových aplikacích je jeden - aplikační testy. Testovat dlouhé fronty I/O požadavků přes IOmeter? K čemu, když taková situace nastává leda v serverech?

    "We're going to drop the 256 I/O load. Even busy servers achieve this figure only in burst moments. When considering steady-state loads, 64 I/Os easily represent a very heavy depth indeed." - citace z "tvého" URL. Kolik jich bude v desktopech? Myslíš, že víc? Takže podle tebe jsem měl vzít IOmeter a testovat zcela nereálné přístupy (v desktopech nereálné) nebo formulovat tuny mnou vymyšlených úloh, které se ani nemusí shodovat s realitou? To radši použiju ověřený a spolehlivě fungující test z velmi odborného časopisu c't.

  10. #35
    Senior Member Avatar uživatele MaWa
    Založen
    29.11.2003
    Bydliště
    Ústí nad Labem
    Věk
    41
    Příspěvky
    1 100
    Vliv
    269

    Standardní

    Citace Původně odeslal Eagle
    2Marsellus Wallace: Pořád to nechápeš. Jistě že i v desktopovém využití jsou přístupy náhodné, ale kolik jich je? Omezeně!
    čemu říkáš náhodný přistup ? definuj prosím, ten pojem. přijde mi, že se každý bavíme o něčem jiném...

    Citace Původně odeslal Eagle
    Každý program je unikátní natolik, že nemůžeš říct, že obečně to je přístup o půl délky plotny a následné čtení 500 kByte nebo naopak šílené seekování a čtení mála dat.
    ano, každý program je unikátní, ale pokud použiješ standardní (typické) programy, tak výsledky všech důležitých "veličin" můžeš použít ze SR testbed3 a použít je v IOMEteru. a věř mi, že jakkoliv defragamentuješ, tak sekvenčních čtení nad 64kB je pod 1%. jinak je to vždycky seek - čtení - seek atd atd...

    Citace Původně odeslal Eagle
    Jak chceš vytvořit obecnou simulaci přístupů I/O, když nelze určit způsob? V serverech je přístupů hodně, fronta je velká a každý přístup je jinam (dva uživatelé čtou každý jiný program a hlavička si pěkné zalétá). To v desktopech ale není, protože napřed se čte jedna věc a pak druhá.
    ano, ale toto vše lze v IOMeteru nastavit, což bys měl vědět, když ho tak kritizuješ...
    v IOMeteru lze normálně nastavit I/o depth na 1 (a mnoho serverů tak i s iometerem testuje - např. Neoseeker). lze tam nastavit avg size. externě tam LZE nastavit lokalizaci. tak co od benchmarku ještě chceš ? budeš radši používat c bench, kde sice nemusíš nic nastavovat, ale výsledkem je jedno téměř nic neříkající číslo ? je to jako kdyby jsi testoval auta (disky) a dával jim známky od 1 do 5. třeba bys dal známku autu (disku) 4. to NIC neříká o tom jestli je to konkrétní auto (disk) dobrý v jízdních vlastnostech (u disku třeba v positioningu) nebo třeba ve spotřebě paliva (u disku třeba I/Os per large chunk size). chápeš ? ale na čistě HW serveru se (imho) očekávají takovéhle věci.

    Citace Původně odeslal Eagle
    V desktopech se jedná více méně o sekvenční čtení větších bloků dat... fronta tady nehraje takovou roli.
    z druhou polovinou souhlasím, ale jak to souvisí s IOMEterem a c benchem, o kterém se tady bavíme ?
    ad první polovina - každé čtení je STR, pokud nedefinuješ pojem SUSTAINED...


    Citace Původně odeslal Eagle
    Disk s lepšími I/O nemá pro desktopové použití jednoznačnou výhodu - ano, má jistou výhodu, ale ne nijak dramatickou.
    teď si připadám jako v Černých baronech, ale co si představuješ pod pojmem I/O ? asi něco jiného, než já.

    Citace Původně odeslal Eagle
    Porovnej si výsledky WD Raptor 36GB s ostatními disky (už na to odkazuju asi 100x). V serverech jasně vede, v desktopech jen velmi nepatrně. Proč? No protože seek není u desktopů tak důležitý (lépe řečeno je důležitý, ale ne tak důležitý jako v serverech).
    full seek není u desktopu tak důležitý. zase je tam důležitější track-to-track seek. to lze ale obejít lokalizací IOMeteru. už to to také opakuji poněkolikáté.

    Citace Původně odeslal Eagle
    Pokud se ti to nezdá, tak proč lidi defragmentují? No protože po defragmentaci jsou ty data blízko a disk seekuje kratší vzdálenosti.
    seek na krátké vzdálenosti lze v pohodě udělat pomocí IOMeteru stejně jako avg size, což snižuje náhodnost přesně tak, aby to odpovídalo home use.

    Citace Původně odeslal Eagle
    Binární soubory jsou celistvé a čte se celý binární soubor (je jedno, po jak velkých logických blocích). Pomůže ti defragmentace u serverů, kde jsou přístupy zcela náhodné? To těžko, defragmentovat maličké bloky databází je k ničemu, když mezi nimi není žádná programová spojitost (a to v serverech není).
    ano, ale s IOMEterem a server pattern uděláš queue depth třeba 2-8 a přes celý disk a s avg size třeba 4kB, kdežto home use uděláš queue 1-4 (spíš 2) přes 1GB s avg size 32kB (dejme tomu). a je to.

    Citace Původně odeslal Eagle
    Způsob určení výkonu v desktopových aplikacích je jeden - aplikační testy. Testovat dlouhé fronty I/O požadavků přes IOmeter? K čemu, když taková situace nastává leda v serverech?
    aha, žebysme byli u jádra pudla ? víš, ono lze s IOMeterem dělat i depth 1, 2 nebo 4, ne jen 128 nebo 256 (které jsou out i na server use).

    Citace Původně odeslal Eagle
    "We're going to drop the 256 I/O load. Even busy servers achieve this figure only in burst moments. When considering steady-state loads, 64 I/Os easily represent a very heavy depth indeed." - citace z "tvého" URL. Kolik jich bude v desktopech? Myslíš, že víc? Takže podle tebe jsem měl vzít IOmeter a testovat zcela nereálné přístupy (v desktopech nereálné) nebo formulovat tuny mnou vymyšlených úloh, které se ani nemusí shodovat s realitou? To radši použiju ověřený a spolehlivě fungující test z velmi odborného časopisu c't.
    měl jsi někdy puštěný IOMeter ? asi ne co ? v něm NEmusíš testovat 256 depth. ono tam jde i 1,2 nebo 4 queue depth. stejně tak vše ostatní lze nastavit. a pokud ti přijdou výsledky publikované na SR jako vymyšlené, tak to potěš koště

    ad c bench - já proti němu nic nemám, ale jak víš, že ten program dělá to, co dělat má ? že v něm není (ad absurdum) jen náhodný generátor výsledků ? na netu působím již docela dlouho, ale žy be stále mluvilo o c t, jak je to odborný server, o tom nevím. jsou jednozančně lepší servery...
    z mého pohledu to klidně může být server na úrovni českého živě. a pak mám věřit výsledkům ? proč radši nevydáš trochu námahy a nepoužiješ radši něco, co si sice musíš nastavit, ale pak to již funguje spolehlivě a internetová komunita takový test dostatečně uznává ? znovu opakuji - žádný větší server netestuje pomocí c bench a pokud ano, tak ten výsledek má velmi malou hodnotu, do jaké míry ovlivňuje celkový výsledek testu. proč by to tak bylo, kdyby byl c bench ten nejlepší benchmark na světě (resp. by by lepší než IOMeter, pokud ho někdo umí nastavit) ? proč všichni netestují c benchem když je tak super ? a free ? proč ? protože nikdo na netu ještě nedokázal, že jeho patterny jsou opravdu takové, jaké být mají a nikde na netu není dokumentace, co přesně a jak ten benchmark testuje. a to pak je opravdu akorát bench pro LAMY, které chtějí mít jedno číslíčko, kterým porovnají deset disků a mají jasno, který má to číslíčko největší. pro někoho, kdo tomu alespoň trochu rozumí je ten výsledek naprosto irelevantní. alespoň do doby, než ct ukáže, na jakých patternách se to testuje.
    Oficiální distributor AlphaCool pro ČR a SR...

  11. #36

    Standardní

    Ten základní problém je v tom, jak určíš způsoby přístupu k disku. I když už bych připustil testování IOmeterem na desktopech (na což zjevně nebyl určen, takže může klidně vykazovat určité anomálie - pokud si něco naprogramoval pro HW, jistě víš proč), kde vezmu údaje o tom, který program přistupuje k disku jak? H2benchW tyhle způsoby přístupů v sobě integruje a mám jistotu, že je udělá pokaždé stejně, protože jím poskytované výsledky jsou udržitelné, shodují se s výsledky "kutilských testů" a případná změna v chování disku (např. kvůli AAM) má podobné následky jako u ostatních benchmarků. Může ti to připadat lamerské, ale výsledkem recenze je celkový pohled na věc, nikoliv rozebírání detailů a lá kolik trval nejdelší average access při 200 násobném opakování testu. End-usery vůbec nezajímá, z čeho se disk skládá, je zajímá jen pořadí výkonu a hluku. U procesoru mě taky zjevně nezajímá, kolik cyklů trvá ADD a kolik jich můžu pouštět paralelně. Zajímá mě aplikační výkon. Klidně můžeš nesouhlasit a hádat se tady do nekonečna o univerzálnosti použití IOmeteru, ale já prostě budu trvat na tom, že normální uživatel nemá šanci vypozorovat způsoby přístupu jednotlivých programů k datům (navíc při cacheování OS) a IOmeter lze tak při odhadování způsobu přístupů použít leda pro serverové použití, kde je velmi pravděpodobné časté seekování se čtením malých dat. Způsoby přístupu k disku u desktopového použití jsou natolik odlišné a natolik unikátní mezi programy a tak moc v nich hraje roli cache, že jediná cesta měření výkonu u takového nasazení je přes aplikační testy, které několika způsoby simulují reálné chování (zjevně načítání Wordu a kopírování z partition na partition jsou naprosto neporovnatelné testy).

    c't považuji za naprostou špičku, ono když už někdo programuje podle DDK, tak to o jistých znalostech programování a hardware svědčí. A že Andreas Stiller to dělal v době, kdy ostatní o tom neměli ani tuchy... najdi si lepší časopis, když se ti tenhle nelíbí. Program H2benchW od c't je přímo doporučen na stránkách StorageReview, zatímco o IOmeteru je tam důrazně napsáno, že pro porovnávání single-user performance je nevhodný! Proč, to už se tu snažím delší dobu vysvětlit. A už to nebudu vysvětlovat, protože nemám čas ani chuť trávit večery odepisováním v diskuzi, natož pokud oponent má tendence k agresivitě.

  12. #37
    Senior Member Avatar uživatele MaWa
    Založen
    29.11.2003
    Bydliště
    Ústí nad Labem
    Věk
    41
    Příspěvky
    1 100
    Vliv
    269

    Standardní

    Citace Původně odeslal Eagle
    ...kde vezmu údaje o tom, který program přistupuje k disku jak?
    ze SR testbed 3 a jejich IPEAKu. nebo to není dost "konkrétní" ?

    Citace Původně odeslal Eagle
    H2benchW tyhle způsoby přístupů v sobě integruje a mám jistotu, že je udělá pokaždé stejně, protože jím poskytované výsledky jsou udržitelné, shodují se s výsledky "kutilských testů" a případná změna v chování disku (např. kvůli AAM) má podobné následky jako u ostatních benchmarků.
    když si jednou uděláš patternu v IOMeteru, tak ti jí IOMeter taky vždy "pustí" stejně, ne ? a je ovlivněn AAM apod taky. něco nechápu ?
    co si představuješ pod tím "udržitelný výsledek" ?
    jak víš, že ten c bench testuje správně ? o pár řádků píšeš, že přece každý soft jdoucí k HW může vykazovat určité anomálie. IOMeter je soft, prověřený dosti dlouhou dobou, takže u něj je ta šance (imho) velmi malá, což se o c benchi prostě říci nedá (např. proto, že není zveřejněno JAK testuje).

    Citace Původně odeslal Eagle
    Může ti to připadat lamerské, ale výsledkem recenze je celkový pohled na věc, nikoliv rozebírání detailů a lá kolik trval nejdelší average access při 200 násobném opakování testu. End-usery vůbec nezajímá, z čeho se disk skládá, je zajímá jen pořadí výkonu a hluku. U procesoru mě taky zjevně nezajímá, kolik cyklů trvá ADD a kolik jich můžu pouštět paralelně. Zajímá mě aplikační výkon.
    já souhlasím s tím, že end usery nezajímá dopodrobna rozebrané tohle a tamto. jenže SHW (imho) není zaměřen na end usery. nebo některé tvoje články o CPU jsou pro end usery ? neřekl bych...
    kdyby se podobný test vyskytl na živě, technetu nebo toms hardware, neřekl bych ani ň. ale myslel jsem, že SHW "má na víc". teď to nemyslím jakkoliv pejorativně, opravdu.
    prostě jsem předpokládal, že SHW by tím článkem mohl zabít 2 mouchy jednou ranou. třeba udělat odstavec "pro pokročilé uživatele" a tam rozebrat všechny věci, a pak další odstavec "pro začátečníka", kde to shrnou pro LAMy.
    je vidět, že se primárně zabýváš procesory - u HDD neexistuje aplikační výkon jako u CPU. u CPU se ti jedna stejná aplikace na dvou různých PC se stejným CPU (samozřejmě předpokládám, že by to byla aplikace, která by zatěžovala JEN cpu) spustí za téměř identickou dobu. u HDD to prostě neplatí. těch "proměnných" je tam příliš mnoho. jedinou cestou (kterou používají na SR) je pomocí nízkoúrovňového testu nezávislého na filesystému (operačním systému, driverech, dalšímu HW...) zjistit jak vypadá typická patterna a tuto patternu pak přehrávat. SR na to má soft za nějakých 30000kč, což si v podstatě nikdo jiný nemůže dovolit, takže se musí hledat náhražky. a myslím, že jediná možná nízkoúrovňová náhražka je právě IOMeter, do kterého se "nabuší" výsledky, které na SR zjistili a ty se pak přehrají. na HDD se prostě nedají použít benche na aplikační výkon (pokud ten bench není podrobně popsán, co v něm a jak funguje !!! jinak samozřejmě ano !!!), protože pak to dopadá v nejhorším případě jako v Sandře (uznávám, to je dost extrém). a pro experienced usera jsou bezcenné (ale zase - jen pokud ten bench není podrobně popsán, co v něm a jak funguje), i když pro normálního člověka zajímavé.

    Citace Původně odeslal Eagle
    Klidně můžeš nesouhlasit a hádat se tady do nekonečna o univerzálnosti použití IOmeteru, ale já prostě budu trvat na tom, že normální uživatel nemá šanci vypozorovat způsoby přístupu jednotlivých programů k datům (navíc při cacheování OS) a IOmeter lze tak při odhadování způsobu přístupů použít leda pro serverové použití, kde je velmi pravděpodobné časté seekování se čtením malých dat. Způsoby přístupu k disku u desktopového použití jsou natolik odlišné a natolik unikátní mezi programy a tak moc v nich hraje roli cache, že jediná cesta měření výkonu u takového nasazení je přes aplikační testy, které několika způsoby simulují reálné chování (zjevně načítání Wordu a kopírování z partition na partition jsou naprosto neporovnatelné testy).
    asi se neshodneme.
    můj názor je prostě ten, že rozdíl mezi server pattern a home pattern je pouze ve věcech, které lze v naprosté většině případů upravit pomocí nastavení IOMeteru (tzn I/O depth, avg size + externě localization)+se znalostí track-to-track seeku+člověk musí vědět, jak to "tam" funguje. jak jsi sám napsal "...Způsoby přístupu k disku u desktopového použití jsou natolik odlišné a natolik unikátní mezi programy a tak moc v nich hraje roli cache,..." - že se to musí udělat bez toho, tzn. nízkoúrovňově. jinak ty výsledky nebudou porovnatelné.

    Citace Původně odeslal Eagle
    c't považuji za naprostou špičku, ono když už někdo programuje podle DDK, tak to o jistých znalostech programování a hardware svědčí. A že Andreas Stiller to dělal v době, kdy ostatní o tom neměli ani tuchy... najdi si lepší časopis, když se ti tenhle nelíbí. Program H2benchW od c't je přímo doporučen na stránkách StorageReview, zatímco o IOmeteru je tam důrazně napsáno, že pro porovnávání single-user performance je nevhodný! Proč, to už se tu snažím delší dobu vysvětlit. A už to nebudu vysvětlovat, protože nemám čas ani chuť trávit večery odepisováním v diskuzi, natož pokud oponent má tendence k agresivitě.
    považovat za naprostou špičku je můžeš, já si taky můžu myslet, že fotbalový tým FC Lopata Hrobník je špička v druhé divizi okresního přeboru - ale prostě pokud za tím nejsou výsledky, resp. v případě benchmarku pokud není dostatečně osvětleno, jak přesně to testuje...no, to už bych se opakoval.
    ad doporučení na SR - ano, píšou tam, že IOMeter je vhodný hlavně pro multi-user testy. píše se tam, že i HD tach a ATTO jsou useless v real-time performance, ale přesto VŠICHNI (včetně adminů a modů a userů, co tam jsou od začátku, tzn. cca 2 roky) tam na testy používají ATTO, HD tach i IO meter. protože pokud člověk ví, CO v těch výsledkých má hledat, tak mu to dá neporovnatelně více informací, než jakýkoliv aplikační test. a hlavně - pokud to člověk umí nastavit. žádný benchmark není bez chyb, ale člověk o těch chybách musí vědět, a musí je umět využít "ve svůj prospěch" - a to i ve zdánlivě nesouvisejících oblastech jako server use a home use. ale pokud není publikováno, jak c bench funguje, nikdo nemůže vědět o jeho chybách a tudíž je nemůže "využít ve svůj prospěch".

    prošel jsem si svoje příspěvky, a jediné, co mi přišlo "agresivnější" než tvoje výroky je můj post z dnešního dne, konkrétně v 0:45. pokud tě ta dvě sousloví "ti asi uniká" a "jsi asi nepochopil" uráží, upřímně se ti omlouvám.
    Oficiální distributor AlphaCool pro ČR a SR...

  13. #38

    Standardní

    Budu konkrétní - zkusil jsem si různými testy ověřit správnost chodu H2benchW (seek, burst, rychlost sekvenčního čtení na začátku, kopírování rozdělením disku na partitiony) a vyšlo mi, že hodnoty, které se takto dají porovnat, odpovídají výsledkům z jiných testů / mých pokusů. Mimo to tento test má dost stabilní výsledky, při každém spuštění dá zhruba + - to samé, k disku přistupuje přímo bez vytváření partitions, takže cachování OS nepřipadá v úvahu. Tenhle test byl vyladěn na to, aby s ním c't mohlo testovat disky v jejich recenzích, takže si na tom dost dali záležet (jako Intel s IOmeterem), rozhodně bych to nepřirovnával k Sandře, která jen sekvenčně zapisuje na náhodně zvolené místo na partition. Mám brát za modlu světa StorageReview? Jejich testy nejsou ve všech ohledech dokonalé, porovnej hlučnost jimi naměřenou a reálný dojem. Že si udělají určité schématické postupy pro již nepodporovanou sadu programů od Intelu je jen jejich záležitost a já jí můžu přijmout a nemusím. Osobně jsem dal přednost řešení od c't, protože vím, že počítačům zdaleka nejvíc rozumí lidé, pro které je assembler běžná záležitost. c't má takové programátory, pro které SoftICE je normální program. SHW je server pro lamy... no samozřejmě, to si vážně myslíš, že odborník to čte? Proti lidem jako Andreas Stiller (c't) nerozumím procesorům prakticky vůbec a mně už sotva stačí weby jako Sandpile. Když jsem na Sandpile přišel před pár lety, vůbec jsem netušil, o čem se tam mluví. Kdyby někdo měl prezentovat end-userům skutečně profi informace (které jsou většinou stejně tajné), bude mít čtenost nula nula nic, protože to nikdo nepochopí. Se podívej, jak se recenzují grafické karty - recenzenti se ohání výrazy jako LMA II a přitom ani netuší, co to je SIMD procesor a o architektuře čipů grafických karet ví úplné prd. Navíc výrobky už jsou dnes tak propojené, že testovat samostatně pouze low-level charakteristiky nemá význam. Aplikační výkon u HDD existuje, bootování OS je jedním z příkladů - ať to děláš 2x nebo po tisícté, vždy se čtou stejné knihovny DLL ve stejném pořadí a ty jsou na stejném místě na disku. Po vysledování určitých charakteristik jednotlivých druhů programů a jejich práce s diskem lze sestavit (přes přímý přístup k disku) metodiku zápisů a čtení z přesně daných míst. A to dělá H2benchW. To už bych se spíše bál o objektivnost WinBench 99, který přistupuje k disku přes OS. Ale o tom se zde hádat nechceš...

  14. #39

    Standardní

    Citace Původně odeslal Eagle
    Aplikační výkon u HDD existuje, bootování OS je jedním z příkladů - ať to děláš 2x nebo po tisícté, vždy se čtou stejné knihovny DLL ve stejném pořadí a ty jsou na stejném místě na disku.
    To nebol prave dobry priklad - pre Windowsy to neplati...
    1: Asus P2B 1.10 • Celeron 1100@1364/1.8V • 512MB SDRAM • Samsung SP1213N+WD AC28400 • Toshiba XM-6402B+SD-M1212 • PowerColor AR2L Radeon 9100 64MB • 3C900-Combo • Bt848A • ASB-3940UA • AWE-64 • DTK PTP-3007 • VisionMaster 405 • Umax UC630 • Star LC24-200 Colour 2: PCPartner TXB820DS • Cyrix MII PR300/1.8V • 256MB SDRAM • 2xSamsung HD400LD+IT8212F • Accesstek CW4001 • LS-120 • Mystique 4MB • Millennium II 4MB • 3C509 • CMI8329A+Dream MIDI • ADI ProVista E44 • SyncMaster 203B Notebook: DTK FortisPro TOP-5A • P166MMX/1.8V • 80MB EDO • Hitachi 5K80 40GB • 12,1" TFT Router: A-Trend ATC-1425B • i486DX 50@33/5V • 48MB FPM • WD AC14300 • UMC UM9003F • HP PC LAN 16/TP+ Car: Mazda 323P BA • Z5 1489ccm, 65kW@5500rpm, 134Nm@4000rpm

  15. #40
    Senior Member Avatar uživatele MaWa
    Založen
    29.11.2003
    Bydliště
    Ústí nad Labem
    Věk
    41
    Příspěvky
    1 100
    Vliv
    269

    Standardní

    Citace Původně odeslal Eagle
    Budu konkrétní - zkusil jsem si různými testy ověřit správnost chodu H2benchW (seek, burst, rychlost sekvenčního čtení na začátku, kopírování rozdělením disku na partitiony) a vyšlo mi, že hodnoty, které se takto dají porovnat, odpovídají výsledkům z jiných testů / mých pokusů.
    no ještě aby byly chyby v tomto. jak ale i ty píšeš - seek, burst, STR, kopírování - žádná jednotlivá věc z těchto není v praxi o ničem.
    já měl na mysli chyby v implemetaci praktických testů (špatné I/O depth, avg size, seek distances apod.). a to nikdo neodhalí, dokud nezveřejní JAK ten benchmark pracuje.

    Citace Původně odeslal Eagle
    rozhodně bych to nepřirovnával k Sandře, která jen sekvenčně zapisuje na náhodně zvolené místo na partition.
    Sandra netestuje jen sekvenční čtení a zápis. nebo jak jsi to myslel ?

    Citace Původně odeslal Eagle
    Mám brát za modlu světa StorageReview? Jejich testy nejsou ve všech ohledech dokonalé, porovnej hlučnost jimi naměřenou a reálný dojem. Že si udělají určité schématické postupy pro již nepodporovanou sadu programů od Intelu je jen jejich záležitost a já jí můžu přijmout a nemusím.
    jak chceš naměřit reálný dojem, když každý člověk na světě je odlišný a má jinak "nastavenou" citlivost na různé frekvence ? i SR upozorňuje, že prostě je jejich naměřená hlasitost jen číslo a že lépe to prostě nejde (objektivně). oni vědí, proč to dělají - jinak by se v diskuzích objevovaly uplně stejné flamy, jako jinde - tzn. "proč jste napsali, že můj disk píská, když já nic neslyšim" nebo "já neslyšim, že můj disk by seekoval" nebo "psali jste, že ten disk není slyšet a přitom mě řve strašně" - vždyť podobné příspěvky se myslím vyskytují i pod tím článkem na SHW. hlučnost je prostě subjektivní. polohluchému člověku přijde WD JB jako disk, u kterého může klidně spát a který je supertichý.
    jediným řešením tohoto je (imho) nahrávat zvuk disku nějakým co nejvíce citlivým zařízením a dávat na net ke stažení ty nahrané soubory. ale i zde to lze udělat "blbě" - stačí dostat zrvna špatný kus, který píská atd...

    ad "...schématické postupy pro již nepodporovanou sadu programů...". nikdo te nenutí jejich výsledky přijímat, ale pokud ty testy uznávají i výrobci disků (a to všichni do jednoho), tak na nich asi "něco" pravdy bude... takže se laskavě navážej do jiných benchmarků, ne do IPEAKu.


    Citace Původně odeslal Eagle
    Osobně jsem dal přednost řešení od c't, protože vím, že počítačům zdaleka nejvíc rozumí lidé, pro které je assembler běžná záležitost. c't má takové programátory, pro které SoftICE je normální program.
    ten samotný počítač je dnes již TAK MOC složitá záležitost, že není v moci jednoho člověka, aby věděl o všech "zákoutích", které výkon PC ovlivňují. já myslím, že toho o discích vím docela dost, a i tak toho mám plnou hlavu. nedokážu si představit, že bych si do mozku nacpal ještě stejně podrobné info o CPU, chipsetech, pamětech, grafice, periferiích atd atd atd...
    co jsem tím chtěl říct ? chtěl jsem tím říci to, že i když jeden člověk ( = andreas stiller) má velmi velké znalosti o některých částech počítače a obrovské znalosti v programování, není to předpoklad, že správně odhadne i to, jak fungují další části počítače. dokonce bych si troufnul říci, že ta šance na bezchybnost se s vyšší specializací na jiný obor snižuje. dnešní svět je tak rozsáhlý, že pokud se chce člověk něčemu věnovat, musí to být jedna konkrétní věc, jinak to stojí za nic. prostě se může stát, že se pak něco přehlédne. a bude to třeba něco, co je pro real-life performance kriticky důležité - myslím si, že kdyby c bench byl někde pořádně zdokumentovaný, celá komunita by mohla zkontrolovat, zda tam nejsou chyby, a pak by to klidně mohl být nástupce IPEAKu.

    Citace Původně odeslal Eagle
    SHW je server pro lamy... no samozřejmě, to si vážně myslíš, že odborník to čte? Proti lidem jako Andreas Stiller (c't) nerozumím procesorům prakticky vůbec a mně už sotva stačí weby jako Sandpile. Když jsem na Sandpile přišel před pár lety, vůbec jsem netušil, o čem se tam mluví.
    ono je LAMA a "lama" a ODBORNÍK a "odborník". samozřejmě, ti skuteční profíci ani nemají čas něco takového (jako SHW apod.) číst a pokud ano, tak jen pro to, aby se dobře pobavili - ti skuteční profíci v tom byznysu pracují. ta druhá skupina odborníků, ta to má většinou jako koníček - takoví na servery jako SHW chodí a podle testů v tom, čemu rozumí, si udělají obrázek i tom serveru jako takovém. dokud nedefinujeme "rozhraní" mezi ODBORNÍKEM a "odborníkem", tak se nedomluvíme.

    Citace Původně odeslal Eagle
    Navíc výrobky už jsou dnes tak propojené, že testovat samostatně pouze low-level charakteristiky nemá význam.
    tak to bych si netroufnul tvrdit. asi záleží, jak to myslíš.

    Citace Původně odeslal Eagle
    Aplikační výkon u HDD existuje, bootování OS je jedním z příkladů - ať to děláš 2x nebo po tisícté, vždy se čtou stejné knihovny DLL ve stejném pořadí a ty jsou na stejném místě na disku.
    viz Rainbow.

    Citace Původně odeslal Eagle
    Po vysledování určitých charakteristik jednotlivých druhů programů a jejich práce s diskem lze sestavit (přes přímý přístup k disku) metodiku zápisů a čtení z přesně daných míst. A to dělá h2benchW.
    jak VÍŠ, že to dělás právně, když nikde nejsou zveřejněny specifikace ?

    Citace Původně odeslal Eagle
    To už bych se spíše bál o objektivnost WinBench 99, který přistupuje k disku přes OS. Ale o tom se zde hádat nechceš...
    winbench není vždy objektivní, ale zase - musíš vědět, KDE ten benchmark má slabiny a JAK je využít a interpretovat pro "svůj prospěch". a to lze, neboť winbench je dostatečně zdokumentovaný, na rozdíl od c´benche.
    v každém zdokumentovaném (diskovém) benchmarku JSOU slabiny a nevěřím, že by zrovna c´bench byl vyjímkou. jedinou vyjímkou, kde zatím nebyla nalezena žádná chyba je ten již zmiňovaný IPEAK. a proto taky stojí tolik, kolik stojí
    Oficiální distributor AlphaCool pro ČR a SR...

  16. #41

    Standardní

    Pořád se oháníš objektivitou a tím, jak IOmeter je bezchybný, protože je zdokumentovaný. Napadlo tě někdy, že tyhle Intel testy jsou už dost staré a nepočítají se způsobem cachování, jak ho provádí Windows XP? A co teprve rozdílné velikosti RAMky, různé řadiče? Intel C++ Compiler je naprostá špička mezi kompilátory, produkuje extrémně rychlý kód na takové úrovni, že často ručně dělané optimalizace v assembleru vycházejí jen o maličko rychlejší nebo stejně rychlé. A jak je tedy možné, že po zkompilování zdrojáku enkodéru Lame s optimalizací na P4 to chodí na P4kovém systému pomaleji, než když se ten samý kód zkompiluje s optimalizací na Pentium III ? Kde udělali borci z Intelu chybu? Na P4ce chodí rychleji kód optimalizovaný pro P3 než pro P4... zvláštní, ne? Žádný program (a IOmeter ani IPEAK nevyjímaje) nefunguje optimálně ve všech případech. A já rozhodně budu víc věřit odladěnému testu s pevně danými parametry než "univerzálnímu" IOmeteru (čím víc voleb, tím víc chyb, to tak v programování je). Je vidět, že programování nerozumíš, takže ani ty nevíš, jak přesně IOmeter pracuje a kde může mít slabiny. Tak tu nepovídej nic o tom, že využiješ slabiny zdokumentovaných benchmarků ve svůj prospěch. Zdokumentovat se to dá jedině tak, že někdo (kdo hodně dobře rozumí diskům, řadičům, práci s pamětí) vezme SoftICE a všechno si odkrokuje (což je mimochodem ilegální, protože reverse-inžinýring běžně není dovolen). Do té doby je povídání o tom, že tenhle test je spolehlivý a tenhle ne, úplně o ničem. Pokud oba benchmarky dávají stejné skóre na úrovni 5% standardní statistické nepřesnosti, dá se očekávat, že oba mají vhodný systém testování. A jestliže c't má lidi jako Andreas Stiller (který H2benchW nenaprogramoval, jen tak BTW), tak jim budu věřit stejně jako programátorům Intelu. Když nevíš, jak těžké je programovat podle DDK a že to v této republice umí odhadem maximálně deset lidí, tak jak můžeš dělat soudy o tom, že autor H2benchW je úplný ignorant ohledně pevných disků? Se nezlob, ale více budu věřit jemu než tobě, protože za c't stojí programy napsané opravdovými profesionály... a na to už jsou potřeba sakra dobré znalosti.

    2Rainbow: Jistě se změní některé soubory jako logy, ale základ (DLLka, EXE) se nemění a ty se pořád čtou ze stejných míst ve stejném pořadí (dokud nezdefragmentuješ). Jistě že každá instalace bude trochu unikátní, ale i v tomto případě se dá vzít typický systém a provádět test přímým zápisem / čtením na stejná místa, jako by to dělala ona typická instalace Windows. Takový Windows\System32 se bude lišit jen podle ovladačů hardware, nainstalovaných updatů a případně nainstalovaných programů (základ tvořící drtivou většinu zaplácnuté kapacity bude stejný). Jiné programy (např. Adobe Acrobat Reader) se nebudou lišit vůbec, možná jenom v tom logu, pokud ho vytvářejí.

  17. #42

    Standardní

    Panove vsechna cest , z tohoto prispevku jsem se dozvedel o discich vic nez jsem doposavad vedel (a moc toho nebylo ) , doporucuju TOMovi aby dal odkaz na tenhle thread do FAQ , clovek se z neho opravdu hodne dozvi.

  18. #43

    Standardní

    Citace Původně odeslal Marsellus Wallace
    ono je LAMA a "lama" a ODBORNÍK a "odborník". samozřejmě, ti skuteční profíci ani nemají čas něco takového (jako SHW apod.) číst a pokud ano, tak jen pro to, aby se dobře pobavili - ti skuteční profíci v tom byznysu pracují. ta druhá skupina odborníků, ta to má většinou jako koníček - takoví na servery jako SHW chodí a podle testů v tom, čemu rozumí, si udělají obrázek i tom serveru jako takovém. dokud nedefinujeme "rozhraní" mezi ODBORNÍKEM a "odborníkem", tak se nedomluvíme
    Je vobec mozne sa dostat k informaciam od tychto odbornikov, via net? Vies o nejakych sajtoch? Radi by sme sa vsetci priucili. Kde si sa priucal Ty, ked tvrdis ze o diskoch vies dost vela (co je komplimet a nie ironia)?

    Zaujimalo by ma ci vobec oplati ako obycajnemu uzivatelovi diskov a nie vyvojarovi taketo veci studovat. Osobne mi je jedno ci Win XP nabootuju za 35 alebo 31 sekund.

    Ale aj tak, ak vies o nejakych poucnych sajtoch, pouc NAS.
    DIYS gripmeen >> CPU Wolfdale E8200 MOBO Gigabyte GA-P35-DS3R rev 2.1 RAM A-DATA DDRII 800+ EE VGA Gigabyte 3850 512MB HDD SAMSUNG 500GB HD501LJ
    Fujistu Siemens Scenic >> CPU Pentium III 1000MHz MOBO unknown RAM 256 + 128MB VGA int. i810 HDD 20GB neznameho typu

  19. #44
    Senior Member Avatar uživatele MaWa
    Založen
    29.11.2003
    Bydliště
    Ústí nad Labem
    Věk
    41
    Příspěvky
    1 100
    Vliv
    269

    Standardní

    Citace Původně odeslal Eagle
    Pořád se oháníš objektivitou a tím, jak IOmeter je bezchybný, protože je zdokumentovaný. Napadlo tě někdy, že tyhle Intel testy jsou už dost staré a nepočítají se způsobem cachování, jak ho provádí Windows XP?
    IOMeter není bezchybný. pokud jsem to někde v tomto threadu napsal, tak to beru zpět. ale jeho chyby jsou zdokumentovány. zatímco u c´benche to už z principu nejde (pokud to někdo neudělá IPEAKem - což by bylo super).
    IOMeter provádí naprosto náhodné přístupy o zadané I/O depth a zadaná velikosti bloku + na zadané velikosti oddíl. pokud víš, jak windows cachují, musí ti být jasné, že toho nacachují tak max 1%. samozřejmě - pokud nastavím oddíl na 10MB, size na 512bytes, I/O na 1, tak (až) po 2.5 sekundách (díky FIS overheadu - tzn. neschopnosti ATA rozhraní efektivně přenášet malé bloky) se celý ten oddíl nacachuje a pak už to pojede read burst rychlostí.
    pokud bys ale to samé chtěl udělat s oddílem třeba 1GB nebo více, tak bys potřeboval několik GB RAM, aby bylo procento nacachovaných accesů tak velké, že by to ovlivnulo výsledek. a je otázkou, zda by to vůbec byla vada, že se ten výsledek nacachuje - přeci pokud to windows nacachují v benchmarku, nacachovaly by to i v praxi ! a to přece chceme, ne ? (myšleno chceme po benchmarku, aby se choval stejně jako v disk praxi).

    Citace Původně odeslal Eagle
    Intel C++ Compiler je naprostá špička mezi kompilátory, produkuje extrémně rychlý kód na takové úrovni, že často ručně dělané optimalizace v assembleru vycházejí jen o maličko rychlejší nebo stejně rychlé. A jak je tedy možné, že po zkompilování zdrojáku enkodéru Lame s optimalizací na P4 to chodí na P4kovém systému pomaleji, než když se ten samý kód zkompiluje s optimalizací na Pentium III ? Kde udělali borci z Intelu chybu? Na P4ce chodí rychleji kód optimalizovaný pro P3 než pro P4... zvláštní, ne?
    Petře, jak to souvisí s tím, co teď řešíme ? disk je vnitřně stále stejný, tam nejsou potřeba žádné optimalizace a instrukce jako SSE apod. u CPU, pokud jsi teda myslel tohle.


    Citace Původně odeslal Eagle
    Žádný program (a IOmeter ani IPEAK nevyjímaje) nefunguje optimálně ve všech případech. A já rozhodně budu víc věřit odladěnému testu s pevně danými parametry než "univerzálnímu" IOmeteru (čím víc voleb, tím víc chyb, to tak v programování je). Je vidět, že programování nerozumíš, takže ani ty nevíš, jak přesně IOmeter pracuje a kde může mít slabiny. Tak tu nepovídej nic o tom, že využiješ slabiny zdokumentovaných benchmarků ve svůj prospěch. Zdokumentovat se to dá jedině tak, že někdo (kdo hodně dobře rozumí diskům, řadičům, práci s pamětí) vezme SoftICE a všechno si odkrokuje (což je mimochodem ilegální, protože reverse-inžinýring běžně není dovolen). Do té doby je povídání o tom, že tenhle test je spolehlivý a tenhle ne, úplně o ničem.
    ale mě (jako člověka co chce otestovat výkon disku xyz) vůbec nezajímá, jestli ten program má v sobě nějaká programátorské (!!!) chyby, mě zajímá pouze to, zda testuje pokaždé naprosto stejně a JAK testuje, tzn. jak vypadá patterna toho programu, procenta čtení/zápisu, I/O depth, chunk size, jak hluboko jde atd atd - a hlavně zda tato patterna odpovídá tomu, co chci zjistit (tzn. např. rychlost disku v typical home use), a pokud ne, tak kde je chyba - co si z toho výsledku vzít můžu a co ne.

    a pokud by v IOMeteru (nebo v jakémkoliv jiném zdokumentovaném benchi) byly nějaké programátorské chyby, už by se dávno našly - právě proto, že by třeba bench A (ve kterém by byla nějaká ta chyba) tvrdil, že v home use je rychlejší disk á než disk bé, a přitom všechny ostatní benche by tvrdily pravý opak, tzn. že disk bé je rychlejší než disk á. pak to chce udělat to, co píšeš - vzít třeba SoftICE a krokovat ten bench, kde má chybu, nebo ještě jedna možnost - přehrát tu patternu IPEAKem (a třeba se zjistí, že bench špatně dělá to a to - třeba že zadá se mu I/O depth 1 a on dělá I/O depth 2).
    a když už jsme u toho - kde IPEAK nefunguje optimálně ? když to tvrdíš, tak bys to měl nějak podpořit důkazy, ne ?


    Citace Původně odeslal Eagle
    Pokud oba benchmarky dávají stejné skóre na úrovni 5% standardní statistické nepřesnosti, dá se očekávat, že oba mají vhodný systém testování.
    přes noc se dá napsat benchmark (i když já bych to nezvládl - nejsem tak dobrý programátor), který "vyplivne" u naprosté většiny disků číslíčko, které bude odpovídat tomu (5% odchylka), jak je ten disk "opravdu" výkonný v typical blabla use. a s reálným testem to nebude mít nic společného. prostě se vezme třeba v server patterně 60% výsledku bude seek, 15% STR a 30%lazy write resp read-ahead a 5% burst. a voila, "vhodný benchmark na testování" je na světě

    Citace Původně odeslal Eagle
    A jestliže c't má lidi jako Andreas Stiller (který H2benchW nenaprogramoval, jen tak BTW), tak jim budu věřit stejně jako programátorům Intelu. Když nevíš, jak těžké je programovat podle DDK a že to v této republice umí odhadem maximálně deset lidí, tak jak můžeš dělat soudy o tom, že autor H2benchW je úplný ignorant ohledně pevných disků?
    já nevím, kdo napsat c´bench. ty jsi začal mluvit o tomto člověku, tak jsem předpokládal, že to napsal on. ale to je naprosto bezpředmětné.
    nikde jsem taky nenapsal, že je naprostý ignorant. to si nemyslím ani v nejmenším. chtěl jsem tím jen říct, že každý na světe se může splést. nikdo není vyjímkou. a v benchmarcích to může mít fatální důsledky.
    nějaký důvod to mít musí, proč není zveřejněno, jak ten bench testuje. a prostě ve mně "hlodá" červíček - proč by nezveřejnil, jak ten test funguje, kdyby byl tak naprosto skvělý ? pokud by se prokázalo, že je to test na úrovni IPEAKu, byl by "slavný" a rád bych mu za ten bench dal klidně 100 dolarů (a rozhodně bych nebyl sám), pokud by fungoval tak jak má, byla zveřejněna patterna jak to funguje (která by odpovídala realitě) a pokud by dával konzistentní výsledky.

    Citace Původně odeslal Eagle
    Se nezlob, ale více budu věřit jemu než tobě, protože za c't stojí programy napsané opravdovými profesionály... a na to už jsou potřeba sakra dobré znalosti.
    pochop, že testování disků není o tom, jak dobrý program napíšeš, ale o tom, jestli to odpovídá realitě (se všemi detaily, co jsme tu doteď rozebírali).
    a opravdu se nezlobím, že mi nevěříš - ale zkus se porozhlédnout na netu, možná zjistíš, že tyhle názory nemám jen já sám.
    Oficiální distributor AlphaCool pro ČR a SR...

  20. #45

    Standardní vadné sektory

    chci se zeptat jakym softem "zneviditelnim" vadné sektory na hdd aby je windows vůbec nepoužívaly

  21. #46

    Standardní

    Koukam, ze se nekomu "povedlo" to same, co se stalo ve stredu me. Z niceho nic se mi najednou na disku objevily vadne sektory, cili mne hnedka v pondeli ceka reklamace . Docela skoda na necely rok stary disk.

    Pro zajimavost jeste prikladam LOG ze Samsungacky utility (HUTIL):
    Kód:
        [SELF DIAGNOSTIC (Hutil v1.21)]
        Model Name    : SAMSUNG SP1614N
        Rom Revision  : TM100-24
        Serial Number : S016J10XA39377      
        Drive Size    : 152627MB (LBA : 312581808)
        Start Time    : Fri Nov 11 07:12:31 2005
    
    
     -------------------------------------------------
                Test Loop Number   : 1/1 
     -------------------------------------------------
        >> CHECK CHANNEL INTEGRITY : Testing... Pass !
        >> CHECK M.C.              : Testing... Pass !
        >> CHECK S.M.A.R.T.        : Testing... Pass !
        >> SPIN DOWN / UP          : Testing... Pass !
        >> SIMPLE READ / WRITE     : Testing... Pass !
        >> SIMPLE SURFACE SCAN     : Testing...  
        Error : A media error is detected.
        >> WRITE VERIFY            : Testing... Pass !
        >> AVERAGE SEEK TIME       : Testing... Pass !
        >> MAXIMUM SEEK TIME       : Testing... Pass !
        >> RANDOM SURFACE SCAN     : Testing...  
           Error : LBA 12893  
        Error : A media error is detected.
        >> READ SURFACE SCAN       : Testing...  
           Error : LBA 11193  
           Error : LBA 12893  
           Error : LBA 14734  
           Error : LBA 140480  
           Error : LBA 141330  
           Error : LBA 142180  
           Error : LBA 143030  
           Error : LBA 143880  
           Error : LBA 193628  
           Error : LBA 194478  
           Error : LBA 195328  
        Error : Data is uncorrectable.
    
           Scan Elapsed Time : 00:58:20  
        Error Occured Test Loop Number 1
        End Time      : Fri Nov 11 08:12:57 2005
        Test was completed.
     =================================================
    Lenovo ThinkPad T400s (Intel Centrino 2 vPro 2.4GHz, 8GB RAM, Intel GMA 4500MHD, 250GB HDD 1.8" Toshiba)

  22. #47

    Standardní vadné sekrory

    zkoušel jsem to hutilem i opravit-oprava vadných sektorů běžela celý den a půl a vůbec nic se nestalo, teď budu zkoušet opravovat vadný sektory HDD Regeneratorem o kterým jsem se dočet, že to prý taky umí, uvidíme, disk už není v záruce a vyhazovat se mi ho nechce

Informace o tématu

Users Browsing this Thread

Toto téma si právě prohlíží 1 uživatelů. (0 registrovaných a 1 anonymních)

Pravidla přispívání

  • Nemůžete zakládat nová témata
  • Nemůžete zasílat odpovědi
  • Nemůžete přikládat přílohy
  • Nemůžete upravovat své příspěvky
  •