Zadnej defrag ani nic podobnyho jsem v shellu nenasel.. Jak je to reseny? Bezi porad nakej rezidentni prog? nebo se to musi spustit jako ve woknech?
Printable View
Zadnej defrag ani nic podobnyho jsem v shellu nenasel.. Jak je to reseny? Bezi porad nakej rezidentni prog? nebo se to musi spustit jako ve woknech?
no co sem cetl tak ext3 i reiserFS maji nejak inteligentne vyresene ukladani takze fragmentace prej nikdy nenastane (nebo jenom stopove mnozstvi :-) )
spoliham na to (je pravda ze za rok pouzivani disku jsem zadny pokles vykonu nezaznamenal, to uz by se asi poznalo)
defrag ??? co to je?
to nepouzivam ani ve windows (ale taky je skoro nepoustim) a v linuxu sem o nicem takovym neslysel - asi to neni potreba :idea:
PS: to hlasovani sem zrusil ja
Tak tyhle odpovedi jsem cekal.. :)
A jak dopadlo? ;DCitace:
Původně odeslal wong
Vono se lze úspěšně hádat i o smyslu defragu ve winech. Zda jo, či ne. Z dlouhodobého aspeku jsem proti. pod ext 2,3 a ostatních žurnálech postrádá defrag smysl.Citace:
Původně odeslal KtK
A to proc?Citace:
Původně odeslal slesik
defrag opravdu existuje. jmenuje se necekane defrag :) a bude urcite na freashmeat.net nebo sourceforge.net . dale vim ze OO software dela OO defrag (imho nej pro okna) i pro linucha ale myslim ze je dostupna furt jen beta. a ma zvladat ext2/3. ovsem o ucinnosti ci potrebnosti toho moc nevim.
ext3 a ostatni zurnaly funguji na podobnem principu jako ntfs pod okny a ta se taky musi defragovat tak proc ne linuxove zurnaly ???Citace:
Původně odeslal slesik
zurnaly s tm nemaj co delatCitace:
Původně odeslal slesik
Vo Windows NT 4.0 tiez nebol ziadny defrag a Microsoft tvrdil, ze NTFS defragmentovat netreba. Potom niekto defrag urobil aj pre NTFS, tak ho Microsoft kupil a pridal k Windows 2000.
No ja myslim, ze se hodi kdyz uz na nic, tak na sesypani dat na zacatek partisny, aby se mohla zmensit.
¨Citace:
Původně odeslal KtK
Pri instalaci si winka nechavaji mezi soubory mensi mezery a to kvuli pripadnemu zvetsovani souboru (napr. logy) a defragmentaci to vsecko sesumiruju nahromadu. Je pravda ze to beha chvilku trosku rychleji, ale jak se zacnou soubory znovu dopisovat tak je to horsi nez lepsi. Pomuze jen casta defrag (spousta casu). To je z globalu rychlejsi to nechat na systemu. Toto plati pro beznou pracu (mensi soubry) Pri praci s videem apod. to samo neplati. Tot mu nazor.
Jo, sem premyslel a s tema zurnalama sem trosku ulit.
Pri instalacii sa subory kopiruju a rozbaluju, instalacny program nema ani paru o tom ako su na disku umiestnene...
BTW.: Ako casto sa zvacsuju subory ako krnl386.exe?
Mam si 30 skoro stejnych PC na praci s wordem a ucetnicivim apod. a po ciste instalaci sem schvalne zkousel u nekterych defrag. a u nekterych ne. Po cca dvou mesicich byly kompy bez defragu trosku rychlejsi. Kompy s pravidelnym defragem jeste rychlejsi a kompy s jednim defragem a potomi nic byly nejpomalejsi. Ale je to jen muj subjektivni nahled na vec. U tucnaka to bude trosicku jiny.Citace:
Původně odeslal Rainbow
defrag n antfs dava dohromady jen volne misto a nebo pokud je chtrejsi tak podle toho jak jsou soubory potreba pri pousteni progu ale to se moc casto nevidi
No, z principu nastava i u ext2/3/reiserfs/xfs/jfs fragmentace, ale musi to byt vylozene modelovy priklad (dva porocesy zaroven zapisujici male bloky dat, kapacita partition je vice nez 75% zaplnena). Presne nevim jak to pracuje, ale melo by tam byt inteligentni hashovani, ktere nedava soubory presne za sebe (jak je tomu u FAT). Pripadne u novejsich fs jako treba ReiserFS ztraceji clustery vyznam, neb nevyzite casti clusteru se daji pouzit pro mensi soubory nebo dalsi fragmenty.
Je pravda, ze kdyz zdefraguju disk ve win, tak to jede rychle, ale zhruba jen tyden, pak se to zase zas.ere. Z vlastni zkusenosti muzu rict, ze po rocnim pouzivani systemu s reiserfs (s volbou notail - nevyuzivat zbytkovou kapacitu clusteru) se nabeh ani prace nijak vyrazne nezpomalila.
Je dulezite nezaplnovat parition na celou jeji kapacitu (max. tak 75%), pak hashovaci algoritmy ztraceji efektivitu a zvysuje se riziko fragmentace.
Presne tak. Snad vsechny nixove souborove systemy v sobe obsahuji algoritmy, ktere zajisti, ze data se budou fragmentovat minimalne. Jak uz zde bylo receno, staci pouze hlidat, aby dany oddil nebyl "moc" zaplneny (to znamena tak pod 90%). Existuji i pripady, kdy napr. pri uziti ext2/3 dojde k velke fragmentaci, ackoli disk je zaplnen treba do poloviny, pricemz na disku jsou velke soubory, ktere pomalu narustaji. V takovem pripade je lepsi pouzit jiny souborovy system - treba jfs nebo xfs. Pri beznem nasazeni na desktopu vsak staci hlidat tu zaplnenost.
Nejvetsim problemem MS souborovych systemu je totiz skutecnost, ze fragmentaci (nejenom ji) resi az dodatecne pomoci zaplat - v tomto pripade defragmentace. Potom sice (mozna) defragmentovany disk pracuje chvili rychleji, ale pri castych zapisech nebo presunech dojde opet pomerne rychle k fragmentaci. Me osobne se prvni zpusob jevi daleko elegantnejsi a lepsi.
Jeste k MS. Resit fragmentaci dodatecne je podobne, jako kdyz navrhnete nejaky el. obvod a teprve pak resite elmg. kompatibilitu. To je prece humus, ne?
Pouzivam postup ktory mi poradili este na starom Interactiv Unixe ktory som instaloval na vykonnu i386sx :-) Treba proste urobit zalohu, zmazat subory a nahrat naspat. To mi staci leboCitace:
Původně odeslal KtK
- fragmentacia nastava vynimocne, hlavne pri zaplnenom disku
- skusal som defragmentaciu (uz davno - SW crocodile ?) a trvala podstatne dlhsie ako backup/restore
- zalohovat treba, aspon sa overi zaloha :-)
V linuxe mam systemovu particiu a datovu particiu. Cely system sa da odzalohovat na datovu cast disku. Skusal som tar, dump/restore, nakoniec som skoncil pri partimage - je tam boot cd, dokaze komprimovat data, rozdelit na subory velkosti CD a image napalim na CDRW.
ono nix systemy vseobecne maju podla mojich znalosti velmi dobre osetrnu fragmentaciu ... ci uz sa jedna o FS alebo RAM ... ja osobne som raz zapinal Linux server po vypadku elektriny pricom masina bola v prevadze vyse pol roka ... pri boote sa testuje FS a pri tej prilezitosti aj vypisuje taketo niec:
/dev/hda (0.4% non-continuous) - presne si to nepamatam, neresetujem linux kazdy den ;)
takze z toho jasne vidno ze defragmentacia FS je skutocne velmi dobre riesena
co sa tyka defragmentacie RAM, tak nieco o tom bolo pisane v canku na ROOT.cz
teraz ma este napadlo:
defragmentaciu linuxov a win v podstate aj tak nemozno porovnavat lebo vo win neexistuju take veci ako symlink, hardlink, socket file, dev file, pipe file a podobne
osobne si veru neviem predstavit ako by sa malo riesit defragmentovanie prave tychto special suborov
Ty special soubory jsou v podstate normalne soubory, akorat maji v inodu zapsany typ. Kdyz presunes symlink, je to v podstate normalni soubor, hardlink totez, akorat nema zadne data, jen odkaz.Citace:
Původně odeslal Lopo
BTW: Popremyslej o nejakem zurnalu na tom tvojem serveru, jednou se muze stat, ze se neco poskodi... Se zurnalem mas mensi sanci poskozeni, navic se to tak dlouho nekontroluje. Zurnal k ext2 se da pridat tusim i za behu pomoci tune2fs.
- priklad ;)Kód:tune2fs -j /dev/hda1
Ja viem ze fyzicky su to subory ... ale ide o to ze ak by si robil defrag tak musis najprv presunut blok suboru a nasledne musis prepisat VSETKY symlinky a hardlinky na ten presunuty blok odkazujuce ... ja osobne by som nieco take nechcel kodit :evil:Citace:
Původně odeslal Gargamel
a zurnal tam mam ... bez zurnalu by som uz server veru nerobil ... vyhoda EXT2 ze hocikedy sa da z nej urobit EXT3
ci to ide spetne si nejsom isty ... ale myslim ze by sa to nejako dalo urobit (aj ked nevidim dovod na nieco take)
ovela vacsia sranda by bola defragmentovat kryptovany FS ... ale u neho si nejsom ani isty jako presne funguje ???
zpetne to neni treba robit - da se to namountovat jako ext2
ale zurnal jde samozrejme i odstranit