Presne tak. Snad vsechny nixove souborove systemy v sobe obsahuji algoritmy, ktere zajisti, ze data se budou fragmentovat minimalne. Jak uz zde bylo receno, staci pouze hlidat, aby dany oddil nebyl "moc" zaplneny (to znamena tak pod 90%). Existuji i pripady, kdy napr. pri uziti ext2/3 dojde k velke fragmentaci, ackoli disk je zaplnen treba do poloviny, pricemz na disku jsou velke soubory, ktere pomalu narustaji. V takovem pripade je lepsi pouzit jiny souborovy system - treba jfs nebo xfs. Pri beznem nasazeni na desktopu vsak staci hlidat tu zaplnenost.
Nejvetsim problemem MS souborovych systemu je totiz skutecnost, ze fragmentaci (nejenom ji) resi az dodatecne pomoci zaplat - v tomto pripade defragmentace. Potom sice (mozna) defragmentovany disk pracuje chvili rychleji, ale pri castych zapisech nebo presunech dojde opet pomerne rychle k fragmentaci. Me osobne se prvni zpusob jevi daleko elegantnejsi a lepsi.
Jeste k MS. Resit fragmentaci dodatecne je podobne, jako kdyz navrhnete nejaky el. obvod a teprve pak resite elmg. kompatibilitu. To je prece humus, ne?