Menu

Administrar archivos demasiado grandes para ser desfragmentados


hay dos maneras de ver este artículo:

– o el tipo que desarrolló esta aplicación es un impostor.
– o es el reportero.

porque al menos uno de ellos no ha entendido nada sobre la fragmentación de archivos y su impacto en el rendimiento.

Dos recibieron ideas para explicar:

– poner los archivos al final del disco”: ya en una unidad SSD, ya no significa nada, pero está bien.
En un disco físico, la velocidad lineal es necesariamente mejor en el exterior que en el centro, estoy de acuerdo, pero cuando ves que el artículo es sobre los archivos grandes como divx y compañía, te preguntas cuál es el interés: a menudo ves una película a la velocidad máxima de un disco? ¿Lees a menudo todo el archivo PST Outlook? ¿A sus archivos ISO/BIN se accede a menudo a una velocidad asombrosa? Incluso si los comparte en una red, hay un 99,99% de posibilidades de que la velocidad de su red sea 10 veces menor que la velocidad de su disco.
µ¡No tiene sentido optimizar la velocidad de reproducción de archivos de gran tamaño! Es mejor optimizar la ubicación del swap. Incluso los archivos del sistema operativo no tendrán nada que hacer al final del disco debido a la idea número dos recibida:

– desfragmentador, permite no mover los cabezales de lectura para nada, ya que el archivo es contiguo y se puede leer en un solo bloque”: sí finalmente, no olvide que si corto un DIVX de 700MB (o 4GB c similar) a la mitad, con cada parte en cada extremo del disco, no los pobres 10ms de tiempo de acceso que cambiarán mucho antes del tiempo necesario para leer el archivo completo (al menos 7 segundos para 700MB si consideramos que el disco puede seguir a 100MB/s)…).

Incluso si corto el mismo archivo en 100 partes, es 10ms x 100 = 1 segundo. Comparado con 7 segundos, oulala, ¡pero qué gran ganancia! Probablemente es el tiempo que te toma rascarte la cabeza.

Además, cualquiera que consiga cortar una lima grande en 100 pedazos sin intentarlo, debería tirarme la primera piedra. Generalmente, un archivo grande, cuando se trata de su disco, el sistema no está conectado y asigna bloques contiguos en su lugar para evitar la fragmentación.

Incluso si abre/modifica/guarda, y repite esta operación 1000 veces, su sistema operativo normalmente reescribirá sobre el mismo archivo o creará otro con bloques contiguos también. Por lo tanto, no se espera ninguna ganancia de la desfragmentación.

Es un mito antiguo y persistente, que tenía el mérito de existir en los años 1990-2000, que los archivos eran más pequeños bcp, y donde la probabilidad de fragmentación era mayor: el tamaño de los archivos se acercaba más bcp que el tamaño de los clusters en un disco.

En sistemas empresariales como SAN o NAS, ya nadie se preocupa por la desfragmentación. Para mí, se convirtió en una broma burlarse de los pseudocomputadores, o en una prueba para averiguar si un interno se está riendo de mí.

Leave a reply


Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *