Commercialisé par IBM en 1956, le premier disque dur, l'IBM 350, pesait plus d'une tonne et coutait 50 000 dollars. Il pouvait alors stocker 5 Mo, soit environ l'équivalent d'un seul fichier MP3 ou d'une seule photographie de smartphone. En 5 ans, IBM a tout de même réussi à en vendre un millier.
Tous les commentaires (43)
Cela dit il existe quelques utilitaires de défrag sur linux mais c'est vraiment peu utile. C'est encore moins utile aujourd'hui quelque soit l'OS avec la généralisation des SSD.
Juste pour information, sans rentrer dans les détails techniques :
- Oui, le (Q)DOS est un système de fichiers "Dirty"
- le système FAT (File Allocation Table) est une table d'allocations de fichiers (qui recensent les adresses physiques du premier octet d'un fichier sur le disque) en 8 ou 16 bits (32 bits pour la FAT32 qui n'a pas servi longtemps). L'adresse du fragment ultérieur est enregistré à la fin du segment précèdent. Évidemment, sur 8 bits ou 16 bits, le nombre d'adresses et la taille maximale de cette dernière (donc la taille maximale de la partition) est limitée, et la technologie l'a rendue rapidement obsolète.
- le système NTFS à apporter au FAT la sécurité des fichiers en définissant, dans son codage, les droits utilisateurs permettant son accès ainsi qu'un codage sur 32 bits ou 64 bits, accroissant largement la capacité de cette table d'allocations, mais pas la qualité de l'enregistrement des fichiers sous Windows (du moins, très peu).
- Enfin, et je ne sais pas si la différence provient de là, mais, à l'époque, DOS tournait sur de l'Intel (assujetti aux pages de codes) alors que les UniX (HP-UX, AIX) tournait sur du Motorola (comme Apple)
- Et ne pas oublier : Linux Is Not UX (UniX) ^^
J'avais également lu qu'UNIX restait le système d'exploitation le plus répandu toute machines confondues (ordi perso, serveurs, machine en usine, etc.). Est-ce que c'est toujours vrai ?
N'oublions pas qu'Unix existe depuis 1973... ^^
Tu pinailles avec tes histoires de FAT et DOS en rabachant que c'est caca.. mais ça n'est pas le sujet. On parle du besoin de défragmenter un disque dur, et ce besoin est présent quelques soit l'OS et la stratégie d'écriture de son système de fichiers. Parce qu'un disque dur est un support physique et que si tu laisses de l'espace de stockage inutilisé entre 2 fichiers au bout d'un moment soit tu fragmentes/défragmentes, soit tu perds en capacité de stockage.
Tu peux m'expliquer que concrètement tu n'a jamais défragmenté un disque sous Linux et je t'expliquerai que c'est normal vu qu'il le fait tout seul. Je peux même t'expliquer que j'ai jamais défragmenté mon PC sous Windows et que tout va bien alors que mon disque est plein a 95%. Pour autant, je sais que si je le faisais je récupérerai de la performance.
Bref c'est bien de mettre pleins de mots pour nous montrer que t'as des notions mais si quelqu'un propage de fausses idées c'est toi. C'est bel et bien là nature des disques durs qui impose fragmentation/défragmentation. Et même si les meilleurs systèmes de fichiers et OS rendent ce besoin transparent pour l'utilisateur, ça existe.
C'est pas le peine d'essayer de tout mélanger, le passé et le présent, les PC et les Mac, la fragmentation et l'espace libre, etc. pour essayer d'avoir raison, car si : c'est le sujet. Le sujet c'est que j'ai dit que les gens croient que les disques se fragmentent irrémédiablement et qu'il faut les défragmenter de temps en temps car ils ont été conditionnés par le PC et son système d'exploitation MS-DOS, et c'est un fait.
Tu es tellement pressé de me contredire que tu n'as pas remarqué que je te disais que c'est faux d'affirmer, comme tu le fais, que "quand t'utilises que 50% de ton disque t'as pas besoin de défragmenter, c'est valable pour tous les OS et systèmes de fichiers" ? Alors je le répète et j'insiste : c'est faux. Avec le système FAT, que le disque soit utilisé à 10%, ou 50% ou 95%, le disque sera tout autant fragmenté au bout d'un moment et il aura tout autant besoin d'être défragmenté. Tu peux essayer de comprendre comment fonctionne le système FAT si tu t'intéresses à l'histoire de l'informatique, ou tu peux laisser les lecteurs juger par eux-mêmes. Et c'est de ce système de fichier merdique que vient cette légende qu'un disque va forcément se fragmenter au fur à mesure qu'on l'utilise.
Et en plus tu prétends que j'aurais seulement des notions... J'abandonne : si tu veux avoir le dernier mot, tu n'as qu'à laisser un dernier message et tu auras gagné.
BATAILLE DE POLOCHONS!!! :)
Pour Unix, il n'existe pas un mais des Unix (y compris les différentes distributions de Linux). Même Android, qui est un dérivé de Linux. Les puristes affirment (avec raison) que "Linux Is Not Unix", mais c'est quand même vachement proche (l'un est GNU, c'est à dire libre de droit, pas l'autre ni Android).
Alors, difficile de dire quel système est le plus répandu...
J'ai toujours eu tendance a aimé les commandes en ligne (pas d'achats sur Internet, hein, des commandes dites système, pour lui dire ce qu'il doit faire), beaucoup plus précises et "optionnées" (pardon pour le barbarisme) que celles, plus pauvres, auxquelles on peut accéder via un clic de souris à travers une IHM graphique telle que Windows. Et, avec Linux, tu peux faire ce que tu veux de ton système sans avoir de comptes à rendre à qui que ce soit... La liberté, quoi... Mais ça implique des compétences que tout le monde n'a pas. Donc, pour un PC maison, bin... Windows est le moins pire. Fût un temps, j'aurai recommandé Apple (ils faisaient vraiment d'excellents produits robustes sous processeurs Motorola) mais depuis qu'ils sont passés sous processeurs Intel et dérivés, bin c'est devenu un Windows hors de prix !!! Merci Microsoft !!!
Mais c’est vrai aussi qu’un disque quasi-plein aura des problèmes de fragmentation, et ce quelque soit l’OS, c’est inhérent au disque et sa structure en blocs. Après, à vous de voir si c’est une "mauvaise gestion"ou une "bonne gestion" d’avoir un stockage quasi plein puisque cette stratégie vient de l’utilisateur, mais ce n’est pas le point ici.
Les systèmes de fichier style Unix l’ont toujours mieux géré et en arrière-plan, donc au final lancer une défragmentation ne vaut pas le coup pour l’utilisateur lambda, et pas de bling-bling comme avec l’utilitaire le Microsoft.
Mais si on remplit régulièrement un disque complètement, qu’on efface des fichiers, et qu’on le remplit à nouveau complètement, au bout d’un moment la fragmentation est inévitable, même sous Unix.
C’est bien décrit dans la littérature.
Une source parmi d’autres : events.static.linuxfound.org/slides/2010/linuxcon_japan/linuxcon_jp2010_fujita.pdf
En passant il existe plusieurs types de fragmentation (voir page 30) donc votre discussion vient sûrement de là, je pense qu’un parle de la fragmentation de fichier et l’autre de la fragmentation d’espace libre.