-Anatomie et physiologie • Animaux et l'environnement • culture generale • economie • flore et ses bienfaits • Internet et Informatique • L'alimentation et la nutrition • La Biologie • Le mésothéliome • Les épices • Les fruits et légumes • Les vitamines • Maladies & Affections • Médecine et traitements • Médicaments • monde technologique • remèdes naturels • Santé et Bien-être • sciences et génie -orange

mercredi 24 avril 2013

Qu'est-ce qu'un algorithme de compression?

Les fichiers informatiques peuvent prendre une grande quantité d'espace sur un disque dur, ainsi que de la bande passante pour transmettre. Pour économiser de l'espace, en particulier avec des fichiers qui ne sont pas souvent accessibles, et la bande passante pour les fichiers en cours de transmission, les méthodes de stockage ont été conçus pour enregistrer les données dans un package plus petit en le comprimant en quelque sorte. Dans chaque cas, un algorithme de compression - un procédé permettant de réduire la taille des données - est utilisé.

Il existe plusieurs catégories populaires et les types d'algorithme de compression, dont chacune fonctionne d'une manière différente, et dont certains ont des résultats qui diffèrent de façon importante. En utilisant différents algorithmes de compression, il est généralement possible de réduire un fichier texte à moins de la moitié de sa taille originale, pour les fichiers graphiques, les résultats varient considérablement. Le fichier qui résulte de la compression peut être soit un format différent ou un fichier archive, qui est souvent utilisé pour le stockage, la transmission et la distribution.

Une façon de classer les algorithmes de compression est de savoir s'ils utilisent des dictionnaires ou méthodes statistiques pour compresser les données. La méthode de dictionnaire se concentre sur les phrases répétitives et est utilisé dans les images GIF et JAR et archives ZIP. La méthode statistique repose sur la fréquence d'utilisation de faire une conversion, qui se fait en deux passes. Un exemple est Modified Huffman (MH), utilisé dans certains télécopieurs.

Une deuxième façon de classer les algorithmes de compression, et celui que les programmeurs non-professionnels rencontrent le plus souvent est de savoir si elles sont lossless ou lossy. Un algorithme de compression des données sans perte est une la compresse les données de telle manière que, quand il est décompressé, il est tout à fait identique au fichier d'origine. Un exemple d'un algorithme de compression de données sans perte est LZW (Lempel-Ziv-Welch algorithme). Développé en 1977 par Lempel Ziv et amélioré en 1984 par Welch, il est utilisé dans des fichiers tels que GIF, TIF et PDF, ainsi que certains modems.

Un algorithme de compression avec perte de données a la capacité de réduction des données d'une taille inférieure à une compression sans perte, mais au prix d'une partie des données d'origine. En d'autres termes, la restauration suite à la compression avec perte de données ne donne pas une copie identique du fichier original. L'algorithme de compression est cependant conçu pour limiter les pertes de sorte qu'ils ne sont pas apparents à l'oreille ou les yeux. La compression avec perte est utilisée dans des formats tels qu’AAC, JPEG, MPEG et MP3.