-Anatomie et physiologie • Animaux et l'environnement • culture generale • economie • flore et ses bienfaits • Internet et Informatique • L'alimentation et la nutrition • La Biologie • Le mésothéliome • Les épices • Les fruits et légumes • Les vitamines • Maladies & Affections • Médecine et traitements • Médicaments • monde technologique • remèdes naturels • Santé et Bien-être • sciences et génie -orange

mardi 16 avril 2013

Qu'est-ce que Lossless compression de données ?

Lossless compression de données est une méthode informatique de stocker des fichiers et de les combiner dans des archives qui prend moins de place physique dans la mémoire que les fichiers seraient autrement sans perdre aucune information les données contiennent dans le processus. La compression avec perte, en revanche, réduit la taille du fichier avec des approximations des données, et de la restauration est un fac-similé de près le contenu du fichier d'origine. Les algorithmes utilisés pour la compression sans perte de données sont essentiellement un ensemble de règles simplifiées ou des instructions pour le codage de l'information en utilisant moins de bits de la mémoire tout en conservant la possibilité de restaurer les données à leur format d'origine sans aucune modification.

Certains types de fichiers courants qui utilisent la compression sans perte de données comprennent les International Business Machines (IBM) sur ordinateur zip et Unix sur ordinateur archives gzip. On utilise également des formats de fichiers image, tels que le format d'échange graphique (GIF), Portable Network Graphics (PNG), et Bitmap (BMP). Algorithmes de compression de données varient également en fonction du type de fichier est comprimé, avec des variations communes pour le texte, audio et des fichiers exécutables.

Les deux grandes catégories d'algorithmes de compression sans perte de données sont basées sur un modèle statistique de données d'entrée et un modèle de mappage de chaînes de bits dans un fichier de données. Routine algorithmes statistiques utilisées sont la transformée de Burrows-Wheeler (BWT), le codage Lempel Abraham et Jacob Ziv (LZ77) algorithme publié en 1977, et la prédiction par correspondance partielle (PPM) méthode. Cartographie des algorithmes fréquemment utilisés comprennent l'algorithme de codage Huffman et le codage arithmétique.

Certains des algorithmes de compression sans perte de données sont des outils open source et d'autres sont exclusives et brevetées, si les brevets sur certains ont désormais expiré. Il peut en résulter des méthodes de compression étant parfois appliquées au format de fichier mal. En raison du fait que certaines méthodes de compression de données sont incompatibles les uns avec les autres, de stockage des fichiers mixtes peuvent dégradent souvent une composante d'un fichier. Par exemple, un fichier image avec le texte qui est comprimé peut montrer la dégradation de la lisibilité du texte, une fois restauré. Scanners et les logiciels qui utilisent l'induction grammaire peut extraire du sens d'un texte stocké avec les fichiers image en appliquant ce qu'on appelle l'analyse sémantique latente (LSA).

Une autre forme de méthode d'algorithme de cartographie pour la compression de données sans perte est l'utilisation d'un code universel. Plus souple à utiliser que le codage de Huffman, il ne nécessite pas la connaissance des valeurs entières au maximum à l'avance. Codage de Huffman codage arithmétique et ne produisent de meilleurs taux de compression de données, cependant. Des efforts sont également en cours pour produire des méthodes universelles de compression de données qui créeraient des algorithmes qui fonctionnent bien pour une variété de sources.