100% satisfaction guarantee Immediately available after payment Both online and in PDF No strings attached 4.2 TrustPilot
logo-home
Other

Compression de message et correction d'erreurs : comprendre les codes de Fano Shannon, Huffman et Hamming

Rating
-
Sold
-
Pages
4
Uploaded on
02-04-2023
Written in
2022/2023

Ce cours présente une introduction à la compression de données et à la correction d'erreurs de transmission en utilisant les codes de Fano Shannon, Huffman et Hamming. Nous explorerons les concepts fondamentaux de la théorie de l'information tels que l'entropie, les codes préfixes, les arbres de codage et les tables de codage, ainsi que les techniques de décompression de données. Nous verrons également comment les codes de Hamming sont utilisés pour détecter et corriger les erreurs de transmission dans les données codées. À travers des exemples concrets et des exercices pratiques, les étudiants comprendront comment ces codes sont utilisés pour optimiser la transmission de données dans diverses applications. Ce cours est adapté aux étudiants en informatique, en mathématiques, en ingénierie ou en tout autre domaine lié à la transmission de données.

Show more Read less
Institution
Course








Whoops! We can’t load your doc right now. Try again or contact support.

Written for

Institution
Study
Course

Document information

Uploaded on
April 2, 2023
Number of pages
4
Written in
2022/2023
Type
Other
Person
Unknown

Subjects

Content preview

La numérisation a facilité la collecte, la manipulation et la diffusion de grandes quantités de
données, mais cela a également créé de nouveaux défis. Comment gérer ces données à grande
échelle, les conserver dans le temps, être capable de les retrouver rapidement et faire face à
l'obsolescence des programmes et des technologies qui les supportent ? Ces défis ont été exacerbés
par l'urgence climatique actuelle, qui nous oblige à repenser les moyens que nous utilisons pour
stocker et accéder à ces données tout en réduisant notre impact environnemental.
Le texte de James Baker, Rachel MacGregor et Anna McNally aborde cette question en se
concentrant sur la numérisation des archives et la manière dont elle contribue à la crise climatique.
Ils soulignent la nécessité de repenser les moyens que nous utilisons pour stocker et accéder aux
données, en se posant des questions difficiles telles que "doit-on vraiment tout numériser ?" et
"l'accès instantané est-il nécessaire pour toutes les données ?". Ils proposent de nouvelles pratiques
pour gérer les archives numériques de manière plus durable et pour contribuer à la justice
climatique.
Dans ce contexte, les méthodes de compression de données telles que les codes de Huffman et de
Fano-Shannon jouent un rôle important en permettant de stocker les données de manière plus
efficace. De même, les codes de correction d'erreur tels que le code de Hamming sont utilisés pour
s'assurer que les données sont transmises et stockées de manière fiable.


I. Compression de documents
Il existe deux types de compression de documents : la compression avec perte et la compression
sans perte. La compression avec perte est utilisée pour les fichiers multimédias tels que les images,
les vidéos ou les fichiers audio : cela réduit la taille du fichier en éliminant les informations qui ne
sont pas perceptibles à l'œil ou à l'oreille humaine. La compression sans perte, quant à elle, est
utilisée pour les fichiers texte et autres types de données où la perte d'informations est inacceptable.
Cette méthode de compression réduit la taille du fichier en utilisant des algorithmes pour éliminer
les données redondantes.
II. Codes de Huffman
L’idée du code de Huffmann consiste à grouper les deux événements les moins probables en un
unique événement et à renouveler l’opération avec le nouvel ensemble d’événements ainsi obtenu.
L’algorithme de Huffman (1952) est un algorithme glouton, c’est-à-dire un algorithme qui enchaîne
des procédures localement optimales en vue d’un résultat global optimal. Cet algorithme construit
un code instantané optimal. En pratique, il conduit à des réductions de longueur de l’ordre de 20 à
90% et il peut être associé à d’autres formes de codage.
Il modélise le code par une forêt composée d’arbres qui possèdent des noeuds dont le poids est la
somme des poids de leurs enfants (le poids d’un arbre est celui de sa racine).
Initialement, les arbres (à 1 seul noeud) sont les états de la source, le poids de chacun de ces arbres
est la probabilité de l’état associé.
A chaque étape, l’algorithme groupe deux des arbres de plus faible poids en un arbre unique dont
ils sont les enfants.
Au final, l’algorithme produit un arbre unique de poids 1.
$4.18
Get access to the full document:

100% satisfaction guarantee
Immediately available after payment
Both online and in PDF
No strings attached

Get to know the seller
Seller avatar
r00tme

Get to know the seller

Seller avatar
r00tme ENSIMAG
Follow You need to be logged in order to follow users or courses
Sold
160
Member since
2 year
Number of followers
114
Documents
11
Last sold
6 months ago

0.0

0 reviews

5
0
4
0
3
0
2
0
1
0

Recently viewed by you

Why students choose Stuvia

Created by fellow students, verified by reviews

Quality you can trust: written by students who passed their tests and reviewed by others who've used these notes.

Didn't get what you expected? Choose another document

No worries! You can instantly pick a different document that better fits what you're looking for.

Pay as you like, start learning right away

No subscription, no commitments. Pay the way you're used to via credit card and download your PDF document instantly.

Student with book image

“Bought, downloaded, and aced it. It really can be that simple.”

Alisha Student

Frequently asked questions