Es gibt keine Algorythmen, sondern nur Sambarythmen. Ach und Hiphop-, Reggae- Schunkel- etc. riddims. Aber es gibt Algorithmen:
Kompression:
a) Verlustfreie (RLE, Hufman, LZW, LZS77, BZIP, Markov)
b) Verlustbehaftete (JPEG, MPEG, MP3 etc.)
zu a:
RLE: Run Length Encoding: Sich wiederholende Bytes werden nicht direkt geschrieben, sondern es wird nur die Anzahl sowie das Byte selber kodiert. (Statt "aaaaaaaaaa" wird "\10a" kodiert.
Hufman kodiert die Bytes mit variablen Bitlängen so, das häufigen Bytes kürzere Bitfolgen zugewiesen bekommen, als Selteneren. Das 'adaptive Hufman Coding' (wie in RAR) passt die Bitlängen während des Komprimiervorganges dynamisch an die sich ändernden Häufigkeiten an.
LZW versucht, Bytesequenzen mit hilfe eines Wörterbuches effektiv zu kodieren. Dazu wird während des Komprimierens ein Wörterbuch erstellt. Kommt eine Bytesequenz im Wörterbuch vor, wird nicht die Bytesequenz geschrieben, sondern der Index der Position im Wörterbuch. In jedem Fall wird die kodierte Bytesequenz anschliessend in das Wörterbuch aufgenommen.
LZS77: Sich wiederholende Bytesequenzen werden so kodiert, das nicht die Sequenz, sondern ihre relative Position in dem bereits verarbeiteten Bytestrom kodiert wird.
BZIP: Nutzt die Tatsache, das sortierte Bytes viel effektiver gepackt werden können... äh...
Ach du Schande... Äh... Burrows-Wheeler-Transformation... Blocksorting... irgendwie... (schluck)
Markov: Völlig abgedreht (steckt noch in der Entwicklung) Es wird versucht, vorauszuahnen, welches Byte als Nächstes kommt. Irre.
Recherchiere bitte nochmal (z.b. bei Wikipedia), kann ja sein, das ich hier Mist erzähle.