Audioformate und Codecs – das solltest du über Audiodateien wissen

6 Minuten
Eine Tonaufnahme kann in vielen Audioformaten vorliegen und nach unterschiedlicher Art komprimiert werden. Das hat entscheidende Auswirkungen darauf, wie die Datei am besten weitergenutzt werden kann oder wie die Aufnahmequalität bei der Wiedergabe ausfällt.
Audioformate-und-Codecs
Audioformate-und-CodecsBildquelle: Unsplash

Bei der Masse an Audioformaten geht der Überblick schnell vorhanden. Zum Glück existieren genügend kostenlose Player, die eine Vielzahl von verschiedenen Audioformaten und Codecs verarbeiten können. Wer auf ein ungewöhnliches Datenformat stößt, kann viele Decoder kostenlos online erhalten, um das Format abspielen zu können.

Die Notwendigkeit von Audioformaten

Bei all der Masse an Formaten drängt sich zurecht die Frage auf, warum überhaupt so viele davon nötig sind. Im Endeffekt kann ein einzelnes Audioformat nicht alle gewünschten Zwecke bedienen. Damit ein Computer mit einer Audiodatei arbeiten kann, muss er genaue Vorgaben dazu haben, wie die Datei abzuspielen und auszulesen ist. Das gilt nicht nur für Audiodateien, sondern genauso für jedes andere Dateiformat, das auf dem Computer vorhanden ist.

Das Format legt fest, in welcher Form das Betriebssystem die Daten behandeln muss. Besitzt der Computer nicht die notwendige Anleitung, um zu wissen, was er mit der Datei anstellen soll, kann er sie nicht nutzen. Bei Audiodateien begegnet dieses Problem Anwender häufig in Form der Fehlermeldung „Codec nicht gefunden.“ Das heißt nichts Anderes als das der Computer den Codec benötigt, um zu wissen, wie er mit der Datei umgehen soll. Ein wenig, als würde man versuchen jemanden in ein Auto setzen und ihm sagen, er solle fahren, ohne ihn darüber aufzuklären, welches Pedal wofür gedacht ist. Wer versucht „auf gut Glück“ zu fahren und wild auf die unterschiedlichen Pedale zu treten, wird sich mit dem Fahrzeug wohl kaum vom Fleck kommen oder den Wagen abwürgen. Ebenso wenig weiß der Computer ohne Codec, wie er die Musik aus der Datei abspielen soll, sodass sie wie gewünscht klingt.  

Mehr Codecs pro Audioformat

Wer nun jedoch glaubt, dass jedes Dateiformat nur einen Codec benötigt, der irrt sich. Tatsächlich gibt es für ein Dateiformat verschiedene Codec-Programme, die einen Unterschied in den vorhandenen Dateien ausmachen. So wie wir es von jeder Software kennen, werden auch Codecs immer weiter entwickelt, um bessere Soundqualität zu bieten. Das hat jedoch schnell den Nachteil, das ältere Codec-Versionen die neuen Datenformate nicht mehr verstehen und ist einer der Gründe, warum viele Mediaplayer wie beispielsweise der VLC-Player regelmäßige Updates benötigen. Wer viele verschiedene Datenformate mit seinem Player abspielen will, sollte daher möglichst viele Codes für seine Player bereithalten. Viele Codecs oder zumindest die dazugehörigen Decoder lassen sich kostenlos im Internet herunterladen. Oftmals werden Codecs dabei in Packages angeboten, die dem Anwender gleich mehrere Codecs zur Verfügung stellen anstatt einem Einzelnen.

Bedeutung von Samplerate und Bitrate

Auch Samplerate und Bitrate sind in der Qualität von Audioformaten entscheidend. Die Samplerate gibt Auskunft darüber, wie oft das Programm den Pegel pro Sekunde abspeichert. Um die Qualität von CD-Aufnahmen zu erreichen, benötigt man dafür eine Samplerate von circa 44.100 Hz. Das bedeutet im Umkehrschluss, dass für eine Sekunde Musik in Wahrheit also 44.100 Werte gespeichert werden und wirkt sich somit unmittelbar auf die Größe der Datei aus. Je höher die Samplerate ausfällt, desto größer die Dateimenge, die man speichert.

Die Bitrate hingegen bestimmt, welche Datenmenge das Programm pro Sekunde verarbeitet. Dabei können sowohl konstante als auch variable Bitraten auftreten. Ähnlich wie die Samplerate haben sie ebenso Einfluss auf die Datengröße, aber genauso Einfluss auf die Klangqualität der Aufnahme.

Das Umwandeln von Audiodateien in andere Formate kann die Qualität einer Aufnahme nie verbessern. Die Qualität kann nur gehalten werden oder verschlechtert werden je nachdem welche Form von Kompression man benutzt. Denn jede Komprimierung lässt einen Teil der Audiodaten verloren gehen, auch wenn der Unterschied nicht immer für das menschliche Ohr herauszuhören ist.

Kompression von Audiodateien

Das, was alle Audio- und Videodaten gemeinsam haben, ist, dass sie komprimiert in Dateien geschrieben werden. Da die anfallenden Datenmengen hierbei sehr groß ausfallen können, versuchen die Codecs die Datenmenge bei der Codierung zu verkleinern. Daher wird mit Codec auch häufig der Kompressor/Dekompressor bezeichnet. Ähnlich wie bei der Anzahl an Dateiformaten gibt es hierbei viele unterschiedliche Komprimierungsverfahren. Grundsätzlich lässt sich jedoch zwischen verlustfreier und verlustbehafteter Kompression unterscheiden.

Verlustfreie Kompression

Bei der verlustfreien Kompression bleiben die Originaldaten erhalten, man schreibt sie nur kompakter in eine Datei. Bei Bildern geschieht das zum Beispiel, indem das Format nicht jeden einzelnen Bildpunkt definiert, sondern die Unterschiede erfasst. Gibt es mehrere blaue Pixel, die beispielsweise einen Himmel zeigen, notiert sich die Datei das nicht in vielen Erwähnungen von „Blau“, sondern summiert die Anzahl der Pixel. Schließlich gibt es dabei die Summe zur Farbe an wie etwa „76 blaue Pixel“.

Der Informationsgehalt verändert sich nicht, aber so wie „76 blaue Pixel“ weniger Platz in einem Textdokument einnimmt als 76-mal „Blau“ in ein Textdokument zu schreiben, so verkleinert sich auch die Dateigröße des Audioformats durch diese Methode. In der Realität kommen solche Ähnlichkeiten in Audio- und Videoformaten jedoch nicht ständig vor, sodass die verlustbehaftete Komprimierung häufig effektiver ist. Dafür besteht mit der verlustfreien Komprimierung immer die Möglichkeit, eine Originaldatei wieder herzustellen und gegebenenfalls weiter zu bearbeiten.

Verlustbehaftete Kompression

Die verlustbehaftete Kompression hingegen reduziert Daten, um die Datenmenge zu schrumpfen. Dabei versucht der Kompressor zu bewerten, welche Daten irrelevant sind und diese auszusortieren. Da dabei Anteile der ursprünglichen Daten verloren gehen, lässt sich eine so komprimierte Datei nicht mehr originalgetreu wiederherstellen. Wie gut die Aufnahme letztlich wird, hängt hierbei entscheidend davon ab, wie gut der Encoder beurteilen kann, welche Daten relevant oder irrelevant für den Hörer sind. In dieser Hinsicht basieren die Beurteilung der Programme zum Teil auf der Wahrnehmungspsychologie. Signale, die der Mensch mit Augen oder Ohren gar nicht wahrnehmen kann, weil sie andere Signale wie beispielsweise lautere Töne zu sehr überlagern, sortiert das Programm aus. Das ist zum Beispiel im Falle von zeitlicher oder gleichzeitiger Maskierung der Fall.

Bei zeitlicher Maskierung übertönt ein lauter Ton einen leisen Ton so, dass er für den Zuhörer nicht mehr wahrzunehmen ist. Es ergibt daher wenig Sinn, den leisen Ton als Datenballast zu behalten. Bei gleichzeitiger Maskierung werden zwei Töne mit sehr ähnlicher Frequenz zugleich abgespielt. Durch diese ähnliche Frequenz kann das menschliche Gehör die Töne nicht effektiv voneinander unterscheiden. In den meisten Fällen bemerkt der durchschnittliche Zuhörer die Unterschiede in der Qualität zwischen diesen Aufnahmen und verlustfreien kaum. Ein geübtes Ohr kann jedoch in einigen Fällen Unterschiede wahrnehmen. Das größte Risiko an verlustbehafteter Komprimierung bleibt jedoch die mangelnde Möglichkeit Originaldaten wiederherzustellen. So hat man nicht mehr länger die Möglichkeit zu leise Töne zu verstärken und für den Zuschauer hörbar zu machen, da der Encoder sie bereits aussortiert hat.

Und was sagst du?

Bitte gib Dein Kommentar ein!
Bitte gibt deinen Namen hier ein