AAC (Advanced Audio Coding)
Advanced Audio Coding (AAC) ist ein von der Moving Picture Experts Group (MPEG) entwickeltes verlustbehaftetes Audiokompressionsverfahren. Es ist eine Weiterentwicklung des MPEG-2 Standard (zu dem u.a. auch das MP3-Format gehört), das bei kleineren Dateigrößen einen gleichwertigen oder besseren Klang bietet als MP3. Es wird auch als „MPEG-4 AAC“ bezeichnet.
Analoges Signal
Als Analogsignal wird ein Signal bezeichnet, wenn seine Stärke (Amplitude) kontinuierlich jeden Wert zwischen einem Minimum und einem Maximum annehmen kann. Analoge Signale repräsentieren einen Ton direkt. Es kann innerhalb eines bestimmten Bereiches einen beliebigen Wert annehmen und wechselt stufenlos zwischen Werten, im Gegensatz zu digitalen Signalen, die durch diskrete Datenbits in numerischen Schritten gekennzeichnet sind.
Abtastrate
Abtastrate, auch Samplingrate, bezeichnet die Häufigkeit, mit der ein Signal pro Zeitintervall abgetastet wird. Der Abstand zwischen den Abtastzeitpunkten ist das Abtastintervall. Ist er konstant, heißt die Abtastrate auch Abtastfrequenz oder Samplingfrequenz. Je höher die Abtastrate, desto mehr Daten müssen verarbeitet werden, gleichzeitig steigt aber auch die Genauigkeit der Abtastung, d.h. das abgetastet Signal ist näher am Original. Bei CD liegt die Abtastfrequenz bei 44,1kHz (also 44.100 Abtastungen pro Sekunde). Qualitativ höherwertige Aufnahmen haben Abtastfrequenzen von bis 192kHz oder sogar 384kHz.
AES/EBU
AES/EBU (Audio Engineering Society / European Broadcasting Union) ist eine umgangssprachliche Bezeichnung für die Spezifikation einer Schnittstelle zur Übertragung digitaler Audiosignale zwischen verschiedenen Geräten (z.B. CD/DVD-Player, DAT-Recoder, SAT- und Heimkino-Receiver etc.) gemäß der Norm AES3. Sie wird hauptsächlich im professionellen Tonstudio- oder HighEnd-Umfeld verwendet. Die Übertragung erfolgt über symmetrische XLR-Kabel.
AIFF
Das Audio Interchange File Format (AIFF) ist ein unkomprimiertes Dateiformat (Containerformat) von Apple Macintosh zum Speichern von LPCM-Audiodaten. Es ist das Standard Audio-Format auf Mac-Computern und somit das Äquivalent zu Microsofts RIFF WAVE–Format.
LPCM (Linear Pulse Code Modulation) ermöglicht im Gegensatz zu anderen Audiodateien wie MP3 keine Datenkompression. Das bedeutet zum einen, dass beim Speichern von AIFF-Dateien große Datenmengen entstehen. Zum anderen sind diese Audiodaten verlustfrei und können ohne zusätzlichen Rechenaufwand verarbeitet werden. Das Datenformat AIFF wird zumeist in Tonstudios und in der Musikproduktion verwendet.
Aliasing-Effekt
Ein periodisches, diskretes Abtasten eines Signals im Zeitbereich hat im Frequenzbereich ein ebenso periodisches, diskretes Spektrum zur Folge. Es entstehen sog. Aliasing-Effekte, d.s. Ultraschall-Spiegelungen des ursprünglichen analogen Signals bei Vielfachen der Abtastrate (fS) mit abnehmender Amplitude:
Audiokomprimierung
Audiodateien können mit verlustfreien oder verlustbehafteten Codecs in eine mehr oder weniger Platz sparende Form gebracht werden. Ziel der Komprimierung ist die Minimierung von Datenraten für die Übertragung oder Speicherung von Audiodaten. Während bei verlustfreien Codecs (wie FLAC oder ALAC) die Datenreduzierung absolut originalgetreu vonstatten geht, kann bei Komprimierung mit verlustbehafteten Codecs (wie MP3 oder AAC) ein Unterschied zum Ausgangsmaterial hörbar sein.
Ohne Qualitätsverlust komprimierte Audiodateien verlieren etwa 25% bis 50% ihrer ursprünglichen Dateigröße. Typische Vertreter sind Monkey’s Audio, FLAC, ALAC oder WavPack. Die Tonqualität ist immer identisch mit dem Original und Prüfsummen fördern beschädigte Dateien zutage. Moderne verlustbehaftete Codecs wie AAC, Ogg Vorbis oder MP3 schrumpfen das Ausgangsmaterial dagegen um 90%, ohne dabei gleich hörbar schlechter zu klingen. Allerdings bemerkt man bei näherer Überprüfung Verluste an Klangdetails.
Bit
Bit (Wortkombination aus binary digit) ist die Maßeinheit für die digitale Datenmenge. Dabei ist 1 Bit die kleinste darstellbare Datenmenge, bestehend aus den Werten „0“ oder „1“. Größere Datenmengen sind immer ganzzahlige Vielfache von 1 Bit. (nicht zu verwechseln mit der Datenmengengröße Byte, wo 1 Byte = 8 Bits).
Bittiefe
Oder auch: Wortbreite. Sie beschreibt die Anzahl der Bits, die im Quantisierungsprozess zum Repräsentieren der Audioamplitude verwendet werden. Höhere Bittiefen ermöglichen einen größeren Dynamikumfang, wobei die Datenmenge und damit Dateigröße allerdings zunimmt. Dabei bieten 16 Bit 216=65.536 mögliche Dynamikwerte, 24 Bit schon 224=16.777.216 mögliche Dynamikwerte.
1 Bit entspricht ungefähr 6 dB Dynamik, sodass 16-Bit-Dateien einen Dynamikumfang von 96 dB umfassen können, während 24-Bit-Datein einen Dynamikumfang von bis zu 144 dB umfassen können.
Bitrate (kbps)
Das Verhältnis von Datenmenge und Zeit. Die Bitrate wird verwendet um die Kodierqualität in der Audiokompression anzugeben. Eine höhere Bitrate benötigt bei gleicher Titellänge mehr Speicherplatz oder Übertragungsbandbreite.
Buffering
Buffering bezeichnet die Zwischenspeicherung von Daten bei der Datenübertragung. Der Puffer (engl.: Buffer) dient dem Ausgleich von Differenzen in der Verarbeitungsgeschwindigkeit. Daten werden vorher in den Puffer geladen und aufgestaut, um dann zeitversetzt abgespielt zu werden. Dadurch kommt es seltener zu „Aussetzern“ bei der Übertragung.
CD-Ripper
Hard- und/oder Software-Instrument zum Kopieren der digitalen Musikdaten einer Audio-CD auf die Festplatte. Die Daten werden, ggf. unter Ergänzung von Informationen aus dem Internet (Titel-, Albumdaten, CoverArt etc.) als Musikdatei zum Beispiel im FLAC, MP3- oder WAV-Format abgespeichert.
Codec
Als Codec (Kunstwort aus engl. coder und decoder) bezeichnet man ein Verfahren bzw. Programm, das Daten oder Signale digital kodiert und dekodiert zum Zwecke der Datenübertragung und -speicherung. Neben dem Kodieren kann ein Codec auch die Daten komprimieren, um Übertragungsbandbreite oder Speicherplatz zu minimieren. Komprimierende Codecs werden hauptsächlich in verlustfreie und verlustbehaftete Codecs unterteilt (siehe auch „Audiokomprimierung“). Beim direkten Umwandeln von einem Format in ein anderes (bspw. MPEG-2 zu MPEG-4 oder MP3 zu WMA) spricht man auch von Transkodierung.
DAW
DAW steht für „Digital Audio Workstation“ und bezeichnet computergestützte Systeme zur digitalen Aufzeichnung und Verarbeitung von Schallsignalen. Sie sind aus Hard-Disk-Recording Computern hervorgegangen und ermöglichen nicht-lineare und nicht-destruktive Bearbeitung des Tonmaterials mit der Genauigkeit von einem Sample. Die bekanntesten kommerziellen Beispiele sind ProTools oder Cakewalk Sonar.
dB (Dezibel)
Das Dezibel ist im Bereich der Akustik eine nach Alexander Graham Bell benannte logarithmische Maßeinheit für Schalldruckegel. Ein Rückschluss von Schalldruckpegeln auf die vom Menschen wahrgenommene Lautstärke ist nur sehr eingeschränkt möglich, da der Schalldruckpegel nicht proportional bestimmt wird, sondern logarithmisch. Das heißt, ein Ton mit 60 dB ist nicht sechs mal lauter als ein Ton mit 10 dB, sondern besitzt die 600fache Intensität. Als Faustformel gilt, dass 10 dB Unterschied etwa als doppelte bzw. halbe Lautstärke wahrgenommen wird. Die Hörschwelle liegt bei 0 dB. Flüstern entspricht 15 bis 25 dB, Sprechen in normaler Lautstärke 65 bis 70 dB. Live-Rockmusik erreicht über 120 dB, ein Düsenflugzeug etwa 140 bis 180 dB. Jede Lautstärke über 140 dB ist schmerzhaft und kann Gehörschäden verursachen.
Digitales Signal
Ein Digitalsignal ist ein von einem Analog/Digital-Konverter erzeugtes diskretes und quantisiertes Signal und das Gegenstück zum kontinuierlichen Analogsignal. Digitalsignale werden durch 2 Kenngrößen definiert: die Abtastrate (gemessen in kHz) und die Wortbreite oder Bittiefe (gemessen in Bit). Digitalsignale werden meist anhand einer Folge von Binärzahlen dargestellt. Während der Aufnahme bzw. Analog-zu-Digital-Wandlung wird das Analogsignal in diskreten Intervallen gemessen (z.B. 44.100 mal pro Sekunde bei CDs) und jedem Messpunkt ein binärer Quantisierungswert zugeordnet (z.B. einer aus 16Bit bei der CD).
Digitalisierung
Digitalisierung bezeichnet die Umwandlung kontinuierlicher analoger Signale in diskrete und quantisierte digitale Signale mit Hilfe von Sampling und der Quantisierung.
Dithering
Dithering beschreibt eine Methode, die in der digitalen Audiotechnik die Folgen von Quantisierungsfehlern („Quantisierungsrauschen“) durch die berechnete Zugabe von Dither-Rauschen abmildert. Diese Fehler treten sowohl bei der Digitalisierung als auch bei digitalen Rechenoperationen mit Signalen auf. Statt störender Verzerrungen entsteht ein weniger störendes gleichmäßiges Rauschen, das dem eines analogen Verstärkers ähnelt. Dadurch erhöht sich zwar die gesamte Rauschenergie, aber die Kennlinie wird linearisiert, sodass Verzerrungen gemindert werden und sehr leise Signalanteile besser (oder überhaupt erst) wahrgenommen werden.
Downmix
Unter Downmix versteht man das gezielte heruntermischen von Mehrkanalaufnahmen auf eine geringere Kanalanzahl (z.B. Downmix von Dolby Digital 5.1 auf Stereo oder Stereo zu Mono). Dabei gehen die Informationen der nach dem Downmix nicht mehr vorhandenen Kanäle nicht unter, sondern werden pegelrichtig den anderen Kanälen zugemischt.
DSD (Direct-Stream Digital)
Direct-Stream Digital (DSD) ist ein von Philips Ende der 90er Jahre entwickeltes digitales Modulationsverfahren (PDM), das auf dem Prinzip der Delta-Sigma-Modulation beruht und die Musikinformationen mit einer Abtastrate von 2,82MHz (bei DSD64, bzw. 5,64MHz bei DSD128 oder Vielfachen davon) und einer Wortbreite von 1Bit moduliert. Kommerziell genutzt wurde das DSD-Verfahren primär in der von Sony und Philips entwickelten SACD. Durch Weglassung der klanglich problematischen Dezimierungs- und Interpolationsfilter des klassischen Sigma-Delta-Verfahrens, vereinfacht das DSD-Verfahren die Analog-Digital- und Digital/Analog-Wandlung und verbessert einige der klanglichen Probleme des klassischen Verfahrens. Diese Verbesserungen kommen allerdings zum Preis einer extrem erhöhten Rauschmenge über das gesamte Frequenzspektrum, das mittels dem sog. „Noise Shaping“ aus dem menschlichen Hörbereich verschoben werden muss.
Dynamikumfang
Dynamikumfang bezeichnet den Unterschied zwischen dem leisesten und lautesten Signal einer Musikdatei und wird in dB gemessen. Nach unten wird der Dynamikumfang durch das Grundrauschen des Audiosystems begrenzt. Werden Signale unterhalb dieses Pegels ausgesteuert, würden sie vom Rauschen maskiert und dadurch unhörbar werden. Nach oben wird der Dynamikbereich durch Erreichen der maximalen Aussteuerung des Systems ohne hörbare Verzerrungen begrenzt.
Equalizer
Ein Equalizer (engl. to equalize: angleichen) in Zusammenhang von Tonaufnahme und -wiedergabe ist eine elektronische Komponente zur Entzerrung von Tonfrequenzen in Musikaufnahmen. Man unterscheidet grafische und parametrische Equalizer. Beim grafischen Equalizer ist jedem beeinflussbaren, aber festeingestellten Frequenzband ein Regler zu geordnet, so dass man den Verlauf der Frequenzgangkorrektur „grafisch“ anhand der Reglerpositionen sehen kann. Der parametrische Equalizer bietet dagegen die Möglichkeit, für jedes seiner verfügbaren Filter die Einsatzfrequenz (f), die Stärke der Amplitudenbeeinflussung (gain) und die Bandbreite der Änderung (meist über die Filtergüte Q ausgedrückt) frei einstellen zu können.
FLAC
FLAC ist ein Open Source Codec für verlustfreie Komprimierung von Audiodaten, entwickelt von der Xiph.Org Foundation. FLAC steht für „Free Lossless Audio Codec“. Unter anderen verlustfreien Codecs hat FLAC einige Vorteile: FLAC folgt der Open Source Philosophie (kostenlos, offener Quellcode, für viele Betriebsysteme verfügbar), arbeitet sehr schnell, hat eine gute und sichere Framestruktur (wichtig für Seeking, Streaming und Archivierung) und bietet ReplayGain und CueSheet Unterstützung.
freedb
Freedb ist eine Datenbank mit Informationen über Audio-CDs, die über das Internet abgerufen werden können. CD-Ripper greifen auf diese Daten zurück, um Titel automatisch zu benennen und mit Titelinformationen (Tags) zu versehen.
Frequenz
Die Frequenz ist ein Maß für periodische Vorgänge, wie Schallwellen und wird in Herz (Hz) gemessen. Im Akustikbereich beschreibt die Frequenz die Tonhöhe eines Signals. Niedrigere Zahlen beschreiben tiefe Töne. Der Frequenzbereich, den das menschliche Ohr hören kann, liegt etwa – je nach Alter und individuellen Umständen – zwischen 20 und 20.000 Hz (20 Hz und 20 kHz).
Gigabyte (GB)
Byte ist eine Einheit digitaler Informationen, die in der Regel aus 8 Bits besteht. Die Speicherkapazität von Speichermedien wird oft in Gigabyte angegeben und entspricht 1.0003 oder 1 Million kB.
Jitter
Jitter bezeichnet das zeitliche Schwankungen im Taktsignal bei der Übertragung von Digitalsignalen. Die im Digitalisierungsprozess verwendete Samplingmethodik setzt exakt gleichgroße Abstände (Periodendauer) zwischen den Messpunkten voraus (z.B. bei der CD mit 44.100 Messpunkten pro Sekunde 1/44.100 = 22,67 μs). Abweichung von dem theoretischen Soll zu den tatsächlichen Taktraten wird zeitliche Taktflankenungenauigkeit oder auch Taktflankenzittern („Jitter“) genannt. Jitter ist einer der Hauptverursacher mangelhafter Klangperformance. Die Folgen für den Klang reichen von ungenauer Abbildung, fehlender Körperhaftigkeit bis zu tonalen Problemen.
MP3
MP3 ist ein vom Frauenhofer Institut in Deutschland entwickeltes Audioformat. MP3 steht für MPEG 1 layer 3 (MPEG = Motion Picture Experts Group). MP3 ist ein verlustbehaftetes Kompressions-Verfahren. Auf einer Audio-CD werden circa 11 MB für eine Minute Musik benötigt. MP3 kommt mit etwa 10% davon aus. Das MP3-Format wird von praktisch allen Programmen und Geräten unterstützt, die Musikdateien abspielen.
MP4
MP4 ist ein digitales Multimedia-Containerformat. Es ist nicht der Nachfolger des MP3-Audioformats, sondern eine Bezeichnung für Mediendateien, die Musik, Filme, Bilder nach dem MPEG-4 Standard enthalten können.
Noise Shaping
Noise Shaping (zu deutsch: „Rauschformung“) bezeichnet ein Verfahren, das in Kombination mit „Dithering“ bei der Quantisierung oder der Bittiefenreduktion verwendet wird. Ziel ist es dabei, den Signal-Rauschabstand des resultierenden Signals zu verbessern. Dabei wird die spektrale Form des Signals durch digitale Rückkopplungsfilter dahin gehend verändert, dass die Rauschmenge im Bereich des menschlichen Gehörs (20Hz – 20kHz) niedriger und im Bereich außerhalb des menschlichen Hörbereichs entsprechend höher ist. Die Rauschenergie selbst wird hierbei nicht abgeschwächt – vielmehr wird das Rauschen durch das Verfahren nur in Frequenzbereiche „verschoben“, die für die menschliche Wahrnehmung ohne Bedeutung sind (>20kHz).
Normalisieren
Das Angleichen des höchsten Lautstärkepegels bei Musikdateien. Es kann entweder in Bezug zum höchsten Pegel eines Musikstückes oder zum höchsten Pegel eines ganzen Albums erfolgen. Trotz der Angleichung können verschiedene Titel dennoch unterschiedlich laut klingen. Ein quasi-Standard zur Normalisierung im Consumer-Bereich, der von vielen Mediaplayern unterstützt wird, ist ReplayGain.
Ogg Vorbis
OggVorbis ist ein kostenloses Coder/Encoder-Paket aus dem Linux-Umfeld und verspricht eine zu MP3 ebenbürtige Klangqualität bei gleicher Dateigröße. Obwohl OggVorbis Dateien eigentlich effektiver sind als MP3s, hat sich dieser Standard nicht durchgesetzt.
Oversampling (und Upsampling)
Oversampling bezeichnet die Überabtastung eines Signals mit einer höheren Abtastrate (meist ganzzahlige Vielfache), als für die Darstellung der Signalbandbreite (gem. Nyquist-Shannon-Theorem) eigentlich benötigt wird. Dies ist heutzutage Standard bei den meisten A/D- und D/A-Wandlern, um ihre Funktionalität zu verbessern. Upsampling ist die Abtastratenwandlung eines digitalen Signals durch Interpolation von Kopien der vorhandenen Samples. Beide Operationen sind mathematisch ähnlich; lediglich die Anwendungsfälle unterscheiden sich. Die zusätzlichen Samples enthalten zwar keine neuen oder anderen Informationen, sorgen aber dafür, dass die Aliasing-Spektren erst mit deutlich größerem Abstand zum hörbaren Frequenzbereich einsetzen und ermöglichen die Verwendung von Filtern, die das Musiksignal weniger negativ beeinflussen, weil sie ein breiteres Frequenzspektrum zu ihrer Funktion zur Verfügung haben:
Playliste
Playlisten bezeichnen Abspielliste in denen sich Titelzusammenstellungen in fester Reihenfolge abspeichern und mit Abspielprogrammen wiedergeben lassen.
ReplayGain
Das Lautstärkeniveau verschiedener Audio-CDs kann stark variieren. Damit man beim Abspielen nicht ständig die Lautstärke nachregeln muss, gleicht das ReplayGain-Verfahren diese Unterschiede an.
PCM
PCM steht für Pulse Code Modulation und das am häufigsten eingesetzte System zur Umwandlung von analogen Audiosignalen in digitale Signale. PCM wurde 1937 von dem britischen Wissenschaftler Alec Reeves für Telekommunikationsanwendungen entwickelt, konnte aber erst nach Entwicklung der Transistortechnik ab den 1970er Jahren kommerziell genutzt werden. Das PCM-Verfahren besteht im Prinzip aus 3 Schritten: 1. dem Sampling, 2. der Quantisierung und 3. der Codierung.
Eine spezielle Form des PCM-Verfahrens ist das LPCM-Verfahren (Linear Pulse Code Modulation), bei dem die Quantisierungsstufen linear, d.h. einheitlich groß sind. Da die allermeisten Analog/Digital- und Digital/Analog-Wandler fixe Quantisierungsstufen verwenden wird die Bezeichnung PCM meist gleichbedeutend mit LPCM verwendet, obwohl das streng genommen nicht ganz korrekt ist, da in PCM-Kodierungen die Quantisierungsstufen in Abhängigkeit von der Amplitude variieren.
PDM
PDM steht für Pulse Density Modulation, eine Variante der Pulse Width Modulation, und das DSD-Verfahren.
Quantisierung
Die Quantisierung ist der zweite Schritt im digitalen Wandlungsprozess. Die Quantisierung ordnet jedem Messpunkt aus dem Sampling-Schritt ein diskreten Wert zu. Dieser Quantisierungswert wird anschließend im dritten Schritt codiert, d.h. ihm wird eine binäre Zahlenfolge (bestehend aus 0en und 1en) zugeordnet. Das Ergebnis wird in Bit angegeben (z.B. bei der CD 16Bit).
Sampling
Das Sampling ist der erste Schritt im digitalen Wandlungsprozess. Das Sampling tastet ein analoges Signal mittels Pulsamplitudenmodulation (PAM) mit einer zeitlich konstanten Abtastrate ab, die in Hz angegeben wird (z.B. bei der CD 44,1kHz). Dabei wird aus dem zeitkontinuierlichen Signalverlauf eine zeitdiskrete Signalfolge gebildet. Ein Sample ist ein Wert des Signals zu einem bestimmten Zeitpunkt. Der ursprüngliche Signalverlauf kann verlustfrei aus einer Folge von Abtastwerten bis zur Nyquist-Grenze rekonstruiert werden, indem die Folge von Abtastwerten durch eine Art Tiefpassfilter, das so genannte Rekonstruktionsfilter, geleitet wird.
Samplingrate = Abtastrate
Signal-Rauschabstand (SNR) = Dynamikumfang (in linearen Systemen)
SPDIF
SPDIF steht für „Sony/Philips-Digital Interface“ und ist eine Schnittstellenspezifikation für die Übertragung digitaler Audiosignale zwischen verschiedenen Geräten (z.B. CD/DVD-Player, DAT-Recoder, SAT- und Heimkino-Receiver etc.). Es werden in der Regel Cinch- oder optische Kabel, seltener auch BNC-Verbindungen zur Übertragung benutzt.
Streaming
Üblicherweise können Mediandateien erst genutzt werden, wenn sie vollständig auf dem Abspielgerät des Nutzers zur Verfügung stehen. Um im Internet das Abspielen von Multimediadateien, die relativ groß werden können, zu erleichtern, wurde das Streaming-Verfahren als Alternative zum Downloading entwickelt. Dabei werden die Dateien in einzelne kleine Datenpakete aufgeteilt, die schon im Temp-Ordner aktiviert werden, obwohl die Datei noch nicht komplett übertragen ist. Der Nutzer spielt dann nach und nach die einzelnen kleinen Pakete ab, ohne je die ganze Datei auf seinem Abspielgerät zur Verfügung zu haben. Dadurch ist es z.B. möglich, über das Internet Radio zu hören oder Youtube-Videos zu schauen. Da die kleinen Datenpakete nach dem Abspielen wieder gelöscht werden, können damit Rechtebesitzer ihre Inhalte im Internetpräsentieren, gleichzeitig aber deren Nutzung kontrollieren, da kein kompletter Download der Werke stattfindet und die Dateien somit nicht kopiert werden können. Auf dieser Basis haben Streaming Platformen wie Spotify, Deezer oder Apple Music Abonnement-Dienste aufgebaut
Tag (ID3Tag)
Titelinformationen, die im Header einer Musikdatei abgespeichert sind, zum Beispiel Interpret, Titel, Album, Musikrichtung, usw. Viele Musikplayer und Abspielprogramme verwenden Tags für die Musikverwaltung. ID3 hat sich zum De-facto-Standard für Metadaten in Musikdateien entwickelt. Obwohl ID3 ursprünglich für das MP3-Format entwickelt wurde, unterstützen heute viele Audiocodecs ID3.
WAV
Ein von Microsoft und IBM entwickelter Dateiformat-Standard für das verlustfreie Speichern von digitalisierten Audiodaten. WAV ist der größte gemeinsame Nenner der Windows Audioformate. Das Macintosh-Äquivalent nennt sich AIFF. WAV ist eigentlich der Sammelbegriff für verschiedene Unterformate, von denen LPCM das gebräuchlichste ist und meist mit WAV gleichgesetzt wird.
Bei WAV (LPCM) handelt es sich um eine unkomprimierte Aufzeichnung von Soundsamples.
Wortbreite = Bittiefe
© Alexej C. Ogorek