Tonspur auf Fraunhofer-Verlauf aus petrol und sandfarben

Zukunftsmusik?

Als 1992 die Öffentlichkeit gespannt die Olympischen Spiele verfolgte, ahnte kaum jemand, dass im Hintergrund ein Team deutscher Wissenschaftler die Musikindustrie revolutionieren würde. Karlheinz Brandenburg und sein Team des Fraunhofer-Instituts für Integrierte Schaltungen IIS arbeiteten am neuen leistungsfähigen Audiocodierverfahren ASPEC (Adaptive Spectral Perceptual Entropy Coding), das bei der Übertragung der Olympischen Spiele aus Albertville auf allen privaten Radiosendern Deutschlands getestet wurde. ASPEC bildete den Vorläufer für den bekannten mp3-Audiostandard. Dieser liegt vielen Technologien von heute zugrunde, die unsere Musik- und Klangerlebnisse revolutionieren. 

Welche Gegebenheiten waren notwendig, um dieses neue Format zu entwickeln? Woher kam der Impuls? Alles begann mit der Dissertation von Karlheinz Brandenburg. 

Karlheinz Brandenburg studierte Elektrotechnik und Mathematik an der Friedrich-Alexander-Universität Erlangen-Nürnberg und promovierte 1989 an der Technischen Fakultät der Friedrich-Alexander-Universität Erlangen-Nürnberg zum Thema »Ein Beitrag zu den Verfahren und der Qualitätsbeurteilung für hochwertige Musikcodierung«. Die in dieser Dissertation beschriebenen Techniken bildeten die Grundlage für die Entwicklung von mp3 und vieler anderer moderner Verfahren der Audiocodierung. 

1987 gelang es dem Forschungsteam um Karlheinz Brandenburg am Fraunhofer IIS, die ersten Echtzeitrealisierungen von Stereo-Audiocodierverfahren zu realisieren. War es bis dahin nur möglich, das Verfahren in einer zeit- und rechenintensiven Computersimulation zu testen, so ermöglichte die Einführung von Echtzeitcodecs, die Codierverfahren nun unter realen Bedingungen zu testen. Dies führte zu signifikanten Verbesserungen der Algorithmen. 

1988 gründete die »International Organization for Standardization« ISO die »Moving Picture Experts Group« (MPEG), ein Gremium, das seitdem für die Standardisierung von Audio- und Videokompressionsstandards verantwortlich ist. Ein Jahr später wurde der OCF (Optimum Coding in the Frequency Domain) als Vorschlag für den geplanten ersten MPEG-Audiostandard eingebracht. Diese frühen Bemühungen legten den Grundstein für die Entwicklung eines Audioformats, das die Art und Weise, wie wir Musik hören, von Grund auf veränderte. 

Seinen Namen erhielt das Format schließlich im Jahr 1995. In einer internen Umfrage entschieden sich die Forschenden des Fraunhofer IIS einstimmig für ».mp3« als Dateiendung für den Standard »MPEG Audio Layer 3«. Im selben Jahr stellte Fraunhofer den ersten computerbasierten Layer-3-Codec als Shareware zur Verfügung, man konnte die Software innerhalb eines Testzeitraums kostenlos testen. Dieser Schritt machte mp3 der breiten Öffentlichkeit zugänglich und ermöglichte es, Audiodateien effizient zu komprimieren und zu verbreiten.  

Weniger ist mehr 

Ein wesentlicher Aspekt der mp3-Technologie ist die Orientierung an psychoakustischen Modellen. Diese Modelle beschreiben die Wahrnehmungsfähigkeit des menschlichen Ohres. Der Mensch kann nur Schallwellen wahrnehmen, die annäherungsweise in einem Frequenzbereich zwischen 20Hz und 20kHz liegen. Die Nutzbarmachung dieser psychoakustischen Effekte ermöglicht es, Daten einzusparen: Diejenigen Frequenzanteile im Audiosignal, die für das menschliche Gehör gut wahrnehmbar sind, werden sehr genau gespeichert – alle anderen Signalanteile werden ungenauer und datensparsam gespeichert. Dieser Prozess der Datenkompression reduziert die Datenmenge eines Audiosignals signifikant. Eine mp3-Datei mit 128 kbit/s braucht nur rund ein Zehntel der Daten im Vergleich zu einem uncodierten Musikstück. Die mittlerweile vierte Generation an Audiocodecs aus Erlangen, xHE-AAC, die seit rund fünf Jahren verfügbar ist, braucht bei einer Datenrate von 16 kbit/s sogar nur noch ein Achzigstel der uncodierten Datenmenge. Das komprimierte Audiosignal klingt für Menschen dabei subjektiv identisch im Vergleich zum unkomprimierten Ursprungssignal, ein Zustand, der als »Transparenz« bezeichnet wird.

Vom Album zur Playlist  

Parallel zur Entwicklung des mp3-Formats arbeiteten Forscher*innen am Nachfolgeformat AAC (Advanced Audio Coding). Dieses bietet eine verbesserte Klangqualität und höhere Effizienz als mp3. Mit der Einführung von Apples iPod und iTunes begann die breite Nutzung von AAC in der Musikindustrie. Die neuartigen Endgeräte veränderten die Art und Weise wie Musik konsumiert wurde erheblich. Statt komplette Alben zu kaufen und zu hören, begannen Nutzer*innen, einzelne Songs herunterzuladen und ihre eigenen Playlists zu erstellen. Diese Veränderung förderte eine neue Ära des Musikhörens, bei der die Kontrolle über das Hörerlebnis in den Händen der Konsument*innen lag. 

Einführung des MPEG-H Audiostandards 

Diesem Trend hin zu personalisierbaren Hörerlebnissen folgen auch die neuesten Entwicklungen von Audiostandards, wie etwa der am Fraunhofer IIS erarbeitete MPEG-H Audio-Standard. MPEG-H bietet fortschrittliche Audiofunktionen, einschließlich immersivem 3D-Audio und personalisierbaren Klangerlebnissen, die weit über die Möglichkeiten von mp3 hinausgehen. Das Format kann von von Hersteller diverser Klassen von Endgeräten und Anwendungen lizensiert und genutzt werden, darunter Lautsprecher, Kopfhörer, Streaming-Dienste, Rundfunk- und Virtual-Reality-Anwendungen. Mit MPEG-H Audio können Programmanbieter auch barrierefreie Inhalte ermöglichen – entweder durch das Einbinden von Tonspuren mit Audiodeskription oder, indem  Nutzer*innen gesprochene Dialoge im Vergleich zu den Umgebungsgeräuschen lauter stellen können.

Die Interaktivität von MPEG-H Audio basiert auf der Codierung von Audioobjekten (Audio Scene Objects, ASO) und erlaubt es dem Publikum, den Audiomix ihres Fernsehprogramms an ihre Präferenzen anzupassen. Statt ausschließlich klassische Tonspuren zu verwenden, wird in der Klangproduktion mit Audio-Objekten gearbeitet. Einem solchen Objekt, wie dem Klatschen im Stadion, werden mithilfe von Metadaten Eigenschaften wie Position und Lautstärke zugewiesen. Diese Informationen werden an das Wiedergabesystem gesendet, das sie mit Informationen zur Wiedergabesituation kombiniert. So kann jedes beliebige Lautsprechersetup bedient werden – von Stereo bis Multikanal. Auch der Dialog, die Hintergrundgeräusche und die Filmmusik können einzelne Audioobjekte sein. Damit können schwer verständliche Dialoge lauter gestellt und Hintergrundgeräusche reduziert werden. 

Ob auf dem Handy oder auf dem Fernseher im Wohnzimmer, MPEG-H besitzt eine große Skalierbarkeit in seiner Anwendung. Auch wenn es in Europa noch nicht weite Verbreitung fand: in Brasilien wurde MPEG-H Audio im Jahr 2021 bereits als Fernsehstandard verpflichtend festgesetzt. Ebenso wird der Audiostandard in Südkorea bereits seit 2017 übertragen.

Stetige Entwicklungen 

Die Entwicklung von mp3 und seine Weiterentwicklung zu Formaten wie AAC und MPEG-H Audio haben die Audiowelt revolutioniert. Von den frühen Tagen der Forschung und Entwicklung bis hin zu den weitreichenden kulturellen Auswirkungen hat das Team um Karlheinz Brandenburg vom Fraunhofer IIS die Art und Weise, wie wir Musik hören und erleben, stark beeinflusst. Die ständige Weiterentwicklung in diesem Bereich führt dazu, dass die Audioqualität und -effizienz weiterhin neue Qualitäten erreichen. Mit MPEG-H Audio kann das Hörerlebnis noch immersiver und personalisierter gestaltet werden. Wie erfolgreich Fraunhofer mit akustischer Forschung ist, zeigt zum Beispiel auch der Joseph-von-Fraunhofer-Preis, den drei Forscher*innen des Fraunhofer IIS für das Projekt »MPEG-H Audiotechnologie – personalisierbare Hörerlebnisse in 3D« erhielten. 

Deep Dive Audio 

An ähnlichen Vorhaben arbeitet der Miterfinder von mp3, Karlheinz Brandenburg, noch immer. Nach seiner Zeit als Fraunhofer-Institutsleiter gründete er die im Jahr 2019 die Brandenburg Labs und verfolgt dort die Vision, Klang über Kopfhörer genauso natürlich wahrnehmen zu können, wie Klang im Raum.

Sein langfristiges Ziel ist, die Grenzen des menschlichen Hörerlebnisses zu erweitern. Dies soll durch die Weiterentwicklung des Konzepts der »Personalized Auditory Reality« (PARty) geschehen. PARty wurde an der Technischen Universität Ilmenau und dem Fraunhofer-Institut für Digitale Medientechnologie IDMT entwickelt. Intelligente Kopfhörer für Deep Dive Audio blenden störende Hintergrundgeräusche aus und »hören« die Lautstärke der Schallquelle, auf die sich die Nutzenden gerade konzentrieren. Durch die Einbettung virtueller Klänge in die reale Klangwelt entsteht somit eine perfekte akustische Illusion. Zukunftsmusik, das sind immersive Klangerlebnisse also schon längst nicht mehr.

(lna) 


Mandy Garcia

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert