Virtual Reality bzw. 360°-Video. Welchen Herausforderungen stellen solche Inhalte für die Audiobranche?
Bisher fokussieren sich Virtual Reality- bzw. 360˚-Produktionen meist nur auf Video; das Audio wird nur stereo oder gar mono abgebildet. Damit wird allerdings ein großer Teil der VR-Erfahrung gar nicht realisiert: Ohne das passende 360˚-Audio kommt man sich nur wie ein Beobachter − nicht wirklich in die Szene eingebunden − vor. Zudem erfüllt 360°-Audio eine wichtige Funktion bei der Nutzerführung. Beim Erzählen einer Story ist es oft erheblich, in welche Richtung ein Zuschauer sieht. Audioeffekte aus einer bestimmten Richtung eignen sich sehr gut, um den Nutzer zu motivieren einer bestimmten Handlung im Bild zu folgen. Eine 360˚-Audio-Produktion muss allerdings von Beginn an geplant werden: Wie nehme ich auf? Wie mikrophoniere ich? Benutze ich ein spezielles 360˚-Mikrophon? Wie soll die endgültige Mischung gemacht werden? Klassisch kanalbasiert? Oder benutze ich eine neue Produktionsform, die objektbasierte Audioproduktion? Wie soll der Konsument das Ergebnis dargeboten bekommen? Wie übertrage ich den 360°-Ton auf ein Endgerät, z.B. mittels Mehrkanalton, Ambisonics, oder gleich objektbasiert? Um diesen Fragestellungen nachzugehen, beteiligt sich das IRT intensiv bei der Evaluierung von Technologien zur objektbasierten Audiocodierung, beim Surround-Sound-Streaming für Smartphones und hat im Frühjahr 2016 sein 3D-Audiolab in Betrieb genommen, das die Tonwiedergabe in nahezu allen bekannten Lautsprecherformaten erlaubt.
Experten prognostizieren, dass VR und 360-Grad-Videos vor dem Sprung den Consumer-Massen-Markt stehen. Welche Geräte braucht der Zuschauer/-hörer für den guten 3D-Ton?
Das Endgerät, das den 360˚-Grad-Inhalt darbietet, also Smartphone, PC und TV, sollte natürlich in der Lage sein, auch den 360˚-Ton darzustellen und an die Lautsprecher oder den Kopfhörer richtig weiterzugeben. Bei der Benutzung von VR-Brillen werden eigentlich immer Kopfhörer zur Anwendung kommen. Der Nutzer benötigt abgesehen davon keine spezielle Hardware, die Aufbereitung der Tonsignale passiert entweder im Browser des mobilen Endgeräts oder direkt innerhalb der App, die auch die 360°-Videowiedergabe ermöglicht. Insgesamt ist die Darstellung von 360˚-Audio mit Lautsprecher für den Konsumenten zu Hause etwas schwierig. Der „normalen“ 5.1-Lautsprecheraufstellung fehlt ja die Dimension nach oben und unten, weswegen es kein echtes 360˚-Audio ist. Die Anzahl der Menschen, die sich noch mehr Lautsprecher in ihr Wohnzimmer stellen, dürfte nicht allzu groß sein. Deswegen dürfte im ersten Ansatz der normale Weg für 360˚-Audio-Genuss der Kopfhörer sein.
VR und 360-Grad-Inhalte sind nicht zuletzt auf Online-Angeboten wie Youtube erfolgreich. Wie lassen sich Highend-Audio-Produktionen auf diesen Plattformen darstellen?
Momentan nur mit dem System „First Order Ambisonics“. Dies ist ein System aus den 70-er Jahren, in welchem bis zu vier Kanälen frei im Raum verteilt sein können. Der Vorteil dieses Systems ist, dass es sich im Endgerät auf Grund seiner Einfachheit recht kostengünstig implementieren lässt. Der Nachteil liegt darin, dass der Raumklang nur sehr eingeschränkt wahrgenommen werden kann und lediglich im Zusammenhang mit einem 360°-Videobild eine akzeptable Immersion erzielt.
Angebote auf Smartphones und Tablets werden – gerade mobil - oft mit Kopfhörern genutzt. Wie kommt 3D-Audio auf den Kopfhörer?
Durch ein binaurale Darstellung. Das ist ein Verfahren, in welchem das Mehrkanal-, oder Ambisonics-Ausgangssignal so mit den mathematischen Eigenschaften eines Raumes gefaltet, also „verrechnet“ wird, dass für den Hörer ein räumlicher Klang entsteht. Man kennt das von Kunstkopfaufnahmen aus den 70-er Jahren, die man auch nur mit Kopfhörer genießen konnte.
Dieses Verfahren ist ziemlich aufwändig und fordert daher noch einiges an Rechenleistung im Endgerät. Für mobile Endgeräte bedeutet das, dass i.d.R. derzeit noch sehr leistungsfähige und damit teurere Geräte benötigt werden.