eins studio Blog

"Wie beim Tischlern: Mit gutem Werkzeug bekommt man präzisere Schnitte hin"

Audioproducer und Journalist Moritz Metz gewährt uns Einblick in seinen Werkzeugkasten voller nützlicher Audiotools für die Podcastproduktion. Besonders eine Software darf auf seinem Computer nicht fehlen. Das Interview ist im Buch "Podcasts im Journalismus" erschienen.

Herr Metz, wann beginnt eigentlich die Podcast-Produktion – beim Schnitt oder bei der Aufnahme?

Bei der Aufnahme. Die Wahl des Mikrofons und die Aufnahmesituation geben viel vor. Wenn man von Anfang an professionell und sauber arbeitet, hat man es bei den weiteren Schritten viel, viel leichter.

Falls doch was schiefgeht: Kann ich jeden Schnitzer in der Postproduktion ausbessern? Oder gibt es Grenzen?

Man kann schon viel korrigieren, aber oft mit überbordendem Aufwand. Ich habe mal ein Hörbuch aufgenommen und wollte, dass es intim klingt. Deswegen haben sich die Sprechenden nah vor ein Großmembran-Mikrofon gesetzt. Aber dadurch waren auf der Aufnahme lauter kleine Mundgeräusch: Schmatzen, Klicken. Das hätte Tage gedauert, die einzeln rauszuschneiden. Ich habe dann ein Plug-In gefunden, das aufs Filtern von Mundgeräuschen spezialisiert ist: ein sogenannter Mouth-De-Clicker. Das hat ganz gut funktioniert. Aber so ein Filter nimmt immer auch Dinge raus, die man eigentlich gerne behalten hätte. Wobei auch immer die Frage ist: Wie viel von dem, was ich auf Monitorboxen oder transparenten Profikopfhörern höre, kommt letztlich beim Konsumenten an? Die meisten nutzen wohl Musik-optimierte Kopfhörer oder das Autoradio.

Wie hören Sie die Produktionen beim Schneiden ab?

Das ist wie beim Tischlern: Mit gutem Werkzeug bekommt man präzisere Schnitte hin. Und dazu gehören hochwertige neutrale Abhörkopfhörer, zum Beispiel die AKG K271. Die meisten Kopfhörer aus dem Elektromarkt verstärken die Bässe. Wenn man danach schneidet, neigt man dazu, zu viele Tiefen rauszunehmen. Das Audio klingt am Ende möglicherweise dünn.

Welche Plug-Ins oder Filter gehören für Sie zur Grundausstattung?

Einige Schnittprogramme haben Standards wie die Equalizer schon integriert. Damit kann man die Höhen und besonders die Tiefen einer Aufnahme kappen. Die Tiefen korrigiere ich eigentlich immer. Vor allem bei männlichen Sprechern, die mit wenig Abstand in Mikrofone sprechen, entsteht der sogenannte Nahbesprechungseffekt, ein tiefes Dröhnen, was die Aufnahme eher unverständlich macht. Gleichzeitig erhöht es die Sprachverständlichkeit, wenn man mittelhohe Frequenzen anhebt, dann können aber auch Sprachfehler wie Nuscheln oder Lispeln mehr auffallen. In dem Fall hilft ein sogenannter De-Esser, der scharfe S-Laute dämpft. Doch je besser die Ur-Aufnahme, desto weniger Aufwand am Ende.

Können Sie eine Software empfehlen, die mit den meisten Problemen fertig wird?

Die Plugin-Suite iZotope RX bietet sehr gute Funktionen zur Audiorestauration in besonders schweren Fällen. Vieles geht aber auch mit den mitgelieferten Effekten von Audioschnittsoftware oder manchmal des Betriebsystems.

Ein häufiges Problem ist auch Hall, wenn zum Beispiel in einem Büro mit viel Stahl und Glasfenstern aufgenommen wurde. Kann man da in der Postproduktion etwas retten?

Auch hier gilt: Lieber gleich bei der Aufnahme auf eine gute Qualität achten und das Interview anderswo führen. Hall kann man beispielsweise mit iZotope RX versuchen herauszufiltern. Aber es kann dabei zu „Artefakten“ kommen, dann entsteht auf einmal ein digitales Klirrgeräusch. Oder der Hall ist weg, man merkt aber, dass der Aufnahme auch sonst etwas fehlt -ähnlich wie bei einem Handytelefonat. Was sich leichter filtern lässt, sind konstante Hintergrundgeräusche, die vielleicht noch auf einer Frequenz bleiben. Eine rauschende Lüftung zum Beispiel. Da markiert man eine Stelle, an der das Geräusch freisteht - und die Software kann das bequem aus der gesamten Audiospur entfernen.

Was halten Sie von Masteringtools wie Auphonic?

Ich nutze den Auphonic Leveler gelegentlich selbst zur Lautstärkeanpassung, also um den Pegel in Gesprächen zu vereinheitlichen. Der pegelt nach "Lautheit", quasi der empfundenen Lautstärke und nicht stur nach dem Pegel – das bekommt man manuell nicht so schnell hin. Den Rest behalte ich lieber selbst in der Hand. Aber wenn man sich nicht so tief in die Programme einarbeiten möchte, funktioniert Auphonic schon bestechend gut.

Sie produzieren auch Sendungen fürs klassische Radio wie den Deutschlandfunk. Gehen Sie da anders vor als bei Podcasts?

Früher hätte ich gesagt: Ja, Podcasts können ein bisschen unperfekter sein, je nach Format. Das ist weiterhin so, inzwischen haben sich die beiden Welten aber komplett vermischt. Radiosendungen laufen als Podcasts und einige Podcasts sind so aufwendig produziert wie große Radiofeatures. Der Inhalt zählt. In meiner Twitter-Bio stand früher, ich sei Journalist und Producer für "Radio und Podcast". Jetzt steht da nur noch "Audio".

Gibt es eine technische Innovation im Bereich der Podcastproduktion, auf die Sie schon sehnsüchtig warten?

Da wird sich in Zukunft vor allem durch Machine Learning manches tun. Schon jetzt gibt es Programme, die automatisch "Ähms" entfernen. Wobei ich ja finde, dass "Ähms" oder auch Pausen manchmal wichtig sind und dem Gespräch Struktur geben. Was ich vielversprechend finde, ist die Verknüpfung von Transkript und Schnittsoftware. Audioproduktion über einen Texteditor - da geht die Entwicklung vielleicht hin. Aber das Wichtigste bleibt: Zuhören, bei der Aufnahme und im Schnitt. Es bringt nichts, wenn ein Satz "auf dem Papier" gut aussieht, er muss ja vor allem klingen.