Eine Zeit lang habe ich gerne mit dem Rode NT1-A aufgenommen. Die eine Stärke des Kondensator-Großmembraners ist das fast nicht hörbare Rauschen. Die andere ist für die Aufnahme von Gesang die Fähigkeit, auch kleinste Nuancen und Feinheiten aufzulösen, für eine Sängerin wie Adele unverzichtbar, für einen Sprecher von Texten jedoch eher nervig. Denn diese Feinsinnigkeit des NT1-A bedeutet, dass auch kleinste Unsauberkeiten wie Lippengeräusche, Schmatzen, Zungengeräusche oder nur Geräusche von der Maus in der Aufnahme landen. Das nervte mich. So holte ich wieder mein Rode Procaster aus dem Koffer, stöpselte den geliebten Triton FetHead davor und erfreute mich des warmen, angenehmen Klanges dieses mächtigen Großmembraners der dynamischen Bauweise. Keine Schmatzer mehr, keine Lippengeräusche, ein sonorer Klang, der trotzdem nicht auf Feinheiten in der Stimme und Artikulation verzichtet. Aber oh weh, da war es wieder. Wenn man sich keinen Channel Strip (also einen Mikrofon-Vorverstärker) der 2000 Euro-Klasse leisten kann oder will, ist es so sicher wie das Amen in der Kirche: das Rauschen vom Mikrofon selbst und vom Vorverstärker. Denn aufgrund physikalischer Gegebenheiten rauscht gerade ein dynamisches Mikro eben. Der Kondensator hat da prinzipbedingt die Nase vorn. Also entweder es rauschen lassen, oder … sich etwas detaillierter mit den Rauschreduzierungen in Adobe Audition auseinander setzen. Gesagt, getan. Die Zeit kostet das Erforschen, wie es geht. Hat man das getan, ist das weitgehende Ausschalten des Rauschens nur eine Sache weniger Clicks.


Und weiter …

Eine wiederkehrende Situation sind Sendungen mit Musikstücken aus verschiedenen Quellen und aus verschiedenen Zeiten. Während das alte Supertramp-Album relativ leise ist, haut ein Metallica-Stück danach die Membranen aus den Lautsprechern. Mein erster Ansatz war, jeweils ein Stück über das Kontextmenü unter der rechten Maustaste auf eine bestimmte Loudness zu bringen. Das dann halt für jedes Stück. Neben der Zeit, die das Verfahren benötigte, war das auch sonst kontraproduktiv. Beim finalen Abhören der gesamten Sendung waren dann doch wieder Unterschiede in der Lautheit zu hören, weil zwar die absolute Lautheit jedes einzelnen Stücks gesetzt war, aber nicht in Relation aller beteiligten Stücke. Dazu hat Audition nämlich ein spezielles anderes Tool an Bord.


Und weiter …

Was mich immer gestört hat, war, dass ich in der Küche über den Amazon Echo nicht meine eigene Musiksammlung hören konnte. Ich wollte eben keine Playlisten von Spotify, und auch Amazon Music war mir zu teuer und zu einseitig. Eine erste Idee, Musik von einem USB-Stick an der Fritz!-Box zu hören, scheiterte per PnP ebenfalls. So geriet das Projekt wieder in Vergessenheit. Bis mir ein älterer Raspberry in die Hände fiel.


Und weiter …

Um andere für uns zu gewinnen, sollten wir kompetent, selbstbewusst und leidenschaftlich wirken. Es kommt eben nicht nur darauf an, was wir sagen, sondern auch wie wir es tun. Aber woran liegt es eigentlich, dass uns manche Stimmen in den Bann ziehen – ist es eine Frage der Routine oder angeborenes Talent? In der Podcast-Serie »Smarter leben« gab es einen Beitrag mit dem Phonetiker Oliver Niebur, hier der komplette Artikel, der erklärt, was eine Stimme glaubwürdig und charismatisch macht. Hörenswert für alle, die mit Sprechen zu tun haben.

Smarter LebenDie charismatische Stimme

Das Thema treibt mich mittlerweile in den Wahnsinn. Wie mische ich eine moderierte Sendung so ab, dass Sprache und Musik subjektiv gleich laut klingen, so dass die Sprache verständlich bleibt, man aber bei der nächsten Musik nicht gleich wieder einen Sprint ans Radio einlegen muss? Bisher bin ich das Thema weitgehend experimentell angegangen, war aber mit den Ergebnissen nicht immer wirklich zufrieden. Für mich war die Reproduzierbarkeit wichtig, damit ich nicht bei jedem neuen Beitrag wieder ans Ausprobieren komme. Die Antwort war nahe liegend, aber nicht bewusst. Ich hatte die dazu sinnvollen Tools in Adobe Audition nämlich schon lange in Gebrauch, war mir aber der Tragweite ihrer Wirkung nicht wirklich bewusst.


Und weiter ...

Beim Produzieren eines Beitrages fiel mir vor einiger Zeit auf, dass der Mix in Audition noch ganz ok klang, der exportierte Mix aber deutlich schlechter. Eher grottig, die Stimme klang verwaschen und undefiniert. Verglichen mit dem Original. Am Mikro konnte es nicht liegen, der Export lief mit 192 kBit/s. Sollte also alles im grünen Bereich sein, war es aber nicht.

Wenn man im Nachhinein darüber nachdenkt, wird klar, was da passierte. Eine Fußangel bei der Verwendung des MP3-Formates, die ich intuitiv musste, aber nicht bedachte.


Und weiter ...

Mit O-Tönen kann man auch kleine Beiträge oder Podcasts prima aufpeppen. Doch woher nehmen, wenn nicht selbst aufgenommen? Ein gute Quelle dafür ist YouTube. Von Musik über Politik bis hin zum Zeitgeschehen findet man reichlich Beiträge, Sendungen aller Kanäle bis hin zu Ausschnitten von Filmen. Ein kleines Tools hilft dabei enorm: der 4KVideoDownloader. Damit kann man nicht nur Videos von YouTube herunter landen, sondern auch gleich nur das Audio extrahieren. YT-URL kopieren, den Link einfügen und "Extract Audio" wählen, die MP3-Datei entsprechend ablegen. Die Limitierungen in der freien Version sind für gelegentliche O-Töne eigentlich kein Problem. Wer zieht sich schon mehr als 20 O-Töne pro Tag.

Bitte beachten, das nach der letzten Novellierung des Urheberrechtsgesetzes (UrhG) nur noch Ausschnitte bis zu 15 Sekunden ohne Rechtsverletzung verwendet werden dürfen!

Leider sind die Lautheiten der Quellen sehr unterschiedlich. Ein hilfreiches Tool, wenn man nicht Adobe Audition mit Onboard-Tools verwendet, ist das Youlean-Loudness-VST-Plugin. So klappt das auch mit den O-Tönen.

Aufnahmen nach dem maximalen Pegel auszusteuern, ist nur ein Teil der Wahrheit. In Wirklichkeit ist die Lautheit das Maß aller Dinge. Hier ein guter Artikel, der Lautheit erklärt und wie man es in der Praxis anwendet.

https://www.nrwision.de/mitmachen/wissen/lufs-lautheit-pegeln

Das gilt für Produktionen, die gezielt für Radio und Fernsehen gemacht werden. Geht es jedoch um Podcast oder andere Aufnahmen, die nicht über Sendeprozessoren gehen, gelten andere Regeln. In Audition ist bei der Wahl von EBU R128 als Normierungziel -23 LUFS fest eingestellt. Um andere Werte zu wählen, muss auf ITU umgestellt werden.


Und weiter ...

Bisher kannte ich die Möglichkeit, die Lautheit (nicht den Pegel) einer Spur festzulegen, nur aus Adobe Audition. Doch hier hat Audacity nachgezogen. Seit kurzer Zeit hat Audacity unter den Effekten die Funktion zum Anpassen der Lautheit. Die Anwendung ist relativ einfach. Man wählt das Sample, das angepasst werden soll, einfach aus, ruft die Anpassung auf und gibt vor, welche Lautheit die Anpassung einstellen soll. Wie alle anderen Effekte in Audacity – im Gegensatz zu Audition – kann es Effekte nur als Bearbeitungsfunktion, nicht als dynamische Funktion handhaben. Bei der Lautheit unterscheiden sich da Audacity und Audition nicht.

Allerdings muss man darauf achten, dass als Normalisierung die wahrgenommene Lautheit gewählt wird, was die Grundeinstellung ist. Zwar erlaubt Audacity nicht den Bezug zu den IBU-Rundfunknormen wie Audition, für den Hausgebrauch reicht es schon. Empfehlen würde ich für Podcasts die gute alte -16 LUFS-Vorgabe von Apple, die -14 LUFS bei Amazon halte ich für zu laut. Wenn man regelmäßig Jingles verwendet, sollte man diese einmal so normieren und danach erneut abspeichern. Verkürzt den Workflow gerade bei großen Sample erheblich.

Nicht zum automatischen Anpassen, aber zum Ausmessen der Lautheit bietet sich das Youlead Loudness Meter an.

Ein Kritikpunkt an Audacity, im Vergleich zu anderen Programmen wie Adobe Audition oder Steinberg Cubase, ist der, dass die mitgelieferten Effekte leider nur statische sind. Man kann einen Effekt an einer Spur nur nutzen, wenn man das Sample auswählt und den Effekt anwendet. War es nicht der gewünschte Effektpegel oder die angezielte Wirkung, muss man mit STRG-Z zurück, andere Parameter für den Effekt einstellen und wieder anwenden. Diese Anwendung der Effekte liegt an der Art, wie Audacity entwickelt wurde, nämlich für gleich mehrere Betriebssysteme. Linux, Windows und weitere. Und die handhaben dynamische Effekte jeweils sehr unterschiedlich. So genannte dynamische Effekte, bei denen man im laufenden Betrieb Effektparameter ändern kann und gleichzeitig mithören, muss man nachträglich einbringen. Dieses geht mit den VST-Plugins, Software-Module, deren Schnittstelle die Firma Steinberg schon vor langer Zeit definiert hat. Ein weiterer Vorteil dieser Plugins ist der, dass man zum Beispiel Compressoren oder Equalizer nach dem Anwendungsziel aussucht. Weil ein Compressor für ein Schlagzeug anders verwendet wird als für Sprache oder Gesang. Seltsamerweise haben sich unzählige Hersteller an diese Schnittstelle für Plugins gehalten, weshalb sie heute ein Quasistandard ist. Doch ist die Nutzung der VST-Plugins in Audacity nicht ganz trivial. In Cubase oder Audition geht das einfacher. Aber es ist auch keine Raketenwissenschaft.


Und weiter ...

Winterabende bieten sich gerne für Basteleien an. Deshalb habe ich noch einmal einige meiner Mikrofone versammelt, um ihre unterschiedlichen Sounds und Raumqualitäten zu vergleichen. Aufgenommen habe ich natürlich die Rohdaten, danach wurden sie mit iZotope Nektar 4 Elements in Adobe Audition noch mit künstlicher Intelligenz bearbeitet. Bei den dynamischen Mikros kam vor dem Interface noch ein FEThead zum Einsatz, um 20 dB mehr Ausgangspannung zu holen.


Und weiter ...

Vorbereitung ist alles: Text-Layout

In der Tat ist es bei längeren und komplexen Themen und Texten sinnvoll, den Beitrag vorzuschreiben. Sinnvoll ist es nicht, ihn so zu schreiben wie sonstigen Text, also schön und optisch ansprechend, und mit optimalem Schrifteindruck. Denn das Ziel bei diesem Text ist es, den Text möglichst fehlerfrei und fließend lesen zu können. Der Text soll das Sprechen unterstützen. Dafür gibt es ein paar Stellschrauben, die werden in Büchern auch genannt. An einigen Stellen bin ich erst durch einen einzelnen  amerikanischen Kollegen zurecht gekommen.  Das Ganze in Listenform.

  • Seitenformat A4 ist gut, aber mit deutlichen Seitenrändern, z. B. drei Zentimetern. Der Weg der Augen wird dadurch kürzer gehalten und der Zeilensprung fällt leichter.
  • Als Schriftart eignet sind am besten eine Serifen-Schrift. Sie leitet wegen der Serifen die Augen besser, die Orientierung fällt leichter. Ich verwende Dark Courier. Sie ist angefettet, aber noch nicht fett und hat deutliche Serifen. Die Schriftart muss nicht proportional sein, wie gerne behauptet wird.
  • Zeilenabstand doppelt, damit der Zeilensprung deutlich ausfällt. Hilft ebenso der Orientierung.
  • Im gleichen Sinne: regelmäßige Absätze. Mindestens drei pro Seite.
  • Meine persönliche Erkenntnis schlechthin: im Gegensatz zu den Vorschlägen in Büchern verwende ich keine besonders große Schriftgröße, sondern eine, die ich aus Sichtabstand vor dem Aufnahmepult noch gerade eben gut entziffern kann. Ich war verblüfft, dass das tatsächlich besser funktioniert als große Schrift, weil dadurch, der Wahrnehmung entsprechend, nur die gesamten Wörter erfasst werden, keine Einzelbuchstaben. Man liest flüssiger.

Bei einem Layout wie im Screenshot macht eine Seite ca. anderthalb Minuten gesprochenen Text.

Kleine und größere Helferlein

Ein Tisch-Bücherständer leistet gute Dienste beim Einsprechen im Sitzen. Mit etwas Geschick bekommt man sogar drei Seiten platziert. Mit einem solchen Ständer, ein Notenständer oder ein Klemmbrett hilft auch, hat man kein Papier in der Hand und raschelt nicht herum. Jedenfalls bleibt in meinen Händen kein Papier still. YMMV. Blattwechsel schneidet man später heraus oder nimmt in Etappen auf.

Generell bin ich vom Einsprechen im Sitzen abgegangen. Obwohl es etwas mystisch erscheint, es macht einen großen Unterschied, ob man beim Sprechen sitzt oder steht. Die Atmung verändert sich, im Stehen hat man die Hände frei, kann etwas agieren, die Sprache ist freier. Nimmt man vorwiegend oder nur im eigenen Wohnraum ein, ist ein Orchesterpult optimal. Auf diesem steht das Manuskript, an den oberen Rand kommt eine Klemme für das Mikro. An dieser Klemme findet dann noch gleich der Pop-Schutz Halt. Beide Klemmen stammen von K&M, die große Version hat noch den Vorteil, dass sie fast beliebig positioniert werden kann. Erhältlich beim Musikhändler des Vertrauens oder bei Thomann. Hier die einfache und hier die große Klemme.