Umgang mit verschiedenen Lautstärken

  • Hallo liebe Community,

    bei meiner Videobearbeitung taucht immer wieder ein Thema auf, für welches ich eure Meinungen / best practices hören möchte:

    Konkret geht es um verschiedene Lautstärken:

    - Ich nehme mit meinem Rode das Voice Over auf. Dabei verwende ich meist den Deesser, Noise Reduction und etwas für die hohen Töne. Vom Pegel her stelle ich diese Tonspur auf einen DB-Bereich ein, der zwischen Gelb und Grün ist.

    - Die Musikdateien von YouTube haben eine unterschiedliche Lautstärke - mal muss ich -20 DB einstellen, damit es halbwegs passt, mal muss ich +5 DB geben.


    Mein Problem bei dem ganzen ist jetzt folgendes:

    Wenn es an das Zusammenbauen der einzelnen Segmente geht (ich verwende verschiedene Timelines für die einzelnen Abschnitte), stelle ich die PC-Lautstärke auf 50% und verwende Kopfhörer mit Klinkenanschluss.

    Das hat den Grund, da meine Boxen oder BT-Headset jeweils eigene Verstärkungen haben und die "eigentliche" Lautstärke verwässern.

    Dann höre ich mir beide Spuren gleichzeitig an und gehe nach Gefühl vor. Die Sprachstellen sind besonders interessant, da ich dort die Hintergrundmusik runterdrehe.


    Meine Fragen an euch:

    - Wie macht ihr das?

    - Verwendet ihr einen Pegelmesser in der Software?

    - Welche Pegeleinstellungen sollten für die ganze Videolaufzeit eingestellt werden (Stichwort grün, gelb rot)?


    Zu meinem Setting:

    Verwendet wird DaVinci Resolve Version 17 mit einem Rode USB Mikro.

    Klingenkopfhörer oder BT-Headset oder Boxen


    Vielen Dank im voraus für eure Posts!

  • Wichtiges Thema, denk ich.


    In meinem Arbeitsablauf habe ich mir folgende Werte zusammen gefummelt, die für mich erstmal ganz gut funktionieren. Dabei habe ich in meinem Video-Editor (Vegas Pro 16) die Möglichkeit jede Spur einzeln einzupegeln. Die Software kann mir auch den Pegel einzelner Spuren und den daraus resultierende Gesamtpegel anzeigen, direkt in einer Skala von -100dB bis 0dB. Ich glaube, das ist eine wichtige Funktion, um den Ton im Video gut hinzubekommen.


    Mein Voice-over bearbeite ich vorher in Audacity, dabei gehe ich mit allerlei Filtern drüber, entferne Atemgeräusche, zu starke Zischlaute, etc. manuell. Danach wende ich einen EQ an, der meine Stimme recht passend erweitert. Am Ende schaue ich mir die Waveform an, und suche die 5-10 lautesten Stellen und senke diese Silben manuell um 2-3dB ab, so dass ich schonmal die schlimmsten Ausreißer aus der Aufnahme raus habe. Danach wende ich eine Normalisierung an, die die gesamte Spur so weit anhebt, dass die lautesten Stellen auf -4dB ankommen.


    Im Video Editor packe ich dann neben diese Spur Videomaterial mit Ton, wobei ich den Ton dieser Spur grob auf einen Ausschlag von -15 bis -20 dB max. einpegele. Und im Hintergrund läuft manchmal Musik, die ich dann auf -25dB einstelle. Wenn ich dann beim Probehören Passagen finde, wo sich das nicht so gut anhört, gibt es in Vegas die Möglichkeit kleine Passagen lauter oder leiser zu machen, wo ich dann manchmal noch manuell eingreife.

  • Ich mache die Aufnahmen über Magix und trotz allen Voreinstellungen ist es doch eine ganze Stange an Arbeit/Hobby die Vertonung. Wenn ich dann die Aufnahmen habe versuche ich diese in Shotcut Lautstärketechnisch anzupassen. Dabei schaue ich das Video dann sehr häufig und passe die DB an. Jeder Sprecher bekommt eine eigene Tonspur für Korrekturen.

    bei den Soundeffekten/Musik von YouTube muss ich aber auch die db richtig runterschrauben da die sonst extrem laut wären.

    Sind alle Tonspuren verarbeitet erzeuge ich das Video und stelle es offline in YouTube ein. Dann schaue ich es mal am TV und Handy an ob der Sound auch passt.

  • Zu kompliziert. Ich würde die in Magix direkt schon bearbeiten und einen ausgewogenen Sound herausarbeiten.

    Mit Kompressoren bringst du viel mehr Amplitudensicherheit in die verschiedenen Sprecher rein und kriegst sie psychoakustisch so weit lauter, dass du sie später auch viel mehr im Einklang mit den Sounds bringen kannst, die ebenso schon mit Kompressoren etc. bearbeitet wurden.


    Musik muss man generell viel weiter runterregeln, da sie sonst zu viel Aufmerksamkeit an sich ziehen und der Zuschauer irritiert darüber ist, was genau er jetzt zuhören soll. Die Musik soll nur untermalen, nicht allein entertainen. Die Sounds runden das ganze ab und machen es lebendiger, aber auch sie sollten der Stimme untergeordnet werden, wenn diese gleichzeitig spielen. Wenn nicht, muss an den Sounds an sich nichts gepegelt werden, da sie professionell angenehm bis maximal an die 0 db Marke justiert wurden.

  • die ebenso schon mit Kompressoren etc. bearbeitet wurden.

    Was genau bedeutet eigentlich "Kompressoren" im Audio-Umfeld?


    Ich arbeite auch mit Magix (Video Pro X) und weiß mittlerweile, dass da auch mit Audio jede Menge möglich ist - dazu muss man wissen, dass ich die Möglichkeiten, die Magix bietet, wohl nie ausschöpfen werde, trotzdem, oder besser, gerade deswegen fühle ich mich sicher damit, dass da jede Menge Luft nach oben ist :)

    Wer will, findet Wege, wer nicht will, sucht Gründe...und der Mensch ist Weltmeister im Erfinden von Gründen :D

    Wenn die Klügeren immer nachgeben, haben am Ende die Dummen das Sagen ;)

  • Schau dir mal die EBU-Richtlinie R128, teilweise unterstützen Tools wie Premiere diese Empfehlung sowohl zur Messung der Lautheit als auch zur Normalisierung beim Rendern. Pegel sind nur begrenzt nutzbar, um die Lautheit zu messen. Das fällt insbesondere dann auf, wenn man Mono mit Stereo mischt, z.B. wenn man mit einem Mono-Mic die Voice-Overs einspricht und dann mit einem Stereo-Ton (bei uns die Szenen zu zweit mit dem Field Recorder) mischt.

  • Was genau bedeutet eigentlich "Kompressoren" im Audio-Umfeld?

    Mit einem Kompressor begrenzt du die Dynamik deiner Audioinhalte, indem die lauteren Passagen mit den leiseren Passagen angeglichen werden und das Signal verdichtet wird, während mit dem Make-Up-Gain verlorene Lautstärke wieder ausgeglichen wird. Du hast ein kompakteres Signal und deine Aufnahme ist bei gleichem Pegel lauter.


    Vom Normalisieren bin ich nicht so der Fan, am Ende einen Maximizer und Limiter kommt besser, wenn man da noch die Lautstärke anheben will, weil man da sich schrittweise herantastet und es sonst passieren könnte, das ein "gedrückter" Sound entsteht.

    Eine Stimme muss nie an die 0 db Grenze herangetragen werden, Stimmen funktionieren bei guten -6 db.


    Ein Limiter ist übrigens auch ein Kompressor, dessen Aufgabe ist es jedoch, noch mal Pegelspitzen abzufangen bei leichter Verstärkung. Wie der Name es schon sagt, begrenzt er eine maximale Amplitude.


    Der Maximizer ist ein Verstärker, so kann man sagen, während man damit noch mal mehr Komtrolle hat als beim Normalisieren.


    Aber kein Plan, ob das in deinem Programm drin ist.

  • Aber kein Plan, ob das in deinem Programm drin ist.

    Meistens dann, wenn Magix Sonderangebote setzt, Preisnachlässe oder so, kommen zusätzliche Tools hinzu, das kann z. B. Music Maker o. ä. sein. Fast immer können und werden die in die Video-Software integriert. Ich habe mir das immer mal wieder angeschaut, ohne allerdings daraus wirklich schlau zu werden oder gar etwas "professionelles" damit anzustellen.


    Andererseits probiere ich nicht selten mal mit den Kommentaren herum, aus gegebenem Anlass. Und da tauchen dann und wann eben auch Fachbegriffe auf, mit denen ich inhaltlich noch so garnichts anfangen kann, gerade was Audio betrifft :/ Ganz sicher ist ein Teil davon mein aktuell doch seeeeehr bescheidenes Tonaufnahme-Equipment, aber auch überhaupt. Daher frage ich hier an der einen oder anderen Stelle auch ein bisschen "pentrant" nach :D

    Wer will, findet Wege, wer nicht will, sucht Gründe...und der Mensch ist Weltmeister im Erfinden von Gründen :D

    Wenn die Klügeren immer nachgeben, haben am Ende die Dummen das Sagen ;)

  • Vielen lieben Dank für eure Rückmeldungen!

    Die Tipps mit Audacity und der EBU schaue ich mir genauer an.

    Das Hauptprogramm möchte ich nicht ändern - daher ist Magix daher derzeit keine Option.

    Ich arbeite mich immer noch in DaVinci ein - habe seit Jänner von FCP da hin gewechselt und ich kaue immer noch an einfachen Dingen...

  • Hey Werkbär!

    Klingenkopfhörer oder BT-Headset

    Das "klingt" gefährlich.... oder besonders gut!

    Sry! 😄



    Was mir auffällt, wenn ich mal eben durch deine letzten 10 Videos durchklicke ist, dass sich die Lautstärke der Videos, so wie die du sie hochgeladen hast, teilweise recht stark unterscheiden.

    Während die meisten auf nem guten ähnlichen Level liegen...



    sind manche etwas zu leise....



    andere wieder so laut, dass YT sie auf ein gewisses Level normaliesiert...



    Alles nicht tragisch, aber es empfiehlt sich natürlich mit dem Level möglichst nahe an das heranzugehen, was dir YT erlaubt, so dass du über verschiedene Videos hinweg ein möglichst gleichmäßiges Level erreichst, ohne dass deine Viewer am Lautstärkeregler drehen müssen.

    Aufbauend auf das, was sven@yammibean gepostet hat, kannst du dich dazu an den allseits ominösen -14 LUFS ("Loudness Units" gemessen an "Full Scale") orientieren, mit denen du bei YT ganz gut aufgestellt bist.


    Das heißt nicht, dass du nicht auch mal mit -11 LUFS (oder mehr) durchkommen kannst (habs schon versucht, war zu laut 😂) oder dass es völlig ausgeschlossen ist, dass bei -14 LUFS YT jemals an deinem Audio rumwerkelt. YT hat wie jede Platform sein eigenes System und seine eigenen Algorithmen (und ändert diese!) und normalisiert nicht blind einfach alles über einen -14LUFS - Kamm.

    Dennoch ist es ein guter Richtwert, der recht einfach einzuhalten ist.


    Du verwendest DResolve (gute Wahl 👍😉). Ich nehme mal an, du verwendest also den Fairlight Tab zur Aufnahme!? Ich selbst nehme zwar Audio in Cubase auf, dennoch bietet dir Fairlight alles was du brauchst.


    Stelle zuerst einmal sicher, dass du in den Einstellungen unter Fairlight das Ziellevel auf -14 LUFS stellst (steht für gewöhnlich auf -23).



    "0" auf dem Loudness Meter ensprechen jetzt -14 LUFS.



    Jetzt aktivierst du den Automation Button (wichtig, sonst siehst du später nichts),



    öffnest links oben den Index und schaltest den Master Bus auf sichtbar, für den Fall dass er ausgegraut ist:



    Dieser erscheint dann für gewöhnlich als letzte Audiospur. Jetzt aktivierst du nur noch die Loudness History, machst einen Haken bei "Integrated" ("Momentary" und "Short Term" sind sehr interessant, zeigen dir aber nicht die LU über die gesamte Timeline sondern nur Momentaufnahmen) und schon siehst du für die gesamte Timeline den Richtwert 0 (der ja unseren -14 LUFS entspricht).


    Wenn du die Timeline jetzt ablaufen lässt erfährst du anhand einer zweiten Linie die LUFS deines gesamten Audio. Wenn du Anpassungen vornimmst, muss du die Timeline erneut durchlaufen lassen, Fairlight entwickelt/errechnet dann aus den kurz- und mittelfristigen Werten die LUFS über die gesamte Timeline. Wenn die Linie sich am Ende auf einem konstant blauen Niveau unter 0 bewegt, bist du für gewöhnlich auf der sicheren Seite für YT.


    Das ganze hilft dir natürlich nicht für die Balance zwischen einzelnen Audiospuren, wie dem Verhältnis von Sprache zu Musik (Mixing), sondern ausschließlich, um einen guten und gleichmäßigen Zielwert deiner Videos für YT zu finden.


    Cheers!

  • Moin Moin aus Hamburg,


    ich bin mal ehrlich, ich habe die Antworten alle nur überflogen.

    Ich habe Film studiert und was ich was den Ton angeht gelernt habe, dass alles eine Grundlautstärke von -6db haben soll. Musik soll bei -12db liegen und Atmo wie auch die komplette Grundlautstärke bei -6db.

    Wenn der Pegel grün ist, ist der Ton von der Lautstärke her nicht übersteuert. Je weite es allerdings ins Rote geht, je mehr ist der Ton übersteuert. Je mehr der Ton übersteuert ist je weniger lässt es sich im nachhinein in der Postproduktion korrelieren.

    Hoffe das hilft. Sind so Richtwerte auf die beim Film immer seht stark geachtet wird und die einfach Standard überall sind.

  • Moin Moin aus Hamburg,

    "Moin moin" ist gut :D ...ich schaue grad aus dem Fenster meiner Wohnung in Ottensen, und es ist fast zappenduster...schon, nicht noch :D


    Was Du geschrieben hast, hat's wirklich in sich.

    Erst jetzt, hier im Forum, habe ich mir mehr Wissen bezügl. (Youtube-) Video-Produktion aneignen können als in der Zeit seit 12/2017 zusammen,...und gerade jetzt, wo ich mir deutlich besseres Equipment als mein "altes" simples Logi-Headset zum Aufnehmen von Kommentaren angeschafft habe, merke ich, dass ich künftig sehr viel mehr Aufmerksamkeit einer guten Tonqualität widmen sollte.

    Wer will, findet Wege, wer nicht will, sucht Gründe...und der Mensch ist Weltmeister im Erfinden von Gründen :D

    Wenn die Klügeren immer nachgeben, haben am Ende die Dummen das Sagen ;)

  • Hausbar Vielen lieben Dank für dein Feedback und deine sehr genaue Anleitung!!! Ich werde das beim nächsten Video sofort beherzigen! Insbesondere die einzelnen Schritte werden mir sicher viel helfen!

    Seit ich auf Resolve gewechselt habe, tue ich mir mit dem Sound schwer - es mal so mal so und mit den "Klingenkopfhörer" (super Typo - ist mir nicht aufgefallen!) habe ich das schon unter FCP gemacht, was sich dann immer irgendwie eingependelt hat. Nur eine Frage: mit welchem Tool hast du die Messungen auf den ersten Screenshots gemacht?


    HannaLena90 Auch dir vielen Dank! Ich habe immer versucht zwischen Grün und etwas Gelb zu "landen". Im letzten Video waren hin und wieder rote Ausreisser dabei, die ich aber nicht weg bekommen habe.


    Nordmann2021 Der Ton macht die Musik :) Ich habe das Thema auch immer vernachlässigt und es irgendwie hin bekommen. Aber nun habe ich hier einige super Rückmeldungen erhalten, die mir (und vielleicht auch dir) sehr helfen!

  • Gerne doch!


    mit welchem Tool hast du die Messungen auf den ersten Screenshots gemacht?

    Wenn du dich auf die Screenshots deiner YT-Videos beziehst, das ist ein integriertes Feature in YT selbst.

    Einfach Rechtsklick auf dein Video und im PopUp Menü auf "Statistik für Interessierte" ("stats for nerds" falls dein Browser auf Englisch unterwegs ist) klicken. Da siehst du auch Dinge, wie den von YT verwendeten Codec für deine Videos usw.

    Beachte, dass die erste Prozentzahl vor dem slash (/) (Volume) sich auf die in deinem Player eingestellte Lautstärke bezieht und nichts mit deinem Upload zu tun hat. (die zweite richtet sich dann im Verhältnis danach, wenn sie nicht von vornherein schon auf dem

    selben Level ist (also Beispiel 3. Screenshot (100%/64%), da dein Video zu laut war und normalisiert wurde... heißt wenn du jetzt im Player auf 50% runterdrehst geht die zweite Zahl auf 32%).


    Im letzten Video waren hin und wieder rote Ausreisser dabei, die ich aber nicht weg bekommen habe

    Ich nehme mal an, da du ein USB Mikro verwendest, bewertest du das anhand des digitalen Meterings in Davinci Resolve?


    Wenn dem so ist, ist das ja letztendlich kein Problem, da dir der farbige Pegel hier nur als visueller Indikator dient, wie nah du an die 0 dB Grenze heranrückst. Rot steht hier ja nur für die letzten -10 dB vor 0 dB und nicht für Clipping (0 dB und darüber), was zu Verzerrungen in der Aufnahme führt.

    Bei einem analogen Interface, hättest du meist einen klareren Indikator, wann deine Aufnahme in einen Clipping Point hineinläuft.


    Der Grund, dass du bei Aufnahmen im Musikbereich wenn möglich im Bereich von um die -15 dB bleiben möchtest (ca. -18 dB bis maximal -12 dB), was unter anderem durch minutiöses gain staging in der DAW erreicht wird, liegt am nachfolgenden Mastering.

    Für das Mastering hat man gerne genug Luft nach oben (der sogenannte Headroom), um chirurgisch per EQ, Kompressoren usw. nochmal detailliert in die finale Soundspur eingreifen zu können und den Track am Ende auf das gewünschte Level zu bringen, ohne Verzerrungen hervorzurufen.

    Wenn du bereits am Limit aufnimmst, sind einem beim Mastering die Hände deutlich stärker gebunden.


    Warum erzähle ich das jetzt? Es geht darum zu wissen, wofür diese Tools gemacht worden sind, was sie dir tatsächlich anzeigen und was dir das am Ende für deinen Anwendungszweck aussagt.


    In deinem Fall findet ja quasi nur das voice recording statt, bei dem du darauf achten möchtest, das Signal bei der Aufnahme nicht zu Übersteuern, das Mixing bestünde eigentlich nur aus Sprachaufnahme und dem/den bereits fertigen Musik Track(s) die gegneinander ausbalanciert werden müssen (und evtl. die Bearbeitung deines voice recordings mit Plugins etc.) und das Mastering wäre dann, das Gesamtpaket auf ein passendes Niveau für dein Video zu bringen. Das hatten wir ja schon weiter oben angesprochen (LUFS und so).


    Es ist natürlich sinnvoll, dass du dein Voiceover so aufnimmst, dass du damit noch ein wenig spielen und gegen den Musik Track ausbalancieren kannst.

    Du kannst deine Sprachspur aber ruhig ein wenig lauter aufnehmen (allerdings ohne clipping!), als irgendwelche Richtlinien für die Musikproduktion das vorsehen. Wir mixen hier ja schlussendlich keine Musik und deine Sprache muss beim Voiceover dominant zum Rest sein.


    Orientiere dich ruhig an der Richtlinie von HannaLena90 von -12 dB zu -6 dB (was ja bei -6 dB schon tief im roten Metering Bereich ist! Wie du siehst, also kein Problem.) als Spitzenwerte für Musik und Sprache und schau dir dann mal an, was bei der LUFS Analyse rauskommt. Dann kannst du immer noch Anpassungen vornehmen.


    Eventuell könntest du das Ducking (Absenken des Pegels von Musik zu Sprache) noch etwas smoother gestalten. Ich bilde mir ein, das war hier und da etwas abrupt, muss ich aber nochmal reinhören.


    (Bin ein bisschen müde und schreibe, glaube ich, schon lauter irrelevantes Zeug... muss die Impfung gestern gewesen sein... 😅)


    Eigentlich wollte ich wohl nur sagen, "rot" bedeutet in diesem Zusammenhang, dass du kurz vorm Limit agierst und nicht, dass du die Aufnahme bereits gegen die Wand fährst.

  • Hausbar Wow - danke dir für diese ausführliche Erklärung! Habe wieder einiges gelernt! Die Übergänge zwischen Musik und Sprache (mit Hintergrundmusik) mache ich bei jeder Stelle individuell mit dem Ausfaden im Fairlight. Da verwende ich verschiedene Kurvenformen, welche stark von der Musik abhängen. Aber genau auf diese Details muss ich mehr achten - den ganzen Soundbereich habe ich immer "aus der Hüfte" zusammengebastelt.

    Jetzt wo ich weiß, wo ich genauer hinsehen soll bzw. wie ich die vorhandenen Tools gut einsetzen kann, wird es sicher besser :)

  • Hausbar Ich bin gerade dabei, deine Tipps umzusetzen komme aber bei folgendem Thema nicht weiter:

    Im Fairlight-Tab habe ich den Mixer und den Loudness Bereich. Die Audiospur (in diesem Fall ist es nur Musik) ist im Edit-Tab mit einer Lautstärke von -5 dB angegeben.

    Wenn ich die Spur im Fairlight-Tab abspiele, verwende ich den Mixer dieser Spur um geradewegs unter "0" (sind die -14 LUF) zu kommen.

    Und jetzt steig ich aus:

    Mit dem Mixer habe ich -2,4 dB eingestellt, damit ich gerade unter 0 komme - sollte passen.

    Nun ist mein Verständnis dieses, dass ich zu den -5 dB aus dem Edit-Tab noch weitere -2,4 dB dazugebe - also in Summe -7,4 dB.

    Wenn ich das mache, stimmt aber die neue Kurve der Loudness History nicht mehr - es ist sogar schlimmer als vorher.


    Wo denke ich falsch? Soll ich die Mixer-Einstellung im Fairlight-Tab mit -2,4 dB lassen und dann "delivern"?

  • Hmm, ich fürchte, ich verstehe dein Vorgehen im Edit und in Fairlight nicht ganz...


    Hast du jetzt die Volume der Musikspur im Edit tab um 5 dB reduziert und dann in Fairlight den Fader der Audiospur nochmal um 2,4 dB nach unten gezogen?

    Oder habe ich das jetzt völlig falsch verstanden?

    Wenn ja, warum überhaupt den Fader bemühen und nicht den Gain der Audio gleich auf das erforderliche Level bringen?

    Und was war im Endergebnis das Problem? Bist du bei über 14 LUFS gelandet?


    Sry, bin mir nicht ganz sicher wie du da jetzt vorgegangen bist. Bin jetzt erstmal ne Runde Laufen, aber ich schaue mir das später beim Essen noch mal in Ruhe an. Vllt verstehe ich ja dann das Problem. ☕😉


    Vllt mögen andere Davinci Nutzer ja auch ihr Verständnis beisteuern... Als kompletter Amateur möchte ich hier nun wirklich nicht als graue Eminenz des Video- und Audioschnitts verstanden wissen (eher semiprofessioneller try-and (t)error-Autodidakt)! 🙄😄

    Hallo Kilo sag doch auch mal wieder was. 😎

  • Hast du jetzt die Volume der Musikspur im Edit tab um 5 dB reduziert und dann in Fairlight den Fader der Audiospur nochmal um 2,4 dB nach unten gezogen?

    Oder habe ich das jetzt völlig falsch verstanden?

    Genau das habe ich gemacht - da war die Loudness um die 0 eingependelt (also den eingestellten -14 LUF gemäß deiner ersten Schritt für Schritt Anwendung).

    Dann habe ich die Messung resetted und im Edit Tab den neuen dB Wert eingestellt (-7,4 dB) und dann in Fairlight Tab die Linie bzw. Loudness neu gemessen.


    In der Zwischenzeit habe ich einige Varianten ausprobiert und nun stelle ich die Lautstärke der Audiospur nur im Edit-Tab ein und messe im Fairlight-Tab jedes Mal neu.

    Dann drehe ich solange an der Lautstärke bis die Messung um die 0-Linie herum eingependelt ist.

  • Ich würde den Fader (im Fairlight Mixer) für deine Anwendung in der Ausgangsstellung (unity) belassen (übrigens Doppelklick auf den Fader und er springt zurück in unity, macht das Leben einfacher 😉).


    Theoretisch kannst du natürlich den Fader nutzen. Der Fader beeinflusst auch sämtliche Inserts/Plugins die in der Signalkette vor ihm liegen (Pre-Fader-Inserts). Das ist nützlich, um diese gezielt mit anzusprechen oder eben nicht.

    Ohne Verwendung jeglicher Dynamik Plugins etc. kannst du dir das aber eigentlich sparen und das ganze über die Volume des einzelnen Audio steuern, was dir stellenweise auch mehr Präzision erlaubt, da der Fader sich ja immer auf die gesamte Spur und nicht nur auf einzelne Events (in diesem Fall Audiofiles) auswirkt.


    Außerdem wird es schnell ein bisschen umständlich mit dem Fader präzise zu arbeiten, wenn du dich zu weit von +-10 dB entfernst.

    (Dezibel bezogen auf Schalldruck ist ja schließlich kein linearer sondern ein logarithmischer Wert: +6 dB = doppelter Schalldruck; ca. +10 dB = doppelt empfundene Lautstärke!

    Heißt also -10 dB = doppelt so laut wie -20 dB. 0 dB = doppelt so laut wie -10dB und daher viermal so laut wie -20 dB, usw. )

    nun stelle ich die Lautstärke der Audiospur nur im Edit-Tab ein und messe im Fairlight-Tab jedes Mal neu


    Du bist dir bewusst, dass du die Lautstärke/Volume der Soundfiles auch in Fairlight ändern kannst, ohne den Fader bedienen zu müssen, nicht wahr? (Ich frage, weil du davon sprichst, in den Edit Tab zurückzugehen, um die Volume zu ändern.)


    Nur für den Fall, dass das unklar ist (und ich hoffe mir wird vergeben, wenn ich wieder zu triviale Dinge erkläre, scheint momentan mein Vibe zu sein, habe ich mir an anderer Stelle sagen lassen...):


    In Fairlight auf das entsprechende Event (bspw. die Soundfile in Waveform) klicken, rechts oben den "Inspector" öffnen und einfach unter "Audio" die "Volume" ändern. Also genau wie im Edit Tab auch. (Kannst natürlich auch in der Waveform die Volume-Linie packen und schieben, ist aber unpräzise)



    Ich persönlich würde gar nicht versuchen so knapp wie irgend möglich an die -14 LUFS ranzukommen. Keiner kann dir genau sagen, welche Algorithmen YT da anwendet.

    Kann sein, dass wenn du viele Short Term Peaks, die deutlich über 14 LU liegen, in deinem Track hast, YT der Ansicht ist, dass das zu laut ist, obwohl du über die gesamte Timeline gesehen -14 LUFS einhälst.

    Ich gehe nicht davon aus, aber mit Sicherheit sagen, kann ich es dir nicht.


    Wenn deine blaue Loudness History Linie unter -14 LUFS am Ende noch ein bisschen Luft von 3 dB oder auch mehr hat, ist das sicherlich kein Schaden.


    Ich denke eine gute Balance der Lautstärke zwischen Musik und Sprache, sowie ein gleichmäßiges Level über all deine (zukünftigen) Videos ist sehr viel wichtiger als den nächsten Loudness War zu gewinnen. Orientiere dich also am besten daran, ein Level zu finden, dass für dich funktioniert, ohne dass du stundenlang am Volume Knöpfchen schrauben musst.


    Ich kann selbst erst mehr dazu sagen, sobald ich mehr eigene Erfahrungen dazu gesammelt habe.

    Bedenke auch, dass ich selbst keine typischen Voiceovers erstelle und halte dich daher ruhig an die Erfahrungswerte von Leuten, die weniger Fokus auf Musik und mehr auf Sprache haben.



    Da fällt mir noch etwas ein, was dir eventuell nützen könnte (falls nicht ohnehin bekannt, aber da du neu in Davinci Resolve bist, ist es vllt nicht selbstverständlich): Compound Clips!


    Angenommen, du hast deine Musik- und deine Sprachspur aufeinander angepasst, die Verhältnisse stimmen soweit, das Ducking etc. ist alles zu deiner Zufriedenheit.

    Jetzt checkst du die LUFS gegen und stellst, aus welchen Gründen auch immer, fest, dass das Ganze zu laut/zu leise ist.

    Jetzt fängst du an, die Musikspur anzupassen, dann die Sprache hinterher. Checkst wieder gegen, wo du bei den LUFS stehst. Nervig! Aber kein großes Thema bei zwei Audiopuren. Angenommen aber, dass du zig VoiceOver-Schnipsel hast und mehrere Music Tracks, ist das gar nicht lustig.


    Daher, alles erstmal soweit fertig machen, alle Audiospuren im (Edit Tab) markieren, Rechtsklick, "New Compound Clip...", den Clip benennen und Voilá, schon hast du alle markierten Audiofiles zu einem einzelnen Event zusammengefügt, das sich natürlich auch über einen einzelnen Volume Regler anpassen lässt.

    (Vorsicht! Wenn du die den Audiofiles zugehörigen Videospuren nicht auch vereinen möchtest, musst du vor dem Markieren der Audios das Kettensymbol "Linked Selection" (Strg+Shift+L) deaktivieren oder die Audios, die an Videos gebunden sind einzeln de-linken (Strg+Alt+L)).









    Falls du nachträglich doch noch etwas ändern möchtest, keine Tragödie. Rechtsklick auf den Compound, "Decompose in Place" und deine Audios purzeln wieder raus.



    Nur für den Fall, dass dir Compounds noch neu sind.


    Cheers!

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite?
Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!