Beiträge von Hausbar

    Wow, das ist mal ne "mall" of text... Respekt!


    Viele interessante Aspekte, die du hier ansprichst.

    ... und jetzt ist mein Kaffee kalt, schönen Dank! ☕🧊

    WA ... WA ....WA ...WAAAAAAAAAAAAAAAS?


    Im Namen von Elgato, werd ich dich bestrafen ... ich bin ... Sailor Wave Panel :evil: ;P

    sry ... es musste aus meinem Kopf raus

    Haha... warte nur, dauert nicht lange, dann fangen die auch noch an Mikrofone zu bauen.... oh... wait... 🙄😂

    Tatsächlich dürfte Greenscreen ein bisschen schwierig werden, bei dem geringen Abstand, den man in Bild 1 sieht.

    Das ist schon irgendwie machbar, jedoch wird der von dir angesprochene grüne glow Effekt (nennt sich übrigens green spill) umso stärker, je mehr du die Wand/den Screen von der Seite / von oben ausleuchtest, um den kräftigen Schattenwurf, den du mit dem geringen Abstand kreierst, zu reduzieren.

    Das ist das blöde an der Sache, wenig Abstand bedeutet intensivere Schatten. Mehr Licht bedeutet mehr Reflexion und damit mehr Spill.

    Egal wie du das ausbalancierst, das wird vermutlich eine Menge Nachbearbeitung beim Keying benötigen.


    Um mal einen anderen Vorschlag zu machen; das Zimmer schaut jetzt nicht gerade so aus, als wäre die Akustik darin richtig toll.

    Wie wäre es von daher mit ein paar farbig zu deinem Logo/Thema passenden Absorbern / acustic panels an der Wand?

    Da kann man sicher einiges mit zaubern, sind noch relativ neutral und sie würden im besten Fall die Sprachqualität deiner Videos verbessern.

    was könnte das sein?

    Ich höre da an den enstsprechenden Stellen erstmal nichts ungewöhnliches, was diese Audioabschnitte vom Rest unterscheiden würde.


    Was diese Streifen in deiner Audiospur aussagen, kann dir leider nur jemand beantworten, der das selbe Videoschnittprogramm nutzt, wie du.

    Falls die Dokumentation von Magix halbwegs was taugt, kannst du ja mal einen Blick in das Manual wagen. 😉


    - off Topic -

    Aber dein Mikro ist auch zu laut, wenn ich das mal so erwähnen darf. Ist zwar nicht übersteuert, aber es klingt ein wenig aufdringlich. Das ist schon ein bisschen too much. Klingt so, als hätte man mit dem Kompressor ein wenig übertrieben.

    Ich glaube, du bist zu nah am Mikro. Jedenfalls sind deine Atmer auch immer auf einem unangenehm hohen Level.

    Nö, mein Kompressor (outboard gear) ist recht sanft eingestellt und mein Gain sehr zurückhaltend...


    Dass das ganze hier im Video zu laut ist, was es definitiv ist, liegt einerseits daran, dass das das erste mal ist, dass ich jemals irgendwas in einem quasi Live Setup eingesprochen habe (oder auch überhaupt, ich mache sowas sonst nicht). Da ich dabei zwischen drei Monitoren hin und her manövriert habe, war ich viel zu oft viel zu frontal und nah am Mikro. Ich habe aufgrund der vielen Monitore auch Schwierigkeiten das Mikro optimal zu positionieren (irgendwas ist immer im Weg...), was die Sache nicht besser macht.


    Dann harmoniert das Procaster mit meiner Stimme, die ja nicht grade sehr dunkel ist 😄, nicht allzu toll, was das ganze in meinen Ohren manchmal etwas metallisch klingen lässt.

    Und nicht zuletzt habe ich einen furchtbar hohen Anteil an clicking noises (Mundgeräusche, etc.) in meiner Aussprache, die man normalerweise nicht hört, von einem Mikro aber gnadenlos geboostet werden.

    Dass ich aus Testgründen, das gesamte Audio nahe an die -14 LUFS hochgeschraubt habe, erweist den Baustellen in der Aufnahme natürlich auch keinen Freundschaftsdienst (ich schätze mal, hier hat es im Rendering auch das geboostete PreAmp Rauschen zerrissen).


    Wie du siehst bin ich da selbst mein größter Kritiker und mir der Probleme durchaus bewusst.

    Natürlich könnte man an den meisten Problemstellen in der Nachbearbeitung Hand anlegen.


    (Hatte hier vor kurzem auch mal das Shure SM7B in Betrieb. Schönes Mic. Hätte es fast behalten, gar nicht so sehr wegen des Klangs, sondern auf Grund der einfacheren Platzierung, durch die bessere Aufhängung. War mir dann aber erstmal keine 380 Euro wert, dafür, dass ich bisher eigentlich nie etwas einspreche)


    Aber für mich war das ein netter kleiner Test, wie das ganze ohne Audionachbearbeitung (bezogen auf EQs, Dynamics, usw.) aus der Box kommt. In einer Streaming Situation, stünde man ja vor den selben Herausforderungen.


    Long story short; schlussendlich sind wir uns ja grundsätzlich einig, was den Sound betrifft.


    - off topic -


    keine Sorge, ich habe mich hier bei Deinem/n Kommentar(en) dazu kringelig gelacht

    Na da bin ich ja beruhigt, ich werde nachts (exemplarische Eule hier) manchmal allzu gut gelaunt... da wechselt dann mein Habitus von überheblich sarkastisch, zu positive vibes flapsig... 😉

    Vllt lesen sich ja jetzt meine Kommentare etwas entspannter, wenn man die Person dahinter mal gesehen/gehört hat.

    Das geschriebene Wort wirkt oftmals schnell allzu ernst und konfrontativ. ☕


    Cheers.

    Na da hast du ja einiges durchgemacht, hinsichtlich Screen Capturing, mein Beileid!


    Wie WritingDelight schon angesprochen hat, handelt es sich beim Clipping um die Übersteuerung deines Mikrofonsignals.

    Ich war mal eben so frei und habe dir das in Videoform dargelegt... Ist ein bisschen länger geworden als angedacht, sry...

    (Kann natürlich wieder dauern, bis YT das in HD und höher ausspuckt.)


    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Im Nachhinein betrachtet, sollte ich lieber keine Video Tutorials auf YT starten... Meine Güte! 🙄😂

    (14.30 min. Holla die Waldfee! So stottern meine PreAmps Gott sei Dank nicht!!! Die Aufnahme selbst war super smooth. Eigenartig!)

    Hier ab sek 14 besonders prägnant zu Hören, als dein Mikro in der Sprechpause längere Zeit offen war.


    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Die Frequenzen sind auch ganz klar auszumachen (1,7kHz bis 2,3 kHz, wie auch 6,4 kHz bsi 7,2kHz):


    Hey Nordmann2021,


    Wäre es entgegen dem doch zwingend notwendig, Ton, z. B. Kommentare auch am Smartphone zu testen?


    Nein, absolut nicht. Mach dir keinen Kopf darüber. Diese Dinge wie A/B Vergleich auf Studiomonitoren, Kopfhörer (offen/geschlossen/hoch- und niedrigohmig/etc.), Hifi-Anlage, Auto, Smartphone usw. sind durchaus interessant für komplexe Soundkompositionen, um einen Eindruck für den Track bei verschieden ausgeprägten Frequenzgängen zu bekommen. Auch um das Stereofeld und damit die Verortung verschiedener Instrumente im Raum in unterschiedlichen Abhörsituationen besser einzuschätzen. Aber das betrifft nicht deinen Anwendungsbereich. Der Backgroundtrack, also dein Game Sound ist bereits eine fertig abgemischte Stereospur. Obendrauf kommt dein Mikro, also eine Monospur, die einfach zu gleichen Teilen auf Stereo ausgegeben wird.

    Größere Probleme sind hier nicht zu erwarten.


    Natürlich ist es immer eine Bereicherung sich die eigene Produktion auf versch. Endgeräten anzuhören. Aber ehrlich gesagt, angenommen da sollte dir jetzt irgendwo was nicht zusagen... Was würdest du tun? Würdest du den Equalizer auspacken und gezielt versuchen deinen Sound für Smartphonelautsprecher zu optimieren?

    Wenn ich mal eben bei deinen Videos auf Mono umschalte, erlebe ich keine unangenehmen Überaschungen. Damit ist soweit erstmal alles im grünen Bereich.


    Viel wichtiger ist erstmal, dass du einen sauberen Klang deiner Stimme in die Aufnahme bekommst. Und da ist noch Luft nach oben.


    Irgendwie empfinde ich den Ton als ungewohnt

    Er ist vorallem erstmal zu laut. Und zwar sowohl der Gain, der an deinem Mikro anliegt, als auch der Export deines finalen Audio.


    Du bist in deinen letzten drei Videos erst 1,3 dB, dann 2,3 dB und zuletzt 3,2 dB über dem Maximum, das dir YT erlaubt. Damit greift YT mit normalisierenden Maßnahmen weiter in dein Audio ein, als das die Umwandlung in den Codec ohnehin schon tut.

    Nicht tragisch, aber vermeidbar. (Ob du deine finale Audiospur(en) in Zukunft nach Gefühl einfach ein paar dB reduzierst oder analytischere Maßnahmen ergreifst, wie ich sie schon bei derwerkbaer gepostet habe, musst du selbst entscheiden.)


    Ganz offensichtlich ist aber, dass dein Mikrosignal an manchen stellen clippt. (Eigentlich sollte dir die Clipping Leuchte deines Interfaces das anzeigen)

    Hier in den ersten 25 sek gleich mehrmals deutlich zu hören:


    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    Du musst beachten, dass du dieser Distortion nicht nachträglich in deiner Recording- und/oder Videoschnittsoftware entgegenwirken kannst, in dem du die Volume verringerst oder dergleichen. Das Problem besteht bereits vor der Wandlung von Analog zu Digital.

    Wenn das Clipping erstmal in der Aufnahme ist, ist es zu spät. Du musst also dein Mikro etwas besser einpegeln (dabei auch den kontinuierlichen Abstand zum Mikro beachten, 5 cm näher oder weiter weg, machen einen deutlichen Unterschied, insbesondere bei deinem dynam. Mikro).


    Sobald das passt, könnte man auch nochmal an die Rauschreduzierung gehen. Aber das schaut man sich besser nochmal an, sobald der Gain stimmt.

    Darüberhinaus hast du da auch immernoch ein mysteriöses Fiepen in der Aufnahme, das ich nicht zuordnen kann. Hast du da noch irgendwelche Gerätschaften außer deinem Rechner um dich herum am laufen?

    So, jetzt komm ich natürlich und nerv wieder rum... 😂


    Finde ich so weit gut, allerdings bist du etwas leiser geworden als in den meisten Vorgänger Videos. Wie schon gesagt, sollte man nicht versuchen mit der Brechstange so nahe wie möglich ans Limit zu kommen.

    Aber wenn ich mal kurz in die YT Stats schaue dann sehe ich (jep, es ist wieder Screenshot-Zeit...):


    Ganze -8,2 dB (die Zahl bitte kurz merken!):



    Vorher warst du so rund herum bei -2 dB bis - 3,5 dB.

    Das ist dann schon spürbar, wenn man von einem deiner Videos zum nächsten springt.


    Wenn ich mir jetzt mal dein Audio klaue und das durch die Analyse schicke, sehe ich folgendes:



    Du landest bei ca. -8,1 bis -8,2 dB unter -14 LUFS ... Zahl weiter oben gemerkt? Genau! Das was YT auch sagt. It's Magic! 😎


    Nochmal etwas farbiger:



    Du musst also wenig Bedenken haben, hier noch ein bisschen mehr Gas zu geben und das Ganze ein paar Dezibel anzuheben.

    Traue deinen Ohren, je nach Balance zwischen Musik und Sprache kommst du, denke ich, mit so -3 dB bis -4 dB unter -14 LUFS auf ein angenehmes Level.


    Darüber hinaus finde ich, du könntest deine Sprache noch etwas deutlicher über die Musikspur setzen. An manchen Stellen fehlt mir da trotz abgesenkter Musikspur etwas die Präsenz.

    Mit nem Kompressor wäre das vllt etwas einfacher zu erreichen, als einfach nur dB zu pushen, aber das ist natürlich deinem persönlichem Empfinden überlassen.

    Auch könnte man mit nem EQ ein paar Frequenzen bereinigen, aber da halte ich mich lieber etwas mit Ratschlägen zurück. Da muss ich selbst erst noch einiges über den vernünftigen Einsatz von EQs für Sprachpräsenz lernen.


    Im Spektum Editor sieht man auch, dass da an manchen Stellen im Bereich zw. 1-2 kHz die Frequenzen ein bisschen gegeneinander ankämpfen (Rosa ist hier deine Sprache), aber das ist jetzt Rosinenpickerei...


    Ich habe damit nur mal eben deine Vocals aus der Musik rausgemixt und die Lautstärke der Spuren ein bisschen (3dB) nach oben korrigiert und mal nen Kompressor auf deine Sprache gepackt.

    Ergebnis war dann ca. -4,1 dB unter -14 LUFS




    Habe mal eben ein paar Soundschnipsel als Gegenüberstellung aus Original und Bearbeitung zusammengestellt und hochgeladen.

    (Ist ein nicht gelistetes Video auf einem nicht anderweitig genutzten Testkanal von mir. Ich gehe also nicht mit deinem Audio hausieren und nehme es, auch gerne da wieder runter, wenn du möchtest 😉)


    Externer Inhalt youtu.be
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    (Stats von YT musst du jetzt natürlich in dem Fall ignorieren. Die sind durch den Mischmasch nicht aussagekräftig.)


    Natürlich sind da jetzt auch anderweitige Artefakte drinnen, die vom Trennen der Vocals vom restlichen Track stammen, sowie Bearbeitung deiner Audio durch YT, rerecorden von mir, nochmals rendern, nochmals Codec von YT,... 😄

    Aber ich denke, man kann den Unterschied nachvollziehen.

    Ob dir das allerdings besser gefällt, steht auf nem ganz anderen Papier. Ist alles nur mein persönliches Empfinden, Granatie gebe ich für gar nix und am Ende vom Tag machst du das, was dir am besten gefällt! ☕


    Cheers!

    Aber bzgl. der Bezahlung ... never work for free!!! denn jede Sekunde eines Menschenlebens ist mehr Wert, wie jeder ach so grüne Dollar auf dieser Welt.

    Da bin ich absolut bei dir Steve. Kreative Arbeit muss korrekt entlohnt werden, wie jede andere Arbeit auch. Und die Gefahr, dass Preise für (Semi-)Profis durch allzu unangemessenen Niedriglohn für Amateure gedrückt werden, ist ja auch ein bekanntes Problem.


    Ich wollte auch eher auf freiwillige Teilnahme an unkommerziellen Projekten hinaus. Wenn R2D2 Einschätzung von sich selbst stimmt, ist er ja erstmal noch dabei die Basics zu erlernen. Macht ja wenig Sinn, sich für den Stadtmarathon einzuschreiben, wenn ich grade dabei bin das Gehen zu erlernen.

    In meinem Fall überlege ich zum Beispiel für unkommerzielle Hörspiele ein wenig Musik und Sounds beizusteuern und mich am Cut zu beteiligen. Klar bekomme ich nichts dafür. Die Sprecher auch nicht. Aber jeder lernt was voneinander und alle haben Spaß dabei.

    Geht also in die Richtung was du auch mit "video editor challenges" angesprochen hast.


    Für lau zu arbeiten, nur weil Leute nach dem Geiz ist geil Prinzip agieren ist natürlich ein No Go, da sind wir uns einig! Wenn das Ergebnis stimmt, dann hat es auch Wert! 👍


    Schöne Links/Videos, btw. Durchaus interessante Diskussionen!


    R2D2

    Kleine Ergänzung noch zu Davinci Resolve. Vor ein paar Tagen erst ist die aktuelle Reference Manual (Anleitung) zur Version 17 erschienen.

    Absolut empfehlenswert, da das meiste wirklich gut dokumentiert ist.


    Falls du einen Blick riskieren möchtest:

    https://documents.blackmagicde…nual.pdf?_v=1625036410000


    Anhand des Ausmaßes kannst du den Tiefgang deiner Software erahnen... 3588 Seiten! 😉

    Hey R2D2!


    Ich stimme commented absolut zu. Wenn du noch so neu im Videoschnitt bist, wie du behauptest, dann ist es sicherlich ein guter Ansatz sich erstmal ein bisschen mehr Erfahrung anzueignen.

    Ich selbst habe keine Ahnung von der Materie (kein professionelles Umfeld), aber ich bin mir recht sicher, dass das Wichtigste, was du als Cutter haben musst, Referenzen sind, die du vorweisen kannst.

    Von daher würde ich dir genau wie commented raten, dich an so vielen (auch unterschiedlichen) Projekten zu beteiligen wie irgend möglich. Auch erstmal ohne Vergütung, sondern um später etwas zum Präsentieren deiner Fähigkeiten zu haben (und natürlich sich diese Fähigkeiten im Laufe dessen erstmal anzueignen, versteht sich).

    Mir ist durchaus bewusst das Video cutten ein Studienfach ist

    Ich glaube, dass viele Cutter ihr Können durch learning by doing erreicht haben. Da würde ich mich an deiner Stelle nicht verunsichern lassen, nur weil so mancher Film und Ton Studiengang das Thema mitaufgreift.


    Drohne, spiegelreflexkamera und ein Gaming PC zum bearbeiten wäre alles vorhanden.

    Das ist sicherlich alles toll, aber was genau willst du mit Drohnen und Kameras anstellen? Ich dachte du willst primär Videos für andere Leute schneiden und nicht das Source Material erstellen!?


    Auf der anderen Seite, wenn du daran Freude hast, wie auch mit deinen Urlaubsvideos, dann kannst du dich ja auch im Erstellen ganzer eigener Projekte üben und dir im Laufe dessen mehr Kenntnisse über den Schnitt aneignen.


    Momentan arbeite ich halt noch mit DaVinci Resolve, ich denke wenn ich das jetzt schreibe

    werden schon die ersten die Augen verdrehen.

    Warum "noch"? Möchtest du das ändern? Falls ja, worin genau siehst du dich beim Umgang mit DR limitiert, was dir dagegen ein anderes Programm ermöglichen würde?


    Und wer hat denn da jemals die Augen verdreht?


    Ich machs kurz: "Professioneller" als mit DR kannst du auch mit keiner anderen Software arbeiten. Wenn du damit Geld verdienen möchtest, willst du sicher irgendwann mal auf die Studio Version upgraden, aber auch die Free Version ist schon äußerst potent.

    (Die kostenpflichtige Studio Version hat ein paar nette Features und ist effizienter im Umgang mit deiner GPU und dadurch schneller.)


    Dass du in vielen professionellen Anwendungsbereichen nach wie vor Adobe Premiere findest, liegt hauptsächlich an den besseren Teamwork-Kapazitäten der Software und daran, dass das halt lange Zeit der Platzhirsch war, der einfach vorhanden ist und an dem die Leute eingearbeitet sind.

    Wenn du also mit anderen Leuten im Team an großen Projekten arbeitest die viel Austausch an Material erfordern, dann ist Premiere in so fern die bessere Wahl, weil viele Leute/Firmen dieses Programm über die Adobe Cloud nutzen. Für manche ist auch After Effects in Ergänzung zu Premiere ein Grund, da sie damit eh schon bei Adobe sind.


    Einige andere Programme, darunter auch Resolve, stehen Premiere aber in nichts nach und machen manche Dinge auch besser und vorallem schneller. (DR ist nach wie vor das state of the art Color Grading tool, weshalb viele Pros auch DR nutzen, obwohl sie damit gar nicht schneiden.)


    Gerade wenn du alleine arbeitest hast du keinerlei Nachteile, wenn du DR nutzt. Wahrscheinlich bist du sogar effizienter unterwegs, je nachdem wie gut du damit umgehen kannst. Womit wir wieder bei dem wären was commented gesagt hat: Die beste Software ist die, mit der du gut klarkommst.


    Um Missverständnissen vorzubeugen, möchte ich aber festhalten, dass ich selbst nie mit Premiere (oder Final Cut Pro für alle Apple aficionados) geschnitten habe. Und so sehr ich DR schätze, bin ich auch nur ein Amateur, der sich gerne in Eigenregie in die Materie einarbeitet.

    Für 1 zu 1 Gegenüberstellungen der Programme fehlt mir hier also die Erfahrung (in this case, I'm not the droid you're looking for...).


    Grüße!

    Ich würde den Fader (im Fairlight Mixer) für deine Anwendung in der Ausgangsstellung (unity) belassen (übrigens Doppelklick auf den Fader und er springt zurück in unity, macht das Leben einfacher 😉).


    Theoretisch kannst du natürlich den Fader nutzen. Der Fader beeinflusst auch sämtliche Inserts/Plugins die in der Signalkette vor ihm liegen (Pre-Fader-Inserts). Das ist nützlich, um diese gezielt mit anzusprechen oder eben nicht.

    Ohne Verwendung jeglicher Dynamik Plugins etc. kannst du dir das aber eigentlich sparen und das ganze über die Volume des einzelnen Audio steuern, was dir stellenweise auch mehr Präzision erlaubt, da der Fader sich ja immer auf die gesamte Spur und nicht nur auf einzelne Events (in diesem Fall Audiofiles) auswirkt.


    Außerdem wird es schnell ein bisschen umständlich mit dem Fader präzise zu arbeiten, wenn du dich zu weit von +-10 dB entfernst.

    (Dezibel bezogen auf Schalldruck ist ja schließlich kein linearer sondern ein logarithmischer Wert: +6 dB = doppelter Schalldruck; ca. +10 dB = doppelt empfundene Lautstärke!

    Heißt also -10 dB = doppelt so laut wie -20 dB. 0 dB = doppelt so laut wie -10dB und daher viermal so laut wie -20 dB, usw. )

    nun stelle ich die Lautstärke der Audiospur nur im Edit-Tab ein und messe im Fairlight-Tab jedes Mal neu


    Du bist dir bewusst, dass du die Lautstärke/Volume der Soundfiles auch in Fairlight ändern kannst, ohne den Fader bedienen zu müssen, nicht wahr? (Ich frage, weil du davon sprichst, in den Edit Tab zurückzugehen, um die Volume zu ändern.)


    Nur für den Fall, dass das unklar ist (und ich hoffe mir wird vergeben, wenn ich wieder zu triviale Dinge erkläre, scheint momentan mein Vibe zu sein, habe ich mir an anderer Stelle sagen lassen...):


    In Fairlight auf das entsprechende Event (bspw. die Soundfile in Waveform) klicken, rechts oben den "Inspector" öffnen und einfach unter "Audio" die "Volume" ändern. Also genau wie im Edit Tab auch. (Kannst natürlich auch in der Waveform die Volume-Linie packen und schieben, ist aber unpräzise)



    Ich persönlich würde gar nicht versuchen so knapp wie irgend möglich an die -14 LUFS ranzukommen. Keiner kann dir genau sagen, welche Algorithmen YT da anwendet.

    Kann sein, dass wenn du viele Short Term Peaks, die deutlich über 14 LU liegen, in deinem Track hast, YT der Ansicht ist, dass das zu laut ist, obwohl du über die gesamte Timeline gesehen -14 LUFS einhälst.

    Ich gehe nicht davon aus, aber mit Sicherheit sagen, kann ich es dir nicht.


    Wenn deine blaue Loudness History Linie unter -14 LUFS am Ende noch ein bisschen Luft von 3 dB oder auch mehr hat, ist das sicherlich kein Schaden.


    Ich denke eine gute Balance der Lautstärke zwischen Musik und Sprache, sowie ein gleichmäßiges Level über all deine (zukünftigen) Videos ist sehr viel wichtiger als den nächsten Loudness War zu gewinnen. Orientiere dich also am besten daran, ein Level zu finden, dass für dich funktioniert, ohne dass du stundenlang am Volume Knöpfchen schrauben musst.


    Ich kann selbst erst mehr dazu sagen, sobald ich mehr eigene Erfahrungen dazu gesammelt habe.

    Bedenke auch, dass ich selbst keine typischen Voiceovers erstelle und halte dich daher ruhig an die Erfahrungswerte von Leuten, die weniger Fokus auf Musik und mehr auf Sprache haben.



    Da fällt mir noch etwas ein, was dir eventuell nützen könnte (falls nicht ohnehin bekannt, aber da du neu in Davinci Resolve bist, ist es vllt nicht selbstverständlich): Compound Clips!


    Angenommen, du hast deine Musik- und deine Sprachspur aufeinander angepasst, die Verhältnisse stimmen soweit, das Ducking etc. ist alles zu deiner Zufriedenheit.

    Jetzt checkst du die LUFS gegen und stellst, aus welchen Gründen auch immer, fest, dass das Ganze zu laut/zu leise ist.

    Jetzt fängst du an, die Musikspur anzupassen, dann die Sprache hinterher. Checkst wieder gegen, wo du bei den LUFS stehst. Nervig! Aber kein großes Thema bei zwei Audiopuren. Angenommen aber, dass du zig VoiceOver-Schnipsel hast und mehrere Music Tracks, ist das gar nicht lustig.


    Daher, alles erstmal soweit fertig machen, alle Audiospuren im (Edit Tab) markieren, Rechtsklick, "New Compound Clip...", den Clip benennen und Voilá, schon hast du alle markierten Audiofiles zu einem einzelnen Event zusammengefügt, das sich natürlich auch über einen einzelnen Volume Regler anpassen lässt.

    (Vorsicht! Wenn du die den Audiofiles zugehörigen Videospuren nicht auch vereinen möchtest, musst du vor dem Markieren der Audios das Kettensymbol "Linked Selection" (Strg+Shift+L) deaktivieren oder die Audios, die an Videos gebunden sind einzeln de-linken (Strg+Alt+L)).









    Falls du nachträglich doch noch etwas ändern möchtest, keine Tragödie. Rechtsklick auf den Compound, "Decompose in Place" und deine Audios purzeln wieder raus.



    Nur für den Fall, dass dir Compounds noch neu sind.


    Cheers!

    aber so ein Anfänger bin ich auch nicht

    öhm... wüsste jetzt nicht, wo ich so etwas behauptet hätte... sry, wenn ich dir da jetzt irgendwo auf die Füße getreten bin. Beabsichtigt war das nicht. 😳

    Ich bin bisher kein allzu erfahrenes Forumtier und versuche meist nur mich höflich verständlich zu machen und Missverständnissen vorzubeugen.


    Also in aller Kürze, nope, sry, wüsste nicht was effektiv, billig und gleichzeitig einfach anzubringen ist. Rein für Sprache/Gesang tut es fürs Recorden vllt ne Menge günstiger Akustik Schaumstoff an den Wänden.

    Aber da kontaktierst du dann mal besser deine Studiokollegen, da ich hier nicht aus eigener Erfahrung sprechen kann.


    Cheers!

    Hmm, ich fürchte, ich verstehe dein Vorgehen im Edit und in Fairlight nicht ganz...


    Hast du jetzt die Volume der Musikspur im Edit tab um 5 dB reduziert und dann in Fairlight den Fader der Audiospur nochmal um 2,4 dB nach unten gezogen?

    Oder habe ich das jetzt völlig falsch verstanden?

    Wenn ja, warum überhaupt den Fader bemühen und nicht den Gain der Audio gleich auf das erforderliche Level bringen?

    Und was war im Endergebnis das Problem? Bist du bei über 14 LUFS gelandet?


    Sry, bin mir nicht ganz sicher wie du da jetzt vorgegangen bist. Bin jetzt erstmal ne Runde Laufen, aber ich schaue mir das später beim Essen noch mal in Ruhe an. Vllt verstehe ich ja dann das Problem. ☕😉


    Vllt mögen andere Davinci Nutzer ja auch ihr Verständnis beisteuern... Als kompletter Amateur möchte ich hier nun wirklich nicht als graue Eminenz des Video- und Audioschnitts verstanden wissen (eher semiprofessioneller try-and (t)error-Autodidakt)! 🙄😄

    Hallo Kilo sag doch auch mal wieder was. 😎

    Hey Clientless!


    Bitte versteh mich nicht falsch. Soll hier am Ende nicht heißen, Hausbar hat gesagt, wer braucht schon Absorber, Wandteppiche tun's auch... 😅


    Laienhaft (was ich ja bin!!! Wahrscheinlich mehr als die meisten von euch, die hier nachfragen...😄) ausgedrückt:


    Alles im Raum was Schallwellen zu einem gewissen Grad durchlässt und nicht direkt reflektiert, hat eine mehr oder weniger nützliche Auswirkung in dem es den Schall streut (Stichwort Diffusor).

    Um zu Absorbieren muss der Schall jedoch in Wärme umgewandelt werden. Das schaffen Absorber mit einer bestimmten Dichte und Masse.

    Um höhere Frequenzbereiche, unter anderem auch für Sprachaufnahmen zu absorbieren kann man durchaus den Raum mit dichtem Schaumstoff, Basotect, Steinwolle zupflastern. Der muss dazu nicht allzu dick sein (wenn er jedoch nicht dicht genug ist, lässt er die hohen Frequenzen einfach durch und hat kaum Auswirkung).

    Das sollte meist ausreichen um trockene Aufnahmen erstellen zu können.


    Tiefere Frequenzen benötigen jedoch durchlässigere, dafür aber deutlich "dickere" (10 cm aufwärts) Absorber um diese Wellen zu schlucken (daher ist die Couch auch ein immer gern gesehener Gast im Studio; viel Masse😂). Diesen sogenannten Raummoden in den Griff zu bekommen kann ein nerviges Unterfangen sein.

    Die Raumakkustik mit Bassfallen in den Ecken, Deckensegeln, Absorbern, Diffusoren usw. zu optimieren geht schnell in die Tausende.


    Da geht es aber für gewöhnlich darum eine optimale Ahörsituation im (Home-)Studio zu erschaffen.


    Ein paar Wandteppiche allein werden jedoch auch für ein bisschen einsprechen im Schlafzimmer kaum genügen, um den Raum hallfrei zu bekommen.


    Einfach kaufen und an die Wand hängen wird leider bestenfalls mit explizit für den Zweck gebauten Absorbern funktionieren. Die sind leider meist recht teuer.

    Günstiger (nicht billig) aber genau so gut ist der Eigenbau aus Steinwolle aus dem Baumarkt (Rockwool und dergleichen...).

    Das ist allerdings richtige Heimwerksarbeit, da du Holzrahmen zuschneiden, Steinwolle bearbeiten und das Ganze in akkustisch durchlässigem Stoff ummanteln musst. Macht viel Dreck und Mineralwolle (Steinwolle) ist nichts was du mit bloßen Händen anfassen möchtest. Kann allergische Reaktionen auslösen.


    Scheint mir jetzt nicht so dein Ding zu sein Clientless, Stichwort: kaufen und an die Wand hängen. 😄


    Vorausgesetzt der Raum ist jedoch ziemlich leer, wie commented gesagt hat und ich gehe jetzt davon aus, dass nicht hunderte Euros zur Optimierung rumliegen, dann schafft Masse (Möbel, Bücher, Couch,...) und weniger reflektierende Oberflächen (Teppich < glatte Wand/Fließenboden etc.) erstmal Besserung.



    Cheers!

    Joa immer gerne doch.


    Relativ leeres großes Bürozimmer

    Ja, das ist leider tricky, mit deinem Rode. Ist ein schönes Mikro, aber leider für deinen Raum denkbar ungeeignet.

    Ein dynamisches Mikrofon wäre hier die richtige Wahl (oder zumindest deutlich günstiger, als ein großes Büro zu akkustisch zu optimieren).

    Wenn das Mikro bleiben muss, dann alles rein in den Raum was absorbieren kann (Couch, Bücherregale, Wandteppiche, you get the idea!). 😉

    Moin commented!


    Ist die Audioqualität gut oder verbesserungswürdig?

    Joa schon, und ja ist sie! 😄


    Deine Audioqualität ist grundsätzlich erstmal fein.

    Zwei Dinge stören für mich jedoch noch das Endergebnis.


    Das Erste sind Plosivlaute, die etwas zu präsent sind. Nutzt du einen Popschutz? Wenn nicht, dann ist das damit wahrscheinlich sofort gelöst.

    Wenn ja, dann würde evtl. ein bisschen mehr Abstand zum Mikro helfen, besser jedoch, du besprichst das Mikro leicht von der Seite (off axis), also quasi so etwa 45 Grad dran vorbei, anstatt direkt hinein.


    Das Zweite ist ein deutlich vernehmbarer Raumhall in deiner Aufnahme.

    Nutzt du ein Kondensatormikrofon? Dann müsstest du entweder die Akkustik in deinem Raum verbessern oder für die Voiceover Aufnahme eine Kabine oder dergleichen bauen.

    Mikrofonschild kann theoretisch auch helfen, kann aber auch wiederum zu anderen Problemen führen (bspw. Kammfiltereffekt durch leicht zeitversetzte Reflexion).


    Ist natürlich Genörgel auf hohem Niveau, aber du wolltest ja wissen, was man noch verbessern könnte. 😉


    Grüße!

    Gerne doch!


    mit welchem Tool hast du die Messungen auf den ersten Screenshots gemacht?

    Wenn du dich auf die Screenshots deiner YT-Videos beziehst, das ist ein integriertes Feature in YT selbst.

    Einfach Rechtsklick auf dein Video und im PopUp Menü auf "Statistik für Interessierte" ("stats for nerds" falls dein Browser auf Englisch unterwegs ist) klicken. Da siehst du auch Dinge, wie den von YT verwendeten Codec für deine Videos usw.

    Beachte, dass die erste Prozentzahl vor dem slash (/) (Volume) sich auf die in deinem Player eingestellte Lautstärke bezieht und nichts mit deinem Upload zu tun hat. (die zweite richtet sich dann im Verhältnis danach, wenn sie nicht von vornherein schon auf dem

    selben Level ist (also Beispiel 3. Screenshot (100%/64%), da dein Video zu laut war und normalisiert wurde... heißt wenn du jetzt im Player auf 50% runterdrehst geht die zweite Zahl auf 32%).


    Im letzten Video waren hin und wieder rote Ausreisser dabei, die ich aber nicht weg bekommen habe

    Ich nehme mal an, da du ein USB Mikro verwendest, bewertest du das anhand des digitalen Meterings in Davinci Resolve?


    Wenn dem so ist, ist das ja letztendlich kein Problem, da dir der farbige Pegel hier nur als visueller Indikator dient, wie nah du an die 0 dB Grenze heranrückst. Rot steht hier ja nur für die letzten -10 dB vor 0 dB und nicht für Clipping (0 dB und darüber), was zu Verzerrungen in der Aufnahme führt.

    Bei einem analogen Interface, hättest du meist einen klareren Indikator, wann deine Aufnahme in einen Clipping Point hineinläuft.


    Der Grund, dass du bei Aufnahmen im Musikbereich wenn möglich im Bereich von um die -15 dB bleiben möchtest (ca. -18 dB bis maximal -12 dB), was unter anderem durch minutiöses gain staging in der DAW erreicht wird, liegt am nachfolgenden Mastering.

    Für das Mastering hat man gerne genug Luft nach oben (der sogenannte Headroom), um chirurgisch per EQ, Kompressoren usw. nochmal detailliert in die finale Soundspur eingreifen zu können und den Track am Ende auf das gewünschte Level zu bringen, ohne Verzerrungen hervorzurufen.

    Wenn du bereits am Limit aufnimmst, sind einem beim Mastering die Hände deutlich stärker gebunden.


    Warum erzähle ich das jetzt? Es geht darum zu wissen, wofür diese Tools gemacht worden sind, was sie dir tatsächlich anzeigen und was dir das am Ende für deinen Anwendungszweck aussagt.


    In deinem Fall findet ja quasi nur das voice recording statt, bei dem du darauf achten möchtest, das Signal bei der Aufnahme nicht zu Übersteuern, das Mixing bestünde eigentlich nur aus Sprachaufnahme und dem/den bereits fertigen Musik Track(s) die gegneinander ausbalanciert werden müssen (und evtl. die Bearbeitung deines voice recordings mit Plugins etc.) und das Mastering wäre dann, das Gesamtpaket auf ein passendes Niveau für dein Video zu bringen. Das hatten wir ja schon weiter oben angesprochen (LUFS und so).


    Es ist natürlich sinnvoll, dass du dein Voiceover so aufnimmst, dass du damit noch ein wenig spielen und gegen den Musik Track ausbalancieren kannst.

    Du kannst deine Sprachspur aber ruhig ein wenig lauter aufnehmen (allerdings ohne clipping!), als irgendwelche Richtlinien für die Musikproduktion das vorsehen. Wir mixen hier ja schlussendlich keine Musik und deine Sprache muss beim Voiceover dominant zum Rest sein.


    Orientiere dich ruhig an der Richtlinie von HannaLena90 von -12 dB zu -6 dB (was ja bei -6 dB schon tief im roten Metering Bereich ist! Wie du siehst, also kein Problem.) als Spitzenwerte für Musik und Sprache und schau dir dann mal an, was bei der LUFS Analyse rauskommt. Dann kannst du immer noch Anpassungen vornehmen.


    Eventuell könntest du das Ducking (Absenken des Pegels von Musik zu Sprache) noch etwas smoother gestalten. Ich bilde mir ein, das war hier und da etwas abrupt, muss ich aber nochmal reinhören.


    (Bin ein bisschen müde und schreibe, glaube ich, schon lauter irrelevantes Zeug... muss die Impfung gestern gewesen sein... 😅)


    Eigentlich wollte ich wohl nur sagen, "rot" bedeutet in diesem Zusammenhang, dass du kurz vorm Limit agierst und nicht, dass du die Aufnahme bereits gegen die Wand fährst.

    nutzt soviel wie möglich verschiedene Wiedergabegeräte

    Das kann ich nur unterstreichen!

    Der Unterschied zwischen geschlossenen/offenen Headphones, zwischen Studiomonitoren und HiFi Boxen, Handy, Autoradio.... Unterschiede die man kaum für möglich hält, wenn man ausschließlich über seine Lieblingskopförer abhört! 🙄😉


    könnte das Pfeifen ganz klar eine Rückkopplung sein

    Daran hatte ich gar nicht gedacht. Das wäre natürlich ein offensichtliches Problem.

    Schaltest du deine Lautsprecher beim Aufnehmen brav ab Nordmann2021 ?

    Und gut, was die "schlechten Geräusche" betrifft, muss ich mich wohl noch etwas mehr an das halten, was HannaLena90 im Laustärken-Thread geschrieben hat...meine Aussteuerungsbalken gingen bei der Aufnahme gut an die Grenze, teilweise ins gelbe, ganz kurz auch mit leichter "rot-Berührung", daran arbeite ich noch.

    Da mach dir mal keine Sorgen, daran liegt das Rauschen nicht unbedingt. Du hast keine Verzerrung in der Aufnahme, also hast du beim Recorden kein Clipping hervorgerufen, bist also auch nicht zu weit in den "roten" Bereich gerannt.


    Beim Einpegeln von deinem Mikro für deine Stimme achtest du natürlich darauf, dass du standartmäßig im "grünen" Bereich sprichst, aber auch der "gelbe" Bereich darf besprochen werden, sobald du etwas lauter wirst.

    Nimm hierzu als Indikator dein Interface. Sobald du deinen optimalen Sprechabstand zum Mikro ermittelt hast, stellst du den Gain so ein, dass die von dir am lautesten verursachten Geräusche noch kein Clipping erzeugen. Das heißt, auch bei den lautesten Aussagen (emotionales Gejubel scheint mir ja nicht so dein Ding zu sein), die du realistisch in deinem Voiceover verursachst, darf die rote "Clip" Leuchte an deinem Interface nicht aktiv werden.


    Da du ja kein Live Setup nutzt, musst du das natürlich nicht komplett ausreizen, jedoch hat es keinen Sinn, leiser deutlich aufzunehmen als möglich, da du ansonsten in der Nachbearbeitung, wenn du das Level deiner Sprachaufnahme anhebst, nicht nur deine Stimme boostest, sondern auch alle Nebengeräusche, die ansonsten vllt im Hintergund geblieben wären.

    Auf der anderen Seiten willst du natürlich den Gain nicht so weit aufreißen, dass deine Preamps unnötig ins Rauschen kommen.


    Die richtige Balance ist hier das Ziel.