Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

Herzlich Willkommen auf YTForum.de, dem größten deutschsprachigen YouTube Forum.

Bei uns findest du eine tolle, freundliche und engagierte Community, die mit hochwertigen Inhalten, hilfreichen Tipps und Insiderwissen aufwarten kann. Auch warten viele interessante Themen zu Videobearbeitung, Soundbearbeitung, Netzwerken, Monetarisierung und vielem mehr auf dich. Präsentiere deine Videos der Community und erhalte hilfreiche Tipps, wie du sie verbessern kannst. Organisiere Treffen und Kooperationen mit anderen YouTubern und vernetze dich auch abseits von YouTube.

Wir würden uns freuen, wenn du ein Teil dieser großartigen Community wirst: Jetzt registrieren

1080p Klar und Scharf bringen

    Schönen Guten Abend
    und zwar hab ich Folgendes Problem. Egal was ich anstelle ich bekommen das Video auf Yt nicht So klar und scharf wie bei mir auf der Platte.

    Aufgefallen ist es mir stark bei den Aufnahme bei The Witcher 3 (hier klicken)

    Folgendes
    Aufnahme Ist mit 150000 Kbps und x264 codiert.
    Runter gerendert mit Sony Vegas Pro 15.
    Probiert hab ich die empfohlen Einstellung von yt für 1080p also 60 fps 14 Mbits als auch 40 Mbits mit x264 und andern codecs.
    Aber das Ergebnis war immer gleich es sah bei weiten nicht so klar und scharf aus wie bei mir auf den Rechner. Sowohl "kurz" nach den uplaod oder knapp 1 Woche später.

    hab auch schon das Internet durchforstet aber bekomme einfach keine Lösung für mein Problem daher meine frage an das Schwarm wissen hier.
    Hier könnte was nützliches stehen ^^

    aber ist nur eignend Werbung ^^ zu mein socials

    Twitch PrinzTwoFace

    Twitter PrinzTwoFace
    • 00

    Vor einem Moment

    Hej Du

    Vielleicht hilft dir das weiter:
    YT rechnet deinen Content runter, daran lässt sich nicht viel ändern. Es wird niemals so gut sein, wie du es auf der Platte anschauen kannst.

    Wenn Du mit guter Qualität hochlädst sollten deine Videos nach VP9 konvertiert werden, ansonsten halt AVC und da ist die Qualität nochmal weniger gut. Am besten für VP9 1440p aufnehmen, dann steigt die Chance, dass dein Content auf VP9 konvertiert wird (hat auch was mit Durchschnittlichen Abrufzahlen zu tun). Ansonsten ist halt bei YT die Grenze bei 24MBit/s für VP9 auf 1440p60, bei 1440p30 sogar nur 16MBit/s. 1080p60 wird immer auf 12MBit/s runtergerechnet, egal ob du das mit 50, 100 oder 500MBit/s auf der Platte aufnimmst und renderst. Wenn man HDR Content macht, werden es nochmal ein paar MBit/s mehr, ansonsten halt 4k aufnehmen, aber wenn der Benutzer dann einen Stream mit 1080p startet, wird es auch wieder runter gerechnet.

    Das ist nunmal so bei Streaming-Plattformen, und bei YouTube ist alles kostenlos, also kann man da nur bedingt Ansprüche stellen, denk ich. Und immer daran denken, >50% aller YouTube Nutzer (auf meinem Kanal derzeit ca. 70%) schauen auf winzigen Handy-Bildschirmen und meistens mit schlechten Bitraten und begrenztem Datenvolumen und da wird oft nur in 480p oder sogar weniger geschaut. Man steckt da also vielleicht eine Menge Arbeit und Rechenzeit in eine imaginäre Verbesserung, die die meisten Zuschauer nicht mal bemerken.
    Zap zockt: Guides, Reviews & News - MMOs, WiSims, Strategie & RPGs, YouTube News & Tipps, PC & Hardware
    ►►ZapZockt YouTube Kanal ◄◄ | | ►► ZapZockt.de - Blog rund um Gaming, Hardware & YouTube ◄◄
    Comparison is the thief of joy

    ► ► Wissenssammlung zu YouTube hier im Forum ◄ ◄
    Also ich muss sagen bei mir ist alles klar und deutlich was dein Video angeht. Hast du eventuell mal geguckt in welcher Auflösung Youtube dir dein Video automatisch wiedergibt?

    Weil Youtube passt die Auflösung automatisch deiner Internetverbindung. Unter dem Zahnrad (Einstellungen) kannst du aber manuell die Auflösung höher setzen. Zumindest soweit wie du selbst das Video gerendert hast. In deinem Fall 4K. Dazu muss man auch erwähnen dass das menschliche Auge zwischen Full HD und 4K nicht unterscheiden kann. Es sieht für einen Menschen quasi gleich aus.

    ps: Verstehe eh nicht warum die Leute auf Krampf unbedingt 4K Auflösung wollen oder mehr als 60 FPS. Das menschliche Auge kann eh nicht mehr als 2K und 30 FPS wahrnehmen. ^^

    Treknerd schrieb:

    Das menschliche Auge kann eh nicht mehr als 2K und 30 FPS wahrnehmen.
    Ziemlich OffTopic, aber ich möchte darauf ganz kurz antworten:

    Das sagen vor allem Leute, die noch nie vor einem mit 120 Hz oder einem 200 Hz Monitor gesessen haben. Klar ist, für Filme bringen mehr als 30 FPS sehr wenig, mehr als 60 vermutlich gar nichts. Damit ist mehr als 60FPS auch für Video Material relativ unsinnig. Wenn es um Reaktionszeiten geht, wie in Computerspielen, oder bei anderen Vorgängen, wo schneller = besser ist, helfen mehr Hz auch schneller und exakter zu reagieren.

    Das Menschliche Auge und das menschliche Gehirn funktionieren nicht mit Taktraten und Hz sondern weitgehend analog, und Reaktionen auf das gesehene werden feiner und nach etwas Training auch schneller, wenn man mehr Informationen zur Verfügung hat. Und mehr Bilder pro Sekunde oder mehr Pixel in der Auflösung sind mehr Informationen. Dieser Effekt tritt nicht nach 1-2mal auf einen 100+Hz Monitor schauen auf, und wie gesagt auch nicht, wenn man nur zuschaut und nicht reagieren muss. Aber mit vermehrter Benutzung steigert sich auch die Reaktion im messbaren Bereich.


    Dazu gibt es einige Untersuchungen mittlerweile. Der Unterschied ist sehr schwer messbar, weil man Unterschiede in Reaktionszeiten und Wahrnehmung im Millisekunden Bereich halt auch nur mit Hardware messen kann, die in der Lage ist, derartige Unterschiede zu erkennen. Der YT Kanal Linus Tech Tipps hat mit Highspeed Kameras (1000FPS Kameras für SloMo Capturing) und allerlei Testaufbau Messungen dazu gemacht, mit trainierten und untrainierten Spielern, und es gab absolut nachweisbare Unterschiede. Spieler konten zB in CSGO höhere Trefferquoten erzielen, brauchten weniger Zeit um exakter das Ziel zu treffen und hatten außerdem eine höhere Kopftreffer Quote.

    Ganz abgesehen davon, wenn man einmal eine Zeitlang vor einem 100+ Hz Monitor gesessen hat und auch nur mal den Windows-Desktop, die Bewegung des Mauspfeils, der Fenster, etc gesehen hat, merkt man mit fast 100%iger Sicherheit ob man gerade vor einem 30Hz, einem 60Hz, einem 100Hz oder einem 200Hz Gerät sitzt, einfach nur daran, wie die Bewegungen sind. Dazu wurden von einigen YouTubern Blindtests gemacht, wo Leute nicht wussten, welche Bildwiederholrate gerate genutzt wird und dann nach kurzer Benutzungszeit sagen sollten, wieviel Hz der Monitor gerade hatte. Geübte User haben fast immer den Unterschied richtig erkannt, und selbst nicht geübte Nutzer konnten mit hoher Wahrscheinlichkeit die höhere von der niedrigeren Frequenz richtig unterscheiden. Dieser Effekt würde bestimmt nicht eintreten, wenn es keinen Unterschied gäbe.

    Ok, soviel zu OffTopic, sorry für den Exkurs. Wenn mehr Interesse an dem Thema besteht, können wir dies auch gern in ein Extra-Thema abspalten.
    Zap zockt: Guides, Reviews & News - MMOs, WiSims, Strategie & RPGs, YouTube News & Tipps, PC & Hardware
    ►►ZapZockt YouTube Kanal ◄◄ | | ►► ZapZockt.de - Blog rund um Gaming, Hardware & YouTube ◄◄
    Comparison is the thief of joy

    ► ► Wissenssammlung zu YouTube hier im Forum ◄ ◄
    Also ich sehe den Unterschied zwischen 2K und deutlich höher aufgelöstem Material. Wenn ich vor meinem Full HD Monitor sitze, sehe ich ja auch noch einzelne Pixel. Das ist bei 4K nicht so. Genauso sehe ich, ob etwas 30 oder 50/60 FPS hat. Können wir gerne mal einen Blindtest machen ;) Es kommt auch immer auf die schärfe der Bilder an, also Bewegungsverwischung (Motion Blur). Mit genügend "FPS-Zwischenstufenstufen" braucht man kein Motion Blur mehr, weil dieser Effekt durch das Auge bzw. Gehirn selbst entsteht. Die Natur hat ja auch kein Motion Blur. Die hat sozusagen unendlich FPS. Und die Erkennung bzw. Analyse von FPS in Medien, kann man trainieren. Sowohl psychisch als auch physisch. Viele - nicht alle - Menschen erkennen den Unterschied zwischen Filmmaterial (24 FPS) oder amerikanischer Serien (30 FPS) im Vergleich zu "Videoaufnahmen" mit 50/60 FPS. Diese Aufnahmen haben dann immer so einen Nachrichtenlook. Früher wurden auch die Daily Soaps (GZSZ und Co.) so aufgezeichnet. Viele Zuschauer haben das psychovisuell als "billig" wahrgenommen. Man hat das Ganze dann damit gelöst, das man sozusagen einen künstlichen "Filmeffekt" auf die Aufnahmen drauf gesetzt hat und aus den 50 FPS absichtlich 25 FPS gemacht hat, damit es filmischer wirkt.

    Ein Gamer wird dir was husten, wenn du ihn mit 30 FPS abspeisen willst. Es mag sein, dass das "durchschnittliche" Gehirn nur ca. 30 Lichtreize pro Sekunde wahrnehmen kann, aber die 30 FPS aus einem Medium und die 30 FPS aus deinem Gehirn passen nicht 100% zusammen - schon, weil dein Auge keine "regelmäßige FPS" hat. Daher ergibt sich eine bessere Bewegungsauflösung durch ein - wenn man so will - "FPS-Oversampling". Also sieht es realistischer und genauer aus mit 50/60 FPS.

    OK... so viel wollt ich gar nicht schreiben ;) Hab mich neulich aber erst damit befasst ;)

    Gruß
    Max

    Edit: Da war ZapZockt schneller als ich ;) UND das Video sieht bei mir auch klar und deutlich aus. Aber die Qualität, wie das Originalvideo wird das bei Youtube nie haben. Wenn etwas umkomprimiert wird, geht so gut wie immer etwas Qualität verloren.

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Max.H aus folgendem Grund: Ergänzung, Bezug auf eigentliche Frage

Exit