Aufnahme, konvertieren und Upload?

  • So da ich grad am umziehen bin hab ich langezeit nichts machen können.


    So nun hat es mal wieder mit ner Aufnahme geklappt.


    Ich hab mit dem SSM Script erstellt und mit Audacity die Tonspuren zusammen gefügt und gespeichert.


    Beides dann in MeGUI gepackt zum kodieren.
    Allerdings zeigt es mir an das es 3 Std dauert ein 20 min Video zu kodieren?


    Dauert das wirklich so lange oder passt da was nich?

  • Ach so. Ja, die kann ich dir auch mal hochladen:


    Anmerkungen:

    • Die Quality im x264-Dialog kannst du auf 21 lassen. Das ist der Wert, der einstellt, auf welche Qualität das von MeGUI verwendete x264 beim Kodieren zielen sollen. Je kleiner der Wert, desto besser die Qualität, aber desto länger dauert das Kodieren. Standard für gute Qualität ist 23, ich bin mit 19 schon eher ein Qualitätsfaschist. ;)
    • Im selben Dialog ist 10-bit-Encoding optional, wird aber meistens empfohlen, weil es die Qualität noch mal erhöhen kann. Solltest du Probleme beim Abspielen der kodierten Dateien haben, kannst du es rausnehmen.
    • Die Einstellungen im Tab "External Program Configuration" von den Settings sind unwichtig. NeroAacEnc muss man sich erst runterladen, damit man das dort im Feld angeben kann. Dann ist der Aac-Encode höherwertig, sprich, man hat eine höherwertige Datei, wenn man statt FLAC auf AAC kodiert. Allerdings ist AAC verlustbehaftet, während FLAC verlustfrei ist. Daher würde ich immer in FLAC kodieren.
    • Im Dialog für die Einstellungen von FLAC kannst du den Regler so schieben, wie es dir passt. Bei mir wird FLAC dank starker CPU auch mit der Einstellungen für eine kleine Dateigröße bei längerer Kodierung in extremen Speed kodiert, weswegen ich den relativ weit rechts hab. Wenn dir das zu lange dauert, zieh ihn nach links, dann wird aber dein Video wieder etwas größer.
    • Sollte dir das Tutorial nicht beigebracht haben, wie man AutoEncode nutzt, dann mache ich das jetzt: Du gehst in die Settings und klickst auf den markierten Button aus Bild vier. Stell dir dann den Dialog ein wie im vierten Bild angezeigt. Wenn du jetzt immer in MeGUI im Hauptfenster das AVS-Skript und die zugehörige Audiodatei eingegeben hast, klickst du nicht mehr bei beiden auf Queue, sondern unten rechts auf "AutoEncode" und dann im neuen Fenster auf Queue. Hat den Vorteil, dass dir nach dem Kodieren von Audio und Video beide direkt zusammengemischt werden, sodass du direkt das fertige Video hast und es nicht mehr erst umständlich selbst zusammenmuxen musst. :)


    Jetzt brauche ich wie gesagt nur noch deine .avs ;)

  • Ja ich meinte eigentlich wie ich das Script posten soll :D
    Das Log reicht das? oder jedes Fenster einzeln von SSM wie ichs eingestellt habe ^^


    Ich probiere es jetz einfach so, wenn du doch die Fenster brauchst sag bescheid :D


    ### SagaraS Scriptmaker - Version 5.6 ###



    ### Lade Plugins und setze die globalen Variablen ###
    LoadPlugin("C:\Users\Admin\SagaraS Scriptmaker\Plugins\resamplehq.dll")
    Global breite = 3200
    Global hoehe = 1800
    Global AR = 0



    ### Lade Videoquellen ###
    SetMTMode(3,2)
    AVIload("C:\Users\Admin\Videos Roh\League of Legends_2015_06_08_19_29_33_828.avi", 0, 0, 0, -0, -0, "Auto", "Auto", 0, 0)



    ### Filter Verarbeitungszone ###



    ### Funktion für Video-Laderoutine ###
    Function AVIload (String file, int loading, int cl, int co, int cr, int cu, string pixtype, string afps, int fpsn, int fpsd) {
    (loading == 1) ? FFIndex(file) : nop()
    clip0 = (loading == 3) ? LWLibavVideoSource(file) : (loading == 2) ? Import(file).KillAudio() : (loading == 1) ? FFVideoSource(file, threads=1) : (pixtype == "Auto") ? AVISource(file, false).KillAudio() : AVISource(file, false, pixel_type=pixtype).KillAudio()
    clip1 = clip0.AutoFPS(afps, fpsn, fpsd).Cropping(cl, co, cr, cu)
    Return (clip1.width == breite && clip1.height == hoehe) ? clip1.ConvertToYV12(matrix = "Rec709") : Clip1.Resize()
    }



    Function AutoFPS (Clip clip0, string afps, int fpsn, int fpsd) {
    rate1 = (afps == "Auto") ? (Round(Float(clip0.framerate * 1000)) / 1000) / 2 : nop()
    rate2 = (afps == "Auto") ? Round(clip0.framerate) / 2 : nop()
    rate = (afps == "Auto") ? (rate1 == rate2) ? 1 : 1001 : (afps == "Igno.") ? clip0.frameratedenominator : fpsd
    ratefaktor = (afps == "Auto") ? (rate == 1001) ? 1000 : 1 : nop()
    clip0 = (afps == "Auto") ? (rate == 1001) ? clip0.AssumeFPS(Round(clip0.Framerate) * 1000, rate) : clip0.AssumeFPS(round(clip0.framerate), rate) : (afps == "Igno.") ? clip0.AssumeFPS(clip0.frameratenumerator, rate) : clip0.AssumeFPS(fpsn, rate)
    Return clip0.ChangeFPS(60, 1)
    }



    Function Cropping (Clip clip0, int cl, int co, int cr, int cu) {
    clip0 = (clip0.IsRGB32() == True) ? clip0.ConvertToRGB24() : clip0
    Return (cl != 0 || co != 0 || cr != 0 || cu != 0) ? clip0.Crop(cl, co, cr, cu) : clip0
    }



    Function Resize (Clip clip1) {
    clip1 = (AR == 1) ? ((float(Clip1.height * breite) / clip1.width) / 2 == round((float(Clip1.height * breite) / clip1.width) / 2)) ? ((float(Clip1.width * hoehe) / clip1.height) / 2 == round((float(Clip1.width * hoehe) / clip1.height) / 2)) ? clip1 : clip1.ConvertToRGB24() : clip1.ConvertToRGB24() : clip1
    clip1 = (AR == 1) ? (((clip1.width * hoehe) / clip1.height > breite) ? Clip1.ResampleHQ(breite, ceil(float(Clip1.height * breite) / clip1.width), Kernel = "Spline16", dstcolorspace="RGB24", srcmatrix = "TV.601", dstmatrix = "TV.709") : Clip1.ResampleHQ(ceil(float(clip1.width * hoehe) / clip1.height), hoehe, Kernel = "Spline16", dstcolorspace="RGB24", srcmatrix = "TV.601", dstmatrix = "TV.709")) : clip1.ResampleHQ(breite, hoehe, Kernel = "Spline16", dstcolorspace="YV12", srcmatrix = "TV.601", dstmatrix = "TV.709")
    back = (AR == 1) ? (0 == 1) ? ImageReader("", 0, clip1.framecount - 1, clip1.framerate).ChangeFPS(Clip1.frameratenumerator, Clip1.frameratedenominator).ResampleHQ(breite, hoehe, Kernel = "Spline16", dstcolorspace="YV12", srcmatrix = "TV.601", dstmatrix = "TV.709") : BlankClip(clip1, width = breite, height = hoehe, pixel_type = "YV12").KillAudio() : clip1
    Return (AR == 1) ? Overlay(back, clip1, (back.width - clip1.width) / 2, (back.height - clip1.height) / 2) : clip1
    }

  • So nach dem renovieren und umziehen und warten das ich endlich Internet wieder hab kann ich mich weiter dran machen, das alles richtig funktioniert.
    Also @Strohi falls du noch da bist und Zeit hast :D





    Bei Audio is nur VDub fenster minimiert starten und Audio Tracks bei Skriptspeicherung auf 2 ein Haken.
    Sonst 16 Bit und 44.100 Hz.


    Prozessor hab ich Intel Core i5-4590.



    Allerdings hab ich mir überlegt wenn Afterburner wirklich nich mehr mit LoL funktioniert weil er vom Client aufn Launcher wechselt, wäre es möglich den kompletten Desktop aufzunehmen? dann muss ich nur darauf achten nich zu minimieren oder sowas, dann gehts doch eigentlich trotzdem oder? Also wenn ich nur Blank den Desktop aufnehmen kann.


  • Geh beim Afterburner in die Optionen, dort auf den Tab fürs OSD und dort ist der Button namens "Mehr". Da drauf klicken, und dann das Application Detection Level auf None stellen. Wenn du wieder Spiele aufnehmen willst, musst du das entsprechend wieder auf Low bis High stellen.


    ---


    Beim SSM im Auflösungstab den Haken bei ResampleHQ raus und dann Spline 100 auswählen. Bei Farbe kannst du Chroma UV Resample anhaken.
    Sonst siehts gut aus. Falls du 60fps-Videos machst, dann reicht auch 1152p. Spart dir dann etwas Dateigröße und sieht auch nicht schlecht aus.

  • Virtualdub sollte das können.


    Was da mit LoL los ist, weiß ich wie gesagt nicht. Ich kann da nur rumraten, wieso das nicht sein könnte. Und so ein Chat könnte vielleicht ja ein Störgrund sein.


    Könnte es vielleicht helfen, LoL mit einem anderen Application Detection Level aufzunehmen? Wie du das umstellen kannst, steht ja oben.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite?
Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!