Suchergebnisse

Suchergebnisse 1-6 von insgesamt 6.

  • youtube.com/watch?v=4XZecrrCqB4 Ich würde das hier empfehlen. Da wurden immer exakt dieselben Thumbnails verwendet, sie hatten aber drastische Unterschiede bei den Resultaten. In anderen Worten würde das heißen, dass die Funktion kaum oder sogar gar kein Nutzen hat.
  • (Zitat von OnionDog) Ich finde, wenn du eine identische Situation hast, dann kannst du ein gleiches Resultat erwarten. Und wenn nicht, dann wie sollst du dann die Resultate auswerten, wenn du 2 unterschiedliche verwendest? Weißt wie ich meine? Also woher weißt du dann bei einem richtigen Test, dass der Unterschied nicht durch dasselbe zustande kam wie im Video, und stattdessen durch die unterschiedlichen Thumbnails?
  • (Zitat von Nordmann2021) Das bringt dir aber auch nichts weil die Ausgangslage wäre, dass das Feedback tatsächlich hilft. Mein kompletter Punkt war ja, dass man mit den AB tests so nichts anfangen kann, aber keine Ahnunt was du mit KI meinst, das spielt hier keine Rolle. Wie willst du denn "gute Thumbnails" bewerten, wenn du die Resultate dafür nicht nutzen kannst? Und wenn sich damit nichts erhöhen sollte, warum sollte es dann als gut identifiziert werden, wenn es den Sinn verfehlt?
  • (Zitat von Nordmann2021) Ich finde die Frage ist relativ simpel zu beantworten: sie erfüllen ihren Zweck eine bessere Performance zu erzielen, nur deshalb werden Thumbnails überhaupt gemacht. Heißt so ein Tool sollte genau das Erfüllen, vergleicht man das dann aber mit der Realität - und nicht mal Mängel vom Tool - wird es fast unmöglich, weil Videos so stark schwanken.
  • (Zitat von Nordmann2021) Die Thumbnails erscheinen ja gleichzeitig abwechselnd und werden per Zufall aber gleichmäßig gezeigt - und der Maßstab ist ja CTR x watchtime, heißt nicht sowas wie Views, wo man noch simpel argumentieren könnte, dass die halt je nach Impressionen schwanken. Du hast also eine über identische Testumgebung, solange es über einen lange genugen Zeitraum ist und genügend Impressionen gibt, dass es sich ausgleicht. Ich denke den Unterschied was wir meinen ist: Du meintest das …
  • (Zitat von HannaLena90) Ich glaube da ist der Kontext beim Lesen verlorengegangen :p der Punkt war identische Thumbnails zu verwenden und drastisch unterschiedliche Resultate bekommen zu können. Habe ich 2/3 mal das gleiche Thumbnail drinnen um das Feature zu testen, dann erwarte ich 50/50 oder 33/33/33, nicht Werte die wild durch die Gegend fliegen. Nicht, weil ich das nicht verstehen könnte, sondern eher weil das dann heißt, dass ich mich auf die Resultate nicht verlassen kann. Simples Beispie…