Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

Herzlich Willkommen auf YTForum.de, dem größten deutschsprachigen YouTube Forum.

Bei uns findest du eine tolle, freundliche und engagierte Community, die mit hochwertigen Inhalten, hilfreichen Tipps und Insiderwissen aufwarten kann. Auch warten viele interessante Themen zu Videobearbeitung, Soundbearbeitung, Netzwerken, Monetarisierung und vielem mehr auf dich. Präsentiere deine Videos der Community und erhalte hilfreiche Tipps, wie du sie verbessern kannst. Organisiere Treffen und Kooperationen mit anderen YouTubern und vernetze dich auch abseits von YouTube.

Wir würden uns freuen, wenn du ein Teil dieser großartigen Community wirst: Jetzt registrieren

Von Felix,

Auf YouTube gibt es längst nicht nur Katzenvideos, nein sowohl Nutzer als auch automatisierte Systeme laden auf die Seite Videos mit Gewalt, pornografischen Inhalten, oder Spam und Betrug hoch. Da dieser gegen die Community Guidelines (und mitunter auch geltende Gesetze) verstößt, werden diese nach einer entsprechenden Meldung entfernt. Hierbei setzt YouTube auf verschiedene Quellen für Flags: Meldungen von normalen Nutzern an sich, Meldungen von Trusted Flaggern, gemeinnützige Organisationen, Regierungen, und automatisierten Systeme.
Bislang war nach außen nicht bekannt, wie viele Videos gemeldet und entfernt wurden, nun führt YouTube aber einen Transparenzbericht ein, der die Zahlen im Detail auflistet.

Im Juni 2017 hat YouTube begonnen Machine Learning zur Erkennung von schädlichen Inhalten zu nutzen. Hierdurch wurde die Geschwindigkeit an Entfernungen drastisch erhöht. Hatten bspw. Anfang 2017 nur 8% der entfernten Extremismusvideos weniger als 10 Aufrufen, waren es Anfang 2018 bereits mehr als 50%, die entfernt wurden, bevor sie 10 Aufrufen erreichen.
Der Einsatz von Machine Learning hat aber auch zur Folge, dass sich nun mehr menschliche Reviewer die gemeldeten Videos ansehen. Einerseits natürlich um die Systeme besser zu trainieren, andererseits um die nun höhere Zahl an Videos zu prüfen.

YouTube Blog schrieb:

Deploying machine learning actually means more people reviewing content, not fewer. Our systems rely on human review to assess whether content violates our policies. [...] Last year we committed to bringing the total number of people working to address violative content to 10,000 across Google by the end of 2018.

Hier mal ein paar Eckpunkte aus dem Transparenzbericht des 4. Quartal 2017:
  • 8.2 Millionen entfernte Videos
  • 75% entfernt bevor die Videos einmal gesehen wurden
  • 31 Millionen Nutzer meldeten 9.3 Millionen Videos
  • 30% der Meldungen hatten "Sexuelle Inhalte" als Grund


Neben diesen Berichten stellt YouTube außerdem jedem Nutzer einen Verlauf der eigenen Meldungen zur Verfügung. Hier könnt ihr dann nachschauen, welche Videos ihr gemeldet habt, und ob diesbezügliche eine Aktion vorgenommen wurde.

Ich finde diesen Schritt zu mehr Transparenz sehr gut und die Zahlen sind definitv interessant. Was denkt ihr?

Oh und als Abschluss gibt's das Leben eines Flags auch noch mal als Video von YouTube selbst. :)

loading...
Quellen
  •  News im Forum diskutieren

    Bisher gibt es zu dieser News 3 Antworten im entsprechenden Thema, zuletzt:
Exit