YouTube ist derzeit sogar dabei, vorzubereiten, dass KI erzeugter Content automatisch als solcher erkannt und markiert werden wird oder vom Creator manuell als solcher markiert werden muss, auch schon, wenn nur manipulierte Bilder von Personen darin vorkommen.
Eine Nicht-Markierung wird dann ein Verstoß gegen die Guidelines sein, und dazu führen, dass man Strikes, Content Löschung und evtl. Bans bekommt:
The company also warns that creators who don’t properly disclose their use of AI consistently will be subject to “content removal, suspension from the YouTube Partner Program, or other penalties.”
Quelle: https://techcrunch.com/2023/11…oming-surge-of-ai-videos/
Und ganz ehrlich, die Qualität der meisten KI-erzeugten Produkte ist so niedrig, dass Menschen mit halbwegs funktionierendem Gehirn sowas nicht sehr oft ansehen werden. Und wenn es eine Pflicht zur Markierung gibt, erst recht nicht.
Neben den üblichen 6-Finger Problemen bestehen viele KI Inhalte aus sogenannten "Halluzinationen", also völlig falschen, herbei fantasierten Aussagen, die sich die KI einfach "aus den Fingern" saugt. Es ist halt keine wirkliche Intelligenz, sondern ein LLM = Large Language Modell, es hat zigtausende Texte, Bilder, Videos untersucht, die von echten Menschen, mit Kreativität, Intelligenz und eigenen Meinungen erstellt wurden, und dann geht es hin, und kombiniert recht wahllos nach Wahrscheinlichkeiten sortierte Elemente zu Inhalten. Dabei gibt es aber keinerlei Kontrolle für Qualität und Richtigkeit der Aussagen, es plappert einfach gesagt recht wahllos Zeug vor sich hin, oder mixt Inhalte aus bestehenden Bildern.
Da kommt nichts Neues raus, da kommt nur schlechter, recyclter und geklauter Inhalt raus. Wenn man sonst nicht sonderlich kreativ ist, scheint das erstmal wie eine "tolle Lösung auch ohne Kreativität Kreativ zu sein". Und wie gesagt, auf den ersten Blick sieht manches vielleicht erstmal "beeindruckend" aus, aber im Endeffekt ist es nur ein vollautomatischer Content-Diebstahl und dabei entsteht eine Menge Müll.
Ich habe selbst einige Zeit damit experimentiert, als Möglichkeit Texte für meine Website automatisiert erstellen zu lassen. Und meine Güte, das war irgendwo zwischen gruselig und grottenschlecht. Von ca. 50 Texten, die ich probiert habe, mir erstellen zu lassen, gab es nicht einen einzigen, wo nicht völlig falsche Aussagen, falsche Daten oder einfach totaler Blödsinn drin stand. Kein einziger Text war nicht gespickt mit zahlreichen Wiederholungen und bestimmte Formulierungen tauchten immer wieder auf, in fast jedem Text.
Wenn das die Zukunft der Content-Erstellung ist, werden wir in Fake-News und Falschinformationen ertrinken und in einigen Jahren wird kaum noch ein Gerät verlässlich funktionieren, keine Nachricht glaubhaft sein und kein Video irgendwelche Information beinhalten, auf die man sich zumindest ein wenig verlassen könnte. Alles wird nur wabernder Unsinn gemischt mit etwas Halbwahrheiten und Wiederholungen bereits bestehender Inhalte sein. Nichts neues wird dann mehr entstehen und die Maschinen werden irgendwann nur noch gegenseitig voneinander abschreiben.
Momentan sind die Zuschauer, Leser, etc. eventuell noch leicht mit sowas zu beeindrucken, aber im Laufe der kommenden Monate und Jahre, werden die Menschen sehr schnell lernen, solche Low-Value Produktionen zu erkennen und beginnen sie zu meiden. Es wird vermutlich auch nicht gut ankommen, wenn bei den olympischen Spielen, statt echter Sportler nur noch Roboter gegeinander antreten, oder wenn bei der Fußball WM kleine Maschinen den Ball ins Tor treten.
So künstlicher Kram mag vielleicht einen kleinen Teil der Menschheit begeistern, aber die meisten möchten Menschen sehen, Texte von Menschen lesen und Videos von Menschen anschauen, mit richtiger Kreativität, authentischer Meinung, geprüftem Fachwissen und vielleicht auch mit menschlicher Albernheit, Dummheit und Humor dazu. Aber das sind alles Dinge, die Maschinen nicht wirklich können, auch noch viele, viele Jahre lang nicht.
Ich persönlich hoffe sehr, dass die Millionen Klagen wegen Content-Diebstahl und unerlaubter Nutzung von Inhalten für Trainings, die momentan gegen OpenAI und andere KI-Firmen laufen, sehr erfolgreich sein werden, und diese Firmen solch horrende Strafzahlungen auferlegt bekommen, dass diese Branche bald wieder zusammen bricht.
