Unsere Memes sind sicher: Artikel Dreizehn mal durchexerziert
Heute ist der Tag, an dem die Engländer der Zahl Pie gedenken. Weil Drei.Vierzehn. Ich möchte diesen Tag natürlich auch würdigen und habe mal ein Gif rausgesucht.
Artikel Dreizehn tönt nun: Memes sind sicher. Zwar weiß ich nicht, wie das GIF da oben unter den Parodie-und-Satire-Aspekt fällt, ich habe auch keinen Anlass dazu, das als Bildzitat zu kennzeichnen – ich setze mich nicht mit dem Werk an sich auseinander, man könnte natürlich die Länge des Textes als redaktionellen Beitrag werten, in dem ein Zitat nötig ist um Dinge darzustellen. Generell aber erstmal: Das ist keine Parodie. Keine Satire. Und redaktioneller Beitrag ist das ohne diesen Text auch nicht.
Uploadfilter müssten nun in der Lage sein, zu erkennen ob das ein Meme ist oder ob ich da einfach ein geschütztes Photo hochgeladen habe. Lange Zeit hatten Suchmaschinen Probleme mit Schriften in Bildern, weswegen die Beschriftung der Bilder enorm wichtig war. Und das ist noch gar nicht mal so lange her. Technik ist also nicht immer so weit, wie wir sie gerne hätten. Zurück zur Frage: Können Uploadfilter, kann eine KI in welcher Form auch immer, unterscheiden zwischen redaktionellem Beitrag und einem Meme? Zwischen einem Meme und einem geschützten Beitrag an sich?
Die Befürworter sagen das dauernd. Was sie unterlassen: Forschungen oder Studien anzugeben, Beispiele, in denen KI das Filtern und Sortieren anhand der Kriterien Satire und Ironie bzw. Witz kann. Das aktuelle Content-ID-Beispiel von YouTube sortiert anhand eines Mustervergleichs – das heißt, irgendwo ist eine Datenbank mit Mustern hinterlegt, die abgeglichen werden. Das heißt: YouTube muss von den Rechteinhabern mit einer Datenbank beliefert werden und immer aktuell gehalten werden. Eine KI müsste daher in der Lage sein, dazuzulernen und zwar eigentlich selbstständig. Eine KI muss lernen, was Memes sind und was nicht. Das kann ein einfacher Vergleich wie momentan das Content-ID-System nicht: Es vergleicht einfach nur Muster.
Mustervergleich und Sortieren von Bildern – das können Künstliche Intelligenzen. Wenngleich sie auch oftmals schummeln, um ihre Ziele zu erreichen – siehe hier: https://www.tu-berlin.de/?203846
Aber Satire, Ironie und tiefere Bedeutung erkennen – da wird es schon schwieriger. Vielleicht schauen wir uns nochmal an, was damals passierte als das NetzDG eintrat: https://www.br.de/…/computer-lachen-nicht-warum-das-netzdg-… – das war letztes Jahr übrigens. Also das mit dem Versagen von Programmen beim Thema Satire und Ironie. Da wurde dann erstmal viel mehr geblockt als nötig gewesen wäre. Was mit Sicherheit auch auf Artikel Dreizehn zutreffen wird. Und auf Memes.
Wissenschaftliche Artikel zum Thema KI und Satire und Erkennung – rar gesägt. Wenn eine KI das können sollte, müsste es ja jetzt schon irgendwelche Erkenntnisse dazu geben. Sortieren und Texte schreiben: Ja, können Maschinen schon. Wer wissenschaftliche Artikel oder Meldungen dazu sucht, wir eine Menge finden. Ja, es gibt Roboter, die lachen können, aber das ist ja nicht damit gemeint. Offenbar gibt es derzeit keine KI, die intelligent genug ist Satire und redaktionelle Beiträge auseinanderzuhalten. Und ob Programme das irgendwann mal können und vor allem ab wann – das weiß keiner.
Was im Endeffekt heißt: Bis auf Weiteres werden Memes wohl erstmal geblockt werden, wenn der Uploader in der EU sitzt, denn die Philippinos, die jetzt schon die unangenehmen Dinge bearbeiten bei Facebook – diese wären ja nicht nötig, wenn die Programme total super funktionieren würden übrigens – sind ja jetzt schon mit dem Sortieren überlastet. Facebook ist mit Artikel Dreizehn unmittelbar haftbar. Das ist Facebook zwar heute auch schon, aber erst, wenn man die Plattform auf ein Vergehen hinweist. Dann hat sie immer noch Zeit, das Posting zu löschen. Wir sprechen hier von einer Haftung, die sozusagen proaktiv vonstatten gehen soll: Filter sollen vorab erkennen, ob etwas geschützt ist oder nicht. Aktiv. Von sich aus dann auch noch.
Insofern: Wie genau die Freiheit von Memes gesichert sein soll erklären die Befürworter nicht. Sie können keine Forscher vorweisen, keine IT-Fachleute, die jetzt definitiv ein Modell vorstellen, das nachvollziehbar wäre. Das Content-ID-System ist nur ein Mustervergleich. Damit das funktioniert, müssten alle Plattformen immer und immer wieder aktuelle Datensätze geliefert bekommen. Bei der Unmenge von Material, das erstellt wird – allein Urlaubsphotos – wird die Datenbank an sich immer im Hintertreffen sein. Wenn Herr Voss sagt, man hätte noch zwei Jahre Zeit dazu, dann ist das einfach hanebüchen. Wenn jetzt die Technik nicht in Ansätzen vorhanden ist, wird das Entwickeln sicher noch Jahrzehnte dauern.
So lang halt wie die Zahl Pie ist …