STIMMT JA GAR NICHT!
Man sollte nicht alles glauben, was man so erzählt bekommt. Logisch.
Aber manche Unwahrheiten halten sich erstaunlich hartnäckig.
Lass mal nachhaken!
Berlin, 13. März 2025
TEXT: Christian Bachem, Gastbeitrag in der W&V März 2025
Für Werbungtreibende begann das Jahr mit einem Paukenschlag. Mark Zuckerberg hatte angekündigt, Fact Checking auf den eigenen Plattformen einzustellen. Stattdessen werde Meta die Faktenprüfung in die Hände der Nutzer legen. Und zwar in Form von Community Notes.
Vorbild hierfür ist X, wo Community Notes bereits etabliert sind. Aus- gerechnet X. Die Plattform, die seit der Übernahme durch Elon Musk zum Hort für Missgunst, Hassrede und Hetze geworden ist? Die Platt- form, der die Anzeigenkunden in Scharen davongelaufen sind?
Steht also zu erwarten, dass Facebook und Instagram sich ebenfalls zur unkontrollierten Schlangengrube entwickeln, die für Marken zum Reputationsrisiko wird? Die Reaktionen legten dies nahe. Schnell er- gingen zahlreiche Appelle an die hiesigen Werbungtreibenden und Mediaagenturen, ein Zeichen zu setzen und ihre Spendings zu prüfen, zu reduzieren oder gar einzustellen.
Diese reflexartigen Forderungen überraschen nicht, schallten sie doch bereits in der Vergangenheit durch die Fachwelt. Und verhallten schnell wieder. Aber verwunderlich ist die Aufregung um Metas Kurs- wechsel durchaus. Und zwar aus drei Gründen:
Dort werden sie schleichend eingeführt. Ob und in welcher Form Meta sie in Europa einführen wird, ist offen. Der Digital Services Act der EU könnte den Giganten aus Menlo Park davon abhalten. Denn der DSA verpflichtet alle großen Plattformen unter Androhung empfind- lich hoher Strafen, einen verlässlichen und transparenten Prozess der Content-Moderation einzuhalten.
Über 2,1 Milliarden Menschen nutzen Facebook täglich. Im Laufe ei- nes Jahres werden dort rund 2 Billionen Posts veröffentlicht, sprich 500 Milliarden pro Quartal. Eigenen Angaben zufolge hat Meta im dritten Quartal 2024 6,4 Millionen Posts wegen Hassrede und 7,6 Mil- lionen Posts aufgrund von Mobbing und Beleidigungen gelöscht. Dies entspricht weniger als 0,003 Prozent aller Posts in diesem Zeitraum.
In seinem „Community Standards Enforcement Report“ gibt Meta an, dass man das Erstellen von Millionen von Fake-Accounts verhindere. Täglich. Dennoch musste Facebook 1,1 Milliarden Fake-Accounts in Q3/24 löschen, die diese Präventivmaßnahmen umgehen konnten. Die Dunkelziffer unerkannter Fake-Accounts und Bots kann man ange- sichts dessen nur erahnen. Experten gehen davon aus, dass mindes- tens 2 Prozent aller Posts auf Facebook von Bots stammen.
Der angemessene Umgang mit rechtswidrigen Inhalten ist und bleibt eine wichtige Aufgabe für Social Media. Die Diskussion hierüber soll- te jedoch nicht von einem ebenso drängenden Thema ablenken: Fake- Accounts und Bots. Sie bilden eine perfide Zeitbombe. Eine, die – be- feuert durch KI – mit der Zeit immer explosiver werden dürfte. Und beileibe nicht nur Meta betrifft.