Facebook würde lieber vorübergehend wissenschaftliche Informationen aus äußerst zuverlässigen Quellen zensieren, als böswillige Beiträge zu lange zu tolerieren, während es gleichzeitig versucht, seine Algorithmen zu verbessern, die Sarkasmus nicht erkennen können.
Agence Science-Presse, ein 43 Jahre altes gemeinnütziges Medienunternehmen, ließ am 28. März einen Artikel wegen „Nichteinhaltung von Gemeinschaftsstandards“ löschen.
Facebook-Screenshot
Die Interpretation, die von der Agence de Science-Presse nach dem zweiten Zug ihrer Veröffentlichung erhalten wurde.
Nach nur drei Wochen war die Situation korrigiert (siehe Tabelle).
Der Artikel stellte fest, dass die Anti-Impfstoff-Bewegung seit mehr als einem Jahrhundert dieselben Argumente verwendet.
Erläuterungen
Ein Sprecher der Muttergesellschaft von Facebook sagte: „Meta würde es vorziehen, einen nicht schädlichen Beitrag zu entfernen und ihn nach zwei oder zwei Wochen erneut zu veröffentlichen, anstatt einen (schädlichen) Beitrag zu lange zu hinterlassen.“
Die Erklärung lässt den Chefredakteur der Agentur skeptisch zurück, „angesichts der Menge an Fake-News-Konten, die im Laufe der Jahre weltweit denunziert wurden und online geblieben sind“, sagt Pascal Lapointe.
Die erste Zeile der Facebook-Post-Verifizierung verwendet einen Algorithmus, der künstliche Intelligenz verwendet. Die strittigen Fälle werden dann vom Mitarbeiter überprüft.
betrachtet ds Vadeboncoeur ließ kürzlich vier seiner Posts von Facebook zensieren. “Die ersten beiden waren etwas ironisch. Es wird interessant sein zu sehen, wie sie sich zu Menschen äußern, die immer einen Diskurs haben, der direkter nicht in Richtung Wissenschaft sein kann”, sagt Dr.s Vadeboncourt.
Die Herausforderung für KI ist oft die Fähigkeit, Sarkasmus zu erkennen. Algorithmen sind nicht leistungsfähig genug, um zu verstehen, dass ds Vadeboncoeur verwendet Humor oder Sarkasmus. Aus diesem Grund haben Menschen die zweite Verifizierungsebene erreicht“, antwortete ein Meta-Sprecher.
betrachtet ds Vadeboncoeur erkennt, dass die Ironie schwer zu erkennen ist. Aber diese Lücke wird einen großen Einfluss auf die Suche nach gefälschten Nachrichten haben. Er glaubt, dass “es darauf hinausläuft, kein falsches Bild oder keine falsche Veröffentlichung anprangern zu können”.
Facebook-Screenshot
Brief vom 1. Mai von Dr. Alan Fadiboncourt.
Und wenn das von Facebook erwähnte Vorsorgeprinzip zum Blockieren von Beiträgen zuerst verstanden und dann analysiert wird, dann ist das Prinzip, dem 50.000 Menschen folgen, der Meinung, dass multinationale Unternehmen anders handeln können.
Facebook-Screenshot
Facebook-Verbotsmitteilung vom 3. Mai
Lösung
Pascal Lapointe von der Scientific News Agency argumentiert über die Organisation von Algorithmen. „Es ist undurchsichtig und unnatürlich, dass wir – ds Vadeboncoeur und viele andere – bleiben wir stecken, ohne zu verstehen, warum. Er sagte, dass diese Unternehmen eine in der Geschichte beispiellose Autorität über Informationen auf der ganzen Welt haben.
3 Wochen warten
28. März: Facebook bezieht Nachrichten von der Scientific News Agency. Die Agentur kommuniziert mit Facebook, und der Mitarbeiter kann nichts dagegen tun.
29. März: Die Agentur veröffentlicht ihre Nachrichten erneut.
31. März: Die Nachricht wird zurückgezogen.
1Vers April: Die Agentur wendet sich an Facebook-CEO Kevin Chan und erklärt ihm die Situation.
4. April: Der Leiter überträgt die Agentur an den Media Partnerships Manager.
8. April: Ohne Neuigkeiten besteht die Agentur auf einem Kundenservice, der “ausnahmsweise” eine Erwähnung seines Chefs akzeptiert.
14. April: Die Agentur wandte sich erneut an Facebook und die beiden Führer.
20. April: Status wurde wiederhergestellt.