Die Studie stellt fest, dass Google eine verwässerte Beschreibung der umstrittenen Charaktere liefert

Wenn Sie anfangen, den Namen von Alex Jones in eine Google-Suche einzugeben, schlägt er vor: Alex Jones, Radiomoderator Und es gibt Ihnen ein Vorschaubild, damit Sie erkennen können, ob dies die gesuchte ist.

Qualifizierter Radiomoderator eines Amerikaners mit rechtsextremen Ideen, Gründer der Seite Infowarsder für Verschwörungstheorien über die Sandy-Hook-Schießerei und die Anschläge vom 11. September berühmt war, könnte Sie überraschen.

Machen Sie die gleiche Übung mit Gavin McInnes, dem Gründer der rechtsextremen Gruppe stolze JungsEs wird Ihnen als Schriftsteller präsentiert. Für Jake Angeli, sagt Qanoon Schamaneeiner der Teilnehmer des Angriffs auf das Kapitol der Vereinigten Staaten im Jahr 2021, nutzt die Suchmaschine für qualifizierte Aktivisten.

Diskussionen über Plattformen, die helfen, Desinformationen online zu verbreiten, zielen regelmäßig auf Facebook und Twitter ab, während Google-Suchmaschinen oft übersehen werden, sagt Ahmed Al-Rawi, Professor an der School of Communications der Simon Fraser University (SFU), British Columbia.

Diese Beschreibungen, die von Googles automatisiertem Vorschlagstool bereitgestellt werden, lassen jedoch einen Teil der Wahrheit aus und verschönern die Sichtbarkeit dieser Personen in der breiten Öffentlichkeit, erklärte Ahmed Al-Rawi, der auch Leiter des Labors ist. Fehlinformationsprojekt von SFU.

Jemanden einen Aktivisten zu nennen, wenn diese Person Hass verbreitet und sogar zum Völkermord aufruft, ist nicht normal. »

Zitat aus Ahmed Al-Rawi, Direktor des Fehlinformationsprojekts, SFU

Aktivisten, Journalisten und viele mehr

Im Rahmen dieser Studie durchsuchte Ahmed Al-Rawi zusammen mit anderen Forschern des Desinformation Lab Titel, die von Google vorgeschlagen wurden, um 37 Personen zu qualifizieren, die als Verschwörungstheoretiker oder Unterstützer von Verschwörungstheorien gelten.

Alex Jones ist einer der 37 Verschwörungstheoretiker, die in dieser Studie untersucht wurden.

Foto: Radio Kanada

Die Ergebnisse der Studie veröffentlicht in Magazin M/CLaut Ahmed Al-Rawi stellte sich heraus, dass von den 30 Personen, die untertitelt wurden, keiner der Qualifizierten die Vision widerspiegelte, die das Publikum von ihnen hatte: 16 Personen wurden für ihren Beitrag im künstlerischen Bereich vertreten, und 4 wurden als qualifiziert Aktivisten. , 7 Kollegen, für ihre ursprünglichen Jobs, 2, bezogen auf den journalistischen Bereich, einer, auf seine sportliche Karriere, und der letzte, identifiziert als Recherche.

In dem Wissen, dass die Suchmaschinenvorschläge von Google je nach geografischer Suchregion unterschiedliche Ergebnisse liefern können, stellten die Forscher überrascht fest, dass dieselben Ergebnisse in Kanada, den Vereinigten Staaten und den Niederlanden erzielt wurden. Sie kamen zu diesem Schluss, indem sie ein Virtual Private Network (VPN) verwendeten, das seinen Ursprung in diesen drei Ländern hatte.

Bias, das ohne einen bekannten Algorithmus unmöglich zu bestimmen ist

Der Algorithmus verwendet eine Reihe von Regeln und eine bestimmte Datenbank, um zu einem Ergebnis zu gelangen. Wenn seine anfängliche Datenbasis subjektiv ist, dann werden diese Ungleichheiten auch auf das gegebene Ergebnis übertragen.

Wurden in diesem Fall die Qualifikationen Verschwörungstheoretikern aufgrund eines Fehlers in der Google-Datenbank oder aufgrund einer bewussten Entscheidung zugewiesen? Es ist schwer zu sagen, wenn man bedenkt, wie wenig Informationen über die Leistung des Algorithmus verfügbar sind, sagt Stéphane Couture, Professor für Kommunikation an der Universität von Montreal und Mitautor des Labors zu Online-Rechten und alternativen Technologien.

Es ist jedoch klar, dass die Auswahl dieser Titel nicht im Rahmen der Redaktionspolitik erfolgt ist. Google hat keinen Redakteur, der beschlossen hat, den Untertitel des Radiomoderators auf Alex Jones zu setzenerklärt Stephan Couture.

Ein Roboter, der sich Algorithmen ansieht.

Menschen geben ihre Vorurteile an die von ihnen entwickelten Algorithmen weiter.

Foto: gettyimages / istockphoto / PhonlamaiPhoto

Ahmed Al-Rawi seinerseits befürchtet, dass sich verschworene Gruppen dieses System nicht zunutze machen können.

Labor Manager Fehlinformationsprojekt Er argumentiert, dass, wenn eine Google-Datenbank auf online verfügbaren Informationen basiert, wie die Plattform behauptet, diese Verschwörungstheoretiker dank der Art und Weise, wie sie sich online identifizieren, beeinflussen können, wie sie vom Suchtool dargestellt werden.

Das System wird manipuliert, es ist wie ein Schlupfloch, das es Verschwörungstheoretikern ermöglicht, sich mit Hilfe von Google zu bewerben. »

Zitat aus Ahmed Al-Rawi, Direktor des Fehlinformationsprojekts SFU
Der Schatten einer Frau, der sich hinter den Daten versteckt.

Algorithmische Verzerrungen können zu Diskriminierung führen.

Foto: iStock

eingeschränkte Sicht

Stéphane Couture erklärt, dass Google auf die Unparteilichkeit des Suchvorgangs setzt, um die Unterstützung möglichst vieler Internetnutzer sicherzustellen.

Obwohl diese Neutralität nur behauptet wird und diese Untertitel ein eingeschränktes Bild dieser Personen wiedergeben, bleibt die Tatsache bestehen, dass sie nicht falsch sind, was den Professor in der Kommunikation unterstützt. Er erinnert sich, dass Alex Jones eigentlich ein Radiosprecher ist.

Würde die Plattform Alex Jones als Verschwörung darstellen, wären die Leute im Lager von Alex Jones natürlich sauer auf Google.

Diese Informationen erscheinen uns voreingenommen, sind es aber nicht für Alex Jones. »

Zitat aus Stéphane Couture, Professor für Kommunikation, Universität Montreal

Laut Stéphane Couture nimmt Google Stellung bei der Entscheidung, ob eine Übersetzung für diese Personen bereitgestellt wird oder nicht. Andere umstrittene Persönlichkeiten wie Osama bin Laden haben es zum Beispiel nicht.

Kontrolle und Transparenz sind gefragt

Die Forscher stellten fest, dass dies nicht das erste Mal sei, dass die Suchmaschinenalgorithmen von Google diskutiert würden.

Ahmed Al-Rawi glaubt, dass der digitale Riese bei ausreichendem Druck der internationalen Gemeinschaft dazu gedrängt werden könnte, einzugreifen, um die Situation zu beheben.

Google habe bereits Änderungen an seinem Suchalgorithmus vorgenommen, nach heftigem Protest gegen Begriffe mit abwertender Tendenz, Frauen oder ethnische Gruppen auf dem Suchtool zu qualifizieren, erinnert sich Ahmed Al-Rawi.

Im Jahr 2020 beschloss Google auch, Geschlechtsbezeichnungen zu entfernen, wie z Die Erinnerung wo Frauvon seinem Algorithmus, um seinen Ethikkodex für künstliche Intelligenz einzuhalten.

Das Google-Logo an der Außenseite des Gebäudes.

Google hat bereits Maßnahmen ergriffen, um einige Verzerrungen in seinem Algorithmus zu vermeiden.

Foto: dpa via getty Images / NOAH SEELAM

Stéphane Couture sagt, Google sollte transparenter sein, wie seine Algorithmen funktionieren. Es wird vorgeschlagen, dass die Plattform diese Titel aus ihren Vorschlägen zurückzieht und a Editor Wer kann haftbar gemacht werden, wenn Fragen zur Algorithmus-Voreingenommenheit auftauchen?

Ihm zufolge ist ihre Wirkung angesichts der Nutzung der Plattform durch die breite Öffentlichkeit sehr real.

Es ist, als würde man sagen: “Osama bin Laden war ein ehemaliger saudischer Staatsbürger.” Es löscht seine gesamte Geschichte und auf seltsame Weise die politische Dimension dahinter aus. »

Zitat aus Stéphane Couture, Professor für Kommunikation, Universität Montreal

Internetgiganten wie Google begründen diese Vorurteile ihrer Algorithmen damit, dass sie es sind Gemeinschaftsspiegelaber laut einer wachsenden Zahl von Forschern und Politikern haben diese Plattformen redaktionelle Rolle Zum Spielen, sagt Stéphane Couture.

Mit Informationen von Nantou Soumahoro

Leave a Comment