Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
FILE - In this April 14, 2020 file photo, the thumbs up Like logo is shown on a sign at Facebook headquarters in Menlo Park, Calif. Social media and other internet companies face big fines in Britain if they don't limit the amount of harmful material such as child sexual abuse or terrorist content on their platforms, officials said Tuesday, Dec. 15, 2020. (AP Photo/Jeff Chiu, File)

Hass-Schleuder Facebook: Man weiss, dass es beim sogenannten Counter Speech nicht darum geht, Trolle umzustimmen – sondern die Mitlesenden durch Argumente zum Nachdenken zu bewegen. Bild: AP

Interview

Dieser digitale Spürhund aus der Schweiz sucht Hasskommentare – und du kannst helfen

Das Schweizer Projekt «Stop Hate Speech» will Pionierarbeit leisten bei der Bekämpfung von Gewalt. Die Co-Projektleiterin Sophie Achermann erklärt, wie das geht. Und was normale User beitragen können.



In den USA sorgte diese Woche der Grossmeister des Hate Speech für Schlagzeilen. Derweil ging in der Schweiz das gemeinnützige Projekt stophatespeech.ch online. Die Verantwortlichen haben sich zum Ziel gesetzt, Hasskommentare im Internet einzudämmen. Und zwar auf den grossen Social-Medie-Plattformen wie Facebook und Twitter, aber auch in den Kommentarspalten hiesiger Medienhäuser.

«Hate Speech im Internet ist zu einem globalen Problem geworden. Hilf mit, dagegen anzukämpfen!»

So funktioniert's

Die neue Waffe im Kampf gegen Hasskommentare ist eine Kombination von Mensch und Maschine. Ein Computerprogramm, basierend auf künstlicher Intelligenz, sucht online nach verdächtigen Inhalten und leitet diese zur genaueren Prüfung an ein Team von Freiwilligen weiter. Dabei entscheiden immer mindestens drei Personen, ob sie eine bestimmte Äusserung als problematisch (Hate Speech) einordnen. Bei erkannten sprachlicher Gewalt wird versucht, mit guten Argumenten dagegenzuhalten («Counter Speech»).

In den vergangenen Monaten haben rund 600 Freiwillige den Algorithmus darauf trainiert, Hasskommentare zu erkennen. Dazu wurden laut Mitteilung über 45'000 Postings angeschaut und eingeordnet, damit die Software dazulernt. Und es wurde entschieden, die automatisierte Software als digitalen Spürhund zu präsentieren. Der Name: Bot Dog.

Der digitale Spürhund (Algorithmus) wird fortlaufend trainiert. Darum werden zusätzliche Freiwillige gesucht, die sich auf der Projekt-Website anmelden und mitmachen. Ziel ist es, eine schlagkräftige Community aufzubauen.

«Alle sind willkommen! Unser Ziel ist eine möglichst diverse Community – idealerweise ein Querschnitt aus der Bevölkerung.»

Sophie Achermann

Sophie Achermann ist Geschäftsführerin der Schweizer Frauenorganisation alliance_F und Co-Projektleiterin von Stop Hate Speech. Gegenüber watson nimmt sie zu den Hintergründen Stellung und verrät, wer das Projekt finanziert.

Die wichtigsten Fragen (Interview)

Frau Achermann, Ziel ist es laut Medienmitteilung, die freie Meinungsäusserung und die Medienkompetenz der Bevölkerung zu stärken und das Internet zu einem gewaltfreien Raum zu machen. Was erhoffen Sie sich vom Projekt ganz konkret?
Sophie Achermann: Stop Hate Speech ist ein Präventionsprojekt – wir wollen verhindern, dass Diskussionen digital verrohen. Am Mittwochabend sah die ganze Welt, was im Extremfall passiert, wenn monatelang Hass im Internet geschürt wird. Unkontrollierter Hate Speech ist und bleibt eine Bedrohung für die Demokratie und führt auch zu Gewalt im realen Leben

Computerlinguistisch dürfte das Aufspüren von Hasskommentaren eine grosse Herausforderung sein. Mal abgesehen von Schimpfwörtern/Beleidigungen wird ja häufig relativ subtil (sprachliche) Gewalt ausgeübt. Wie beurteilen Sie die bisherige Effizienz des Bots und wie kann sie weiter gesteigert werden?
Die Linguistik von Hass ist komplex. Wir versuchen nicht nur Hass als solches zu identifizieren, sondern diesen auch im Kontext zu finden. Beispielsweise hat jemand unter einem Artikel einer Westschweizer Zeitung folgenden Kommentar publiziert: «Ich hoffe, dort wo sie hingehen, hat es schöne Duschen.» Das wäre per se unproblematisch. Nur ging es im Artikel um eine jüdischen Familie. Das zeigt, wie wichtig der Kontext im Rahmen von Hate Speech ist.

Bisher hat unser Algorithmus eine Genauigkeit von etwa 80 Prozent. Von zehn Artikeln, die Hate Speech enthalten, erkennt er acht. Weil linguistische Zusammenhänge so vielschichtig sind, liefert er aber immer noch False Negatives – er beurteilt Artikel als problematisch, die es nicht sind. Unsere Community kann Bot Dog deshalb auf unserer Plattform weiter trainieren und mit ihm üben, Hass zu erschnüffeln.

«Unser subjektives Gefühl ist, dass Facebook am schlimmsten ist.»

Sophie Achermann

Ob bei Facebook, oder in den Kommentarspalten hiesiger Online-Medien: Frauen sind überdurchschnittlich von Hasskommentaren betroffen. Warum ist das so?
Forschungen zeigen, dass Frauen viel häufiger als Männer sexualisiert und vulgär angegriffen werden. Sie erhalten Vergewaltigungsandrohungen oder werden mit Stereotypen konfrontiert: Frauen gehören zu Hause in die Küche. Das führt dazu, dass Frauen anders auf Hate Speech reagieren: Sie ziehen sich öfters als Männer aus Online-Diskussionen und Social Media zurück. Spannend sind auch wissenschaftliche Erkenntnisse aus der Gamerszene: Dort wird der Hass gegen Frauen damit begründet, dass sich Männer von den Frauen bedroht fühlen.​

Der Blick in die Trefferliste (potenzieller Hatespeech) zeigt viele Inhalte von Schweizer Gratis-Online-Medien und Tweets, aber keine Facebook-Postings. Warum ist das so?
Sophie Achermann: In ein paar Wochen wird Bot Dog auch die Facebookseiten der Medientitel nach Hass durchsuchen. Wir holen immer zuerst das Einverständnis der Medien ab, bevor wir ihre Artikel oder ihre Social-Media-Portale abgrasen.

Welche Online-Plattformen werden vom Algorithmus bereits erfasst?
Zur Zeit Twitter, blick.ch, nau.ch und 20min.ch. Bald kommen die Online-Portale von weiteren Medien hinzu – wir bauen stetig aus.

Hat das Projekt mehr die grossen Social-Media-Plattformen im Visier, oder die hiesigen Medien?
Grundsätzlich wollen wir dort aktiv sein, wo eine möglichst breite Gesellschaft angesprochen wird. Es zeigt sich aber, dass es nach wie vor mehr Hass auf Social Media gibt. Unser subjektives Gefühl ist, dass Facebook am schlimmsten ist. Das erklärt sich dadurch, dass Medienplattformen für ihren Inhalt die Verantwortung tragen. Wird ein strafrechtlicher Kommentar publiziert – etwa «du sollst sterben» –, kann das Medienunternehmen auch behaftet werden. Bei Facebook ist hingegen unklar, wer genau verantwortlich ist. Das führt sicher auch dazu, dass Facebook-Seiten weniger intensiv kuratiert werden.

Werden auch private Facebook-Gruppen erfasst?
Nein. Wir sind nur auf Seiten aktiv, die viele Leser*innen haben – vor allem junge Menschen, die stark von Hate Speech beeinflusst werden können. Zudem holen wir in jedem Fall eine Einwilligung, bevor wir unseren Algorithmus losschicken.

Was wird bei klar justiziablen Äusserungen unternommen?
Wir empfehlen den Betroffenen, mit dem Verein Netzcourage von Jolanda Spiess-Hegglin Kontakt aufzunehmen. Enthält ein Kommentar Verleumdungen, Bedrohungen oder Rassismus, kann man sich mit rechtlichen Mitteln wehren – Netzcourage sind da die Expertinnen.

Wie wird das Projekt finanziert?
Unser Initialpartner ist Engagement Migros. Wir werden aber auch von der Raiffeisen Jubiläumsstiftung, der Ernst Göhner Stiftung, der Gebert Rüf Stiftung, sowie verschiedenen Städten und Kantonen unterstützt.

Funktioniert der Bot bereits in den Landessprachen Deutsch, Französisch und Italienisch?
Aktuell nur auf Deutsch, anschliessend kommt Französisch und am Schluss allenfalls noch Italienisch.

Wird es auch eine Smartphone-App geben?
Das wissen wir noch nicht, es ist aber denkbar. Uns ist es wichtig, dass sich die Plattform an den Bedürfnissen der Community orientiert und wir sie auch auf ihre Wünsche hin verändern können. Nicht zuletzt entscheiden aber auch die Finanzen, ob eine App möglich ist.

Die ETH und die Universität Zürich begleiten das Projekt wissenschaftlich. Was heisst das konkret?
Dominik Hangartner vom Immigration Policy Lab der ETH Zürich und Fabrizio Gilardi und Karsten Donnay vom Digital Democracy Lab der Universität Zürich unterstützen uns bei der Erkennung von Hass. Sie erforschen zudem, welche Gegenrede (sogenannte «Counter Speech»)-Strategien am effektivsten sind, um Hass online zu kontern. Man weiss beispielsweise immer noch sehr wenig darüber, welche Art von Counter Speech bei welcher Art von Hassrede am meisten bewirkt.

Zur Person

Sophie Achermann (Jahrgang 1993) ist seit Mai 2018 Geschäftsführerin der Frauen-NGO alliance F und hat das Projekt Stop Hate Speech 2019 initiiert. Die Bernerin war Schweizer Jugenddelegierte der UNO und hat geholfen, das Jugendparlament in Bern aufzubauen. Sie politisierte fürs Grüne Bündnis im Stadtparlament.

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.

«Hate Speech» bei Facebook – was toleriert wird, und was nicht

So funktioniert Social Networking in der Realität

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Analyse

Threema ist das neue WhatsApp – und schlägt die Konkurrenz um Längen

Wer hätte gedacht, dass die weltbeste Messenger-App nicht aus dem Silicon Valley kommen würde, sondern vom Zürichsee. Eine persönliche Analyse.

Seit acht Jahren befasse ich mich mit dem sicheren Schweizer Messenger Threema. Den ersten Artikel dazu publizierte ich im Dezember 2012. Titel: «Die Schweizer Antwort auf WhatsApp». Die damalige erste App gab's nur fürs iPhone, und sie war zum Start gratis. Im Interview versprach der Entwickler, Manuel Kasper, die baldige Veröffentlichung einer von vielen Usern geforderten Android-Version. Und:

Er hielt Wort. Im Gegensatz zu WhatsApp.

Einige dürften sich erinnern, dass es ein gleiches …

Artikel lesen
Link zum Artikel