„Dann geht man in ein heikles Feld“

Künstliche Intelligenz soll Hate Speech löschen - Warum Menschen dennoch eingreifen müssen

  • Cindy Boden
    VonCindy Boden
    schließen

Künstliche Intelligenz, die alle Hasskommentare im Netz herausfiltert: Noch ist das wegen einiger Hürden Wunschdenken. Zuerst braucht es viel menschliche Vorarbeit.

München - Wenn der Mensch nicht mehr weiterkommt, bittet er gern mal eine Maschine um Hilfe. Auch beim Thema Hate Speech im Netz* ist das so. Unvorstellbare Zahlen an Kommentaren fluten mittlerweile täglich das Netz. Hassbotschaften zu filtern, verlangt gewaltige Manpower. Um dem Hass weniger Räume zu geben, helfen Computerprogramme aus. Künstliche Intelligenz (KI) - wenn auch in abgespeckter Form - kommt schon lange nicht mehr nur in Filmen zum Einsatz.

So können Programme beispielsweise nach festgelegten Begriffen suchen, die als Hate Speech eingestuft werden. Deutlich effizienter wird es, wenn Algorithmen mit Beispielmaterial so trainiert wurden, dass sie wissen, was Hassrede ist. Doch nicht nur technisch bedarf es dafür einiges an Arbeit.

Künstliche Intelligenz (KI) gegen Hate Speech: Ein Spannungsfeld tut sich auf

Grundsätzlich bewegt sich der Mensch auch beim Einsatz von KI in einem Spannungsfeld: Sollen potenzielle Hasskommentare aufgrund der Meinungsfreiheit erst einmal veröffentlicht werden, obwohl sie anschließend kaum wieder zu tilgen sind? Oder soll ein Mechanismus zwischengeschalten werden, der Kommentare vor dem Online-Gehen prüft, aber Sorgen über „Zensur“ laut werden lassen könnte?

Als Unterstützungstool brauchen wir Künstliche Intelligenz, als automatisches Tool kann es auf keinen Fall funktionieren.

Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz
Künstliche Intelligenz im Kampf gegen Hate Speech: Der Mensch muss viel Vor- und Nacharbeit leisten.

„Das, finde ich, ist die Debatte, die stattfinden muss: Was ist der teurere Schaden?“, sagt Aljoscha Burchardt, Experte vom Deutschen Forschungszentrum für Künstliche Intelligenz. Im Gespräch mit Merkur.de macht er deutlich, dass der Mensch beim Einsatz von KI immer wieder eingreifen muss. „Als Unterstützungstool brauchen wir sie, als automatisches Tool kann es auf keinen Fall funktionieren.“

Denn die Entscheidung, was Hasskommentare sind und was nicht, fällt auch Juristen nicht immer leicht. Es kommt häufig auf den Einzelfall an. Menschen sollten also noch einmal kontrollieren, was der Algorithmus aus der Flut an Kommentaren gefischt hat.

Schon hier zeigt sich: Unternehmen, die KI nutzen wollen, müssen sich einige Gedanken machen. Denn die Maschine kann so eingestellt werden, dass sie nur vergleichsweise sichere Treffer anzeigt. Eine große Zahl an potenziellen Hetzkommentaren kann dabei jedoch übersehen werden. Genauso gut kann die Maschine auch alles auflisten, was auch nur im Ansatz Hassrede sein könnte. Das bedeutet für die Mitarbeiter etwa von Medienunternehmen umso mehr Kontrollarbeit.

Aljoscha Burchardt vom Deutschen Forschungszentrum für Künstliche Intelligenz

Hate Speech mit KI erkennen: „Es ist noch ganz, ganz viel, was im vortechnischen Bereich geklärt werden müsste“

„Hassrede ist ein schwach definierter Begriff“, sagt Burchardt. Der Aufwand für Juristen ist teilweise groß - Stichworte Kontextbetrachtung und Vergleichsfälle. „Daraus kann man ableiten, das Ganze irgendwie maschinell mal eben so zu machen, ist völlig ausgeschlossen.“

Zudem stellt sich auch gesellschaftlich die Frage, ob KI nur Fälle von Hate Speech entdecken soll, die auch rechtlich relevant werden, oder wie der gesellschaftliche Umgangston gestaltet werden soll. „Dann geht man in ein heikles Feld, wenn auch Beiträge zensiert werden, die rechtlich zwar okay wären, uns aber gesellschaftlich oder mir als Portal trotzdem nicht gefallen.“ Das zeigt: „Es ist noch ganz, ganz viel, was im vortechnischen Bereich geklärt werden müsste“, betont KI-Experte Burchardt.

KI trainieren: Große, eindeutig gekennzeichnete Datenmenge sind nötig - Aber woher kommt das Material?

Auch im Forschungsbereich zur Technik passiert gerade einiges. Ein datenbasiertes, trainiertes System versucht, mit tausenden, teils hunderttausenden Lernbeispielen selbst Muster zu erkennen, ohne dass vorher Hate Speech klar definiert werden musste. Die Frage, die sich selbst Experten wie Burchardt stellen: Kann sie das?

Die Forschungscommunity versucht, solche riesigen Datengrundlagen zu sammeln. Kein einfaches Unterfangen, wie Burchardt schildert. Der simpelste Schritt sei, Hasskommentare zu nehmen und dranzuschreiben, welche Form von Hass es ist. Beleidigung, Volksverhetzung, Kraftausdruck. Schon in kleinen Gruppen kann es da viel Diskussionsbedarf geben. „Wir brauchen eigentlich große Datenmengen, die eindeutig ausgezeichnet sind“, erklärt Burchardt. Vielmehr hätten die Forscher aber nur kleine Datenmengen zur Verfügung, die uneindeutig gekennzeichnet sind. Für eine Maschine ist es also schwierig, etwas Vernünftiges zu lernen. „Was aber Niemandes Schuld ist, was einfach in der Schwierigkeit der Sache liegt“, meint Burchardt.

Er schlägt vor, Plattformnutzer einzubeziehen. Beispielsweise könnten sie mehrere möglicherweise verletzende Postings kategorisieren. Als eine Art Preis dafür, dass sich jemand Gedanken gemacht, wie die Kommentarspalten in Zukunft hassfreier werden. Doch natürlich gibt es da Fallstricke: Verschiedene Nutzungsgruppen müssten einbezogen werden, die Kategorisierung müsste sorgsam erfolgen. „Ich weiß nicht, ob das eine Lösung wäre, aber es wäre vielleicht eine Möglichkeit.“

Probleme beim Einsatz von KI: Hate Speech ist oft kreativ verpackt - Ironie wird für die Maschine zur Stolperfalle

Thomas Mandl, Professor am Institut für Informationswissenschaft und Sprachtechnologie der Universität Hildesheim

Thomas Mandl, Professor am Institut für Informationswissenschaft und Sprachtechnologie an der Universität Hildesheim, erkennt diesen Weg auch als Möglichkeit an. Er gibt aber zu bedenken, dass die Nutzer unterschiedliche Maßstäbe für die Kategorisierung ansetzen, nicht geschult sind und womöglich auch persönlich betroffen sein könnten. In seiner Forschung zu KI werden daher Kommentare von sozialen Netzwerken gesammelt, einer kleinen, geschulten Gruppe vorgelegt und bei Unsicherheiten wird noch einmal diskutiert. Die benötigten riesige Datenmengen entstehen so jedoch auch nur schleppend.

Außerdem sind Hater immer wieder kreativ. Der Maschine einen Schritt voraus, denken sie sich etwas Neues aus. Sie lassen offensichtliche Kraftausdrücke weg, nutzen Ironie und Stereotypen oder der Hass wird erst im Kontext sichtbar. Burchardt bemüht das Beispiel „Glückwunsch, Frau Merkel*“ im Zusammenhang mit einem Terroranschlag. „Das bedeutet dann eigentlich, die Asylpolitik habe dafür gesorgt, dass Menschen gestorben sind, aber das steht da nicht.“ Es ist eine Anspielung. „So etwas maschinell abzufangen, ist natürlich wahnsinnig schwer“, sagt Burchardt. Während die Forschung wiederum laut Mandl beim Kontextbezug „noch relativ am Anfang“ steht, seien die neuen Modelle zumindest was Rechtschreibfehler angeht „eigentlich recht gut“.

Sollten Unternehmen Algorithmen im Kampf gegen Hate Speech einsetzen? „KI kauft man nicht wie einen Tisch“

Doch Künstliche Intelligenz muss nicht nur zum Löschen verwendet werden*. Plattformen könnten vorm Veröffentlichen auch Kommentare checken lassen und Warnungen einbauen, eventuell auch Umformulierungsvorschläge machen, erklärt Mandl im Telefonat mit Merkur.de. Auch rund um den Einsatz von KI für die sogenannte Gegenrede sind Forscher am Werk. Wie reagieren Menschen auf Hasskommentare und was halten sie ihnen entgegen? Mit solchem Material könnte auch KI trainiert werden, um auf Hasskommentare zu antworten.

„Vieles ist meiner Meinung nach derzeit noch im Experimentellen, im Vagen“, findet Burchardt. Doch er empfiehlt Unternehmen, die mit Hasskommentaren zu kämpfen haben, zumindest einmal Systeme zu testen und sich zu informieren. Wie viele Postings kommen rein? Wie groß ist das menschliche Kontrollteam? Wer sind die Nutzer des Portals? „KI kauft man nicht wie einen Tisch“, sagt Burchardt. Für die Programme sei viel Anpassung nötig. (cibo) *Merkur.de ist ein Angebot von IPPEN.MEDIA.

Dieser Artikel ist Teil der Serie „Hate Speech im Netz“ von IPPEN.MEDIA. Darin beleuchten wir das Problem Hassrede aus unterschiedlichen Blickwinkeln und wollen konstruktive Möglichkeiten aufzeigen, diesem gesellschaftlich relevanten Thema zu begegnen. Als reichweitenstarkes Medium ist uns eine offene Community wichtig - doch Regeln müssen eingehalten werden. Hate Speech findet bei uns keinen Platz. Um zügig gegen womöglich strafrechtlich relevante Kommentare vorzugehen, sind wir Teil der bayerischen Initiative „Justiz und Medien – konsequent gegen Hass​​​​​​​“.

Rubriklistenbild: © Stefan Sauer/Science Photo Library/dpa/Imago (Montage)

Das könnte Sie auch interessieren

Mehr zum Thema