Direkt zum Inhalt wechseln
logo Das Magazin für digitalen Lifestyle und Entertainment
Google-Schwester Jigsaw

So bekämpft Google Hasskommentare mit künstlicher Intelligenz

Bild konnte nicht geladen werden
TECHBOOK Logo
TECHBOOK Redaktion

25. Februar 2017, 12:00 Uhr | Lesezeit: 3 Minuten

Im Internet treiben viele Kommentar-Trolle ihr Unwesen, die andere Nutzer beleidigen oder mit Hass-Botschaften behelligen. Die Google-Schwester Jigsaw hat nun ein Tool vorgestellt, mit der Verlage die besonders „giftigen“ Posts leichter erkennen können.

Artikel teilen

Big Data gegen Hass-Rede und Online-Pöbelei: Die Google-Schwesterfirma Jigsaw hat den Dienst „Perspective“ gestartet, mit dem im Netz leichter Kommentare identifiziert werden können, die als gehässig, unfreundlich, bösartig, gemein oder verletzend empfunden werden.

lichttherapie-winter

Im Rahmen der Digitalen News Initative (DNI) werde Jigsaw eine Schnittstelle (API) zur Verfügung stellen, mit der Verlage „Perspective“ kostenlos nutzen können. Der Dienst wurde zuvor in Projekten mit der Wikimedia-Stiftung und der „New York Times“ erprobt, um Hasspostings und Trollereien automatisch erkennen zu können. Dabei wurde unter anderem ein Datensatz aus insgesamt mehr als 115.000 Nachrichten von Wikipedia-Diskussionsseiten ausgewertet. Der Dienst steht vorerst nur für englischsprachige Diskussionsforen zu Verfügung. Im Rahmen der DNI könne das Projekt aber auf andere Sprachen wie Deutsch erweitert werden.

Jigsaw will die Welt mit Technologie sicherer machen

Jigsaw, ein Unternehmen der Google-Muttergesellschaft Alphabet, hat sich zum Ziel gemacht, „die Welt mit Technologie sicherer zu machen“. Im Rahmen der DNI bietet Jigsaw Verlagen im „Project Shield“ unter anderem einen kostenlosen Schutzschild gegen sogenannte Denial-of-Service-Attacken an, bei denen Wirtschaftskriminelle oder staatlich gesteuerte Hacker Webseiten der Verlage mit gigantischen Datenpaketen von Millionen gekaperten Computern aus einem Botnetz lahmlegen wollen.

Der Ansatz bei „Perspective“ gehe deutlich über den Abgleich mit einer Liste verdächtiger Schlüsselbegriffe hinaus, sagte Jigsaw-Top-Manager Jared Cohen. Die künstliche Intelligenz erkenne, ob ein Beitrag von einem menschlichen Anwender als unangemessen beurteilt werde und ihn dazu bringe, die Konversation zu verlassen.

„Giftige“ Kommentare werden automatisch erkannt

Eine Studie habe ergeben, dass 72 Prozent aller US-Amerikaner im Internet bereits Drangsalierung wahrgenommen hätten, fast die Hälfte aller Anwender habe dies auch bereits persönlich erlebt. Knapp ein Drittel der Befragten zensiere sich inzwischen bei Online-Kommentaren selbst, weil sie Racheaktionen befürchteten.

Das System von Jigsaw stelle auf einer Skala zwischen Null und 100 fest, wie „giftig“ („toxic“) ein Kommentar sei. Was mit den Kommentaren dann passiere, liege in der Hand der Verleger. So könne man mit dem System Moderatoren der Verlage auf verdächtige Kommentare aufmerksam machen, die sich dann in die Konversation einschalten könnten. Man könne den Anwendern aber auch schon beim Schreiben des Kommentars anzeigen, wie „giftig“ der Text eingeschätzt wird, um zu einem besseren Umgangston beizutragen. Außerdem könnten Leser die Kommentare so sortieren lassen, dass besonders gehässige Beiträge ausgeblendet werden.

Themen Google Künstliche Intelligenz
Technik-Angebote entdecken bei kaufDA
Logo KaufDA
Anzeige
Deine Datensicherheit bei der Nutzung der Teilen-Funktion
Um diesen Artikel oder andere Inhalte über Soziale- Netzwerke zu teilen, brauchen wir deine Zustimmung für diesen .
Sie haben erfolgreich Ihre Einwilligung in die Nutzung dieser Webseite mit Tracking und Cookies widerrufen. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit personalisierter Werbung, Cookies und Tracking entscheiden.