Eine Sammlung von 13.500 Nastygrammen könnte den Krieg gegen Trolle vorantreiben

Eine Visualisierung von Beiträgen auf Wikipedia-Diskussionsseiten im Januar zeigt die Häufigkeit persönlicher Angriffe, rot hervorgehoben.



Frauenfeindlichkeit, Rassismus, Obszönitäten – eine Sammlung von mehr als 13.500 persönlichen Online-Angriffen bietet alles.

Die Nastygramme stammen aus den Diskussionsseiten von Wikipedia. Die Sammlung, zusammen mit über 100.000 weiteren gutartigen Beiträgen, wurde veröffentlicht von Forschern von Alphabet und der Wikimedia Foundation, der gemeinnützigen Organisation hinter Wikipedia. Sie sagen, dass die Daten die Bemühungen verstärken werden, Software zu trainieren, um Online-Belästigung zu verstehen und zu überwachen.



Unser Ziel ist es herauszufinden, wie wir Menschen helfen können, die umstrittensten und wichtigsten Themen auf produktive Weise im gesamten Internet zu diskutieren, sagt Lucas Dixon, leitender Forschungswissenschaftler bei Puzzle , eine Gruppe innerhalb von Alphabet, die Technologien im Dienste von Anliegen wie Redefreiheit und Korruptionsbekämpfung entwickelt (siehe „Wenn nur KI uns vor uns selbst retten könnte“).



Jigsaw- und Wikimedia-Forscher nutzten einen Crowdsourcing-Dienst, um Menschen mehr als 115.000 auf Wikipedia-Diskussionsseiten gepostete Nachrichten durchsuchen zu lassen und nach persönlichen Angriffen zu suchen durch die Regeln der Gemeinschaft definiert . Die Mitarbeiter haben die Daten bereits verwendet, um maschinelle Lernalgorithmen zu trainieren, die es mit Crowdsourcing-Mitarbeitern aufnehmen können, wenn es darum geht, persönliche Angriffe zu erkennen. Als sie die gesamte Sammlung von 63 Millionen Diskussionsbeiträgen von Wikipedia-Redakteuren durchgingen, stellten sie fest, dass nur etwa einer von zehn Angriffen zu einer Aktion von Moderatoren geführt hatte.

Wikimedia Foundation erstellt Belästigung reduzieren unter den Wikipedia-Redakteuren eine Priorität im vergangenen Jahr. Die Richtlinie ergänzt die bestehenden Bemühungen, die kratzbürstige und bürokratische Atmosphäre der Wikipedia-Community abzumildern, die neue Mitwirkende von der Teilnahme abhält. Beide Probleme könnten erklären, warum die Anzahl der Redakteure zurückgegangen ist und es darum gekämpft hat, die Beteiligung über eine männliche, westliche Kerndemografie hinaus auszudehnen (siehe The Decline of Wikipedia ).

Jigsaw und die Wikimedia Foundation sind weder die ersten, die Online-Missbrauch untersuchen, noch sind sie die ersten, die darauf abzielen, Software zu entwickeln, die ihn erkennen und bekämpfen kann. Aber Sammlungen von Kommentaren, die belästigende und nicht belästigende Posts kennzeichnen, die zum Trainieren von Software für maschinelles Lernen benötigt werden, waren rar, sagt er Ellery Wulczyn , ein Data-Science-Forscher bei der Wikimedia Foundation.



Er schätzt, dass die Sammlung von persönlichen Angriffen und Kommentaren aus Wikipedia zwischen 10 und 100 Mal größer ist als die bisher verfügbaren. Algorithmen für maschinelles Lernen benötigen eine große Anzahl von beschrifteten Beispielen, um zu lernen, wie man Daten genau filtert.

Ob auf Missbrauch trainierte Algorithmen als wirkungsvolle Moderatoren eingesetzt werden können, ist allerdings noch unklar. Software ist weit davon entfernt, alle Nuancen der Sprache zu verstehen. Einige Leute könnten motiviert sein, ihre beleidigende Sprache so einzustellen, dass sie der Entdeckung entgehen, sagt Wulczyn von Wikimedia. Wenn wir Interventionen aufbauen würden, zu denen Menschen eine feindliche Beziehung haben, wissen wir nicht, was passieren würde, sagt er.

verbergen