Künstliche Intelligenz (KI) kann Social-Media-User davon abhalten, verletzende Kommentare zu schreiben. Etwa ein Drittel der Anwender hört auf das System, wenn es sie vor der Schärfe ihrer Nachrichten warnt. Das ergibt eine Studie der Online-Plattform OpenWeb http://openweb.com . Algorithmen können dabei helfen, Cybermobbing zu stoppen.
„Sichere Umgebung schaffen“
„Technologie kann einen Einfluss auf das menschliche Verhalten haben. Maschinen können lernen und auf Menschen reagieren. Dadurch können sie sicherere Umgebung für uns schaffen, ohne dabei die freie Meinungsäußerung zu verhindern. Wir glauben, dass es genauso wichtig ist, gutes Verhalten zu ermutigen, wie Cybermobber zu entfernen“, sagt OpenWeb-CEO Nadav Shoval.
OpenWeb hat auf mehreren Online-Plattformen analysiert, wie sich eine KI auswirkt, die Nutzer warnt, bevor sie einen besonders boshaften Kommentar posten. Mehr als 400.000 Kommentare von etwa 50.000 Anwendern haben die Analysten untersucht. Dabei hat sich herausgestellt, dass 34 Prozent der Nutzer, die eine Warnung erhalten hatten, ihre Kommentare tatsächlich änderten.
Mehr höfliche Kommentare
36 Prozent haben jedoch ihre verletzende Nachricht einfach gepostet, auch auf die Gefahr hin, wegen Verstößen gegen die Richtlinien von der Plattform gesperrt zu werden. Ein Viertel hat auch versucht, den Algorithmus zu täuschen, beispielsweise mit absichtlichen Rechtschreibfehlern.
Von den Usern, die auf die KI gehört haben, veränderten 54 Prozent den Inhalt so, dass er nicht mehr verletzend war. 45 Prozent haben einzelne Elemente entfernt und ihren Kommentar nur leicht abgeschwächt. Acht Prozent haben ihre Nachricht komplett umgeschrieben. Insgesamt haben sich laut OpenWeb die höflichen und überlegten Diskussionsbeiträge durch den Einsatz von KI um 12,5 Prozent vermehrt.
pte