Centrum Badań nad Uprzedzeniami to jednostka Wydziału Psychologii UW, która bada zjawisko hejtu w internecie. Naukowcy postanowili sprawdzić, jak sztuczna inteligencja poradzi sobie z internetową mową nienawiści.
Badacze z Uniwersytetu Warszawskiego stworzyli „epidemiczny” model mowy nienawiści, który powstał na podstawie wielu badań eksperymentalnych i sondażowych. Dzięki niemu łatwiej można zrozumieć, jak ludzie w internecie „zarażają się” hejtem. Następnie eksperci z Centrum Badań nad Uprzedzeniami badali zastosowanie mechanizmów sztucznej inteligencji do zwalczania mowy nienawiści i agresji w sieci. W czasopiśmie „Aggressive Behavior” ukazała się publikacja opisująca te badania.
Epidemia hejtu
Pracami naukowców z Uniwersytetu Warszawskiego kierował profesor Michał Bilewicz. Wyjaśnia on, że „z modelu wynika, że kontakt z mową nienawiści odmienia ludzi na trzy sposoby. Po pierwsze, zmieniają się ich emocje. Zamiast empatii wobec obcych zaczyna dominować pogarda. Tracimy zatem zdolność do współodczuwania. Po drugie, zmieniają się zachowania ─ z czasem sami zaczynamy używać takiego języka. Tracimy poczucie, że zawiera on jakąkolwiek agresję. Po trzecie, zmieniają się nasze przekonania dotyczące norm. Skoro widzimy w otoczeniu tak dużo hejtu, to zaczynamy traktować taki sposób zwracania się do innych jako normę. W efekcie hejt zaczyna dominować w naszych interakcjach i kolejni ludzie zarażają się nim”. Mowa nienawiści często łączy się z „fake newsami” i dezinformacją. Pisaliśmy o tym na naszym blogu, m.in. w artykule „Czy bycie anty jest złe?”
Badacze z UW skoncentrowali się na próbach odwrócenia tego procesu. Profesor Bilewicz tłumaczy, że podjęto współpracę z organizacjami pozarządowymi, zajmującymi się uchodźcami. Wspólnie z nimi stworzono warsztaty i kampanie w internecie, próbujące przywrócić ludziom zdolność do odczuwania empatii. Według naukowca to „w efekcie powinno powstrzymać epidemię mowy nienawiści”.
Sztuczna inteligencja w walce z mową nienawiści
Postanowiono też wykorzystać nowoczesne technologie. Psycholodzy z Uniwersytetu Warszawskiego rozpoczęli współpracę ze startupem technologicznym Samurai Labs, zajmującym się tworzeniem mechanizmów ograniczających agresję i zachowania problemowe w grach komputerowych. Naukowcy postanowili wykorzystać doświadczenia ekspertów z tej firmy, którzy specjalizują się w tworzeniu automatycznych technologii wczesnego reagowania na agresję w sieci.
Profesor Michał Bilewicz wyjaśnia, że „wspólnie wypracowaliśmy psychologiczny model oddziaływania na hejterów. Przetestowaliśmy go w społeczności reddita, medium społecznościowym, w którym ludzie dyskutują na interesujące ich tematy. Na jednym z kanałów reddita, znanym z seksistowskich odzywek i mowy nienawiści wobec kobiet, pojawił się nowy użytkownik. Ten użytkownik w rzeczywistości był botem, czyli kontem opartym na mechanizmach sztucznej inteligencji. Gdy tylko bot namierzył hejtera, to w sposób bardzo grzeczny i pełen empatii komunikował swoją dezaprobatę dla nienawistnej wypowiedzi”.
Sztuczna inteligencja wykorzystywała kilka strategii oddziaływania. I tak na przykład niektóre z nich odwoływały się do norm, wskazując na to, jaki jest właściwy sposób komunikowania się w mediach społecznościowych. Inne z kolei odwoływały się do empatii, próbując uświadomić, co mogą odczuwać ofiary hejtu.
Naukowcy przeanalizowali aktywność hejterów miesiąc przed kontaktem z botem oraz miesiąc po kontakcie z nim. Porównali także inne podobne konta, które nie miały styczności ze sztuczną inteligencją. Na tych podstawie analiz badacze doszli do wniosków, że niezależnie od tego, czy sztuczna inteligencja komunikowała normy, czy też odwoływała się do empatii, to jej oddziaływanie skutecznie obniżało nienawistną aktywność w sieci.
Z eksperymentu wynika, że osoby używające mowy nienawiści rzadko trafiają na kogoś, kto w grzeczny i empatyczny sposób wyrazi wobec nich dezaprobatę. Profesor Bilewicz podsumowuje, że „zwykle, gdy w codziennym życiu trafiamy na hejtera, to ignorujemy go albo konfrontujemy się ─ sami używając agresywnego języka. Okazuje się jednak, że spokojne wyrażenie dezaprobaty może skłonić autora nienawistnych wypowiedzi do refleksji. Wyniki badań sugerują, że warto grzecznie zwracać uwagę, gdy tylko spotkamy się z hejtem w sieci.”
Coraz częściej sztuczna inteligencja znajduje zastosowanie w wydawałoby się odległych dziedzinach. Pisaliśmy o tym wielokrotnie na naszym blogu, na przykład w tekście „Sztuczna inteligencja odnajdzie zabytki”.
Źródło: Uniwersytet Warszawski