Ludzie bardzo się różnią, jeśli chodzi o wrażliwość na treści. Te same materiały jednych oburzają, innych smucą, a jeszcze innych rozśmieszają. Zespół naukowców pokazuje, że sztuczna inteligencja może zostać nauczona wrażliwości konkretnego użytkownika.
Naukowcy z Politechniki Wrocławskiej prowadzą pionierskie badania nad zastosowaniem głębokich modeli językowych do oceny zadań subiektywnych. Wyniki zostały opublikowane w magazynach Information Fusion, Information Processing & Management oraz omawiane na konferencji ICDM.
Każdy, kto poprosił kiedyś asystenta Google o opowiedzenie dowcipu, wie, że wywołują one zazwyczaj jedynie uśmieszek. Dzieje się tak dlatego, że sztuczna inteligencja uznaje na razie za śmieszne to, co większość osób, a nie konkretny użytkownik. Naprawdę mocno śmiejemy się wtedy, gdy coś wyjątkowo nas zaskoczy i trafi w nasz gust. Który nie musi pokrywać się z gustem większości.
W przetwarzaniu języka naturalnego ważne było do tej pory uczenie algorytmów pewnych ogólnych, dających się obiektywnie stwierdzić zasad. Tak jest chociażby w przypadku znaczenia słów, poprawności językowej, rozpoznawania pisma odręcznego czy rozpoznawania języka tekstu.
Przyjęło się, że aby nauczyć algorytmy tych obiektywnych reguł, trzeba dostarczyć spójnych danych. Przykładowo daje się zadanie językowe do wykonania wielu ludziom (tak zwanym anotatorom) i odpowiedź, którą większość z nich oceniła jako prawdziwą, przekazuje do nauki dla sztucznej inteligencji. Zadania, w których jest spora rozbieżność zdań, na ogół są na tym etapie odrzucane i nie służą algorytmom do nauki.
Sztuczna inteligencja i różne rodzaje wrażliwości
Są jednak zjawiska językowe, których ocena co do zasady nie jest obiektywna. Mowa tu na przykład o zjawiskach związanych z emocjami. Czy dany tekst Cię rozśmieszył? A może oburzył? Jakie budzi emocje? Różne osoby mogą na to samo pytanie odpowiedzieć zupełnie inaczej. I każda z nich będzie mieć rację. Nie jest przecież tak, że jeden rodzaj wrażliwości jako jedyny jest słuszny, a resztę należy ignorować. Co więc powinny sądzić o tych treściach algorytmy, skoro ludzie nie są zgodni co do ich oceny?
Doktor Jan Kocoń z Politechniki Wrocławskiej uważa, że jesteśmy w stanie nauczyć algorytmy, iż dany użytkownik nie życzy sobie takich treści, inne treści uważa za szczególnie zabawne, a jeszcze inne wywołują w nim smutek. Badacz mówi, że „kiedyś zwrócili się do mnie studenci, którzy chcieli opracować filtr do rozpoznawania mowy nienawiści. Jednak nie ma uniwersalnej definicji, co to jest mowa nienawiści. Każdego z nas obrażają nieco inne treści. Nawet jeśli wiemy, jak odsiewać treści niewątpliwie niezgodne z prawem i opracujemy globalny filtr, to i tak znajdą się osoby, które w treściach znajdą coś, czego nie życzą sobie widzieć”. O wysiłkach polskich naukowców, próbujących wykorzystać AI do zwalczania agresji w sieci, pisaliśmy na naszym blogu w tekście „Sztuczna inteligencja mierzy się z mową nienawiści”.
Dlatego pojawił się pomysł, żeby nauczyć sztuczną inteligencję subiektywnych ocen. W czasie uczenia języka algorytm analizowałby nie tyle odpowiedzi większości badanych, ale poszczególnych anotatorów i poszukiwałby na tej podstawie spersonalizowanych zależności. W ten sposób uczyłby się, jak przewidywać, które treści spodobają się jednym osobom, a innym nie. Jeśli użytkownicy będą potem wskazywać algorytmowi, które napotkane treści im się podobają, a które nie, model będzie się uczył wrażliwości konkretnego człowieka.
Nauka wrażliwości – szanse, ale i zagrożenia
Doktor Kocoń mówi, że „ten pomysł nie jest zupełnie nowy. System rekomendacji YouTube czy Facebooka działa na podobnej zasadzie: znając historię decyzji użytkownika, portale proponują treści, które spodobały się podobnym użytkownikom. Nasz model odnosi się jednak nie tylko do analizy podobieństwa zachowań użytkowników, ale i zjawisk językowych – do analizy reprezentacji ocenianych treści”.
Naukowiec dodaje jednak: „mamy pomysł i wiemy, jak go zrealizować, ale warto zastanowić się też, jakie byłyby tego konsekwencje. Czy jeśli odetniemy od siebie wszelkie nieprzyjemne i nie pasujące do naszego światopoglądu treści, to jeszcze bardziej nie zamkniemy się w bańkach informacyjnych i nie zaczniemy żyć w swoich utopiach?”.
Mimo wszystko jego zdaniem wiedza o subiektywnych ocenach przyda się w usprawnieniu komunikacji na linii komputer-człowiek. Jan Kocoń tłumaczy, że „społeczeństwo się starzeje. Możemy sobie wyobrazić, że w przyszłości będą istniały roboty do opieki nad osobami starszymi, z którymi będzie się można porozumieć językiem naturalnym”. Badacz z Politechniki Wrocławskiej uważa, że jeśli komunikacja ma przebiegać sprawnie, algorytmy powinny umieć dostosować się swoją wrażliwością do potrzeb konkretnego użytkownika. O tym, jak nowe technologie mogą wspierać osoby starsze, pisaliśmy wielokrotnie na naszym blogu, na przykład w tekście „Sztuczna inteligencja pomoże walczyć z niedożywieniem w domach spokojnej starości”.
Źródło: Nauka w Polsce PAP