Nowe narzędzie predykcji samobójstw – efekty prac GUMed i PG

Naukowcy z GUMed i Politechniki Gdańskiej zaprezentowali obiecujące wyniki badań, w których algorytmy uczenia maszynowego wykorzystano do przewidywania liczby prób samobójczych w Polsce. Analiza danych z Google Trends oraz statystyk historycznych pozwoliła na wykrycie zależności między wzrostem wyszukiwań fraz związanych ze zdrowiem psychicznym – a faktyczną liczbą prób – co może otworzyć nową drogę w prewencji kryzysów psychicznych.

Jak działa predykcja – analiza danych i algorytmów

Badanie pt. Machine learning prediction of suicide attempt counts in Poland: Insights from Google trends and historical data (2025) analizowało miesięczne statystyki prób samobójczych w Polsce w latach 2013–2023 w zestawieniu z danymi z Google Trends dotyczącymi 40 haseł związanych ze zdrowiem psychicznym. Do modelowania wykorzystano różne algorytmy – m.in. regresję liniową, SVR, XGBoost oraz Random Forest. Najlepsze wyniki osiągnął Random Forest, z bardzo wysokim współczynnikiem korelacji (PCC ≈ 0.909) i niskim błędem prognozy (MAPE ~ 6.8%) dla całej populacji.

Chociaż najbardziej bezpośrednie frazy (np. „suicide seeking”) były rzadko wyszukiwane, to ogólne hasła związane z niepokojem, lękiem, depresją czy poszukiwaniem pomocy psychologicznej miały silny związek z rzeczywistym wzrostem prób samobójczych.

Dlaczego to ma znaczenie? Szybka reakcja na kryzysy

Dzięki tej metodzie możliwe staje się wcześniejsze wykrycie wzrostów ryzyka – zanim nastąpi eskalacja kryzysów. System oparty na monitoringu trendów wyszukiwań i analizie danych może działać non-stop, nie wymaga deklaracji ze strony osób zagrożonych, a jednocześnie dostarczyć instytucjom i służbom zdrowia sygnał ostrzegawczy – wtedy, gdy wzrasta zapotrzebowanie na wsparcie.

Taka predykcja bywa określana jako „wczesne ostrzeganie” – kluczowe w kwestiach zdrowia psychicznego, gdzie liczy się czas reakcji i dostęp do pomocy.

Dlaczego to nie jest jeszcze gotowe narzędzie kliniczne?

Jednak autorzy i eksperci ostrzegają, że model ma swoje ograniczenia. Dane oparte są na statystykach zbiorczych, nie identyfikujących konkretnych osób – więc nie da się wskazać, kto dokładnie jest zagrożony. Poza tym, jak pokazuje inna analiza z 2025 roku – algorytmy AI w predykcji ryzyka samobójstwa często zawodzą i nie przewyższają klasycznych metod oceny ryzyka, ze względu na dużą liczbę fałszywych alarmów oraz niską czułość w identyfikacji tych, którzy faktycznie podejmą próbę. Dlatego choć wyniki są obiecujące – obecnie system może pełnić rolę narzędzia pomocniczego i ostrzegawczego, a nie jednoznacznej diagnozy.

Badania, testy, możliwe zastosowania

Autorzy projektu już zapowiadają kolejne badania – m.in. z wyższą rozdzielczością danych, objęciem mniejszych grup wiekowych, a także analizą trendów lokalnych. Ich celem jest zwiększenie dokładności prognoz i sprawdzenie, czy metoda sprawdzi się w praktyce klinicznej. Eksperci z innych instytucji – zarówno w Polsce, jak i zagranicą – zauważają, że takie podejście może uzupełnić tradycyjne metody profilaktyki samobójstw – pod warunkiem odpowiedzialnej implementacji, ochrony prywatności i jasnego komunikowania ograniczeń.

Źródło:

  • https://gumed.edu.pl/pl/aktualnosci/nauka/uczenie-maszynowe-pomaga-przewidywac-ryzyko-prob-samobojczych-nowe-publikacje-zespolu-gumed-i-pg
  • https://pmc.ncbi.nlm.nih.gov/articles/PMC12557483/
  • https://pmc.ncbi.nlm.nih.gov/articles/PMC12470995/
  • https://pubmed.ncbi.nlm.nih.gov/41159125/
  • https://alertmedyczny.pl/czy-sztuczna-inteligencja-moze-przewidziec-samobojstwo-z-nowych-badan-wynika-ze-nie/