Naukowcy z GUMed i Politechniki Gdańskiej zaprezentowali obiecujące wyniki badań, w których algorytmy uczenia maszynowego wykorzystano do przewidywania liczby prób samobójczych w Polsce. Analiza danych z Google Trends oraz statystyk historycznych pozwoliła na wykrycie zależności między wzrostem wyszukiwań fraz związanych ze zdrowiem psychicznym – a faktyczną liczbą prób – co może otworzyć nową drogę w prewencji kryzysów psychicznych.
Jak działa predykcja – analiza danych i algorytmów
Badanie pt. Machine learning prediction of suicide attempt counts in Poland: Insights from Google trends and historical data (2025) analizowało miesięczne statystyki prób samobójczych w Polsce w latach 2013–2023 w zestawieniu z danymi z Google Trends dotyczącymi 40 haseł związanych ze zdrowiem psychicznym. Do modelowania wykorzystano różne algorytmy – m.in. regresję liniową, SVR, XGBoost oraz Random Forest. Najlepsze wyniki osiągnął Random Forest, z bardzo wysokim współczynnikiem korelacji (PCC ≈ 0.909) i niskim błędem prognozy (MAPE ~ 6.8%) dla całej populacji.
Chociaż najbardziej bezpośrednie frazy (np. „suicide seeking”) były rzadko wyszukiwane, to ogólne hasła związane z niepokojem, lękiem, depresją czy poszukiwaniem pomocy psychologicznej miały silny związek z rzeczywistym wzrostem prób samobójczych.
Dlaczego to ma znaczenie? Szybka reakcja na kryzysy
Dzięki tej metodzie możliwe staje się wcześniejsze wykrycie wzrostów ryzyka – zanim nastąpi eskalacja kryzysów. System oparty na monitoringu trendów wyszukiwań i analizie danych może działać non-stop, nie wymaga deklaracji ze strony osób zagrożonych, a jednocześnie dostarczyć instytucjom i służbom zdrowia sygnał ostrzegawczy – wtedy, gdy wzrasta zapotrzebowanie na wsparcie.
Taka predykcja bywa określana jako „wczesne ostrzeganie” – kluczowe w kwestiach zdrowia psychicznego, gdzie liczy się czas reakcji i dostęp do pomocy.
Dlaczego to nie jest jeszcze gotowe narzędzie kliniczne?
Jednak autorzy i eksperci ostrzegają, że model ma swoje ograniczenia. Dane oparte są na statystykach zbiorczych, nie identyfikujących konkretnych osób – więc nie da się wskazać, kto dokładnie jest zagrożony. Poza tym, jak pokazuje inna analiza z 2025 roku – algorytmy AI w predykcji ryzyka samobójstwa często zawodzą i nie przewyższają klasycznych metod oceny ryzyka, ze względu na dużą liczbę fałszywych alarmów oraz niską czułość w identyfikacji tych, którzy faktycznie podejmą próbę. Dlatego choć wyniki są obiecujące – obecnie system może pełnić rolę narzędzia pomocniczego i ostrzegawczego, a nie jednoznacznej diagnozy.
Badania, testy, możliwe zastosowania
Autorzy projektu już zapowiadają kolejne badania – m.in. z wyższą rozdzielczością danych, objęciem mniejszych grup wiekowych, a także analizą trendów lokalnych. Ich celem jest zwiększenie dokładności prognoz i sprawdzenie, czy metoda sprawdzi się w praktyce klinicznej. Eksperci z innych instytucji – zarówno w Polsce, jak i zagranicą – zauważają, że takie podejście może uzupełnić tradycyjne metody profilaktyki samobójstw – pod warunkiem odpowiedzialnej implementacji, ochrony prywatności i jasnego komunikowania ograniczeń.
Źródło:
- https://gumed.edu.pl/pl/aktualnosci/nauka/uczenie-maszynowe-pomaga-przewidywac-ryzyko-prob-samobojczych-nowe-publikacje-zespolu-gumed-i-pg
- https://pmc.ncbi.nlm.nih.gov/articles/PMC12557483/
- https://pmc.ncbi.nlm.nih.gov/articles/PMC12470995/
- https://pubmed.ncbi.nlm.nih.gov/41159125/
- https://alertmedyczny.pl/czy-sztuczna-inteligencja-moze-przewidziec-samobojstwo-z-nowych-badan-wynika-ze-nie/