Sztuczna inteligencja, która przeszukuje dane dotyczące przestępczości, może przewidzieć miejsce złamania prawa w nadchodzącym tygodniu z dokładnością do 90%. Istnieją jednak obawy, że podobne systemy mogą w policji utrwalać uprzedzenia, w tym rasowe. Naukowcy, którzy stworzyli ten algorytm AI, twierdzą, że można go również wykorzystać w sposób odwrotny – do ujawnienia tych uprzedzeń.
Ishanu Chattopadhyay z University of Chicago i jego współpracownicy stworzyli model AI, który przeanalizował historyczne dane dotyczące przestępczości z lat 2014-2016 w mieście Chicago w stanie Illinois. System następnie był w stanie z dużą dokładnością przewidzieć poziom przestępczości dla tygodni, które nastąpiły bezpośrednio po okresie szkolenia. Technologie przyszłości w służbie organów ścigania to temat równie fascynujący, co budzący uzasadnione wątpliwości. Poruszaliśmy go na naszym blogu na przykład w tekście „Miejska sieć dronów będzie zwalczać przestępczość w Dubaju”.
Model przewidywał prawdopodobieństwo wystąpienia określonych rodzajów przestępstw w całym mieście, które w tym celu zostało podzielone na kwadraty o średnicy około 300 metrów. Sztuczna inteligencja przewidywała przestępstwa z tygodniowym wyprzedzeniem, z niewiarygodną dokładnością do 90%. Model został również wytrenowany i przetestowany na danych dla siedmiu innych dużych miast USA. Wszędzie uzyskał podobny poziom wydajności.
Rasizm a sztuczna inteligencja
Wcześniejsze próby wykorzystania AI do przewidywania przestępczości były kontrowersyjne, ponieważ mogły utrwalać uprzedzenia rasowe. W ostatnich latach policja w Chicago testowała algorytm, który stworzył listę osób uznanych za najbardziej zagrożone udziałem w strzelaninie, zarówno jako ofiara, jak i sprawca. Szczegóły algorytmu i listy były początkowo utrzymywane w tajemnicy, ale kiedy w końcu została ona ujawniona, okazało się, że znalazło się na niej 56% czarnoskórych mężczyzn w mieście w wieku od 20 do 29 lat.
Chattopadhyay przyznaje, że dane wykorzystywane przez jego model będą również tendencyjne, ale podjęto wysiłki w celu zmniejszenia efektu stronniczości. Sztuczna inteligencja nie identyfikuje podejrzanych, a jedynie potencjalne miejsca przestępstw. Naukowiec kategorycznie twierdzi, że „to nie jest „Raport mniejszości”. Zasoby organów ścigania nie są nieskończone. Chcemy więc wykorzystać je optymalnie. Byłoby wspaniale, gdybyśmy mogli wiedzieć, gdzie dojdzie do zabójstw”.
Chattopadhyay twierdzi, że przewidywania AI mogą być bezpieczniej wykorzystane do kształtowania polityki na wysokim poziomie, a nie bezpośrednio do alokacji zasobów policyjnych. Publicznie udostępnił dane i algorytm wykorzystany w badaniu, aby inni naukowcy mogli zbadać wyniki.
Czy AI pozwoli policji pozbyć się uprzedzeń?
Naukowcy wykorzystali również dane do poszukiwania obszarów, w których ludzkie uprzedzenia wpływają na działania policji. Przeanalizowali liczbę aresztowań w dzielnicach Chicago o różnych poziomach społeczno-ekonomicznych. Okazało się, że przestępstwa w bogatszych dzielnicach skutkowały większą liczbą aresztowań niż w biedniejszych, co sugeruje stronniczość w reakcji policji.
Lawrence Sherman z Cambridge Centre for Evidence-Based Policing w Wielkiej Brytanii mówi, że ma wątpliwości związane z włączeniem do badania reaktywnych i proaktywnych działań policyjnych. Innymi słowy chodzi o przestępstwa, które są rejestrowane, ponieważ ludzie je zgłaszają, oraz przestępstwa, które są rejestrowane, ponieważ policja wychodzi aktywnie ich szukać. Ten drugi rodzaj danych jest bardzo podatny na stronniczość. Sherman twierdzi, że „to może być odzwierciedleniem celowej dyskryminacji przez policję w pewnych obszarach”.
Własne uprzedzenia, które ludzie mogą niechcący przenieść na AI, to fascynujący temat, którym zajmowaliśmy się już na naszym blogu. Pisaliśmy o tym między innymi w tekście „Wielozadaniowa sztuczna inteligencja, a pytania etyczne”.
Źródło: NewScientist