sztuczna inteligencja

Wielozadaniowa sztuczna inteligencja, a pytania etyczne

Google pracuje nad potężnym algorytmem, który będzie mógł wykonywać niezliczoną ilość różnych zadań. Wielozadaniowa sztuczna inteligencja będzie nosić nazwę Pathways i ma scentralizować różne AI w jedno, wszechwiedzące narzędzie.

Sztuczna inteligencja już teraz jest w stanie robić niezwykle przydatne rzeczy, takie jak przewidywanie powodzi, diagnozowanie chorób, czy natychmiastowe tłumaczenie. Postępy w dziedzinie sieci neuronowych, w połączeniu z ogromną mocą obliczeniową, umożliwiły firmom technologicznym tworzenie w ciągu ostatniej dekady coraz bardziej inteligentnych modeli sztucznej inteligencji.

Wielozadaniowa sztuczna inteligencja rozwiąże problemy świata?

Jeff Dean, szef AI w Google, uważa jednak, że ledwo dotknęliśmy powierzchni tego tematu. Przemawiając na konferencji TED w Monterey w Kalifornii ujawnił, że Google opracowuje wielozadaniową sztuczną inteligencję, która może wykonywać miliony zadań. Rozwiązanie Google, nazwane Pathways (Ścieżki), ma na celu scentralizowanie różnych sztucznych inteligencji w jeden potężny, wszechwiedzący algorytm. W tym miejscu warto przypomnieć, że technologiczny gigant prowadzi też zaawansowane prace nad komputerem kwantowym. Zainteresowanym tą tematyką polecamy inne nasze teksty, na przykład „Do 2029 roku ma powstać w pełni funkcjonalny komputer kwantowy”.

Dean powiedział, że „tego rodzaju inteligentne systemy ogólnego przeznaczenia, które będą mieć głębsze zrozumienie otaczającego nas świata, pozwolą nam rozwiązać niektóre z największych problemów, przed którymi stoi ludzkość”. Jako przykład podał, że „będziemy w stanie opracować lepsze leki, wprowadzając do tych modeli wiedzę z zakresu chemii i fizyki. Będziemy mogli rozwijać systemy edukacyjne, zapewniając uczniom zindywidualizowane korepetycje. Będziemy w stanie stawić czoła naprawdę skomplikowanym problemom, takim jak zmiana klimatu, opracowując być może nowe rozwiązania w zakresie czystej energii”. Dean pod koniec swojej prezentacji poruszył potrzebę odpowiedzialnego gromadzenia danych. Powiedział, że „obawy o dane to tylko jeden z aspektów odpowiedzialności. Mamy tutaj jeszcze dużo pracy do wykonania”.

sztuczna inteligencja

Nie wszyscy podzielają optymizm szefa AI w technologicznego giganta. W branży widać rosnące obawy o to, kto projektuje i kontroluje światowe systemy sztucznej inteligencji. Niedawno Google opuściły Timnit Gebru i Margaret Mitchell, byłe współprzewodniczące zespołu ds. etyki AI. Zwracały uwagę na niebezpieczeństwa związane z tworzeniem modeli sztucznej inteligencji do nauki języków, które są szkolone na dużych ilościach tekstu. Wielozadaniowa sztuczna inteligencja Google wykorzystuje ogromne ilości tekstów z internetu, w związku z czym „istnieje ryzyko, że rasistowski, seksistowski lub w inny sposób obraźliwy język znajdzie się w danych treningowych”.

Wielozadaniowa sztuczna inteligencja jak dziecko

Kurator TED Chris Andersen i Greg Brockman, współzałożyciel grupy badawczej ds. etyki sztucznej inteligencji Open AI, również zmagali się w trakcie konferencji z problematyką niezamierzonych konsekwencji systemów uczenia maszynowego. Brockman opisał scenariusz, w którym ludzie służą jako moralni przewodnicy dla sztucznej inteligencji. Naukowiec powiedział, że „możemy potraktować system jak nasze dziecko i w ten sposób uczyć naszych wartości. To ważny, ale subtelny punkt. Myślę, że system musi się nauczyć modelu świata. Tak jak dziecko, które musi się nauczyć, co jest dobre, a co złe”.

Anderson zasugerował, że nawet po wytrenowaniu maszyny ciągle jest miejsce na nadzorowanie i filtrowanie informacji. Badacz powiedział, że „jednym z kluczowych problemów związanych z utrzymaniem tego na właściwym torze jest bardzo ostrożne dobranie ludzi, którzy będą patrzeć na wyniki pracy tych nienadzorowanych systemów samodzielnego uczenia się”. Jest to bardzo istotne, bo wbrew pozorom ludzie są skłonni wiele ważnych spraw złożyć „w ręce” sztucznej inteligencji. Pisaliśmy o tym wielokrotnie na naszym blogu, m.in. w tekście „Według badań ponad połowa Europejczyków chce zastąpić prawodawców sztuczną inteligencją”.

Źródło: Quartz