Najświeższe publikacje naukowe i sondaże pokazują zaskakującą zależność: osoby z niższą „alfabetyzacją AI” częściej deklarują chęć korzystania z narzędzi generatywnych niż ci, którzy znają je lepiej. Zespół z USC i Uniwersytetu Bocconi opisuje to jako „niższa wiedza – wyższa receptywność”, a popularny wniosek brzmi: im mniej rozumiemy działanie modeli, tym łatwiej przypisujemy im „magię” i chętniej powierzamy zadania kreatywne. Na tym tle widać też specyfikę Polski: według KPMG ufa AI 41 proc. badanych (mniej niż globalna średnia 46 proc.), ale akceptacja obecności narzędzi w pracy jest u nas relatywnie wysoka. Równocześnie w miejscach pracy kwitnie „podziemne” używanie czatbotów i generatorów – ponad połowa pracowników deklaruje, że ukrywa korzystanie z AI przed przełożonymi. W efekcie firmy i uczelnie stają przed dylematem: jak szkolić, by nie zabić ciekawości, a jednocześnie skalibrować zaufanie i nauczyć weryfikacji wyników.
„Efekt magii” – dlaczego mniejsza wiedza = większy entuzjazm?
W serii eksperymentów – od zadań studenckich po wybory konsumenckie – badacze z USC/Bocconi pokazali, że osoby gorzej znające AI częściej wybierają jej pomoc, szczególnie przy zadaniach postrzeganych jako „ludzkie” (poezja, pisanie, komponowanie). Autorzy nazywają to poczuciem niezwykłości: gdy nie widzimy, jak działa algorytm, łatwiej przypisać mu sprawczość i talent. Z kolei respondenci z wyższą „alfabetyzacją AI” częściej podchodzą sceptycznie, bo rozumieją ograniczenia modeli – halucynacje, uprzedzenia danych, brak intencjonalności. Ten paradoks opisano nie tylko w literaturze naukowej, ale i w publicystyce branżowej (HBR, Wired), co przełożyło się na głośną medialną dyskusję. W polskich mediach podobny mechanizm relacjonował m.in. Spider’s Web, wskazując na „odwrotną zależność” między wiedzą a gotowością do użycia czatbotów.
Polska na tle świata – umiarkowane zaufanie, spora akceptacja
W lipcowym raporcie KPMG/UniMelb tylko 41 proc. Polaków deklaruje zaufanie do AI (przy 46 proc. globalnie), ale aż 77 proc. akceptuje obecność narzędzi AI w pracy co najmniej „w pewnym stopniu”. Równolegle europejskie i globalne badania opinii (Eurobarometr, Ipsos) pokazują duże różnice między regionami – od większej nerwowości w krajach anglosaskich po bardziej pragmatyczne podejście w Europie kontynentalnej i entuzjazm w Azji Południowo-Wschodniej. W Polsce istotny jest także wymiar pokoleniowy: analizy NASK wskazują, że młodsi częściej używają i akceptują GenAI, a wraz z wiekiem rośnie ostrożność. To wszystko składa się na obraz, w którym społeczne „tak” dla AI nie zawsze idzie w parze ze zrozumieniem sposobu działania. Z perspektywy wdrożeń oznacza to, że alfabetyzacja AI powinna być kluczowym elementem polityk firm i instytucji.
Biura i uczelnie – ukryte użycie, brak szkoleń i ryzyko błędów
Globalne badanie KPMG/UniMelb na 48 tys. osób odsłania twarde ryzyka: 57 proc. pracowników ukrywa użycie AI przed szefami, 66 proc. nie ocenia jakości wygenerowanych wyników, a prawie połowa wgrywa do publicznych narzędzi dane firmowe. Równocześnie mniej niż połowa badanych przeszła jakiekolwiek szkolenie z AI, co sprzyja zarówno błędom, jak i nadmiernemu zaufaniu „bo tak szybko działa”. Na uczelniach rośnie odsetek studentów przyznających się do używania GenAI, ale praktyki weryfikacji i jawności dopiero się kształtują – z dużymi różnicami między krajami i uczelniami. Wniosek praktyczny jest prosty: trzeba wprowadzać jawne zasady, role-based szkolenia i „człowieka w pętli” (obowiązek weryfikacji), zamiast liczyć na intuicję użytkowników. Tylko tak da się pogodzić produktywność z bezpieczeństwem i uczciwością akademicką.
Jak „skalibrować” zaufanie? Trzy rzeczy do zrobienia już teraz
Po pierwsze, edukacja bez demistyfikacyjnego cynizmu: programy literacji AI, które tłumaczą dane, modele i ryzyka, ale zostawiają miejsce na ciekawość i testowanie (tak sugerują autorzy badań). Po drugie, przejrzyste standardy – od oznaczania treści wspartych AI, po polityki danych i listy narzędzi zatwierdzonych przez organizację. Po trzecie, kultura weryfikacji: obowiązek fakt-checkingu i „drugiej pary oczu” przy ważnych decyzjach, zamiast ślepej wiary w output modelu. Dobrze zaprojektowana „alfabetyzacja AI” nie hamuje wdrożeń – przeciwnie, buduje świadome użycie i ogranicza koszty wpadek. A wtedy paradoks „im mniej wiesz, tym chętniej używasz” przestaje być zagrożeniem i staje się punktem wyjścia do odpowiedzialnej adopcji.
Źródło:
- https://journals.sagepub.com/doi/abs/10.1177/00222429251314491
- https://hbr.org/2025/07/why-understanding-ai-doesnt-necessarily-lead-people-to-embrace-it
- https://kpmg.com/pl/pl/home/insights/2025/07/sztuczna-inteligencja-w-polsce.html
- https://www.businessinsider.com/kpmg-trust-in-ai-study-2025-how-employees-use-ai-2025-4?IR=T
- https://www.wired.com/story/the-less-people-know-about-ai-the-more-they-like-it/
- https://spidersweb.pl/2025/09/wiedza-o-ai-a-zaufanie.html
- https://tvn24.pl/biznes/dla-pracownika/sztuczna-inteligencja-wykorzystywanie-ai-w-miejscu-pracy-wyniki-badania-kpmg-st8554667
- https://europa.eu/eurobarometer/surveys/detail/3227
- https://www.theguardian.com/technology/2025/jun/05/english-speaking-countries-more-nervous-about-rise-of-ai-polls-suggest
- https://www.nask.pl/media/2025/06/Generatywna-sztuczna-inteligencja-a-polski-rynek-pracy.pdf
- https://www.hepi.ac.uk/reports/student-generative-ai-survey-2025/