Huragan Melissa i cyfrowa burza – jak sztuczna inteligencja zalała internet fałszywymi filmami

Kiedy huragan Melissa uderzył w Karaiby, sieć zalała fala dramatycznych filmów przedstawiających rzekome skutki kataklizmu. Większość z nich okazała się… wygenerowana przez sztuczną inteligencję. Wideo stworzone przy użyciu narzędzi takich jak Sora zdobywały miliony odsłon, zanim ktokolwiek zdążył je zweryfikować. Eksperci ostrzegają – to nowy rodzaj burzy, w której zjawiska atmosferyczne i cyfrowe mieszają się w jedną chaotyczną rzeczywistość.

„Rekiny w hotelowym basenie” i inne cyfrowe złudzenia

Podczas gdy prawdziwy huragan dewastował Jamajkę, TikTok i X (dawny Twitter) wypełniły się filmami, które miały przedstawiać realne skutki kataklizmu. Jedno z najpopularniejszych nagrań pokazywało cztery rekiny pływające w basenie hotelowym. Inne – zrujnowane lotnisko w Kingston. Oba filmy były całkowicie fikcyjne i powstały przy użyciu generatywnej AI.

Według dziennikarzy Associated Press, autorzy takich treści nie zawsze mieli złe intencje – często po prostu chcieli „wybić się” w mediach społecznościowych. Jednak efekt był ten sam – setki tysięcy osób uwierzyły w nieistniejące sceny. A to, jak podkreślają eksperci, tylko pokazuje, jak potężnym narzędziem manipulacji staje się sztuczna inteligencja.

Sztuczna burza – jak AI tworzy katastrofę, która nigdy nie istniała

Nowoczesne systemy generowania wideo, takie jak Sora, potrafią tworzyć realistyczne sceny w kilka minut – bez udziału kamer, ekip filmowych ani prawdziwego materiału. W efekcie nawet doświadczeni dziennikarze mają problem z odróżnieniem faktu od fikcji.

Fałszywe filmy o huraganie Melissa pojawiały się szybciej niż oficjalne komunikaty meteorologiczne. Użytkownicy udostępniali je w panice, nieświadomi, że w rzeczywistości rozpowszechniają cyfrowe konstrukcje. Niektóre z nich miały nawet podpisy sugerujące, że pochodzą z kamer ratunkowych lub dronów.

Kiedy obraz przestaje być dowodem – era „AI realismu”

Ostatnie wydarzenia pokazują, że obraz wideo przestał być niepodważalnym dowodem na prawdę. Granica między rzeczywistością a kreacją zaciera się coraz szybciej, a użytkownicy mediów społecznościowych – często w dobrej wierze – stają się częścią łańcucha dezinformacji.

Eksperci radzą, by każdą sensacyjną treść weryfikować u źródła: w komunikatach służb, w mediach publicznych, czy na stronach takich jak AP Fact Check lub Full Fact. Zwracają też uwagę na drobne szczegóły – nierówne tekstury, powtarzające się elementy tła czy nienaturalny ruch kamery – to typowe oznaki, że film mógł powstać przy udziale sztucznej inteligencji.

Cyfrowe tsunami – konsekwencje dla mediów i społeczeństwa

Zjawisko „AI fake storm” to nie tylko chwilowa moda. To sygnał ostrzegawczy dla całego systemu informacyjnego. Jeśli nie zostaną wprowadzone standardy weryfikacji i oznaczania treści generowanych przez AI, każda przyszła katastrofa może przynieść nie tylko zniszczenia w świecie rzeczywistym, ale i dezinformacyjny chaos online.

Media muszą nauczyć się reagować szybciej niż algorytmy, a użytkownicy – patrzeć krytycznie na to, co widzą. Bo dziś nawet najbardziej realistyczny film może być tylko cyfrowym cieniem prawdy.

Źródło:

  • https://apnews.com/article/hurricane-melissa-ai-sora-video-682d8acff33af4509d615e742698d99a
  • https://people.com/fake-videos-showing-devastation-from-hurricane-melissa-are-flooding-social-media-what-to-look-out-for-11839591
  • https://fullfact.org/environment/hurricane-melissa-video-from-above-ai/