W czwartek 18 grudnia na platformie TikTok pojawiło się nagranie, które w krótkim czasie zdobyło dużą popularność i wprowadziło w błąd setki tysięcy użytkowników. Film przedstawia rzekomego rolnika udzielającego emocjonalnej wypowiedzi dziennikarce belgijskiej telewizji publicznej RTBF. Problem polega na tym, że materiał został wygenerowany przy użyciu sztucznej inteligencji, a opisywane w nim wydarzenia nigdy nie miały miejsca. Belgijski nadawca publiczny natychmiast wydał oświadczenie, w którym jednoznacznie zdystansował się od tego nagrania.
Treść budząca silne emocje
Na nagraniu widać zapłakanego mężczyznę, który twierdzi, że podczas demonstracji rolników w Brukseli zginęły dwie osoby. W kadrze widoczny jest mikrofon z logo RTBF, co miało nadać przekazowi wiarygodność i sugerować, że jest to autentyczny materiał telewizji publicznej. Publikacja filmu zbiegła się w czasie z rzeczywistym protestem rolników w stolicy Belgii, co dodatkowo uwiarygodniło przekaz w oczach wielu odbiorców.
RTBF stanowczo zaprzeczyła, jakoby którykolwiek z jej dziennikarzy przeprowadził taki wywiad. Nadawca podkreślił również, że rzekome tragiczne zdarzenia opisane w nagraniu są całkowicie zmyślone i nie mają żadnego potwierdzenia w faktach.
Oznaczenie jako AI nie zatrzymało dezinformacji
Nagranie zostało opublikowane przez konto na TikToku, które otwarcie deklaruje tworzenie treści generowanych przez sztuczną inteligencję. Informacja o syntetycznym charakterze filmu znalazła się także w jego opisie. Nie wystarczyło to jednak, by powstrzymać falę udostępnień. Materiał przekroczył już 200 tysięcy wyświetleń i nadal krąży po platformie, trafiając do kolejnych użytkowników.
Jak rozpoznać fałszywy materiał
Choć na pierwszy rzut oka nagranie mogło wydawać się wiarygodne, uważni odbiorcy mogli zauważyć kilka sygnałów świadczących o jego sztucznym pochodzeniu. Logo na mikrofonie różniło się od oficjalnego znaku graficznego RTBF. Długość filmu odpowiadała formatom charakterystycznym dla popularnych narzędzi AI do generowania wideo. Przy dokładniejszym przyjrzeniu się widoczne były także typowe artefakty obrazu syntetycznego, takie jak niestabilne napisy w tle czy specyficzna ziarnistość obrazu.
Ten przypadek jest kolejnym przykładem zagrożeń związanych z dezinformacją tworzoną przy użyciu sztucznej inteligencji. Połączenie emocjonalnego przekazu z aktualnym kontekstem wydarzeń może skutecznie wprowadzać w błąd nawet osoby zachowujące ostrożność przy konsumowaniu treści w mediach społecznościowych.