Belgijska telewizja publiczna RTBF padła ofiarą deepfake’a, który w krótkim czasie rozprzestrzenił się w mediach społecznościowych. W piątkowym wydaniu głównego serwisu informacyjnego o godz. 13:00 prezenterka Anne-Sophie Depauw zaapelowała do widzów o ostrożność wobec sfabrykowanego materiału, fałszywie przypisywanego dziennikarzom stacji. To kolejny przykład wykorzystania narzędzi AI do dezinformacji – niedawno podobna manipulacja dotyczyła rzekomego zamachu stanu we Francji.
Fałszywy materiał wykorzystał protesty rolników
Sfabrykowane nagranie pojawiło się w kontekście niedawnych protestów rolników, którzy licznie przybyli do Brukseli, by wyrazić sprzeciw wobec polityki rolnej. Film przedstawiał rzekomą dziennikarkę RTBF prowadzącą wywiad z zapłakanym rolnikiem. Mężczyzna twierdził, że jeden z jego kolegów został zastrzelony przez policję i że potraktowano go „jak psa”.
Jak wyjaśniła Anne-Sophie Depauw na antenie, całe nagranie zostało w całości wygenerowane przez sztuczną inteligencję. Zarówno postacie występujące w filmie, jak i wypowiadane przez nie słowa są fikcyjne – żaden element materiału nie odpowiada rzeczywistości.
Jak rozpoznać fałszywkę – wskazówki ekspertów
Choć technologia deepfake’ów rozwija się bardzo szybko, uważni odbiorcy mogli zauważyć kilka sygnałów świadczących o manipulacji. Pierwszym był wygląd logo stacji – zastosowana czcionka różniła się od oficjalnej typografii RTBF.
Kolejną wskazówką były transparenty widoczne w tle. Po bliższym przyjrzeniu okazywały się nieczytelne, co jest typowym problemem obrazów generowanych przez AI, które wciąż mają trudności z wiarygodnym odwzorowaniem tekstu. Zwracały uwagę również niebieskie światła ostrzegawcze zamontowane na traktorach – element charakterystyczny dla pojazdów policyjnych, a nie maszyn rolniczych.
Benoît Frenay, profesor informatyki na Uniwersytecie w Namur, podkreślił dodatkowy szczegół. Jego zdaniem mimika i ekspresja emocjonalna mężczyzny przedstawionego jako rolnik były przesadzone i nienaturalne, co często zdradza materiały generowane przez algorytmy sztucznej inteligencji.
Rosnące zagrożenie dezinformacją opartą na AI
Przypadek fałszywego wywiadu RTBF wpisuje się w szerszy, niepokojący trend wykorzystywania nowoczesnych technologii do tworzenia materiałów dezinformacyjnych, które na pierwszy rzut oka wyglądają wiarygodnie. Podobne metody zastosowano niedawno przy rozpowszechnianiu fałszywej informacji o rzekomym zamachu stanu we Francji, która również szybko stała się viralem w sieci.
Eksperci apelują o szczególną czujność wobec sensacyjnych treści pojawiających się w mediach społecznościowych oraz o sprawdzanie informacji w oficjalnych i wiarygodnych źródłach przed ich dalszym udostępnianiem.