Rektor Uniwersytetu Gandawskiego Petra De Sutter nie odbierze w przyszłym tygodniu doktoratu honoris causa przyznanego przez Uniwersytet Amsterdamski. Decyzja ta zapadła po ujawnieniu przez portal Apache, że w jej przemówieniu inauguracyjnym znalazły się sfabrykowane cytaty, przypisane znanym myślicielom. Jak się okazało, były to tzw. halucynacje sztucznej inteligencji, czyli treści całkowicie wygenerowane przez system AI. De Sutter poinformowała stronę niderlandzką o wycofaniu się z uroczystości, uznając, że w obecnych okolicznościach nie powinna przyjmować wyróżnienia.
Sfabrykowane cytaty w inauguracyjnym przemówieniu
Kontrowersyjne przemówienie zostało wygłoszone 19 września 2024 r. podczas inauguracji roku akademickiego na Uniwersytecie Gandawskim. Rektor przywołała w nim m.in. filozofa Hansa Jonasa oraz psychologa Paula Verhaeghe, a także przypisała Albertowi Einsteinowi słowa: „Dogma is the enemy of the progress” (Dogmat jest wrogiem postępu). Dochodzenie portalu Apache wykazało jednak, że wszystkie te cytaty są zmyślone i nigdy nie padły z ust wskazanych autorów.
Biuro prasowe UGent potwierdziło, że podczas przygotowywania wstępnej wersji tekstu, z wykorzystaniem narzędzi AI, doszło do poważnych błędów. Od września przemówienie opublikowane na stronie internetowej uczelni było dwukrotnie poprawiane – w październiku oraz w styczniu bieżącego roku – po tym, jak Apache zwrócił uwagę na nieprawidłowości. Obecnie przy tekście widnieje adnotacja wyjaśniająca sytuację. Jednocześnie nagranie wideo z ceremonii, zawierające oryginalną wersję przemówienia z fałszywymi cytatami, nadal pozostaje dostępne na stronie uniwersytetu.
Jak doszło do takiego błędu?
Dokładny przebieg pracy nad przemówieniem nie został ujawniony, wiadomo jednak, że Petra De Sutter sięgnęła po generatywną sztuczną inteligencję. Ann-Katrien Oimann, adiunkt ds. polityki AI i etyki na Uniwersytecie w Tilburgu, wyjaśnia mechanizm prowadzący do powstawania takich błędów.
Systemy generatywne, takie jak ChatGPT czy Copilot, opierają się na dużych modelach językowych, które analizują ogromne zbiory tekstów. Modele te przewidują kolejne słowa na podstawie wzorców językowych, nie weryfikując jednak prawdziwości treści. W efekcie potrafią tworzyć wypowiedzi brzmiące wiarygodnie, choć całkowicie niezgodne z faktami. Cytat przypisany Einsteinowi nie pochodził z żadnego źródła – został wygenerowany wyłącznie dlatego, że pasował do kontekstu i stylu znanych wypowiedzi.
Informatyk Jeroen Baert posunął się do ostrzejszej oceny, stwierdzając w programie De Afspraak, że generowanie pozornie sensownej wiedzy jest jedynie efektem ubocznym działania modeli językowych, a pytanie ChatGPT o fakty ma podobną wartość jak konsultacja z wróżbitą.
Reakcja rektor De Sutter
W pisemnym oświadczeniu przekazanym redakcji VRT NWS rektor wyraziła głęboki żal z powodu zaistniałej sytuacji. Przyznała, że wpadła w pułapkę i nie jest w stanie cofnąć popełnionych błędów. Jednocześnie zaznaczyła, że doświadczenie to stanowi dla niej ważną lekcję i może przyczynić się do pogłębionej debaty na temat wykorzystania sztucznej inteligencji w środowisku akademickim. Zapowiedziała, że temat ten zostanie wpisany wysoko na listę priorytetów wewnętrznych uczelni. De Sutter odmówiła natomiast udziału w wywiadach telewizyjnych i radiowych dotyczących sprawy.
Bolesna wpadka w kontekście polityki AI uczelni
Cała sytuacja jest szczególnie kłopotliwa, ponieważ Uniwersytet Gandawski posiada jasno określoną politykę dotyczącą korzystania ze sztucznej inteligencji. W wytycznych uczelni wprost ostrzega się, że nieodpowiedzialne użycie narzędzi AI może prowadzić do tworzenia zmyślonych źródeł, określanych jako halucynacje AI. Zasady te jednoznacznie wskazują, że każdy użytkownik ponosi odpowiedzialność za krytyczną weryfikację treści wygenerowanych przez AI, w tym za sprawdzenie oryginalnych źródeł.
Ann-Katrien Oimann podkreśla, że wpadka jest szczególnie bolesna w kontekście akademickim. Uniwersytety i szkoły średnie intensywnie pracują nad zasadami odpowiedzialnego korzystania z AI, a wszystkie uczelnie dysponują w tym zakresie jasnymi wytycznymi. Tym bardziej problematyczne jest to, że taki błąd przydarzył się osobie pełniącej funkcję rektora.
Podzielone opinie w środowisku akademickim
Środowisko akademickie pozostaje podzielone w ocenie konsekwencji, jakie powinny spotkać De Sutter. Ignaas Devisch, profesor filozofii medycznej i etyki na UGent, przyznał, że jest wstrząśnięty całą sytuacją. Podkreślił, że zna rektor jako rzetelną badaczkę i osobę uczciwą, dlatego uznaje ten incydent za poważne potknięcie, za które należy wziąć pełną odpowiedzialność. Jednocześnie zaznaczył, że sprawa wpływa na całą społeczność uniwersytecką, lecz nie kwestionuje dalszego pełnienia przez nią funkcji.
Podobną opinię wyraził Stijn Baert, profesor ekonomii pracy na UGent. Zwrócił uwagę, że nie całe przemówienie zostało wygenerowane przez AI i że jego zasadniczy przekaz pozostaje aktualny. Problem dotyczy wyłącznie retorycznych ozdobników, które nie zostały właściwie sprawdzone. Baert przypomniał także, że jedynie 13 procent flamandzkich pracowników przeszło dotąd szkolenie z zakresu korzystania z AI, co uznał za wynik zdecydowanie niewystarczający. Jego zdaniem sprawa powinna stać się impulsem do szybkiego rozwoju edukacji w tym obszarze.
Odmienne stanowisko zaprezentował Maarten Boudry, filozof nauki z UGent, który na platformie X wezwał do ustąpienia De Sutter ze stanowiska. Określił jej działania jako oszustwo, polegające na użyciu nieistniejących cytatów w celu podniesienia rangi wystąpienia, a następnie na próbie ukrycia tego faktu.
Uniwersytet Amsterdamski podtrzymuje ocenę dorobku
Mimo rezygnacji z uroczystości Uniwersytet Amsterdamski podkreślił, że dorobek naukowy i społeczny Petry De Sutter pozostaje wysoko oceniany. Doktorat honoris causa miał zostać przyznany za jej wkład w rozwój nauk medycznych oraz zaangażowanie społeczne. W wydanym oświadczeniu uczelnia zaznaczyła, że decyzja o wycofaniu się była dla rektor z pewnością trudna, ale w obecnych okolicznościach stanowiła właściwy krok.
Również Ann-Katrien Oimann uważa, że ewentualna dymisja byłaby reakcją zbyt daleko idącą. Jej zdaniem nie doszło do celowego rozpowszechniania dezinformacji, a przemówienie jako całość zachowuje swoją wartość. Wyraziła nadzieję, że sprawa posłuży jako punkt wyjścia do jeszcze większego uwrażliwienia studentów na zagrożenia związane z nieodpowiedzialnym wykorzystaniem sztucznej inteligencji.
Sprawa może mieć dalszy ciąg. Jutro zbiera się rada zarządzająca Uniwersytetu Gandawskiego. Choć sytuacja rektor nie została ujęta w oficjalnym porządku obrad, temat może pojawić się w ramach punktów różnych.