W polskiej polityce pojawił się spot, który natychmiast wywołał konsternację. Samoobrona Odrodzenie wykorzystała sztuczną inteligencję do stworzenia nagrania z Andrzejem Lepperem, zmarłym w 2011 roku liderem Samoobrony RP. W materiale wygenerowany polityk mówi między innymi, że został zamordowany.
To już nie jest zwykła kampanijna prowokacja. Sprawa dotyka pamięci po zmarłym, granic politycznego PR-u i pytania, czy wyborcy powinni być wyraźnie informowani, że patrzą na obraz stworzony przez AI.
Partia sięgnęła po zmarłego lidera Samoobrony
Samoobrona Odrodzenie, ugrupowanie nawiązujące do dziedzictwa Samoobrony RP, opublikowała spot z wykorzystaniem wizerunku Andrzeja Leppera. W nagraniu zmarły polityk został przedstawiony tak, jakby przemawiał do współczesnych wyborców. Materiał ma charakter politycznej zachęty do poparcia partii.
Andrzej Lepper był założycielem i liderem Samoobrony RP, a także wicepremierem. Został znaleziony martwy w swoim biurze w Warszawie w 2011 roku. Oficjalne śledztwo wskazywało na samobójstwo przez powieszenie, związane z depresją wywołaną problemami finansowymi i politycznymi.
Mimo ustaleń śledczych wokół jego śmierci przez lata narastały teorie spiskowe. Część osób podważała oficjalną wersję i sugerowała polityczne tło tragedii. Nowy spot wprost wchodzi w ten najbardziej drażliwy obszar.
W wygenerowanym przekazie Lepper mówi, że został zamordowany. Padają też słowa o godnych następcach, wsparciu dla Samoobrony Odrodzenie i haśle „Polska dla Polaków”. Materiał uderza więc jednocześnie w pamięć po zmarłym i w emocje jego dawnych zwolenników.
AI zmienia polityczny PR w coś znacznie bardziej ryzykownego
Wykorzystywanie archiwalnych nagrań polityków to nic nowego. Tutaj chodzi jednak o coś innego. Sztuczna inteligencja pozwala stworzyć wrażenie, że nieżyjąca osoba wypowiada nowe zdania i popiera konkretne ugrupowanie.
To szczególnie wrażliwe, gdy chodzi o człowieka, którego śmierć do dziś budzi emocje. Wygenerowany Lepper nie tylko zachęca do poparcia partii, ale także wypowiada tezę o zamordowaniu. Takie połączenie może być bardzo silnym narzędziem mobilizacji.
Problem polega na tym, że odbiorca powinien natychmiast wiedzieć, z czym ma do czynienia. Jeśli spot nie jest wyraźnie oznaczony jako materiał stworzony z użyciem AI, granica między politycznym przekazem a manipulacją staje się niebezpiecznie cienka. W kampanii ta granica ma ogromne znaczenie.
Obrońcy takiej formy mogą mówić o nowoczesnym PR-ze i prowokacji. Krytycy odpowiedzą, że nieżyjący polityk nie może wyrazić zgody na wykorzystanie wizerunku ani na przypisanie mu nowych słów. Właśnie dlatego sprawa budzi tak silny sprzeciw.
Lider ugrupowania broni spotu i mówi o zainteresowaniu wyborców
Przewodniczący Samoobrony Odrodzenia Jerzy Andrzejewski przekonywał, że wykorzystanie takiego materiału jest zgodne z prawem. Tłumaczył, że to forma zainteresowania wyborców. Według niego tak wygląda dzisiejszy polityczny PR.
Andrzejewski argumentował też, że wszyscy wiedzą, iż Andrzej Lepper nie żyje. Z tego powodu, jego zdaniem, nie można mówić o wprowadzaniu w błąd. To jednak nie zamyka najważniejszych pytań.
Wiedza o śmierci polityka nie oznacza automatycznie zgody na tworzenie jego cyfrowego sobowtóra. Nie każdy odbiorca musi od razu rozumieć techniczne pochodzenie nagrania. Jeszcze mniej oczywiste jest to, kto odpowiada za słowa włożone w usta postaci zmarłego lidera.
Szczególnie kontrowersyjny jest fragment o rzekomym zamordowaniu. To nie neutralna metafora ani żartobliwa stylizacja. To mocna teza dotycząca śmierci realnego człowieka, która w politycznym spocie może pracować jak oskarżenie.
Ta sprawa może wrócić przy każdej kolejnej kampanii
Spot z Lepperem pokazuje, jak szybko sztuczna inteligencja może wejść do polskiej polityki w najbardziej brutalnej formie. Nie chodzi już o poprawienie grafiki, montaż czy głos lektora. Chodzi o cyfrowe przywoływanie zmarłych osób w celu zdobycia uwagi wyborców.
Jeżeli takie praktyki zostaną uznane za normalne, kolejne kampanie mogą stać się jeszcze bardziej chaotyczne. Partie będą mogły produkować przemówienia dawnych liderów, symboli i autorytetów, których nie da się już zapytać o zgodę. To otwiera pole do nadużyć.
Największe ryzyko dotyczy zaufania. Wyborca, który nie wie, czy widzi prawdziwe nagranie, rekonstrukcję, parodię czy polityczny deepfake, zaczyna podejrzewać wszystko. W demokracji taki chaos informacyjny jest wyjątkowo groźny.
Materiał Samoobrony Odrodzenie może więc przejść do historii nie jako skuteczny spot, lecz jako ostrzeżenie. Polityka właśnie dostała narzędzie, które potrafi wskrzesić głos zmarłego i włożyć mu w usta nowe oskarżenia. Pytanie brzmi, czy prawo i obyczaj nadążą, zanim podobnych nagrań pojawi się znacznie więcej.









