Wprowadzenie
W połowie maja 2026 roku pojawił się kontrowersyjny spot kampanijny, w którym sztuczna inteligencja rzekomo „ożywia” Andrzeja Leppera. Spot przygotowany przez ruch polityczny Samoobrona Odrodzenie wywołał gwałtowne reakcje opinii publicznej, polityków i ekspertów od mediów. Wydarzenie to stało się punktem odniesienia w debacie o granicach wykorzystania AI w polityce oraz o etyce kreowania wizerunku postaci, która nie żyje od ponad dekady.
Tło historyczne
Andrzej Lepper był założycielem Samoobrony Rzeczypospolitej i jednym z barwnych aktorów sceny politycznej na początku nowego millenium. Zmarł w 2011 roku; w polskiej polityce wciąż budzi silne emocje. Nowy spot wykorzystuje technologię generowania mowy i obrazu, sugerując, że Lepper przemawia do współczesnych wyborców. Takie wykorzystanie wizerunku zmarłej osoby w kampanii budzi pytania o prawa do wizerunku, o ochronę pamięci i o prawo do prawdy w okresie wyborczym.
Jak działa spot
Według informacji publicznych spot generowany jest przez narzędzia sztucznej inteligencji, które na podstawie archiwalnych nagrań i charakterystycznych cech mowy mają stworzyć realistyczny przekaz. Wypowiedzi, które rzekomo należą do Leppera, zostały zsyntetyzowane przy użyciu algorytmów przetwarzania dźwięku i generowania tekstu. Autorzy kampanii twierdzą, że to forma innowacyjnego PR, jednak nie brakuje sceptycyzmu i alarmowych ocen ekspertów.
W samym spocie Lepper mówi do obywateli, ostrzega przed działaniami określonej formacji politycznej i soibie jednocześnie zawiera zarzut dotyczący zabójstwa, co budzi gwałtowne emocje. To, co jest widoczne na ekranie, to syntetyczny głos, wygenerowany przez AI, a także wygenerowane wizualnie tła i ruchy kamery. Tego typu technologia otwiera nowe możliwości, ale i wyzwania dla transparentności oraz odpowiedzialności medialnej.
Tak wygląda polityczny PR — skomentował lider ugrupowania.
Reakcje opinii publicznej i ekspertów
Reakcje na publikację są podzielone. Zwolennicy nowego podejścia do kampanii politycznych wskazują na możliwość dotarcia do wyborców w innowacyjny sposób i na efektowność przekazu. Przedstawiciele krytyczni podkreślają jednak, że stosowanie AI do „ożywiania” postaci z przeszłości, zwłaszcza zmarłych, stawia granice etyczne i prawne pod znakiem zapytania. Eksperci od mediów i komunikacji zwracają uwagę na ryzyko dezinformacji oraz na możliwość prowokowania silnych reakcji, które mogą wywołać szereg nieprzewidzianych skutków w sferze publicznej.
Specjaliści zwracają uwagę na to, że reproduce wizerunku zmarłej osoby w polityce może naruszać prawa do wizerunku, dobre imię a także prawo do ochrony pamięci o zmarłych. W kontekście kampanii wyborczych to narzędzie o dużym potencjale wpływu na decyzje wyborców, które musi być używane z należytą ostrożnością. W praktyce pojawiły się pytania o odpowiedzialność twórców takiego materiału, sposób informowania o sztucznej naturze nagrania, a także o to, czy spot spełnia wymogi rzetelności i transparentności, które rzekomo powinna zobowiązywać kampania.
Aspekty prawne i etyczne
Ramy prawne dotyczące wykorzystania AI w polityce różnią się w zależności od jurysdykcji, jednak w Polsce i w Unii Europejskiej rośnie świadomość, że technologie generujące treści silnie wpływające na opinię publiczną wymagają jasnych wyjaśnień. Kluczowe pytania obejmują:
- Czy materiały wykorzystujące postać zmarłej osoby muszą być wyraźnie oznaczone jako wygenerowane przez AI?
- Jakie prawa do wizerunku i ochrony pamięci przysługują rodzinie i spadkobiercom?
- Czy spot można traktować jako formę przekazu politycznego, który wymaga szczególnego nadzoru ze strony organów regulacyjnych?
- Jakie obowiązki informacyjne spoczywają na twórcach kampanii w zakresie transparentności i weryfikowalności przekazu?
Podstawowe zasady to transparentność oraz odpowiedzialność. Jeśli materiał jest sztucznie wygenerowany lub zniekształca fakty, jego odpowiedzialni twórcy powinni to jasno komunikować. W przeciwnym razie widzowie mogą zostać wprowadzeni w błąd, co wpływa na jakość debaty publicznej i na zaufanie do mediów. Współczesna etyka komunikacji politycznej domaga się wyznaczenia jasnych granic między innowacją a odpowiedzialnością.
Wpływ na kampanie i media
Wykorzystanie AI do generowania materiałów politycznych ma potencjał do zrewolucjonizowania sposobów dotarcia do wyborców. Spoty, memy i krótkie formy wideo mogą być tworzone, by pobudzać emocje, kształtować narracje i podnosić rozpoznawalność ugrupowania. Jednak wraz z rosnącą złożonością technologi pojawia się potrzeba wyrobienia mechanizmów weryfikacyjnych i standardów jakości przekazu. Dla odbiorców kluczowe staje się rozwijanie kompetencji medialnych, umiejętność rozróżniania treści autentycznych od treści generowanych przez sztuczną inteligencję oraz świadomość, że każdy materiał w sieci wymaga krytycznego spojrzenia.
Spot, o którym mówimy, stał się także przedmiotem publicznego eksperymentu w zakresie percepcji społeczeństwa. Dla niektórych to innowacyjny krok w kampanii, dla innych – ostrzeżenie, że granice między rzeczywistością a syntetycznym prezentowaniem są coraz bardziej rozmyte. W praktyce polityka z „AI w roli narratora” może prowadzić do większej zależności od sposobów algorytmicznego przekazu, a także do coraz większej presji na kampanie, by inwestować w narzędzia, które potrafią „przywołać” legendę lub kontrowersyjnego lidera z przeszłości.
Co to oznacza dla odbiorców
Dla wyborców oznacza to konieczność zachowania czujności i dbałość o weryfikację źródeł. AI może kreować przekazy, które wyglądają i brzmią wiarygodnie, co stawia wyzwania przed edukacją medialną i narracją demokratyczną. Ostatecznie decyzje wyborcze powinny opierać się na rzetelnych informacjach, a nie na efektach wizualnych czy atrakcyjności powoływania się na postać historyczną. W dobie programowalnych narracji istotne staje się to, by media i instytucje publiczne precyzyjnie wyjaśniały, co jest autentyczne, a co syntetyczne.
Przemyślenia redaktora
W obliczu dynamicznego rozwoju sztucznej inteligencji w obszarze komunikacji politycznej pojawia się pytanie o granice i odpowiedzialność. Artykuł niniejszy ma na celu nie tylko informować o fakcie kontrowensyjnego spotu, lecz także dostarczyć kontekst, narzędzia analityczne i refleksje na temat konsekwencji takich praktyk. Uważam, że demokratyczna debata zyskuje na transparencji – jeśli ktoś decyduje się wykorzystać postać z przeszłości w kampanii, musi jasno wyjaśnić, że mamy do czynienia z generacją AI i że materiał podlega skrupulatnym standardom weryfikacji. Apeluję również do odbiorców o krytyczne myślenie i do redakcji o jasne oznaczanie materiałów generowanych przez AI, a także o prowadzenie szczegółowych wyjaśnień co do źródeł i kontekstu. Tylko w ten sposób możemy utrzymać jakościową i odpowiedzialną debatę publiczną.
Podsumowując, spot wykorzystujący AI do „wskrzeszenia” Andrzeja Leppera to sygnał zmian, które w przyszłości będą definiować politykę i media. Z jednej strony innowacje mogą przyciągać uwagę i ułatwiać komunikację, z drugiej – stawiają przed społeczeństwem i instytucjami wyzwania dotyczące etyki, prawa i zaufania. W praktyce kluczowe będzie, aby twórcy materiałów politycznych były transparentne, a odbiorcy – krytyczni i świadomi możliwości technologicznych. Tylko tak możemy zbudować środowisko informacyjne, które służy jako fundament odpowiedzialnej debaty publicznej.