Dipfejki w służbie demokracji 

Dotychczasowa praktyka wskazuje, że nie należy przesadnie bać się użycia narzędzi sztucznej inteligencji podczas wyborów. W końcu politycy i tak oszukują nas analogowo. 

Pierwszy głośny dipfejk polityczny pojawił się w 2018 r. Było to wideo z Barackiem Obamą, który kwieciście tłumaczył, że nie należy wierzyć we wszystko, co się zobaczy w internecie. Sporządzenie tego dzieła zajęło tydzień wykwalifikowanym i wyposażonym w komputer o dużej mocy obliczeniowej informatykom, najętym przez portal Buzz Feed. Dziś każdy, kto ma zwykły laptop, tanim kosztem może stworzyć cudzego albo własnego klona. 

Chyba największy strach budzą właśnie najmocniej działające na wyobraźnię dipfejki wideo. W praktyce ta technologia sprawdza się przy tworzeniu pornografii albo memów. Fałszywki polityczne są natychmiast demaskowane i choć osiągają potężne zasięgi, to nie ma żadnego dowodu, by kiedykolwiek wpłynęły na wynik wyborów. Łatwo jest porównać podróbkę wideo z obrazem źródłowym. Zdaniem ekspertów groźniejsze są dipfejki audio, tworzone przez narzędzia AI na podstawie próbki głosu, znacznie łatwiejsze w produkcji i trudne do zweryfikowania. 

21 stycznia Patricia Gingrich siadała do kolacji, gdy zadzwonił jej telefon stacjonarny. Wyborczyni z amerykańskiego stanu New Hampshire usłyszała w słuchawce głos Joego Bidena instruujący ją, aby nie głosowała w nadchodzących prawyborach prezydenckich. Oszustwo było szyte grubymi nićmi i pani Gingrich nie dała się nabrać – wiedziała, że prezydent nigdy by czegoś takiego nie powiedział. Ale zastosowanie podobnego chwytu w bardziej zniuansowany sposób może być jakiejś mierze skuteczne. 

Indie podczas zakończonych miesiąc temu wyborów parlamentarnych były pionierskim laboratorium zastosowań sztucznej inteligencji na masową skalę. Za chwilę doświadczy tego reszta świata. O ile tamy nie położą regulacje prawne, lecz te zawsze są krok za technologią. 

Wnioski są dość optymistyczne. Były przypadki podszywania się pod kandydatów czy celebrytów, ale obawy przed powszechną dezinformacją się nie ziściły. Sztaby wykorzystywały sztuczną inteligencję do typowych działań politycznych – w tym do obrzucania błotem – ale przede wszystkim do lepszego kontaktu z wyborcami. 

Pierwsze zastosowanie jest niewidoczne dla niewtajemniczonych: AI wykorzystuje się do analiz trendów w mediach społecznościowych pod kątem tego, jakie tematy najlepiej się sprzedają określonym grupom wyborców. To już standard, z jakim mieliśmy do czynienia również podczas ostatnich wyborów w Polsce. 

Po drugie, memy. Opozycyjny Indyjski Kongres Narodowy udostępnił na Instagramie klip z popularną piosenką zatytułowaną “Złodziej”, gdzie twarz i głos wokalisty zastąpiono twarzą i głosem Narendy Modiego. 

Partia rządząca też wklejała popularnego premiera do teledysków, ale po to, żeby “ufajnić” jego wizerunek. To tzw. softfejki, generowane w celu zwiększenia atrakcyjności kandydatów. W Indonezji zwycięzca ostatnich wyborów prezydenckich, emerytowany generał Prabowo Subianto, pokazał uśmiechniętą, animowaną wersję siebie, bo w badaniach wychodziło, że młodzi ludzie się go bali. 

Dipfejki mogą dać głos zniewolonym. W Pakistanie uwięziony pod dętymi zarzutami przywódca opozycji Imran Khan wygłosił na wiecu wyborczym przemówienie, które jego sztab sporządził na bazie wcześniejszych wypowiedzi. 

Można pójść dalej i wskrzeszać umarłych. W Indonezji nieżyjący dyktator Suharto nawoływał wyborców do wsparcia jego byłej partii. W Indiach też było kilka takich przypadków. Aż dziw, że przywódca opozycji Rahul Gandhi, którego legitymacja polityczna wynika wyłącznie z nazwiska, nie zdecydował się ożywić swoich sławnych przodków. Zrobili to inni, np. Vijay Vasanth, polityk tej samej Partii Kongresowej, ubiegający się o mandat po ojcu zmarłym na covid. Jego sztab udostępnił dwuminutowy film, w którym nieżyjący poseł prosił mieszkańców swojego okręgu o głosowanie na syna. Pojawił się też klip audio z głosem zmarłej osiem lat temu Jayaram Jayalalithay, otaczanej niemal boskim kultem supergwiazdy tamilskiej polityki. Twórcy mieli na to pozwolenie od jej partii, ale nie od rodziny.  

Wkładanie słów w usta zmarłych to pole minowe pod względem moralnym i prawnym. Wyobraźmy sobie Lecha Kaczyńskiego opowiadającego kto dokonał “zamachu smoleńskiego” albo Jacka Kaczmarskiego śpiewającego piosenkę kampanijną tej czy innej partii. 

Kolejne zastosowanie AI w Polsce się nie przyda, ale w Indiach, gdzie obowiązują 22 języki urzędowe, dubbingowanie przemówień polityków w czasie rzeczywistym ma duże znaczenie. Tak premier Narendra Modi, mówiący w hindi, stał się poliglotą. 

Korespondent magazynu “Wired” opisywał, że w ciągu dwóch tygodni przed dniem głosowania dziesiątki milionów Indusów odebrało 30-sekundowe połączenia telefoniczne. Liderzy partii, zwracając się do nich po imieniu i w ich własnym języku, prosili o oddanie głosu na danego kandydata, a kandydaci składali im życzenia z okazji świąt religijnych albo urodzin. 

Z awatarem można też porozmawiać. Pracownicy firm informatycznych wraz z pracownikami sztabów wyborczych trenowali modele językowe, aby były zdolne odpowiadać na najczęściej zadawane pytania. Efekty na razie nie są imponujące: podczas niektórych rozmów sztuczna inteligencja miała “halucynacje”, zdarzało się też, że mówiła za głośno. Ale naprawa takich błędów jest kwestą niedługiego czasu. 

Połączenia AI są osiem razy tańsze niż rozmowy wykonywane przez pracowników call center. Taniej wychodzi odtwarzanie wyborcom nagranego komunikatu, ale ludzie niechętnie słuchają automatu i szybko się rozłączają. Co innego spersonalizowane rozmowy. Według indyjskich konsultantów politycznych, wyborcy w miastach postrzegają niechciane telefony jako uciążliwe, ale mieszkańcy wsi czują się dowartościowani po otrzymaniu połączeń od osób na wysokich stanowiskach. “Wyborcy zaczęli przychodzić do biur partii, wyrażając radość z telefonu od kandydata i tego, że zwrócono się do nich po imieniu. Nie wiedzieli, że słuchali sztucznej inteligencji”, opisuje “Wired”. 

Stosowanie tej techniki może mieć istotny wpływ na wynik. W Indiach co czwarty wyborca decyduje, na kogo oddać głos, w ciągu ostatnich dni przed wyborami. 

Co z nienawistną retoryką, zwłaszcza wobec mniejszości muzułmańskiej, jaką zasłynęli rządzący hinduscy nacjonaliści? Też była przekazywana za pomocą generatywnych narzędzi AI, ale problem istnieje niezależnie od nich. Mamy analogiczne tego przykłady w Polsce: zdjęcia ciemnoskórych imigrantów z nienawistnymi podpisami są rozpowszechniane przez polityków prawicy przy użyciu ich własnej inteligencji, a zasięgi w mediach społecznościowych zapewniają algorytmy, które premiują treści budzące kontrowersje. 

Również francuska skrajna prawica przed niedzielną drugą turą wyborów parlamentarnych bombardowała wyborców treściami generowanymi przez sztuczną inteligencję, zwłaszcza demonizującymi muzułmanów. Ale pierwsi byli macroniści, którzy 31 grudnia wypuścili dipfejk z Marine Le Pen. Przywódczyni skrajnej prawicy zaczyna składać życzenia noworoczne po francusku, dźwięk trzeszczy, po czym kontynuuje po rosyjsku. 

Zobowiązania Meta i X do oznaczania takich treści jako generowanych przez sztuczną inteligencję okazały się puste. Zmienić mogą coś dopiero jasne regulacje prawne na szczeblu UE i państw, procesy i miliardowe kary nałożone na gigantów mediów społecznościowych. Chociaż nie łudźmy się, że polityczne fałszywki da się wyeliminować. Istnieją one od stuleci. Już w 1275 r. król Anglii Edward I zakazał cytowania lub rozgłaszania fałszywych wiadomości, które sieją niezgodę. Pierwszego prezydenta USA, George’a Washingtona, zaatakowano fałszywymi listami, które miały dowodzić, że nie wspiera on niepodległości Stanów Zjednoczonych. W XIX w. amerykańscy rasiści publikowali fałszywe informacje o przestępstwach i zboczeniach Afroamerykanów. 

Sztuczna inteligencja jest tylko techniką, która pozwala oszustwo udoskonalić i rozpowszechnić. Tu jednak uruchamia się bezpiecznik, w jaki wyposażyła nas natura: oszustwo pospolite traci moc oddziaływania, bo ludzie zyskują świadomość i nabierają odporności. Wiąże się z tym zjawisko nazywane dywidendą kłamcy: skoro wszystko może być fejkiem, to chętnie uznamy za fejk informację prawdziwą, kótra jest dla nas niewygodna, żeby usunąć dysonans poznawczy. Afera w naszej partii? Nie, to “ruska operacja”. 

Vandinika Shukla i Bruce Schneier z Uniwersytetu Harvarda na łamach “The Conversation” przekonują, że potencjalnie zalet użycia AI w wyborach jest więcej niż wad. “Zdolność tej technologii do tworzenia fałszywych fałszywych informacji może utrudnić odróżnienie prawdy od fikcji, ale jej wykorzystanie za obopólną zgodą może sprawić, że demokracja stanie się bardziej dostępna”, piszą badacze. Za przykład podają wynik wyborów w Indiach, gdzie rządzącym nacjonalistom nie udało się utrzymać większości. Ciekawe czy gdyby się udało, to teza by się ostała. 

Wielkim testem będą listopadowe wybory w USA. Wciąż niewiele przepisów federalnych ogranicza tam użycie dipfejków, prace w Kongresie utknęły, lukę usiłują wypełnić ustawodawcy stanowi. Tymczasem naukowcy z Uniwersytetu George’a Washingtona przewidują, że ataki przy użyciu sztucznej inteligencji będą się nasilać i stanowić zagrożenie szczególnie w stanach wahadłowych (gdzie żadna partia nie ma gwarantowanej większości). W silnie podzielonych społeczeństwach nakłonienie kogoś do zmiany barw partyjnych jest karkołomne, łatwiej spowodować demobilizację przeciwnika. Realną drogą do zmiany wyniku wyborów jest manipulowanie frekwencją – nie przypadkiem fałszywy głos Bidena wzywał właśnie do niegłosowania. 

Sprawcą “telefonu od Biedna” okazał się konsultant polityczny Steve Kramer. W wywiadzie dla CBS News powiedział, że jego intencją było zwrócenie uwagi na potrzebę uregulowania użycia sztucznej inteligencji w polityce. Stworzenie głosowego dipfejka zajęło mu mniej niż 20 minut i kosztowało zaledwie 1 dolara. W zamian, jak stwierdził, otrzymał „rozgłos o wartości 5 milionów dolarów”. 

Federalna Komisja Łączności wzięła jego wyliczenia śmiertelnie poważnie i zaproponowała karę dla Kramera w wysokości 6 mln dol. za naruszenie ustawy o ochronie konsumentów telefonicznych… z 1991 r. Z kolei Departament Sprawiedliwości stanu New Hampshire oskarżył go o tłumienie wolności wyrażania poglądów politycznych i podszywanie się pod kandydata, co może skutkować karą do siedmiu lat więzienia. 

Robert Stefanicki , „Gazeta Wyborcza”, 12.07.2024

error: Content is protected !!