Dyrektor generalny OpenAI Samuel Altman, profesor NYU Gary Marcus i dyrektor IBM ds. prywatności i zaufania, Christina Montgomery, zeznają przed Senacką Podkomisją Sądowniczą podczas przesłuchania w celu zbadania sztucznej inteligencji w Waszyngtonie, 16 maja 2023 r. Jabin Botsford / Getty Images
Ten post został pierwotnie opublikowany na blogu CFR Net Politics.
Polityka jest jedną z najnowszych branż wstrząśniętych sztuczną inteligencją, a wykorzystanie sztucznie generowanych treści w kampaniach może oznaczać kłopoty w walce z dezinformacją zarówno dla kandydatów, jak i wyborców.
W kwietniu 2023 r., po wielu spekulacjach, prezydent Biden oficjalnie rozpoczął swoją kampanię reelekcyjną za pośrednictwem ogłoszenia wideo. Tego samego dnia Republikański Komitet Narodowy (RNC) odpowiedział własną trzydziestosekundową reklamą, która przewidywała kolejne cztery lata pod rządami prezydenta Bidena z większą przestępczością, otwartymi granicami, wojną z Chinami i załamaniem gospodarczym. Na pierwszy rzut oka wydaje się, że jest to zwykły atak polityczny, ale w rzeczywistości jest to pierwsza reklama kampanii krajowej złożona z obrazów w całości wygenerowanych przez sztuczną inteligencję (AI). I chociaż RNC zachowała przejrzystość w kwestii wykorzystania sztucznej inteligencji, to jednak wciągnęła elektorat w nową erę reklamy politycznej, z niewielką liczbą barier i poważnymi potencjalnymi konsekwencjami dla dezinformacji i manipulacji.
W artykule „Deepfakes and the New Disinformation War” z 2018 r. Robert Chesney i Danielle Citron przewidzieli, że „kaskada informacyjna” mediów społecznościowych, malejące zaufanie do tradycyjnych mediów i rosnąca wiarygodność głębokich podróbek stworzą idealną burzę do szerzenia dezinformacji. Ich prognozy już zaczęły się sprawdzać. W styczniu na Twitterze krążyło głęboko fałszywe wideo, które wydawało się pokazywać prezydenta Bidena ogłaszającego, że ponownie wprowadził pobór do wojska i wyśle Amerykanów do walki na Ukrainie. Klip początkowo wyświetlał podpis opisujący go jako „wyobraźnię” sztucznej inteligencji, ale szybko stracił zastrzeżenie w obiegu, pokazując, jak łatwo nawet przejrzyste wykorzystanie sztucznej inteligencji może przekształcić się w dezinformację.
Chociaż Chesney i Citron skupili się na geopolitycznych zagrożeniach związanych z głębokimi podróbkami i dużymi modelami uczenia się (w rękach Rosji lub organizacji terrorystycznych), nietrudno sobie wyobrazić, jak te same elementy mogą wypaść z torów w reklamie politycznej. Nawet bez obrazów generowanych przez sztuczną inteligencję, istniało coś w rodzaju wyścigu na dno, aby stworzyć najbardziej prowokacyjne reklamy kampanii. Jest to dalekie od pierwszego użycia cyfrowo ulepszonych obrazów w reklamach kampanii. W 2015 roku naukowcy odkryli, że kampania McCaina wykorzystywała zdjęcia ówczesnego kandydata Baracka Obamy w reklamach atakujących, które „wydają się być zmanipulowane i/lub wybrane w sposób, który daje Obamie ciemniejszą karnację”.
Jak omówiliśmy w poprzednich artykułach, te nowe technologie mogą być najskuteczniej wykorzystywane przeciwko wrażliwym populacjom, takim jak kobiety, osoby kolorowe i członkowie społeczności LGBTQI+ ubiegający się o urząd. W badaniu cyklu wyborów do Kongresu w 2020 r. raport Center for Democracy and Technology wykazał, że kandydatki kolorowe były dwukrotnie bardziej narażone na kampanie dezinformacyjne i manipulację w Internecie. W Indiach technologia deepfake została wykorzystana przeciwko polityczkom i dziennikarkom, a wiele z nich donosi, że ich zdjęcia zostały umieszczone na pornograficznych zdjęciach i filmach i rozpowszechnione w Internecie. Obrazy generowane przez sztuczną inteligencję i głębokie podróbki w reklamach politycznych można łatwo wykorzystać do seksualizacji kobiet-polityków, opiniotwórców i innych liderów, co, jak wykazały badania, może podważyć wiarygodność kobiet w kampaniach.
Istnieje również ryzyko tego, co Citron i Chesney nazywają „dywidendą kłamców”. Coraz bardziej realistyczne fałszywe filmy, nagrania audio i zdjęcia mogą pozwolić politykom uniknąć odpowiedzialności za każdy problematyczny dźwięk lub film, twierdząc, że powinno być oczywiste dla widzów przez cały czas, że takie materiały zostały wygenerowane przez sztuczną inteligencję lub deepfake. W erze, w której politycy mogą uniknąć odpowiedzialności z powodu negatywnej partyjności, dodanie dywidendy kłamcy może zapewnić ostateczną kartę „wyjdź z więzienia za darmo”.
Platformy mediów społecznościowych zaczęły wprowadzać nowe zasady dotyczące treści generowanych przez sztuczną inteligencję i deepfake, ale miały trudności z zintegrowaniem tych zasad z istniejącymi zasadami dotyczącymi treści politycznych. Meta zakazała deepfake’ów na swoich platformach, ale pozostaje niezłomna w swojej polityce nieweryfikowania faktów podawanych przez polityków. TikTok zakazał deepfake’ów wszystkich osób prywatnych, ale zakazuje ich tylko w przypadku osób publicznych, jeśli konkretnie promują produkty lub naruszają inne warunki aplikacji (takie jak promowanie mowy nienawiści). Dozwolone jest jednak głębokie podrabianie osób publicznych w celu „treści artystycznych lub edukacyjnych”.
W odpowiedzi na reklamę RNC, przedstawicielka Yvette Clark z Nowego Jorku wprowadziła ustawę „REAL Political Advertisements Act” wymagającą ujawniania wszelkich przypadków wykorzystania treści generowanych przez sztuczną inteligencję w reklamach politycznych. Ze swojej strony administracja Bidena gościła prezesów firm technologicznych w Białym Domu na początku tego miesiąca i opublikowała plan działania mający na celu „promowanie odpowiedzialnych innowacji w zakresie sztucznej inteligencji”. W zeszłym tygodniu senacka podkomisja sądownictwa ds. prywatności, technologii i prawa przeprowadziła przesłuchanie w sprawie potencjalnego nadzoru nad technologią sztucznej inteligencji. Choć wiele osób ubolewało nad brakiem większej reakcji ze strony rządu na szersze uregulowanie potencjalnych zagrożeń związanych ze sztuczną inteligencją, wraz z rozpoczęciem kolejnego cyklu wyborczego i wejściem sztucznej inteligencji na własne podwórko polityków, może to rozpalić niezbędny ogień.
Do powstania tego wpisu na blogu przyczyniła się Alexandra Dent, pracownik naukowy w Council on Foreign Relations.
Link do artykułu: https://www.cfr.org/blog/artificial-intelligence-enters-political-arena