Aby chronić demokrację w erze Deepfake, musimy włączyć głosy tych, którzy jej bronią na pierwszej linii frontu

0
240
Fałszywy obraz aresztowania Donalda Trumpa stworzony w trakcie podróży. Z Wikimedia Commons, bezpłatnego repozytorium multimediów.

 

Sztuczna inteligencja jest coraz częściej wykorzystywana do modyfikowania i generowania treści w Internecie. W miarę ciągłego rozwoju sztucznej inteligencji społeczeństwa i decydenci muszą zadbać o to, aby uwzględniała ona podstawowe prawa człowieka.

Powszechna Deklaracja Praw Człowieka obchodzi swoje 75-lecie w momencie znaczących przemian w obszarze sztucznej inteligencji, zwłaszcza generatywnej AI. Pilna potrzeba włączenia praw człowieka do DNA powstających technologii nigdy nie była bardziej nagląca. Dzięki mojej roli w WITNESS, organizacji wykorzystującej technologię wideo na rzecz praw człowieka, na własne oczy zaobserwowałem głęboki wpływ generatywnej sztucznej inteligencji na społeczeństwa, a co najważniejsze, na tych, którzy bronią demokracji na pierwszej linii frontu.

Niedawne wybory w Argentynie charakteryzowały się powszechnym wykorzystaniem sztucznej inteligencji w materiałach kampanii. Generatywną sztuczną inteligencję wykorzystuje się także do kierowania reklam do kandydatów zawierających zawstydzającą treść (w coraz większym stopniu o charakterze seksualnym), do generowania reklam politycznych oraz do wspierania kampanii kandydatów i działań informacyjnych w Indiach, Stanach Zjednoczonych, Polsce, Zambii i Bangladeszu (by wymienić tylko kilka). Ogólnym skutkiem braku solidnych ram wykorzystania mediów syntetycznych w kontekście politycznym jest atmosfera braku zaufania do tego, co widzimy lub słyszymy.

Jednak nie wszystkie zmiany cyfrowe są szkodliwe. Część mojej pracy polega na identyfikowaniu, w jaki sposób nowe technologie mogą wspierać pozytywne zmiany. Na przykład, przy odpowiednim ujawnieniu, media syntetyczne można wykorzystać do poprawy edukacji i zaangażowania wyborców. Generatywna sztuczna inteligencja mogłaby pomóc w tworzeniu treści informacyjnych o kandydatach i ich platformach lub o szerszych procesach wyborczych, w różnych językach i formatach, poprawiając włączenie lub zmniejszając bariery dla kandydatów słabszych lub z zewnątrz. W przypadku wyborców niepełnosprawnych media syntetyczne mogłyby zapewnić przystępne formaty materiałów wyborczych, takie jak awatary w języku migowym lub opisy dźwiękowe treści pisanych. Satyryczne deepfake mogą angażować ludzi, którzy w przeciwnym razie nie byliby zainteresowani polityką, zwracając uwagę na kwestie, które mogłyby nie zostać poruszone w mediach głównego nurtu. Musimy celebrować i chronić te zastosowania.

Ponieważ w przyszłym roku dwa miliardy ludzi na całym świecie uda się do lokali wyborczych w pięćdziesięciu krajach, pojawia się zasadnicze pytanie: w jaki sposób możemy zbudować odporność naszej demokracji w epoce manipulacji audiowizualnych? Kiedy sztuczna inteligencja może zatrzeć granice między rzeczywistością a fikcją z rosnącą wiarygodnością i łatwością, odróżnienie prawdy od fałszu staje się nie tylko bitwą technologiczną, ale walką o utrzymanie demokracji.

Z rozmów z dziennikarzami, aktywistami, technologami i innymi społecznościami, na które wpływa generatywna sztuczna inteligencja i deepfake, dowiedziałem się, że wpływ mediów syntetycznych na demokrację to połączenie nowych, starych i zapożyczonych wyzwań.

Generatywna sztuczna inteligencja wprowadza nową, zniechęcającą rzeczywistość: niewygodnym prawdom można zaprzeczyć jako głęboko sfałszowane lub przynajmniej ułatwić twierdzenia o wiarygodnym zaprzeczeniu w celu uniknięcia odpowiedzialności. Ciężar dowodu, a może dokładniej „ciężar prawdy” przesunął się na tych, którzy rozpowszechniają autentyczne treści i pociągają do odpowiedzialności wpływowych. To nie tylko kryzys identyfikacji tego, co fałszywe. To także kryzys ochrony tego, co prawdziwe. Skoro wszystko można odrzucić jako wygenerowane przez sztuczną inteligencję lub zmanipulowane, jak możemy podnieść poziom prawdziwych historii tych, którzy bronią naszej demokracji na pierwszej linii frontu?

Ale wpływ sztucznej inteligencji nie kończy się na nowych wyzwaniach; pogłębia stare nierówności. Osoby, które są już marginalizowane i pozbawione praw wyborczych – ze względu na płeć, pochodzenie etniczne, rasę lub przynależność do określonej grupy – są narażone na zwiększone ryzyko. Sztuczna inteligencja jest jak szkło powiększające służące wykluczeniu, a jej szkody kumulują się. Sztuczna inteligencja pogłębia istniejące słabości, stwarzając poważne zagrożenie dla zasad inkluzywności i sprawiedliwości, które leżą u podstaw wartości demokratycznych. Podobnie fałszywe treści o charakterze seksualnym mogą dodatkowo działać odstraszająco, zniechęcając kobiety, osoby LGBTQ+ i osoby ze społeczności mniejszościowych do udziału w życiu publicznym, niszcząc w ten sposób różnorodność i reprezentatywność, które są niezbędne dla zdrowej demokracji.

Wreszcie, podobnie jak w przypadku mediów społecznościowych, w których nie uwzględniliśmy głosów światowej większości, zapożyczyliśmy wcześniejsze błędy. Niedociągnięcia w moderowaniu treści, zwalczaniu dezinformacji i ochronie prywatności użytkowników mają głęboki wpływ na demokrację i dyskurs społeczny. Podobnie w kontekście sztucznej inteligencji nie widzieliśmy jeszcze znaczących polityk i przepisów, które nie tylko konsultowałyby na całym świecie te, na które sztuczna inteligencja ma wpływ, ale, co ważniejsze, skupiały rozwiązania, dla których priorytetem są społeczności poza Stanami Zjednoczonymi i Europą. Uwypukla to kluczową lukę: pilną potrzebę przyjęcia globalnej perspektywy w zarządzaniu sztuczną inteligencją, takiej, która wyciąga wnioski z niepowodzeń mediów społecznościowych w uwzględnianiu niuansów kulturowych i politycznych w różnych społeczeństwach.

Analizując wpływ sztucznej inteligencji na demokrację i prawa człowieka, nasze podejście do tych wyzwań powinno być wieloaspektowe. Musimy opierać się na połączeniu strategii — takich, które odnoszą się do bezpośrednich „nowych” realiów sztucznej inteligencji, stanowią odpowiedź na „stare”, ale utrzymujące się wyzwania związane z nierównością i uwzględniają „zapożyczoną” mądrość z naszych przeszłych doświadczeń.

Po pierwsze, musimy dopilnować, aby nowe regulacje dotyczące sztucznej inteligencji i polityki przedsiębiorstw były przesiąknięte przepisami i zasadami dotyczącymi praw człowieka, takimi jak te zapisane w Powszechnej Deklaracji Praw Człowieka. W nadchodzących latach jednym z najważniejszych obszarów wiedzy społeczno-technicznej będzie umiejętność przełożenia ochrony praw człowieka na politykę i ustawodawstwo dotyczące sztucznej inteligencji.

Chociaż zakotwienie nowej polityki w prawach człowieka ma kluczowe znaczenie, nie powinniśmy tracić z pola widzenia historycznego kontekstu tych postępów technologicznych. Musimy patrzeć wstecz, gdy idziemy do przodu. Podobnie jak w przypadku postępu technologicznego w przeszłości, powinniśmy sobie przypominać, że postęp nie polega na tym, jak daleko zajdziesz, ale ile osób ze sobą zabierzesz. Naprawdę powinniśmy zadać sobie pytanie, czy jest to postęp technologiczny, jeśli nie sprzyja włączeniu społecznemu, jeśli odtwarza wadę? Postęp technologiczny, który pozostawia ludzi w tyle, nie jest prawdziwym postępem; to iluzja postępu utrwala nierówność i systemy ucisku. W ubiegły weekend minęło dwadzieścia pięć lat od przyjęcia Deklaracji ONZ o obrońcach praw człowieka, która uznaje kluczową rolę obrońców praw człowieka w realizacji Powszechnej Deklaracji Praw Człowieka i innych prawnie wiążących traktatów. Na obecnej fali emocji wokół generatywnej sztucznej inteligencji głosy obrońców praw człowieka na pierwszej linii frontu rzadko kiedy były bardziej istotne.

Nasza podróż w stronę przyszłości kształtowanej przez sztuczną inteligencję polega także na uczeniu się na przebytych trasach, szczególnie tych z ery mediów społecznościowych. Media syntetyczne należy rozumieć w kontekście szerszego ekosystemu informacyjnego. Zarabiamy na rozpowszechnianiu kłamstw, utrzymując niepewne pensje lokalnych moderatorów treści i zewnętrznych weryfikatorów faktów oraz zrzucając winę na użytkowników platformy za to, że nie są wystarczająco wykształceni, aby wykryć fałszerstwa. Jedynym sposobem na dostosowanie wartości demokratycznych do celów technologicznych jest zarówno nałożenie odpowiedzialności, jak i ustanowienie odpowiedzialności na cały ekosystem informacji i sztucznej inteligencji, począwszy od badaczy zajmujących się modelami podstawowymi, po podmioty komercjalizujące narzędzia sztucznej inteligencji oraz osoby tworzące i rozpowszechniające treści.

Splatając razem te nowe, stare i zapożyczone wątki myśli, tworzymy potężny plan kierowania biegiem sztucznej inteligencji. Nie chodzi tu tylko o przeciwstawienie się fali cyfrowej manipulacji – chodzi o wspieranie postępu technologicznego, który wzmacnia nasze wartości demokratyczne, pogłębia nasze globalne zaangażowanie i chroni rdzeń naszego wspólnego człowieczeństwa w świecie w coraz większym stopniu opartym na sztucznej inteligencji i obrazach. Koncentrując prawa ludzi na rozwoju sztucznej inteligencji, nie tylko chronimy nasze wolności indywidualne, ale także wzmacniamy naszą wspólną demokratyczną przyszłość.

Post na blogu autorstwa Raquel Vazquez Llorente, współautora gościnnego
18 grudnia 2023 r., 15:10 (EST)

Raquel Vazquez Llorente jest dyrektorem ds. prawa i polityki, zagrożeń i możliwości technologicznych w WITNESS. Można ją znaleźć w Internecie na  Linkedin  i  X.