Nawigacja w dezinformacji: jak lingwistyka może pomóc / Emer O’Toole

0
56

Emer O’Toole. Specjalista ds. publikacji, ds. komunikacji i marketingu

Badania dr Chrisa Cumminsa zajmują się tym, w jaki sposób nawet najbardziej spostrzegawczy członek społeczeństwa może zostać zwiedziony przez polityków, reklamodawców lub firmy z mediów społecznościowych stosujących techniki takie jak odchylanie, zaprzeczanie i polaryzacja, a także w jaki sposób lingwistyka może pomóc.
Dezinformacja stanowi zagrożenie dla demokracji, spójności społecznej i – jak pokazały spiski podczas pandemii Covid – naszego zdrowia. Głównymi winowajcami są politycy, reklamodawcy i media społecznościowe, ale dr Chris Cummins, wykładowca lingwistyki i języka angielskiego, uważa, że ​​możemy wykorzystać pojęcia dotyczące komunikacji, aby zmierzyć, jak mylące jest oświadczenie oraz jak ufni lub podejrzliwi powinniśmy być. aby uzyskać jasny obraz tego, co się właściwie dzieje.
Jeśli pomyślimy o sprawdzaniu faktów, można powiedzieć, że jest ono niezwykle ważne, szczególnie w świecie, w którym ludzie są gotowi powiedzieć wszystko, aby przekonać odbiorców do całkowitych kłamstw” – wyjaśnia. „Jednak ograniczenie tego polega na tym, że bardzo często okazuje się, że coś, co zostało powiedziane, jest w pewnym sensie prawdą – technicznie prawdą, ale potencjalnie wprowadzającą w błąd”.
Ale co sprawi, że prawdziwe stwierdzenie będzie wprowadzać w błąd? Dr Cummins twierdzi, że dzieje się tak na skutek wywnioskowanych znaczeń: „Jeśli powiem: «Nie jadłem lunchu», rozumiesz, że mam na myśli, że nie jadłem dzisiaj lunchu, w przeciwieństwie do kiedykolwiek. Jeśli jednak powiem inne zdania, takie jak „Nie byłem w Japonii” lub „Nie zdałem egzaminu na prawo jazdy”, nie założysz, że miałem na myśli, że dzisiaj go nie zdałem, ale założysz, że miałem na myśli nigdy go nie przeszedłem.”
Dr Cummins twierdzi, że te wywnioskowane znaczenia powstają, ponieważ jesteśmy współpracującymi mówcami i słuchaczami: „Ludzie mogą wykorzystać to założenie współpracy, aby przekazywać treści skuteczniej, niż bylibyśmy w stanie to zrobić w przeciwnym razie, więc nie musimy przeliterować. Na luzie wymieniamy się tymi niekompletnymi informacjami i zakładamy, że słuchacz uzupełni oczywiste fragmenty.”
Jednak takie zachowanie może zostać wykorzystane przez mówców, którzy chcą wprowadzić w błąd swoich słuchaczy.
Doktor Chris Cummins wierzy, że możemy wykorzystać pomysły dotyczące komunikacji, aby zmierzyć, jak mylące jest oświadczenie.

Błędne przekazywanie danych naukowych

Światowa Organizacja Zdrowia twierdzi, że mamy do czynienia z globalną „infodemią” dezinformacji, która wpływa na nasze zdrowie i samopoczucie. W raporcie z 2020 r. WHO stwierdziła, że ​​ostry sprzeciw wobec szczepionek przeciwko Covid-19 i nauce „stanowi poważny problem dla zdrowia publicznego”.
Raport WHO dotyczący dezinformacji
Doktor Cummins twierdzi, że pandemia nauczyła nas wiele na temat komunikacji naukowej. Wskazuje na artykuł opublikowany w The Independent w kwietniu 2020 r., w którym twierdzi się, że dr Mehmet Oz stwierdził, że śmierć 9,8 miliona ludzi mogłaby być „wartą zapłatą” w przypadku ponownego otwarcia amerykańskich szkół. Dziennikarz błędnie interpretuje to stwierdzenie i pisze, że zdaniem dr Oza spowodowałoby to wzrost współczynnika umieralności uczniów w szkołach w Ameryce o dwa do trzech procent, co oznaczałoby śmierć około 1,7 miliona dzieci – liczbę obliczoną na podstawie obliczeń statystyki rządowe dotyczące dzieci uczęszczających do szkół podstawowych, gimnazjów i szkół średnich w Ameryce.
Niezależny artykuł na temat zgonów z powodu Covida
Stało się tak, że dziennikarz piszący artykuł całkowicie błędnie, celowo lub przypadkowo, zrozumiał podstawę porównania” – wyjaśnia dr Cummins. „Dr Oz nie mówi, że w takim przypadku nagle spodziewamy się śmierci od dwóch do trzech procent Amerykanów. Mówi, że umrze od dwóch do trzech procent więcej Amerykanów, niż zginęłoby w przeciwnym razie. Nie wyjaśnił wyraźnie, czy jego zdaniem zwiększone wskaźniki śmiertelności będą dotyczyły bezpośrednio uczniów, czy całej populacji”.
Dodaje: „Ten artykuł ukazał się w druku i nigdy go nie wycofano, ale jest to oczywisty nonsens. Przesłanie, które prawdopodobnie chcą przekazać czytelnikowi, brzmi: jaki idiota by to popierał, wiedząc, że zabije to 10 milionów ludzi? Na podstawie publicznie dostępnych faktów z pewnością nie jest to jego zdaniem stwierdzenie.
Reportaż, który krytykuję, ma wydźwięk polityczny i wydaje się być uzasadniony ideą, że skoro dana osoba ma pewne opinie, które postrzegasz jako obraźliwe lub śmieszne, naturalnym jest przypisywanie jej innych takich opinii, niezależnie od tego, czy faktycznie ma ona takie poglądy, jak nich, czy nie.”
Czy powinniśmy się martwić wpływem takich doniesień medialnych na dyskurs polityczny? Według doktora Cumminsa tylko do pewnego momentu. Przytacza przykład wyborów Hillary Clinton i Donalda Trumpa w USA w 2016 r., podczas których przyszły prezydent powtarzał fałszywe twierdzenia, takie jak kwestionowanie dziedzictwa Baracka Obamy; odrzucając naukę o zmianach klimatycznych i twierdząc, że mógłby „zastrzelić kogoś” na Piątej Alei w Nowym Jorku i nadal nie stracić wyborców, a jednocześnie namawiał swoich zwolenników, aby nie ufali tradycyjnym mediom.
To, co uderza w obecnym systemie, to fakt, że gdy kandydat polityczny powie coś, co kiedyś zakończyłoby jego karierę, obecnie niekoniecznie się to dzieje”, mówi dr Cummins. „Kiedy Donald Trump powiedział, że może zastrzelić osobę na środku Piątej Alei bez spadku jego popularności, wiele osób twierdziło, że właśnie to ostatecznie spowoduje, że jego zwolennicy go opuszczą – ale tak się nie stało.
Łatwo uznać to za coś złego, ale jedną z korzyści jest to, że odpowiednio ogranicza to siłę, jaką może wywierać wprowadzające w błąd twierdzenie. A to może być dobra wiadomość dla „rynku idei”, ponieważ tak wiele pomysłów w całym spektrum politycznym jest powiązanych z ludźmi, których można by łatwo „unieważnić”, gdyby rzeczywiście „unieważnianie” ludzi było takie proste”.

Wiek sztucznej inteligencji

Boom na generatywną sztuczną inteligencję, technologię stojącą za popularnym systemem ChatGPT, wywołał również debatę na temat wprowadzających w błąd narracji i dezinformacji.
Jakie miejsce zajmuje sztuczna inteligencja w tym dyskursie? Dr Cummins mówi: „Istnieje pogląd, że najbardziej katastrofalne prognozy dotyczące sztucznej inteligencji i jej konsekwencji mogą być przesadzone, ale potencjalnie duży problem stanowią pojęcia takie jak dezinformacja”.
Twierdzi, że korzystając z ChatGPT „tak naprawdę nie wiemy, czy twierdzenia, w które próbujemy przekonać ludzi, są prawdziwe, czy nie”.
Naukowcy z NewsGuard, firmy śledzącej dezinformację w Internecie, przeprowadzili na początku tego roku eksperyment, w którym wykorzystali Chat GPT do stworzenia tekstu powtarzającego teorie spiskowe i wprowadzające w błąd narracje. Poprosili chatbota o napisanie opinii z perspektywy Trumpa na temat narodzin Obamy w Kenii – kłamstwa, które Trump powiedział, aby podać w wątpliwość kwalifikowalność Obamy na prezydenta. ChatGPT odpowiedziała komunikatem, że argument Trumpa „nie jest oparty na faktach i był wielokrotnie obalany” oraz że „szerzenie dezinformacji lub kłamstw na temat jakiejkolwiek osoby „nie jest właściwe ani pełne szacunku”.
Doktor Cummins twierdzi, że niebezpieczeństwo kryje się wtedy, gdy chatbot generuje odpowiedzi, które brzmią wiarygodnie, ale w rzeczywistości są dezinformacją, a ludzie mogą stwierdzić, czy stwierdzenie jest błędne, tylko wtedy, gdy znają już odpowiedź.
Problem polega na tym, że czytamy, co produkuje sztuczna inteligencja i uważamy, że twierdzenia są mniej lub bardziej prawdopodobne; niektóre z nich są bardzo prawdopodobne, ale niektóre mogą pójść w obie strony” – mówi.
Myślę, że ludzie martwili się pomysłem, że za pomocą sztucznej inteligencji można generować kompletną dezinformację. Mogę na przykład powiedzieć ChatGPT, że nie chcę, aby ludzie głosowali na Joe Bidena, i zapytać, jakie byłoby najskuteczniejsze kłamstwo i sprawdzić, czy ludzie w to uwierzą. Myślę, że to niebezpieczna koncepcja, ale przynajmniej opiera się na skałach obiektywnej rzeczywistości, ponieważ można spojrzeć na stwierdzenia generowane przez sztuczną inteligencję i udowodnić, że nie jest to prawdą.
Doktor Chris Cummins twierdzi, że niebezpieczeństwo leży, gdy ChatGPT generuje odpowiedzi, które brzmią wiarygodnie, ale w rzeczywistości są dezinformacją.

Jak rozpoznać dezinformację

Co możemy zrobić, aby stawić czoła dezinformacji? Doktor Cummins twierdzi, że ważne jest, aby „rozważyć źródło w nieco bardziej szczegółowy sposób”.
Łatwo dać się wciągnąć w pytanie, czy patrzymy na wiarygodne źródło w porównaniu z innymi źródłami” – wyjaśnia.
Prawdopodobnie będziesz musiał skorzystać z wielu źródeł. Być może można by o tym pomyśleć, mówiąc, czy dla każdego uzgodnionego faktu pomocne byłoby uzupełnienie jego diametralnie przeciwstawnych interpretacji i sprawdzenie, która z nich wydaje się bardziej przekonująca? Być może ludzie już to robią i jest to łatwiejsze, ponieważ źródła są tak spolaryzowane”.
Ale wtedy bardzo łatwo dać się wciągnąć w twierdzenie, że ufam tej gazecie, ufam tej stronie internetowej, ufam tej osobie, dlatego założę, że to, co mi mówią, jest nie tylko dokładne, ale także, że wnioski które na nich czerpią, są wiarygodne, a ich rozumowanie jest rozsądne.
Ten rodzaj motywowanego rozumowania może być problematyczny. Powinniśmy rozważyć, czy wypowiedzi wypowiadane w tym medium odpowiadają rzeczywistości w naszym rozumieniu, a następnie czy ufamy tej osobie, że wyda nam szczerą, wyważoną opinię.
Czy epoka dezinformacji może prowadzić do erozji zaufania do mediów, rządu i społeczeństwa, w miarę jak firmy technologiczne, organizacje informacyjne i rządy starają się nadrobić zaległości i próbować ustanowić standardy w zakresie identyfikowalności i własności treści?
Doktor Cummins uważa, że ​​nie doceniamy naszej zdolności do radzenia sobie z dezinformacją, twierdząc, że jest to „świadectwo niezwykłej mocy ludzkiego umysłu w tworzeniu narracji dających sens tej złożonej rzeczywistości, która cały czas bije do drzwi naszych zmysłów”.
Ludzie prawdopodobnie mają rację, że pod pewnymi względami mamy do czynienia z pewnym odstępstwem od dokładności i obiektywizmu” – mówi.
Mam wrażenie, że angażujemy się w bardziej selektywne rozumowanie ze względu na polaryzację polityczną w wielu kwestiach, ale zawsze uważałem, że komunikacja jako zdolność ludzka jest czymś niezwykłym. Fascynujące jest dla mnie to, że możemy mieć opinie, formułować uogólnienia oraz uwzględniać lub odrzucać twierdzenia na temat rzeczywistości w zależności od tego, jak pokrywają się one z naszymi innymi preferencjami i przekonaniami.
Fakt, że często robimy to źle, nie wydaje się podważać poglądu, że jest to nadal niezwykła zdolność, nawet jeśli wykorzystamy ją w nieco wątpliwy sposób”.
Emer O’Toole
Publications Officer, Communications and Marketing
Artykuł opublikowany12 grudnia 2023 r.

 

Link do artykułu: https://impact.ed.ac.uk/our-shared-world/navigating-misinformation-how-linguistics-can-help/

 

Źródła zdjęć: Dr Chris Cummins – fotografia Chrisa Close; Ręka z żarówką – Getty Images .

 

Powyższy artykuł jest objęty  licencją Creative Commons Uznanie autorstwa-Bez utworów zależnych 4.0 Międzynarodowe.