Eksperci techniczni ostrzegają, że ludzkość musi działać teraz, aby uniknąć szkód wyrządzonych przez sztuczną inteligencję na skalę społeczną / Jessika Corbett

0
116

Dwudziestu ekspertów opublikowało dokumenty wzywające ludzkość do „zaradzenia ciągłym szkodom i przewidywania pojawiających się zagrożeń” związanych ze sztuczną inteligencją. (Zdjęcie: Monsitj/iStock za pośrednictwem Getty Images)

 

„Nadszedł czas, aby poważnie podejść do zaawansowanych systemów sztucznej inteligencji” – powiedział jeden z profesorów informatyki. „To nie są zabawki. Zwiększanie ich możliwości, zanim zrozumiemy, jak zapewnić im bezpieczeństwo, jest całkowicie lekkomyślne”.

W ramach przygotowań do światowego szczytu na temat bezpieczeństwa sztucznej inteligencji w Wielkiej Brytanii dwudziestu ekspertów ds. sztucznej inteligencji opublikowało we wtorek krótki dokument i dodatek do polityki, w którym wzywa ludzkość do „zajęcia się bieżącymi szkodami i przewidywania pojawiających się zagrożeń” związanych z szybko rozwijającą się technologią.
Eksperci — w tym Yoshua Bengio, Geoffrey Hinton i Andrew Yao — napisali, że „sztuczna inteligencja może być technologią, która nada kształt temu stuleciu. Chociaż możliwości sztucznej inteligencji szybko się rozwijają, postęp w zakresie bezpieczeństwa i zarządzania pozostaje w tyle. Aby skierować sztuczną inteligencję w kierunku pozytywnych wyników i z dala od katastrofy, musimy zmienić orientację. Istnieje odpowiedzialna ścieżka, jeśli mamy na tyle mądrości, aby nią podążać.
Już teraz „systemy głębokiego uczenia się mogą pisać oprogramowanie, generować fotorealistyczne sceny na żądanie, doradzać w kwestiach intelektualnych oraz łączyć przetwarzanie języka i obrazu w celu sterowania robotami” – zauważyli, podkreślając, jak duży postęp nastąpił w ciągu zaledwie ostatnich kilku lat. „Nie ma zasadniczego powodu, dla którego postęp sztucznej inteligencji miałby spowolnić lub zatrzymać się na poziomie ludzkim”.
„Kiedy autonomiczne systemy sztucznej inteligencji realizują niepożądane cele, spowodowane przez złośliwych aktorów lub przez przypadek, możemy nie być w stanie ich kontrolować”.
Biorąc pod uwagę, że „systemy sztucznej inteligencji mogą szybko osiągnąć lepsze wyniki niż ludzie w coraz większej liczbie zadań” – ostrzegają eksperci – „jeśli takie systemy nie zostaną starannie zaprojektowane i wdrożone, będą stwarzać szereg zagrożeń na skalę społeczną”.
„Grożą, że pogłębią niesprawiedliwość społeczną, podważą stabilność społeczną i osłabią nasze wspólne rozumienie rzeczywistości, które jest fundamentem społeczeństwa” – napisali eksperci. „Mogłyby również umożliwić działalność przestępczą lub terrorystyczną na dużą skalę. Sztuczna inteligencja, szczególnie w rękach kilku potężnych podmiotów, mogłaby scementować lub zaostrzyć globalne nierówności lub ułatwić zautomatyzowane prowadzenie wojny, dostosowaną do indywidualnych potrzeb masową manipulację i wszechobecny nadzór”.
„Wiele z tych zagrożeń może wkrótce zostać wzmocnionych i mogą też powstać nowe, w miarę jak firmy opracowują autonomiczną sztuczną inteligencję: systemy, które mogą planować, działać w świecie i realizować cele” – podkreślili. „Kiedy autonomiczne systemy sztucznej inteligencji realizują niepożądane cele, spowodowane przez złośliwych aktorów lub przez przypadek, możemy nie być w stanie ich kontrolować”.
„Asystenci sztucznej inteligencji już współtworzą dużą część kodu komputerowego na całym świecie; przyszłe systemy sztucznej inteligencji będą mogły wprowadzać, a następnie wykorzystywać luki w zabezpieczeniach, aby kontrolować systemy komputerowe stojące za naszą komunikacją, mediami, bankowością, łańcuchami dostaw, wojskiem i rządami” – wyjaśnili. „W otwartym konflikcie systemy sztucznej inteligencji mogłyby grozić bronią autonomiczną lub biologiczną lub jej używać. Dostęp sztucznej inteligencji do takiej technologii stanowiłby jedynie kontynuację istniejących trendów w zakresie automatyzacji działań wojskowych, badań biologicznych i samego rozwoju sztucznej inteligencji. Gdyby systemy sztucznej inteligencji realizowały takie strategie z wystarczającymi umiejętnościami, ludziom byłoby trudno interweniować.”
Eksperci stwierdzili, że do czasu wprowadzenia wystarczających przepisów duże firmy powinny „określić zobowiązania „jeśli-to”: konkretne środki bezpieczeństwa, które podejmą, jeśli w ich systemach sztucznej inteligencji zostaną wykryte określone możliwości „czerwonej linii”. Wzywają również gigantów technologicznych i darczyńców publicznych, aby przeznaczyli co najmniej jedną trzecią swoich budżetów na badania i rozwój sztucznej inteligencji na „zapewnienie bezpieczeństwa i etycznego użytkowania, porównywalne z finansowaniem możliwości sztucznej inteligencji”.
Tymczasem decydenci muszą wziąć się do pracy. Zdaniem ekspertów:
Aby dotrzymać kroku szybkiemu postępowi i uniknąć sztywnych przepisów, instytucje krajowe potrzebują solidnej wiedzy technicznej i uprawnień do szybkiego działania. Aby zająć się dynamiką wyścigów międzynarodowych, potrzebują afordancji ułatwiającej międzynarodowe umowy i partnerstwa. Aby chronić zastosowania niskiego ryzyka i badania akademickie, należy unikać zbędnych przeszkód biurokratycznych w przypadku małych i przewidywalnych modeli sztucznej inteligencji. Najpilniejsza analiza powinna dotyczyć systemów sztucznej inteligencji na pograniczu: niewielkiej liczby najpotężniejszych systemów sztucznej inteligencji – wytrenowanych na superkomputerach wartych miliardy dolarów – które będą miały najbardziej niebezpieczne i nieprzewidywalne możliwości.

Aby umożliwić skuteczne regulacje, rządy pilnie potrzebują wszechstronnego wglądu w rozwój sztucznej inteligencji. Organy regulacyjne powinny wymagać rejestracji modeli, ochrony sygnalistów, zgłaszania incydentów oraz monitorowania rozwoju modeli i wykorzystania superkomputerów. Organy regulacyjne potrzebują również dostępu do zaawansowanych systemów sztucznej inteligencji przed ich wdrożeniem, aby ocenić je pod kątem niebezpiecznych funkcji, takich jak autonomiczna samoreplikacja, włamywanie się do systemów komputerowych lub szerokie udostępnianie patogenów pandemicznych.

Eksperci opowiadali się także za pociągnięciem pionierskich twórców i właścicieli sztucznej inteligencji do odpowiedzialności prawnej za szkody, „które można rozsądnie przewidzieć i którym można zapobiec”. Jeśli chodzi o przyszłe systemy, które mogłyby wymknąć się ludzkiej kontroli, napisali: „rządy muszą być przygotowane na udzielanie licencji na ich rozwój, wstrzymywanie rozwoju w odpowiedzi na niepokojące możliwości, nakładanie kontroli dostępu i wymaganie środków bezpieczeństwa informacji odpornych na hakerów na szczeblu stanowym, dopóki nie zostaną zapewnione odpowiednie zabezpieczenia są gotowi.”
Stuart Russell, jeden z ekspertów stojących za dokumentami i profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley, powiedział The Guardian, że „istnieje więcej przepisów dotyczących sklepów z kanapkami niż firm zajmujących się sztuczną inteligencją”.
„Nadszedł czas, aby poważnie podejść do zaawansowanych systemów sztucznej inteligencji” – powiedział Russell. „To nie są zabawki. Zwiększanie ich możliwości, zanim zrozumiemy, jak uczynić je bezpiecznymi, jest całkowicie lekkomyślne”.
W Stanach Zjednoczonych prezydent Joe Biden planuje wkrótce przedstawić rozporządzenie w sprawie sztucznej inteligencji, a amerykańscy senatorowie Brian Schatz (D-Hawaii) i John Kennedy (R-La.) przedstawili we wtorek projekt ustawy o sztucznej inteligencji generatywnej, który został przyjęty z zadowoleniem przez zwolenników.
„Generatywna sztuczna inteligencja grozi pogrążeniem nas w świecie oszustw, dezinformacji i zamieszania na niespotykaną dotąd skalę” – powiedział Richard Anthony z Public Citizen. „Ustawa Schatz-Kennedy’ego o etykietowaniu sztucznej inteligencji odciągnie nas od tej dystopijnej przyszłości, zapewniając, że będziemy w stanie odróżnić treści pochodzące od ludzi od treści pochodzących od maszyn”.