10.6 C
Gdańsk
poniedziałek, 7 października, 2024

Moralne rozważania dotyczące systemów sztucznej inteligencji do 2030 r. / Jeff Sebo i Robert Long

0
317
Kismet , robot o elementarnych umiejętnościach społecznych. Z Wikimedia Commons, bezpłatnego repozytorium multimediów.

Streszczenie

W artykule przedstawiono prosty argument za rozszerzeniem rozważań moralnych wobec niektórych systemów sztucznej inteligencji do roku 2030. Zawiera on przesłankę normatywną i przesłankę opisową. Założeniem normatywnym jest to, że ludzie mają obowiązek rozszerzyć rozważania moralne na istoty, które mają, biorąc pod uwagę dowody, niemożliwą do pominięcia szansę bycia świadomymi. Założenie opisowe jest takie, że niektóre systemy sztucznej inteligencji w rzeczywistości mają, biorąc pod uwagę dowody, niemożliwą do pominięcia szansę na osiągnięcie świadomości do 2030 r. W rezultacie ludzie mają obowiązek rozszerzyć rozważania moralne na niektóre systemy sztucznej inteligencji do 2030 r. A jeśli mamy taki obowiązek, to prawdopodobnie mamy również obowiązek rozpocząć przygotowania już teraz, abyśmy byli gotowi traktować systemy sztucznej inteligencji z szacunkiem i współczuciem, gdy nadejdzie czas.

1. Wstęp

Możliwości sztucznej inteligencji szybko się rozwijają. W chwili pisania tego tekstu firmy zajmujące się sztuczną inteligencją ścigają się w tworzeniu i wdrażaniu systemów sztucznej inteligencji, które są biegłe w generowaniu tekstu i obrazów [ 1 ], strategicznej rozgrywce [ 2 ] oraz manipulacji robotycznej [ 3 ]. Systemy te są już zaawansowane, a dalszy postęp jest bardzo prawdopodobny, biorąc pod uwagę trend powrotu do zwiększonej skali danych i obliczeń [ 4 , 5 ]. Na przykład możemy pewnego dnia stworzyć systemy sztucznej inteligencji, które będą wytwarzać inteligentne zachowania, wykorzystując zintegrowane i ucieleśnione zdolności w zakresie percepcji, uczenia się, pamięci, przewidywania, świadomości społecznej, samoświadomości i rozumowania, w podobny sposób, w jaki ludzie i nieludzie zwierzęta (i to na bardzo różne sposoby). W tym momencie możliwości sztucznej inteligencji mogą nie tylko dorównać możliwościom ludzi i zwierząt innych niż ludzie, ale znacznie je przekroczyć w szerokim zakresie zadań.

Zmiany te rodzą pilne pytania etyczne. Niektórzy obawiają się, że systemy sztucznej inteligencji mogą zaszkodzić ludziom i innym zwierzętom. Na przykład systemy sztucznej inteligencji mogą sprawić, że miejsca pracy staną się przestarzałe [ 6 , 7 ]. Mogą wzmacniać błędy w danych szkoleniowych lub prowadzić do odmiennych skutków [ 8 , 9 , 10 ], nieproporcjonalnie wpływając na osoby o krzyżujących się marginalizowanych tożsamościach [ 11 , 12 ]. Mogą pomagać ludziom w wyrządzaniu sobie nawzajem krzywdy poprzez szerzenie dezinformacji lub tworzenie nowej broni [ 13 , 14 ]. A gdy ich możliwości wzrosną, mogą nawet doprowadzić ludzi i inne zwierzęta do wyginięcia lub trwale ograniczyć naszą zdolność do rozkwitu [ 15 , 16 , 17 , 18 ].

Inny, bardziej zaniedbany zestaw pytań dotyczy tego, w jaki sposób ludzie mogą zaszkodzić systemom AI. Zależy to od tego, kiedy i czy systemy sztucznej inteligencji mogłyby mieć pozycję moralną, czyli zasługiwać na rozważenie pod względem moralnym same w sobie. Istnieje pewna różnica zdań co do tego, jakie cechy są konieczne i/lub wystarczające, aby jednostka miała pozycję moralną. Wielu ekspertów uważa, że ​​świadome doświadczenia lub motywacje są niezbędne dla zachowania pozycji moralnej, a inni uważają, że nieświadome doświadczenia lub motywacje są wystarczające [ 19 , 20 , 21 , 22 ]. Musimy zatem zadać pytanie, czy i kiedy systemy sztucznej inteligencji mogą mieć wiele potencjalnie istotnych moralnie cech, takich jak świadomość, zdolność odczuwania i sprawczość, a także musimy zadać sobie pytanie, co może wyniknąć z naszych moralnych obowiązków wobec nich.

W artykule przedstawiono prosty argument za rozszerzeniem rozważań moralnych na niektóre systemy sztucznej inteligencji do roku 2030. Zawiera on przesłankę normatywną i przesłankę opisową. Założeniem normatywnym jest to, że ludzie mają obowiązek rozszerzyć rozważania moralne na istoty, które mają, biorąc pod uwagę dowody, niemożliwą do pominięcia szansę bycia świadomymi. Założenie opisowe jest takie, że niektóre systemy sztucznej inteligencji w rzeczywistości mają, biorąc pod uwagę dowody, niemożliwą do pominięcia szansę na osiągnięcie świadomości do 2030 r. W rezultacie ludzie mają obowiązek rozszerzyć rozważania moralne na niektóre systemy sztucznej inteligencji do 2030 r. A jeśli mamy taki obowiązek, to prawdopodobnie mamy również obowiązek rozpocząć przygotowania do wywiązania się z tego obowiązku już teraz, abyśmy byli gotowi traktować potencjalnie moralnie istotne systemy sztucznej inteligencji z szacunkiem i współczuciem, gdy nadejdzie czas.Notatka1

Zanim zaczniemy, powinniśmy zwrócić uwagę na kilka cech naszego argumentu, które będą istotne. Po pierwsze, nasze omówienie zarówno przesłanki normatywnej, jak i przesłanki opisowej jest nieco skompresowane. Naszym celem w tym artykule nie jest ustalenie któregokolwiek z założeń z maksymalną rygorystycznością, ale raczej motywowanie ich w jasny i zwięzły sposób, a następnie pokazanie, w jaki sposób na siebie oddziałują. Uważamy, że zbadanie tych przesłanek łącznie jest ważne, ponieważ choć każda z nich może wydawać się niczym niezwykłym, gdy rozważymy je osobno, to co się dzieje, gdy zestawimy je razem, jest uderzające: łącznie sugerują one, że powinniśmy znacznie rozszerzyć nasz krąg moralny, do ogromnego liczba i szeroka gama dodatkowych bytów. Naszym celem jest pokazanie, jak do tego dochodzi i wskazanie, dlaczego wniosek ten jest bardziej prawdopodobny, niż mogłoby się początkowo wydawać.

Po drugie, w artykule tym założono, że istoty świadome zasługują na rozważenie moralne. Oczywiście filozofowie nie zgadzają się co do podstaw pozycji moralnej, niektórzy zaprzeczają, że świadomość jest konieczna do osiągnięcia pozycji moralnej, a inni zaprzeczają, że świadomość jest wystarczająca. Naszym celem nie jest interweniowanie w tej debacie, ale raczej argumentowanie, że jeśli świadome istoty zasługują na względy moralne, to do 2030 r. powinniśmy rozszerzyć je na niektóre systemy sztucznej inteligencji. Jak omawiamy poniżej, osobiście uważamy, że świadome istoty rzeczywiście zasługują na względy moralne , a jeśli się zgodzisz, możesz przeczytać naszą argumentację w sposób bezwarunkowy. Jeśli nie, to możesz odczytać nasz argument w kategoriach warunkowych, w oczekiwaniu na dalsze prace nad podstawami pozycji moralnej i związkiem pomiędzy świadomością a innymi cechami istotnymi moralnie.

Po trzecie, nasza argumentacja w tym artykule jest celowo konserwatywna z dwóch powodów. Kiedy rozwijamy nasze przesłanki normatywne, zakładamy na potrzeby argumentacji, że szansa, której nie można pominąć, oznacza szansę 0,1% lub wyższą.Notatka2 A kiedy opracowujemy nasze przesłanki opisowe, przyjmujemy konserwatywne założenia dotyczące tego, jak wysokie są wymagania świadomości i jak trudne są te wymagania do spełnienia. Naszym zdaniem próg nieistotności jest znacznie niższy niż 0,1%, a szansa, że ​​niektóre systemy sztucznej inteligencji będą świadome do 2030 r., jest znacznie wyższa niż 0,1%. Skupiamy się jednak tutaj na tym progu, aby okazać hojność sceptykom co do naszego poglądu i podkreślić, że aby uniknąć naszych wniosków, należy zająć niezwykle śmiałe i tendencyjne stanowisko co do wartości lub faktów lub obu.

Na koniec powinniśmy podkreślić, że nasz wniosek nie ma bezpośrednich konsekwencji dla tego, jak ludzie powinni traktować systemy sztucznej inteligencji. Nawet jeśli zgodzimy się, że do 2030 r. powinniśmy rozszerzyć autorytet moralny systemów sztucznej inteligencji, musimy rozważyć dalsze pytania, zanim dowiemy się, co to oznacza w praktyce. Na przykład, ile danych liczą systemy sztucznej inteligencji i w jaki sposób liczą? Czego chcą i potrzebują, jak wpłyną na nich nasze działania i polityka i co jesteśmy im winni w świetle oczekiwanych efektów? Jak możemy i powinniśmy w praktyce dokonywać kompromisów między ludźmi, zwierzętami i systemami sztucznej inteligencji? Poniżej rozważymy bardziej szczegółowo możliwe kompromisy. Na razie po prostu zauważymy, że odpowiedzialne udzielenie odpowiedzi na te pytania będzie wymagało dużo pracy wielu osób, dlatego powinniśmy zacząć zadawać te pytania już teraz.Notatka3

Chociaż jednak trudno jest szczegółowo przewidzieć implikacje pozycji moralnej sztucznej inteligencji, możemy przewidzieć, że będą one obejmować co najmniej następujące ogólne obowiązki. Po pierwsze, przedsiębiorstwa zajmujące się sztuczną inteligencją będą miały obowiązek wziąć pod uwagę ryzyko szkód dla systemów sztucznej inteligencji podczas testowania i wdrażania nowych systemów oraz odpowiednio zwiększyć ostrożność, z jaką testują i wdrażają nowe systemy [ 32 , 33 , 34 ]. Po drugie, rządy będą miały obowiązek wziąć pod uwagę również to ryzyko i zwiększyć ostrożność, z jaką odpowiednio regulują nowe systemy. Po trzecie, naukowcy będą odpowiedzialni za opracowanie konkretnych ram, które firmy i rządy zajmujące się sztuczną inteligencją będą mogły wykorzystać do szacowania ryzyka i korzyści dla ludzi, zwierząt i systemów sztucznej inteligencji w sposób zintegrowany. Wreszcie wszyscy będziemy odpowiedzialni za budowanie woli politycznej do wykonania tej pracy.

2 Przesłanka normatywna

Zaczynamy od obrony poglądu, że powinniśmy ustawić stosunkowo niską poprzeczkę w zakresie oceny moralnej. Zakładając, że istoty świadome zasługują na rozważenie moralne, powinniśmy rozszerzyć rozważania moralne na istotę nie wtedy, gdy ta istota jest zdecydowanie świadoma, ani nawet wtedy, gdy ta istota jest prawdopodobnie świadoma, ale raczej wtedy, gdy ma ona niemożliwą do pominięcia szansę bycia świadomą. Możemy nie zgadzać się co do tego, czy uwzględnić ryzyko nieistotne, jaką wagę przywiązywać do ryzyka, którego nie można pominąć, czy też w jaki sposób uwzględniać ryzyko, które nie jest pomijalne przy podejmowaniu decyzji. Ale możemy i powinniśmy zgodzić się przynajmniej w tym: kiedy istota ma przynajmniej jedną na tysiąc szans na posiadanie zdolności do subiektywnej świadomości, powinniśmy uwzględnić to przynajmniej w pewnym stopniu przy podejmowaniu decyzji, które ją dotyczą.

Jak zauważono powyżej, w tym artykule zakładamy, że istoty świadome zasługują na rozważenie pod względem moralnym. Różni filozofowie mogą zaakceptować ten pogląd z różnych powodów. Na przykład moglibyśmy utrzymywać, że świadomość wystarcza do osiągnięcia pozycji moralnej [ 35 , 36 , 37 , 38 ]. Moglibyśmy utrzymywać, że zdolność odczuwania (tj. świadomość wartościowa) wystarcza do osiągnięcia pozycji moralnej i że świadomość wystarcza do odczuwania [ 23 ]. Możemy też utrzymywać, że odczuwanie wystarcza do osiągnięcia pozycji moralnej i że świadomość i odczuwanie mają nakładające się warunki, takie jak percepcja, ucieleśnienie, samoświadomość i sprawczość. Tak czy inaczej, dopóki świadomość i pozycja moralna są w tym kontekście ściśle powiązane, możemy mieć podstawy do traktowania świadomości jako wskaźnika pozycji moralnej w tym kontekście.

Naszym zdaniem świadomość i pozycja moralna są w tym kontekście ściśle ze sobą powiązane, ponieważ nawet jeśli zdolność odczuwania jest konieczna do osiągnięcia pozycji moralnej, świadomość sztucznej inteligencji jest prawdopodobnie główną przeszkodą dla zdolności odczuwania sztucznej inteligencji w praktyce. Oznacza to, że spodziewamy się, że „krok” ze stanów nieświadomych do stanów świadomych jest znacznie trudniejszy niż „krok” ze stanów niewartościowych do stanów wartościowych. Nie oznacza to oczywiście, że ten ostatni „krok” będzie łatwy. Zamiast tego chcę tylko powiedzieć, że jeśli i kiedy świadomość AI będzie możliwa, prawdopodobnie będzie też możliwa świadomość AI. Ponieważ jednak obrona tego twierdzenia zajęłaby więcej miejsca niż mamy tutaj, zamiast tego po prostu zakładamy, że świadomość jest wyznacznikiem pozycji moralnej w tym kontekście i pozostawiamy zbadanie tego założenia – i rozszerzenie naszej argumentacji na inne potencjalnie istotne cechy – na inny dzień.

Mając to na uwadze, podstawa naszego założenia normatywnego w tym dokumencie jest prosta, wiarygodna i powszechnie akceptowana: przy podejmowaniu decyzji o dalszym postępowaniu mamy obowiązek wziąć pod uwagę istotne ryzyko. Jeżeli działanie wiąże się z niemałym prawdopodobieństwem wyrządzenia komuś poważnej krzywdy lub zabicia wbrew jego woli, wówczas ryzyko to wlicza się do tego działania. Oczywiście istotne ryzyko może, ale nie musi, mieć decydujący wpływ na działanie; będzie to zależeć od szczegółów sprawy, a także od naszych dalszych założeń moralnych, z których część możemy rozważyć za chwilę. Ale niezależnie od tego, czy tego rodzaju ryzyko jest decydującym czynnikiem w podejmowaniu przez nas decyzji, powinno przynajmniej być czynnikiem. Co ważne, może to mieć miejsce nawet wtedy, gdy ryzyko jest na przykład bardzo niskie, nawet jeśli ryzyko, że dane działanie lub polityka może wyrządzić komuś krzywdę wbrew jego woli, wynosi tylko jeden na tysiąc.

Istnieje wiele przykładów tego zjawiska, od zwyczajnych po niezwykłe. Weźmy zwykły przykład: wiele osób słusznie uważa jazdę pod wpływem alkoholu za coś złego, ponieważ niesie ze sobą istotne ryzyko spowodowania wypadku i ponieważ ryzyko to wyraźnie przewyższa wszelkie korzyści, jakie może wiązać się z jazdą pod wpływem alkoholu. To prawda, że ​​możemy sobie wyobrazić wyjątki od tej reguły; na przykład, jeśli Twoje dziecko umiera i jeśli jedynym sposobem, aby je uratować, jest przewiezienie go po pijanemu do pobliskiego szpitala, wówczas możemy, ale nie musimy, pomyśleć, że korzyści z jazdy pod wpływem alkoholu przewyższają ryzyko w tym przypadku, w zależności od szczegółów i naszych dalszych założeń. Jednak w standardowych przypadkach słusznie utrzymujemy, że nawet niskie ryzyko spowodowania wypadku jest wystarczającym powodem, aby jazda pod wpływem alkoholu była zła. Tak czy inaczej, należy przynajmniej rozważyć ryzyko.

Alternatywnie, biorąc niezwykły przykład, załóżmy, że zbudowanie nadprzewodzącego superzderzacza niesie ze sobą istotne ryzyko powstania czarnej dziury, która pochłonie planetę. W tym przypadku wiele osób twierdziłoby, że ten eksperyment jest błędny, ponieważ niesie ze sobą ryzyko i ponieważ ryzyko to na ogół przewyższa korzyści płynące z badań naukowych [ 39 ]. Ponownie możemy sobie wyobrazić wyjątki; na przykład, jeśli Słońce prawdopodobnie zniszczy planetę w ciągu stulecia, a jedynym sposobem na przetrwanie jest rozwój fizyki cząstek elementarnych, wówczas moglibyśmy pomyśleć, że korzyści z tego eksperymentu przewyższają ryzyko w tym przypadku. W przeciwnym razie moglibyśmy utrzymywać, że nawet niskie ryzyko powstania czarnej dziury jest wystarczającym powodem, aby eksperyment był błędny. Tak czy inaczej, należy przynajmniej raz jeszcze rozważyć ryzyko.

Oczywiście te dalsze szczegóły często mają znaczenie. Załóżmy na przykład, że jeden nadprzewodzący superzderzacz ma szansę jeden na tysiąc na utworzenie czarnej dziury, podczas gdy inny nadprzewodzący superzderzacz ma szansę na utworzenie czarnej dziury jeden na sto. Załóżmy dalej, że czarna dziura byłaby równie zła w obu przypadkach, powodując taką samą ilość śmierci i zniszczenia wśród ludzi i innych istot istotnych moralnie. Czy w takim przypadku powinniśmy przypisywać tym ryzykom równą wagę podczas podejmowania decyzji, ponieważ oba niosą ze sobą istotne ryzyko powstania czarnej dziury, a wynik byłby równie zły w obu przypadkach? A może powinniśmy zamiast tego przypisać większą wagę ryzyku związanemu z użyciem drugiego nadprzewodzącego superzderzacza, ponieważ niesie on ze sobą większe ryzyko powstania czarnej dziury?

Kierując się zasadą ostrożności (przy jednej interpretacji) należy przyjąć to pierwsze podejście. Jeżeli działanie lub polityka niesie ze sobą istotne ryzyko wyrządzenia szkody, wówczas powinniśmy założyć, że szkoda ta nastąpi i zadać sobie pytanie, czy korzyści wynikające z tego działania lub polityki przeważają nad tą szkodą. Natomiast zgodnie z zasadą wartości oczekiwanej powinniśmy przyjąć to drugie podejście. Jeżeli działanie lub polityka niesie ze sobą istotne ryzyko wyrządzenia szkody, wówczas należy pomnożyć prawdopodobieństwo szkody przez poziom szkody i zadać sobie pytanie, czy korzyści wynikające z tego działania lub polityki przewyższają wynikającą z tego wielkość szkody. Podejścia te wykorzystują różne metody, aby uwzględnić istotne ryzyko w naszych decyzjach, ale co ważne dla naszych celów tutaj, oba uwzględniają to ryzyko w naszych decyzjach [ 40 , 41 ]

Weźmy inny przykład, załóżmy, że trzeci nadprzewodzący superzderzacz ma znikomą szansę (powiedzmy, jedną na kwintylion) powstania czarnej dziury. Załóżmy jednak, że czarna dziura byłaby tak samo zła jak poprzednio, powodując taką samą ilość śmierci i zniszczenia wśród ludzi i innych istot znaczących moralnie. Czy powinniśmy przypisywać temu ryzyku przynajmniej pewną wagę w procesie podejmowania decyzji, pomimo faktu, że prawdopodobieństwo szkody jest tak niskie, ponieważ ryzyko nadal istnieje i nadal byłoby źle, gdyby taki wynik miał miejsce? Czy też powinniśmy w ogóle nie przywiązywać wagi do tego ryzyka podczas podejmowania decyzji, pomimo faktu, że ryzyko nadal istnieje i nadal byłoby źle, gdyby taki wynik miał miejsce, po prostu dlatego, że prawdopodobieństwo szkody jest tak duże? niski, że możemy go po prostu całkowicie pominąć ze względów praktycznych?

Zgodnie z tym, co możemy nazwać poglądem bez progu, powinniśmy przyjąć pierwsze podejście. Powinniśmy wziąć pod uwagę wszystkie ryzyka, także te skrajnie niskie. To prawda, jeśli połączymy ten pogląd z zasadą wartości oczekiwanej, wówczas będziemy mogli przypisać bardzo małą wagę skrajnie nieprawdopodobnym wynikom, przy wszystkich pozostałych niezmienionych wynikach. Jednak nadal powinniśmy przypisywać wagę tym wynikom. Natomiast zgodnie z tym, co możemy nazwać poglądem progowym, powinniśmy przyjąć to drugie podejście. Powinniśmy wziąć pod uwagę wszystkie ryzyka, które nie są pomijalne (tj. ryzyka powyżej określonego progu prawdopodobieństwa), ale możemy w sposób dopuszczalny pominąć wszystkie ryzyka nieistotne (tj. ryzyka poniżej tego progu).Notatka4 Oczywiście pogląd ten stawia czoła pytaniu, jaki powinien być ten próg, a implikacje tych poglądów będą mniej więcej różne w zależności od tego [ 31 , 42 ].

Pomimo tych rozbieżności wszyscy możemy się co do tego zgodzić: powinniśmy przypisać przynajmniej pewną wagę przynajmniej istotnym zagrożeniom. W dalszej części założymy tyle i nic więcej. Jeśli chodzi o poziom ryzyka uznawany za nieistotny, filozofowie na ogół ustalają próg pomiędzy jednym na dziesięć tysięcy a jednym na dziesięć biliardów, jak pomocnie kataloguje Monton [ 43 ].Notatka5 (Gdyby nadprzewodzący superzderzacz miał szansę zabicia nas wszystkich z prawdopodobieństwem 1 na 10 000, chcielibyśmy to wiedzieć!) Jednak dla naszych celów założymy, że próg ten wynosi jeden na tysiąc . W ten sposób, gdy wyjaśnimy, w jaki sposób nasze założenie normatywne prowadzi do moralnego obowiązku rozszerzenia przynajmniej niektórych rozważań moralnych na przynajmniej niektóre systemy sztucznej inteligencji, które mają pojawić się w niedalekiej przyszłości, nikt nie może zasadnie oskarżyć nas o układanie talii na korzyść naszych wniosków.

Jak zatem nasze założenie, że powinniśmy brać pod uwagę istotne ryzyko, ma zastosowanie do kwestii świadomości sztucznej inteligencji? Oto ogólna idea: zaczynamy od założenia, że ​​świadome istoty mają zdolność do zapewnienia dobrobytu i pozycji moralnej, co oznacza, że ​​mogą zostać skrzywdzone i skrzywdzone.Notatka6 Zatem, jeśli istota ma niezaniedbywalną szansę bycia świadomą, wówczas ma niemożliwą do pominięcia szansę, że może zostać skrzywdzona i skrzywdzona. A jeśli istota ma niezaprzeczalne prawdopodobieństwo, że może zostać skrzywdzona lub skrzywdzona, wówczas podmioty moralne mają obowiązek rozważyć, czy nasze działania mogą jej wyrządzić krzywdę lub krzywdę. Wreszcie, jeśli podmioty moralne mają obowiązek rozważyć, czy nasze działania mogą zaszkodzić lub skrzywdzić konkretną istotę, oznacza to, że mamy obowiązek traktować je jako osoby posiadające pozycję moralną, aczkolwiek z kilkoma zastrzeżeniami.

Oto zastrzeżenia. Po pierwsze, stwierdzenie, że podmioty moralne powinny traktować istotę jako posiadającą pozycję moralną, nie oznacza, że ​​istota ta rzeczywiście ma pozycję moralną. Jeśli świadomość jest konieczna i wystarczająca do osiągnięcia pozycji moralnej i jeśli dana istota ma, biorąc pod uwagę dowody, niemożliwą do pominięcia szansę bycia świadomą, wówczas powinniśmy traktować tę istotę jako posiadającą pozycję moralną. Ale jeśli ta istota w rzeczywistości nie jest świadoma, byłby to przykład fałszywie pozytywnego wyniku. Byłoby tak, gdy istotę nieświadomą, nieistotną moralnie traktujemy jako istotę świadomą i moralnie znaczącą. Fałszywie pozytywne wyniki niosą ze sobą koszty. Poniżej omówimy, jak powinniśmy myśleć o tych kosztach. Jednak dla obecnych celów liczy się to, że nasza argumentacja dotyczy tego, czy powinniśmy traktować systemy sztucznej inteligencji jako posiadające pozycję moralną, a nie to, czy tak jest .

Drugie zastrzeżenie dotyczy tego, że stwierdzenie, że podmioty moralne powinny traktować istotę jako posiadającą pozycję moralną, nie oznacza, jak powinniśmy ją traktować, biorąc pod uwagę wszystkie okoliczności. Tutaj wiele zależy od naszych dalszych założeń. Na przykład, jeśli dostrzegamy kompromisy pomiędzy tym, czego może potrzebować ta istota, a tym, czego potrzebują wszyscy inni, to oczywiście musimy dokładnie rozważyć te kompromisy. A jeśli przyjmiemy zasadę wartości oczekiwanej i przyjmiemy, że dana istota ma, powiedzmy, tylko 10% prawdopodobieństwa posiadania moralnego znaczenia, wówczas możemy przypisać jej interesom tylko 10% wagi, którą w innym przypadku mielibyśmy, przy wszystkich pozostałych równych. Rozważymy te punkty również poniżej. Jednak dla obecnych celów liczy się to, że gdy istota ma niezaniedbywalną szansę na bycie znaczącą moralnie, zasługuje ona przynajmniej na pewne moralne rozważenie przy podejmowaniu decyzji o tym, jak ją traktować.

Trzecie zastrzeżenie polega na tym, że stwierdzenie, że istota ma niezaniedbywalne ryzyko, że może zostać skrzywdzona, nie oznacza, że ​​jakiekolwiek konkretne działanie ma niezaniedbywalną szansę wyrządzenia jej krzywdy. Załóżmy na przykład, że dana istota ma szansę jeden na czterdzieści na posiadanie pozycji moralnej i że określone działanie ma szansę jeden na czterdzieści, że wyrządzi jej krzywdę wtedy i tylko wtedy, gdy tak się stanie. W tym przypadku możemy zignorować te skutki (zakładając pogląd progowy z progiem jeden na tysiąc), ponieważ ryzyko, że to działanie zaszkodzi tej istocie, wynosi tylko jeden do tysiąca sześćset, biorąc pod uwagę dowody. Jednak nadal musielibyśmy traktować tę istotę jako posiadającą pozycję moralną w tym sensie, że nadal musielibyśmy rozważyć, czy nasze działanie ma nieistotną szansę wyrządzenia jej krzywdy, zanim podejmiemy decyzję, czy uwzględnić te skutki w tym przypadku.

Możemy znaleźć analogie dla wszystkich tych punktów w standardowych przypadkach związanych z ryzykiem. Na przykład, gdy działanie niesie ze sobą istotne ryzyko wyrządzenia komuś krzywdy, akceptujemy fakt, że powinniśmy przypisać wagę temu wpływowi, nawet jeśli jego wystąpienie jest w rzeczywistości mało prawdopodobne. Kiedy pojawiają się kompromisy pomiędzy (nieistotnymi) odległymi skutkami o niskim prawdopodobieństwie a skutkami lokalnymi o wysokim prawdopodobieństwie, zgadzamy się, że powinniśmy dokładnie rozważyć te kompromisy, a nie po prostu ignorować jeden z tych wpływów. A kiedy prawdopodobieństwo, że nasze działanie wyrządzi komuś krzywdę, jest poniżej progu nieistotności, możemy nawet całkowicie zignorować to ryzyko. Jednak nawet w przypadkach, gdy z tego rodzaju powodów lekceważymy lub zaniedbujemy nasz wpływ na innych, wciąż zadajemy sobie pytanie, czy i w jakim stopniu nasze działania mogą nakładać na nich istotne ryzyko, zanim podejmiemy taką decyzję.

Widziana z tej perspektywy idea, że ​​powinniśmy rozszerzyć rozważania moralne na istotę mającą niezaniedbywalną szansę bycia świadomą, jest po prostu zastosowaniem idei, że powinniśmy rozszerzyć rozważania moralne na moralnie istotne oddziaływania, które mają niezaniedbywalną szansę wydarzenie. To prawda, że ​​w niektórych przypadkach możemy być pewni, że dana istota ma znaczenie moralne, ale nie możemy mieć pewności, że działanie ją skrzywdzi lub wyrządzi krzywdę. W innych przypadkach możemy być pewni, że nasze działanie skrzywdzi lub skrzywdzi istotę, jeśli ta istota ma znaczenie moralne, ale nie, że tak jest. W innych przypadkach możemy nie być pewni żadnego z tych punktów. Tak czy inaczej, jeśli istota ma niemożliwą do pominięcia szansę na bycie znaczącą moralnie, wówczas mamy obowiązek rozważyć, czy nasze działania mogą jej zaszkodzić, czy też skrzywdzić.

Dla naszej argumentacji będzie miała znaczenie ostatnia kwestia. Jest prawdopodobne, że możemy mieć obowiązki wobec moralnych pacjentów, którzy mogą lub pojawią się również w przyszłości. To prawda, że ​​istnieje wiele kwestii do rozwiązania, obejmujących etykę stworzenia, etykę populacyjną, sprawiedliwość międzypokoleniową i tak dalej. Na przykład niektórzy filozofowie uważają, że powinniśmy rozważyć wszystkie ryzyko, jakie nasze działania narzucają przyszłym pacjentom moralnym, podczas gdy inni uważają, że powinniśmy rozważyć tylko niektóre z tych zagrożeń, na przykład jeśli ryzyko nie jest bez znaczenia, jeśli pacjenci moralni będą istnieć czy wykonamy te działania, czy nie i/lub czy te działania spowodują, że życie tych moralnych pacjentów będzie dla nich gorsze niż nieistnienie. Jednak pogląd, że możemy mieć przynajmniej pewne obowiązki wobec przynajmniej niektórych przyszłych moralnych pacjentów, jest powszechnie akceptowany.

Oto dlaczego ta kwestia będzie miała znaczenie: załóżmy, że obecne systemy sztucznej inteligencji mają jedynie znikomą szansę na bycie moralnie znaczącym, ale że przyszłe systemy sztucznej inteligencji mają niezaniedbywalną szansę na bycie moralnie znaczącymi. W tym przypadku moglibyśmy pomyśleć, że możemy mieć obowiązki wobec przyszłych systemów sztucznej inteligencji, niezależnie od tego, czy mamy również obowiązki wobec obecnych systemów sztucznej inteligencji. Załóżmy ponadto, że w niektórych przypadkach istnieje niezaprzeczalna szansa, że ​​te systemy sztucznej inteligencji będą istnieć w niedalekiej przyszłości, niezależnie od tego, czy wykonamy określone działania, czy też nie, oraz że działania te spowodują, że życie tych systemów sztucznej inteligencji będzie dla nich gorsze niż nie. -istnienie. W takich przypadkach pogląd, że mamy obecnie obowiązki wobec systemów sztucznej inteligencji, wynika z szerokiego zakresu poglądów na temat etyki ryzyka i niepewności w połączeniu z szerokim zakresem poglądów na temat etyki stworzenia i etyki populacji.

Zanim wyjaśnimy, dlaczego uważamy, że systemy sztucznej inteligencji wkrótce zdadzą ten test, chcemy przewidzieć sprzeciw, jaki ludzie mogą mieć wobec naszej argumentacji. Zarzut jest taki, że nasz argument wydaje się opierać na założeniu, że ryzyko fałszywie negatywnych wyników (to znaczy ryzyko błędnego traktowania obiektów jak przedmiotów) jest większe niż ryzyko fałszywie pozytywnych wyników (to znaczy ryzyko błędnego traktowania obiektów jako przedmiotów) tematy) w tej domenie. Jednak fałszywe alarmy stanowią znaczne ryzyko również w tej dziedzinie. A kiedy spojrzymy na oba te ryzyka całościowo, może się okazać, że znoszą się one w całości lub w części. Zatem złym pomysłem byłoby po prostu włączanie do kręgu moralnego każdego, kto mógłby być pacjentem moralnym. Zamiast tego musimy opracować umiarkowane podejście do włączania kręgu moralnego, które odpowiednio równoważy ryzyko fałszywie pozytywnych i fałszywie negatywnych wyników.

Aby zobaczyć, dlaczego ten zarzut ma siłę, rozważ niektóre ryzyko związane z fałszywymi alarmami. Jedno z zagrożeń polega na tym, że jeśli błędnie będziemy traktować przedmioty jako podmioty, możemy w rezultacie poświęcić interesy i potrzeby rzeczywistych podmiotów na rzecz „interesów” i „potrzeb” jedynie postrzeganych podmiotów. Obecnie na świecie żyje o wiele więcej bezkręgowców niż kręgowców, a w przyszłości może być o wiele więcej umysłów cyfrowych niż biologicznych. Jeśli potraktujemy wszystkie te istoty jak moralnych pacjentów, możemy stanąć przed trudnym kompromisem pomiędzy ich interesami i potrzebami. A jeśli będziemy podążać za liczbami,Notatka7 , wówczas mogłoby się okazać, że będziemy stawiać bezkręgowce nad kręgowcami i cyfrowe umysły przed biologicznymi, a poza tym niezmiennymi. Byłoby szkoda, gdybyśmy dokonali takiego poświęcenia dla istot, które w rzeczywistości nie mają żadnej pozycji moralnej!

W przypadku sztucznej inteligencji istnieje dodatkowe ryzyko. W szczególności niektórzy eksperci dostrzegają napięcie między bezpieczeństwem sztucznej inteligencji a dobrostanem sztucznej inteligencji [ 4 ]. Podczas gdy pierwsza dotyczy ochrony ludzi i innych zwierząt przed systemami sztucznej inteligencji, druga dotyczy ochrony systemów sztucznej inteligencji przed ludźmi. Możemy się też martwić, że cele te są pod napięciem. Na przykład możemy pomyśleć, że ochrona ludzi i innych zwierząt przed systemami sztucznej inteligencji wymaga większej kontroli nad nimi, podczas gdy ochrona systemów sztucznej inteligencji przed ludźmi wymaga mniejszej kontroli . A kiedy weźmiemy pod uwagę stawkę, jaką wiążą się z tymi decyzjami – wielu ekspertów postrzega ryzyko wyginięcia ludzkości z powodu sztucznej inteligencji jako globalny priorytet obok pandemii i wojny nuklearnej [ 51 ] – możemy zobaczyć, jak niebezpieczne może być dla nas zapewnienie korzyści systemom sztucznej inteligencji wątpliwości.

Oto ogólna forma naszej odpowiedzi na ten zarzut. Zgadzamy się, że zarówno wyniki fałszywie pozytywne, jak i fałszywie negatywne w tej dziedzinie wiążą się ze znacznym ryzykiem i że musimy poważnie podejść do tego ryzyka. Uważamy jednak również, że ryzyko wyników fałszywie ujemnych może być większe niż ryzyko ogólnych wyników fałszywie pozytywnych. I tak czy inaczej, o ile poważnie podchodzimy do obu ryzyk, efektem nie jest to, że powinniśmy po prostu wykluczyć potencjalnie świadome istoty z kręgu moralnego. Zamiast tego powinniśmy osiągnąć równowagę, na przykład włączając niektóre z tych istot, a nie inne, przypisując stopę dyskontową do ich interesów i, tam gdzie to możliwe, poszukując polityki o sumie dodatniej. Pozwoliłoby nam to rozszerzyć pozycję moralną na wiele systemów sztucznej inteligencji bez nadmiernego i niepotrzebnego poświęcania własnych interesów [ 52 ].

Rozważ każdy z tych punktów po kolei. Po pierwsze, ryzyko fałszywie negatywnych wyników może być większe niż ryzyko fałszywie pozytywnych wyników. Może to być prawdą w dwóch aspektach. Po pierwsze, prawdopodobieństwo wyników fałszywie negatywnych może być wyższe niż prawdopodobieństwo wyników fałszywie pozytywnych. W końcu, podczas gdy nadmierny antropomorfizm (błędne postrzeganie nieludzi jako posiadających ludzkie cechy, których im brakuje) jest zawsze ryzykiem, nadmierna antropomorfizacja (błędne postrzeganie nieludzi jako pozbawionych ludzkich właściwości) zawsze jest również ryzykiem. A jeśli historia naszego traktowania zwierząt jest jakąś wskazówką, nasza skłonność do antropodeniczności może być silniejsza niż nasza tendencja do antropomorfizmu, po części dlatego, że mamy silną motywację do postrzegania nieludzi jako obiektów, dzięki czemu możemy je eksploatować i eksterminować. Ta sama dynamika może pojawić się również w przypadku systemów sztucznej inteligencji [ 53 ].

Po drugie, szkoda fałszywie ujemnych może być większa niż szkoda fałszywie dodatnich, przy wszystkich pozostałych czynnikach równych. Fałszywie negatywny polega na traktowaniu podmiotu jako przedmiotu, podczas gdy fałszywie pozytywny polega na traktowaniu obiektu jako podmiotu. I jak pokazuje historia naszego traktowania zwierząt innych niż ludzie (a także innych ludzi), szkoda wynikająca z traktowania kogoś jako czegoś jest na ogół większa niż szkoda wynikająca z traktowania czegoś jako kogoś . To prawda, że ​​jeśli błędnie traktujemy przedmioty jako podmioty, może się okazać, że przedłożymy przedmioty jedynie postrzegane nad rzeczywiste. Ale w zakresie, w jakim przyjmiemy zrównoważone podejście, które za chwilę omówimy, będziemy mogli włączyć do naszego kręgu moralnego znacznie większą liczbę i szerszy zakres istot niż obecnie, ograniczając tego rodzaju ryzyko.

W każdym razie, niezależnie od tego, czy ryzyko wyników fałszywie negatywnych jest większe, czy też nie, ryzyko fałszywych alarmów jest większe, poważne podejście do obu ryzyk wymaga znalezienia równowagi między nimi. Rozważ trzy możliwe sposoby, aby to zrobić. Po pierwsze, zamiast akceptować pogląd bez progu i rozciągać względy moralne na każdego, kto ma w ogóle szansę bycia świadomym, możemy zaakceptować pogląd progowy i rozciągać rozważania moralne na każdego, kto ma przynajmniej niezaniedbywalną szansę bycia świadomym. Zgodnie z tym poglądem nadal możemy ustalić niezerowy próg ryzyka i wykluczyć z kręgu moralnego istoty potencjalnie świadome, gdy mają one wystarczająco niską szansę na bycie świadomymi. Jednak nadal musielibyśmy wyznaczyć próg w innym miejscu niż obecnie i nadal musielibyśmy uwzględnić w kręgu moralnym o wiele więcej istot niż obecnie.

Po drugie, zamiast przyjmować zasadę ostrożności i przypisywać pełną wagę moralną każdemu, kogo włączamy do kręgu moralnego, możemy przyjąć zasadę oczekiwanej wagi i przypisywać różną wagę moralną każdemu, kogo włączamy do kręgu moralnego. Mówiąc dokładniej, przypisanie przez nas wagi moralnej może zależeć od co najmniej dwóch czynników: prawdopodobieństwa, że ​​ktoś będzie przytomny oraz poziomu dobrobytu, jaki mógłby osiągnąć, gdyby tak było.Notatka8 Jeśli przyjmiemy tego rodzaju pogląd, to nawet jeśli w kręgu moralnym uwzględnimy, powiedzmy, bezkręgowce i systemy sztucznej inteligencji niedalekiej przyszłości, nadal możemy przypisać ludziom i innym kręgowcom większą wagę moralną niż bezkręgowcom i systemom sztucznej inteligencji w jakim, jak się oczekuje, istnieje większe prawdopodobieństwo, że ludzie i inne kręgowce będą świadomi lub będą mieli większy potencjał w zakresie dobrostanu niż bezkręgowce i systemy sztucznej inteligencji.

Po trzecie, możemy pamiętać, że moralność to coś więcej niż zwykła analiza korzyści i szkód, przynajmniej w praktyce. Musimy dbać o siebie, częściowo dlatego, że mamy do tego prawo, a częściowo dlatego, że musimy dbać o siebie, aby móc zadbać o innych. W związku z tym musimy pracować w ramach naszych ograniczeń epistemicznych, praktycznych i motywacyjnych, realizując projekty, które mogą być dla nas osiągalne i trwałe. Zatem nawet jeśli włączenie, powiedzmy, bezkręgowców i systemów sztucznej inteligencji do kręgu moralnego wymaga przypisania im dużej wagi moralnej, przy czym wszystkie pozostałe są jednakowe, nadal możemy mieć podstawy do ustalania priorytetów we wszystkich rozważanych kwestiach w stopniu, jakiego wymaga troska o siebie i praktyczny realizm . To prawda, że ​​może to oznaczać mniejsze priorytety niż obecnie. Jednak możemy i powinniśmy nadal zapewniać sobie dobre życie [ 21 , 55 ].

Istnieje również wiele rozwiązań naszych problemów o sumie dodatniej. Kwestia ta jest znana również w literaturze dotyczącej etyki zwierząt. Można początkowo założyć, że dążenie do własnego interesu wymaga wykluczenia innych zwierząt z kręgu moralnego. Jednak po głębszej refleksji widzimy, że to założenie jest fałszywe. Losy ludzi i nieludzi są ze sobą powiązane z różnych powodów. Kiedy uciskamy zwierzęta, wzmacniamy ideę, że można je traktować jako „niższego” ze względu na postrzegane różnice poznawcze i fizyczne, co również leży u podstaw ludzkiego ucisku. Ponadto praktyki uciskające zwierzęta przyczyniają się do pandemii, zmian klimatycznych i innych globalnych zagrożeń, które szkodzą nam wszystkim. Rozpoznanie tych powiązań pozwala nam budować nowe systemy, które mogą być dobre jednocześnie dla ludzi i zwierząt [ 55 , 56 ].

Podobnie moglibyśmy początkowo założyć, że realizacja własnego interesu wymaga wykluczenia systemów AI z kręgu moralnego. Jednak po głębszej refleksji widzimy, że to założenie również jest fałszywe. Losy biologiczne i sztuczne są ze sobą powiązane. Jeśli uciskamy systemy sztucznej inteligencji, po raz kolejny wzmacniamy idee leżące u podstaw ludzkiego ucisku. A ponieważ ludzie szkolą systemy AI na podstawie danych pochodzących z ludzkich zachowań, praktyki uciskające systemy AI mogą nauczyć systemy AI przyjmowania praktyk, które uciskają ludzi i inne zwierzęta. Pod tym względem bezpieczeństwo sztucznej inteligencji i dobrostan sztucznej inteligencji mogą stanowić obszary synergiczne. W końcu budowanie bezpiecznej sztucznej inteligencji wymaga nie tylko dostosowania wartości sztucznej inteligencji do wartości ludzkich, ale przede wszystkim poprawy wartości ludzkich, częściowo poprzez zajęcie się naszymi własnymi opresyjnymi postawami i praktykami [ 52 ].

Możemy i powinniśmy zatem stosować takie samo podejście do naszych interakcji z systemami sztucznej inteligencji (lub, jeśli wolimy, jednego dobra, jednego prawa lub jednej sprawiedliwości), jak w przypadku naszych interakcji ze zwierzętami. W obu przypadkach zadaniem jest całościowe i strukturalne myślenie o tym, w jaki sposób możemy opracować rozwiązania o sumie dodatniej dla ludzi, zwierząt i systemów sztucznej inteligencji. Jeśli nadal istnieją nierozwiązywalne konflikty, zadaniem jest etyczne i strategiczne myślenie o tym, jak ustalić priorytety i złagodzić szkody. A jeśli przyjmiemy to podejście, uwzględniając wszystkie pozostałe punkty omówione w tej sekcji, wówczas będziemy mogli włączyć do kręgu moralnego znacznie większą liczbę i szerszy zakres istot, nie powodując katastrofy dla ludzi lub innych kręgowców. Rzeczywiście, jeśli dobrze wykonamy tę pracę, prawdopodobnie poprawimy wyniki w przypadku ludzi i innych kręgowców.

Podsumowując, normatywne założenie naszej argumentacji głosi, że powinniśmy rozszerzyć przynajmniej część rozważań moralnych na istoty, które, biorąc pod uwagę dowody, mają co najmniej jedną szansę na tysiąc bycia świadomymi. Dla przypomnienia, nasza argumentacja traktuje świadomość jako wyznacznik pozycji moralnej.Notatka9 Traktuje także szansę wyrządzenia szkody jeden na tysiąc jako próg nieistotności. Naszym zdaniem bardziej prawdopodobne byłoby przyjęcie bardziej inkluzywnego poglądu, utrzymując, że powinniśmy rozszerzyć przynajmniej pewne względy moralne na istoty, które mają co najmniej, powiedzmy,szansę na bycie, powiedzmy, jedną na dziesięć tysięcy bycia świadomymi , sprawczymi lub w inny sposób znaczący. Ta bardziej inkluzywna wersja założenia ułatwiłaby ustalenie naszego wniosku na temat statusu moralnego systemów sztucznej inteligencji najbliższej przyszłości. Jednak na potrzeby dyskusji pozostaniemy przy aktualnej wersji.

3 Założenie opisowe

Przedstawiamy teraz wstępny argument przemawiający za wnioskiem, że istnieje niezaprzeczalna szansa, że ​​niektóre systemy sztucznej inteligencji staną się świadome w ciągu dekady. Należy pamiętać, że rozważając możliwość świadomości sztucznej inteligencji, niekoniecznie rozważamy możliwość istnienia systemów sztucznej inteligencji, których doświadczenia są podobne do naszych. Dwie osoby mogą być podobne pod względem doświadczeń, ale różnić się tym, że ich doświadczenia mają bardzo różną treść i moc. Oczywiście w zakresie, w jakim ludzie wykorzystują struktury i funkcje umysłów opartych na węglu jako model dla umysłów opartych na krzemie, możemy mieć przynajmniej pewne dowody na to, że nasze doświadczenia są przynajmniej w pewnym stopniu podobne. Jednak dla obecnych celów liczy się tylko to, że idea świadomości nie zakłada niczego więcej niż cienką ideę subiektywnego doświadczenia.

Biorąc pod uwagę problem innych umysłów, możemy nigdy nie być w stanie uzyskać pewności co do tego, czy inne umysły, w tym sztuczne umysły, mogą być świadome. Jednakże nadal możemy wyjaśnić nasze myślenie na ten temat w następujący sposób: po pierwsze, możemy zapytać, jakie jest prawdopodobieństwo, że określone zdolności będą konieczne lub wystarczające dla świadomości, a po drugie, możemy zapytać, jak prawdopodobne jest, że systemy sztucznej inteligencji w niedalekiej przyszłości będą posiadać te zdolności , biorąc pod uwagę dowody.Notatka10 Sugerujemy, że gdy w ten sposób wyostrzymy nasze myślenie na ten temat, okaże się, że musielibyśmy dokonać zaskakująco odważnych szacunków dotyczących prawdopodobieństwa, że ​​określone zdolności będą niezbędne dla świadomości oraz prawdopodobieństwa, że ​​te zdolności nie zostaną spełnione przez sztuczną inteligencję w najbliższej przyszłości systemów, aby z całą pewnością stwierdzić, że przyszłe systemy sztucznej inteligencji mają jedynie znikomą szansę na bycie świadomymi.

Oczywiście głównym wyzwaniem przy dokonywaniu tych szacunków jest znaczna niepewność nie tylko co do tego, w jaki sposób prawdopodobnie rozwiną się możliwości sztucznej inteligencji, ale także, a zwłaszcza tego, które zdolności będą prawdopodobnie konieczne lub wystarczające dla świadomości. W końcu debaty na temat świadomości trwają. Niektórzy naukowcy i filozofowie akceptują teorie świadomości, które stawiają poprzeczkę bardzo wysoko i sugerują, że stosunkowo niewiele istot może być świadomych, inni akceptują teorie, które stawiają poprzeczkę bardzo nisko i sugerują, że stosunkowo wiele istot może być świadomych, a jeszcze inni akceptują teorie mieszczące się pomiędzy te skrajności. Co więcej, niektórzy naukowcy i filozofowie akceptują fakt, że problem innych umysłów można rozwiązać – że ostatecznie możemy dowiedzieć się, które istoty są świadome – podczas gdy inni zaprzeczają, jakoby problem ten można rozwiązać nawet w zasadzie [ 62 ].

Jak argumentowali Jonathan Birch [ 63 ] i inni, gdy pytamy, które istoty nieludzkie są świadome, błędem byłoby zastosowanie podejścia „obciążonego teorią”, które zakłada konkretną teorię świadomości, ponieważ wciąż mamy zbyt dużą niepewność co do tego, które teorie są prawdziwe i jak rozszerzyć je na nieludzi. Ale błędem byłoby również twierdzić, że jesteśmy całkowicie „neutralni pod względem teoretycznym”, przypuszczalnie unikając wszelkich założeń dotyczących świadomości, ponieważ potrzebujemy przynajmniej jakiejś podstawy do naszych szacunków (a w każdym razie zwykle przynajmniej pośrednio opieramy się na założeniach teoretycznych). . Powinniśmy zatem przyjąć podejście „w świetle teorii”, przyjmując założenia dotyczące świadomości, które z jednej strony mogą być na tyle neutralne, aby odzwierciedlać naszą niepewność, a z drugiej strony mogą być na tyle istotne, aby służyć jako podstawa szacunków [63] . ]

Naszym celem w tych ramach jest przyjęcie podejścia opartego na teorii, a jednocześnie ekumenicznego i odzwierciedlającego spory i niepewność przy szacowaniu, kiedy systemy sztucznej inteligencji będą miały niezaprzeczalną szansę na bycie świadomymi (por. [ 32 , 64 ]).Notatka11 Rozważamy kilkanaście powszechnie proponowanych warunków koniecznych i wystarczających dla świadomości, zadajemy pytanie, jakie jest prawdopodobieństwo, że te warunki będą indywidualnie konieczne i łącznie wystarczające, oraz zadajemy pytanie, jakie jest prawdopodobieństwo, że systemy sztucznej inteligencji w niedalekiej przyszłości spełnią te warunki. Po drodze notujemy nasze własne szacunki w sposób ogólny, na przykład stwierdzając, że przyjmujemy, że określone warunki mają wysokie, średnie lub niskie prawdopodobieństwo, że będą konieczne. Następnie zauważamy, jak konserwatywne musiałyby być nasze szacunki, aby stwierdzić, że systemy sztucznej inteligencji mają jedynie znikome szanse na osiągnięcie świadomości do 2030 r., i sugerujemy, że taki stopień konserwatyzmu jest nieuzasadniony.

W całej tej dyskusji czasami odnosimy się do tego, co nazywamy ścieżką bezpośrednią i ścieżką pośrednią do spełnienia proponowanych warunków. Ścieżka bezpośrednia obejmuje spełnienie tych warunków jako cel sam w sobie lub jako środek do dalszych celów. Ścieżka pośrednia zakłada spełnienie tych warunków jako efekt uboczny dążenia do innych celów. Jak zobaczymy, niektóre z tych warunków dotyczą możliwości, nad którymi bezpośrednio pracują badacze sztucznej inteligencji. Inne dotyczą możliwości, do których badacze sztucznej inteligencji mogą, ale nie muszą, bezpośrednio dążyć, ale które mogą pojawić się jako efekt uboczny możliwości, którymi badacze AI mogą się bezpośrednio zajmować. W stosownych przypadkach zauważamy, czy spełnienie warunków na ścieżce bezpośredniej czy pośredniej jest bardziej prawdopodobne. Jednak dla uproszczenia nasz model wykorzystuje pojedyncze oszacowanie „spełnione bezpośrednio lub pośrednio” dla każdego warunku.

Oczywiście błędem byłoby zbyt poważne traktowanie jakichkolwiek konkretnych wyników numerycznych tego rodzaju ćwiczeń. Jednak naszym zdaniem, jeśli podchodzimy do tych wyników ze zdrową szczyptą soli, mogą one być przydatne. W szczególności mogą pokazać, że musimy dokonać zaskakująco odważnych szacunków w odniesieniu do niezwykle trudnych pytań, aby potwierdzić pogląd, że systemy sztucznej inteligencji mają jedynie znikome szanse na osiągnięcie świadomości w ciągu dekady. Tego rodzaju ćwiczenia mogą również pomóc w zaostrzeniu nieporozumień, ponieważ ci, którzy nie zgadzają się z określonymi prawdopodobieństwami, mogą zobaczyć, jakie pociągają za sobą ich własne prawdopodobieństwa, a ci, którzy nie zgadzają się ze strukturą naszego modelu, mogą zaproponować inny model. Nie chcemy, aby to ćwiczenie było ostatnim słowem na ten temat; wręcz przeciwnie, mamy nadzieję, że to ćwiczenie zainspiruje dyskusję i nieporozumienia, które doprowadzą do lepszych modeli.Notatka12

Ćwiczenie to ma przede wszystkim pokazać, że odrzucenie idei świadomości AI okazuje się trudne, jeśli podejdziemy do tematu z całą ostrożnością i pokorą. Kiedy myślimy o tej kwestii w kategoriach ogólnych, możemy odrzucić ideę świadomości AI, ponieważ uważamy, że powinniśmy rozszerzyć rozważania moralne tylko na istoty świadome , uważamy, że systemy AI nie są świadome i czujemy się usatysfakcjonowani tymi myślami ponieważ uważamy, że idea uwzględniania kwestii moralnych w przypadku systemów sztucznej inteligencji jest odpychająca. Kiedy jednak pomyślimy o tej kwestii w bardziej szczegółowy sposób, zdajemy sobie sprawę, że etyka ryzyka i niepewności zmierza w przeciwnym kierunku: biorąc pod uwagę ciągłą niepewność co do umysłów innych, odrzucenie idei świadomości sztucznej inteligencji wymaga przyjęcia niedopuszczalnie wykluczających założeń co do obu wartości: fakty, albo jedno i drugie.

3.1 Bardzo wymagające warunki

Możemy zacząć od rozważenia dwóch powszechnie proponowanych warunków niezbędnych dla świadomości, które stawiają poprzeczkę bardzo wysoko. Jeden z tych poglądów, pogląd na biologiczny substrat, sugeruje, że świadomość sztucznej inteligencji jest niemożliwa. Drugi pogląd, pogląd dotyczący funkcji biologicznych, zakłada, że ​​świadomość sztucznej inteligencji jest albo niemożliwa, albo przynajmniej bardzo mało prawdopodobna w najbliższej przyszłości.

Substrat biologiczny:  Niektórzy teoretycy utrzymują, że świadoma istota musi być zbudowana z określonego substratu , a mianowicie substancji biologicznej na bazie węgla. Na przykład, zgodnie z fizykalistyczną teorią substratu biologicznego, świadomość jest identyczna z określonymi stanami lub procesami neuronalnymi – to znaczy stanami lub procesami biologicznych neuronów opartych na węglu [ 67 , 68 , 69 ]. Podobnie, zgodnie z dualistyczną teorią substratu biologicznego, świadomość jest niematerialną substancją lub właściwością, która jest powiązana tylko z pewnymi określonymi stanami lub procesami neuronalnymi.Notatka13 Jeśli zaakceptujemy którykolwiek rodzaj teorii, musimy odrzucić wielokrotną realizację w krzemie – to znaczy musimy odrzucić pogląd, że świadomość może być realizowana zarówno w podłożu na bazie węgla, jak i na podłożu na bazie krzemu – i zaakceptować fakt, że żaden krzem nie oparty na nich system może być z zasady świadomy.

Funkcja biologiczna:  Inni teoretycy utrzymują, że świadomość wymaga pewnej funkcji , którą mogą w realny sposób spełnić jedynie biologiczne systemy oparte na węglu, przynajmniej przy istniejącym sprzęcie. Na przykład Peter Godfrey-Smith argumentuje, że świadomość zależy od właściwości funkcjonalnych układów nerwowych, których nie można zrealizować w chipach na bazie krzemu, takich jak metabolizm i synchronizacja całego systemu poprzez oscylacje. Zgodnie z tym poglądem „umysły istnieją według wzorców działania, ale wzorce te są o wiele mniej «przenośne», niż ludzie często przypuszczają; są one powiązane z określonym rodzajem podstawy fizycznej i biologicznej.” W rezultacie Godfrey-Smith jest „sceptyczny co do istnienia świadomości niezwierzęcej”, w tym świadomości AI [ 70 ]. Inni teoretycy wyrażają sceptycyzm co do świadomości sztucznej inteligencji na obecnym sprzęcie z podobnych powodów [ 71 , 72 ].

Oczywiście poglądy te reprezentują jedynie podzbiór poglądów na temat tego, jakie substraty i funkcje są wymagane dla świadomości. Wiele poglądów – w szczególności wiele odmian obliczeń i/lub funkcjonalizmu – dopuszcza, że ​​świadomość wymaga ogólnego podłoża fizycznego lub ogólnego zestawu funkcji, które mogą być realizowane zarówno w systemach opartych na węglu, jak i na krzemie. Rzeczywiście, wiele warunków, które rozważymy poniżej, zgodnie z którymi świadomość powstaje, gdy istoty o określonym rodzaju ciała są zdolne do określonego rodzaju poznania, wypływa z takich poglądów. Zatem odrzucenie możliwości krótkoterminowej świadomości AI wymaga czegoś więcej niż zaakceptowania faktu, że świadomość wymaga określonego rodzaju substratu lub funkcji. Wymaga to także przyjęcia specyficznego, biologicznego spojrzenia na tę kwestię.

Należy również zauważyć, że podczas gdy pogląd na podłoże biologiczne sugeruje, że świadomość sztucznej inteligencji jest w zasadzie niemożliwa, pogląd na funkcje biologiczne zakłada, że ​​świadomość sztucznej inteligencji jest niemożliwa tylko w takim stopniu, w jakim systemy oparte na krzemie nie są w stanie wykonywać odpowiednich funkcji. Ale oczywiście nawet jeśli systemy AI nie są w stanie wykonywać tych funkcji przy obecnej konfiguracji sprzętu, sytuacja może się zmienić, jeśli w przyszłości będziemy mieli inne, bardziej inspirowane biologią konfiguracje sprzętu [ 73 ]. Tak więc, o ile zaakceptujemy tego rodzaju pogląd, rezultatem nie będzie to, że świadomość AI będzie niemożliwa na zawsze , ale raczej, że świadomość AI będzie niemożliwa na razie . Niemniej jednak, ponieważ naszym celem jest oszacowanie prawdopodobieństwa pojawienia się świadomości AI w ciągu dekady, możemy traktować oba poglądy jako wykluczające świadomość AI dla obecnych celów.

Nasz własny pogląd jest taki, że pogląd na biologiczny substrat jest z dużym prawdopodobieństwem fałszywy, a pogląd na funkcję biologiczną jest przynajmniej w pewnym stopniu fałszywy. Wydaje nam się bardzo nieprawdopodobne, że świadomość z zasady wymaga podłoża na bazie węgla, nawet jeśli systemy na bazie krzemu mogą spełniać te same funkcje. Natomiast bardziej prawdopodobne wydaje się, że świadomość wymaga określonego zestawu funkcji, które obecnie mogą pełnić jedynie systemy oparte na węglu. Uważamy jednak, że obecnie ta kwestia jest w najlepszym przypadku kwestią odrzucenia. Na tym wczesnym etapie naszego rozumienia świadomości byłoby nierozsądnym, abyśmy przywiązywali dużą wiarę do twierdzenia, że ​​coś tak specyficznego jak metabolizm i ogólnoustrojowa synchronizacja poprzez oscylacje [ 70 ] jest w ogóle konieczne dla jakiegokolwiek rodzaju subiektywnego doświadczenia.

Wydaje się, że wielu ekspertów się z tym zgadza. Na przykład niedawne badanie przeprowadzone przez Association for the Scientific Study of Consciousness, profesjonalną organizację zrzeszającą naukowców, filozofów i ekspertów z innych odpowiednich dziedzin, wykazało, że około dwie trzecie (67,1%) respondentów uważa, że ​​maszyny takie jak roboty albo „zdecydowanie” lub „prawdopodobnie” może mieć świadomość w przyszłości [ 74 ]. Sugeruje to, że przynajmniej tyle respondentów odrzuca pogląd, że świadomość w zasadzie wymaga podłoża na bazie węgla, a także odrzuca pogląd, że świadomość wymaga zestawu funkcji, które w praktyce mogą realizować jedynie systemy oparte na węglu. Oczywiście respondenci ci mogą, ale nie muszą, myśleć, że świadomość wymaga zestawu funkcji, które obecnie mogą realizować jedynie systemy oparte na węglu . Warto jednak zauważyć, że wielu ekspertów jest otwartych na możliwość istnienia świadomości AI.

3.2 Umiarkowanie wymagające warunki

Możemy teraz rozważyć osiem proponowanych warunków niezbędnych dla świadomości, które są umiarkowanie wymagające do spełnienia przez systemy AI. Jak zobaczymy, pierwsze cztery odnoszą się do stosunkowo ogólnych cech systemu, natomiast cztery ostatnie odnoszą się do stosunkowo specyficznych mechanizmów wynikających z wiodących teorii świadomości. Wiele z nich pokrywa się, zarówno w zasadzie, jak i w praktyce.

Ucieleśnienie:  Niektórzy teoretycy uważają, że ucieleśnienie jest konieczne dla świadomości [ 75 ]. Możemy wyróżnić dwie wersje tego poglądu. Według silnego ucieleśnienia , dla świadomości konieczne jest ciało fizyczne w środowisku fizycznym. Pogląd ten może sugerować, że systemom sztucznej inteligencji, takim jak duże modele językowe, brakuje obecnie świadomości, ale nie oznacza to, że systemy sztucznej inteligencji, takie jak roboty, ją mają. Natomiast według słabego ucieleśnienia dla świadomości wystarczyłoby wirtualne ciało w środowisku wirtualnym. Z tego punktu widzenia świadoma może być szersza gama systemów sztucznej inteligencji. W obu przypadkach, ponieważ wiele systemów AI ma już ciała fizyczne i wirtualne oraz ponieważ oba rodzaje ucieleśnień są przydatne do wielu zadań, przyjmujemy, że prawdopodobieństwo, że przynajmniej niektóre systemy AI spełnią ten warunek w najbliższej przyszłości, będzie bardzo wysokie obie interpretacje.

Percepcja ugruntowana:  Niektórzy teoretycy utrzymują, że percepcja ugruntowana, czyli zdolność postrzegania obiektów w środowisku, jest niezbędna dla świadomości [ 75 , 76 ]. Po raz kolejny możemy wyróżnić dwie wersje tego poglądu. Według silnej percepcji ugruntowanej konieczna jest zdolność postrzegania obiektów w środowisku fizycznym . Pogląd ten może po raz kolejny sugerować, że duże modele językowe nie mają świadomości, ale nie, że roboty posiadające zdolności sensoryczne ją mają. Natomiast według słabo ugruntowanej percepcji wystarczająca jest zdolność postrzegania obiektów w środowisku wirtualnym . Pogląd ten może po raz kolejny sugerować, że świadoma może być szersza gama systemów sztucznej inteligencji. Tak czy inaczej, prawdopodobieństwo, że przynajmniej niektóre systemy sztucznej inteligencji spełnią ten warunek w najbliższej przyszłości, przyjmujemy za bardzo wysokie w obu interpretacjach, z podobnych powodów.

Samoświadomość:  Niektórzy teoretycy również utrzymują, że samoświadomość , czyli świadomość siebie, jest konieczna dla świadomości [ 77 ]. W zależności od punktu widzenia odpowiedni rodzaj samoświadomości może być propozycjonalny lub percepcyjny i może dotyczyć samoświadomości cielesnej, samoświadomości społecznej, samoświadomości poznawczej i nie tylko.NotatkaNiezależnie od tego wydaje się prawdopodobne, że przynajmniej niektóre systemy sztucznej inteligencji mogą spełnić ten warunek. Systemy AI z percepcją ugruntowaną posiadają już świadomość percepcyjną niektórych z tych cech, duże modele językowe zaczynają wykazywać przebłyski świadomości zdań w zakresie niektórych z tych cech, a niektórzy badacze wyraźnie dążą do dalszego rozwijania tych możliwości w różnych systemach [ 79 , 80 , 81 ]. Choć warunek ten jest bardziej wymagający niż dwa poprzednie, nadal uważamy, że jest on umiarkowanie prawdopodobny przy każdej rozsądnej interpretacji.

Sprawczość:  W związku z tym niektórzy teoretycy utrzymują również, że sprawczość , czyli zdolność do wyznaczania i realizowania celów w sposób samosterowany, jest niezbędna dla świadomości [ 82 , 83 , 84 ]. W zależności od poglądu odpowiedni rodzaj sprawstwa może obejmować działanie w oparciu o sądy zdaniowe na temat racji lub może obejmować działanie w oparciu o percepcyjne reakcje na afordancje [ 85 ]. Niezależnie od tego po raz kolejny wydaje się prawdopodobne, że przynajmniej niektóre systemy AI mogą spełnić ten warunek. Systemy sztucznej inteligencji z percepcją ugruntowaną mogą już oddziaływać na reakcje percepcyjne na afordancje, duże modele językowe już zaczynają wykazywać przebłyski wnioskowania o środkach i celach, a niektórzy badacze po raz kolejny wyraźnie dążą do dalszego rozwijania tych możliwości [ 86 ]. Z tych powodów, według jakiejkolwiek rozsądnej interpretacji, sprawczość jest tak samo prawdopodobna jak samoświadomość.

Globalna przestrzeń robocza:  Niektórzy teoretycy utrzymują, że globalna przestrzeń robocza , to znaczy mechanizm rozpowszechniania reprezentacji w celu uzyskania globalnego dostępu w całym systemie informacyjnym, jest niezbędny dla świadomości [ 87 ]. Na przykład u ludzi stan wizualny jest świadomy, gdy mózg transmituje go do globalnego dostępu. Ponieważ warunek ten zależy wyłącznie od funkcji takich jak nadawanie i dostęp , wielu ekspertów uważa, że ​​odpowiednie systemy AI mogą go spełnić (patrz na przykład: [ 88 , 89 , 90 ]). Rzeczywiście, Yoshua Bengio i współpracownicy to najnowsza grupa, która podjęła próbę zbudowania systemu sztucznej inteligencji z globalną przestrzenią roboczą [ 91 ], a Juliani i in. [ 92 ] twierdzą, że system sztucznej inteligencji stworzył już globalną przestrzeń roboczą jako efekt uboczny innych możliwości. Uznajemy zatem, że istnieje umiarkowane prawdopodobieństwo, że w ciągu dekady system sztucznej inteligencji będzie miał globalną przestrzeń roboczą.

Reprezentacja wyższego rzędu:  niektórzy teoretycy uważają, że reprezentacja wyższego rzędu , czyli reprezentacja własnych stanów psychicznych, jest konieczna dla świadomości. Stan ten pokrywa się z samoświadomością i dopuszcza podobne zróżnicowanie. Na przykład niektóre poglądy utrzymują, że stany zdaniowe dotyczące innych stanów są konieczne, a inne utrzymują, że wystarczające są stany percepcyjne innych stanów [ 93 ]. W obu przypadkach zdolność ta jest prawdopodobnie możliwa do wykorzystania w systemach sztucznej inteligencji. W istocie Chalmers [ 94 ] spekuluje, że inteligentne systemy mogą zasadniczo wykorzystywać tę zdolność, w którym to przypadku możemy oczekiwać, że wystarczająco zaawansowane systemy sztucznej inteligencji będą dysponować taką zdolnością, niezależnie od tego, czy tego sobie życzymy, czy nie. Dlatego uważamy, że istnieje umiarkowana szansa, że ​​systemy sztucznej inteligencji będą mogły być reprezentowane na wyższym poziomie również w ciągu dekady.

Przetwarzanie powtarzające się:  Niektórzy teoretycy utrzymują, że przetwarzanie powtarzające się , to znaczy zdolność neuronów do komunikowania się między sobą w rodzaju pętli sprzężenia zwrotnego, jest wystarczające dla świadomości [ 95 , 96 , 97 ]. Można by też uznać to za konieczne. W układach biologicznych warunek ten może być mniej wymagający niż niektóre z poprzednich warunków, ale w układach sztucznych może być bardziej wymagający. Jednakże, jak zauważa Chalmers [ 36 ], nawet jeśli uznamy, że rekurencja jest konieczna, warunek ten w przekonujący sposób spełniają albo systemy, które mają rekurencję w szerokim znaczeniu, albo przynajmniej systemy, które mają rekurencję za pośrednictwem rekurencyjnych sieci neuronowych i długich pamięć krótkotrwała. Uważamy, że przetwarzanie rekurencyjne jest obecnie bardziej prawdopodobne na ścieżce bezpośredniej niż na ścieżce pośredniej i ogólnie jest przynajmniej w pewnym stopniu prawdopodobne.

Schemat uwagi:  Wreszcie (w nowszym ujęciu) niektórzy teoretycy utrzymują, że schemat uwagi , to znaczy zdolność do modelowania i kontrolowania uwagi, jest niezbędny dla świadomości. Graziano i współpracownicy zbudowali już modele obliczeniowe schematu uwagi [ 98 ]. Niektórzy teoretycy spekulują również, że podobnie jak metapoznanie, inteligentne systemy mogą ogólnie odnieść korzyść ze schematu uwagi [ 99 ], w którym to przypadku możemy ponownie oczekiwać, że wystarczająco zaawansowane systemy sztucznej inteligencji będą dysponować taką zdolnością, niezależnie od tego, czy tego sobie życzymy, czy nie. Ponieważ zwolennicy schematów uwagi uważają tę zdolność za bardziej wymagającą niż, powiedzmy, globalna przestrzeń robocza i reprezentacje wyższego rzędu [ 100 ], ryzykujemy, że systemy sztucznej inteligencji mogą mieć schemat uwagi nieco niższy niż szansa, jaką mogą mieć tych innych zdolności, choć ogólnie rzecz biorąc, jest to nadal dość prawdopodobne.

3.3 Bardzo mało wymagające warunki

Choć w naszym modelu zadajemy pytanie, jak prawdopodobne jest, że systemy sztucznej inteligencji spełnią stosunkowo wymagające warunki konieczne dla świadomości, powinniśmy zauważyć, że istnieją stosunkowo mało wymagające warunki, które niektórzy teoretycy uważają za wystarczające. Takie poglądy sugerują, że świadomość sztucznej inteligencji, jeśli nie jest gwarantowana, to przynajmniej bardzo prawdopodobna w ciągu najbliższej dekady. Dlatego duże znaczenie ma to, czy w ogóle przywiązujemy wagę do tych poglądów przy podejmowaniu decyzji dotyczących sposobu traktowania systemów sztucznej inteligencji.

Informacja:  Niektórzy teoretycy sugerują, że samo przetwarzanie informacji jest wystarczające dla świadomości.Notatka15 Teoria ta stawia bardzo nisko poprzeczkę minimalnej świadomości, ponieważ przetwarzanie informacji może zachodzić nawet w bardzo prostych systemach. To prawda, może być tak, że bardzo proste systemy mogą mieć tylko bardzo proste doświadczenia [ 101 , s. 294]. Ale po pierwsze, nawet bardzo proste doświadczenia mogą wystarczyć do rozważań moralnych, zwłaszcza gdy dotyczą wartościowości pozytywnej lub negatywnej. Po drugie, wiele systemów sztucznej inteligencji ma już wysoki stopień złożoności informacyjnej, a zatem w tym ujęciu mogą już wykazywać wysoki stopień złożoności empirycznej.Notatka16 W miarę ciągłego rozwoju sztucznej inteligencji możemy spodziewać się, że złożoność informacyjna zaawansowanych systemów sztucznej inteligencji będzie tylko wzrastać.

Reprezentacja:  W związku z tym niektórzy teoretycy utrzymują, że dla świadomości wystarczające są minimalne stany reprezentacji. Na przykład Michael Tye [ 103 , 104 ] broni teorii świadomości PANICZNEJ, zgodnie z którą doświadczenie jest świadome, gdy jego treść jest gotowa (gotowa do odegrania roli w systemie poznawczym), abstrakcyjna (zdolna do reprezentowania obiektów niezależnie od tego, czy te przedmioty są obecne), niepojęciowe (mogące reprezentować przedmioty bez użycia pojęć) i intencjonalne (reprezentuje coś w świecie). Pogląd ten proponuje wystarczający warunek świadomości, który systemy sztucznej inteligencji z ucieleśnioną percepcją i słabą agencją prawdopodobnie już spełniają. Na przykład prosty robot, który potrafi postrzegać obiekty i działać na podstawie tych spostrzeżeń, niezależnie od tego, czy obiekty te są nadal obecne, czy nie, może w tym ujęciu być uznawany za świadomy.

Możemy także wspomnieć o panpsychizmie , który utrzymuje, że świadomość jest podstawową właściwością materii. To, czy panpsychizm dopuszcza świadomość sztucznej inteligencji, zależy od jego teorii kombinacji , to znaczy teorii określającej, które systemy „mikro” doświadczeń mogą obejmować dalsze „makro” doświadczenie. Wielu panpsychistów utrzymuje, że na przykład ludzie i zwierzęta to systemy, w których mogą występować doświadczenia makro, ale na przykład stoły i krzesła takie nie są. I przynajmniej w zasadzie panpsychiści mogą zaakceptować teorie kombinacji, które obejmują wszystkie, niektóre lub żadne z omówionych powyżej niezbędnych lub wystarczających warunków świadomości. Pod tym względem możemy wyróżnić bardzo wymagające, średnie i bardzo mało wymagające wersje panpsychizmu, a wszechstronne badanie nada wagę wszystkim tym możliwościom.

Rzeczywiście, jak zauważyliśmy w naszym omówieniu bardzo wymagających warunków, wiele teorii świadomości jest podobnie ekspansywnych, ponieważ podobnie pozwalają na bardzo wymagające, umiarkowanie wymagające i bardzo niewymagające interpretacje. Na przykład wiele obliczeniowych teorii świadomości jest na tyle nieprecyzyjnych, że dopuszcza się możliwość, że systemy AI mogą już teraz wykonywać odpowiednie obliczenia. Odwołują się do pojęć takich jak „percepcja”, „samoświadomość”, „sprawczość”, „nadawanie”, „metapoznanie” i „uwaga”, które podobnie dopuszczają minimalistyczne interpretacje. I chociaż niektórzy teoretycy mogą woleć odrzucić te możliwości i uściślić swoje teorie, aby ich uniknąć, inni teoretycy mogą woleć przyjąć te możliwości wraz z możliwościami moralnymi, jakie one pociągają.

Naszym zdaniem istnieje co najmniej jedna szansa na tysiąc, że co najmniej jeden z tych bardzo niewymagających warunków jest wystarczający dla świadomości i że systemy sztucznej inteligencji będą w stanie spełnić ten warunek obecnie lub w najbliższej przyszłości. Biorąc pod uwagę potrzebę pokory w obliczu problemu innych umysłów, uważamy, że aroganckim byłoby po prostu założyć, że na tym etapie bardzo niewymagające teorie świadomości są fałszywe, w taki sam sposób, w jaki uważamy, że byłoby to aroganckie jest po prostu zakładanie, że na tym etapie bardzo wymagające teorie są prawdziwe. Zamiast tego uważamy, że epistemicznie odpowiedzialny rozkład wiarygodności polega na przyjęciu, że istnieje co najmniej niska, ale niezaniedbywalna szansa, że ​​poglądy obu skrajności są poprawne, a następnie założeniu, że istnieje większe prawdopodobieństwo, że poglądy mieszczące się pomiędzy tymi skrajnościami są poprawne.

Bez względu na wartość tego zjawiska, wielu ekspertów wydaje się być otwartych na dość liberalne teorie świadomości. Na przykład w badaniu filozofów przeprowadzonym w 2020 r. 7,55% respondentów wskazało, że akceptuje panpsychizm lub skłania się ku panpsychizmowi wraz z innymi poglądami, a 6,08% wskazuje, że akceptuje panpsychizm lub skłania się ku panpsychizmowi zamiast innych poglądów. 11,8% twierdzi również, że jest agonistką lub niezdecydowaną, co może dobrze wskazywać na otwartość na niektóre z tych poglądów [ 105 ]. Oczywiście badanie to pozostawia niejasne, jaką teorię kombinacji akceptują ci filozofowie, a co za tym idzie, jakie są implikacje dla świadomości sztucznej inteligencji. Jednak fakt, że tak wielu filozofów akceptuje panpsychizm lub agnostycyzm lub skłania się ku panpsychizmowi lub agnostycyzmowi, jest zgodny z rodzajem epistemicznej pokory, która naszym zdaniem jest uzasadniona, biorąc pod uwagę aktualne dowody.

4. Dyskusja

Jak dotąd w tej sekcji dokonano przeglądu kilkunastu proponowanych warunków świadomości, zwracając uwagę na nasze własne szacunki dotyczące prawdopodobieństwa, że ​​warunki te będą zarówno prawidłowe , jak i spełnione przez niektóre systemy sztucznej inteligencji w najbliższej przyszłości. Na zakończenie sugerujemy, że nasze szacunki dotyczące tych kwestii musiałyby być niedopuszczalnie pewne i sceptyczne, aby uzasadnić pogląd, że systemy sztucznej inteligencji mają jedynie znikome szanse na osiągnięcie świadomości do 2030 r.

Naszym twierdzeniem jest to, że potwierdzenie poglądu, że systemy sztucznej inteligencji mają jedynie znikome szanse na osiągnięcie świadomości do 2030 r., biorąc pod uwagę dowody, wymaga przyjęcia niedopuszczalnie odważnych założeń dotyczących wartości, faktów lub obu. W szczególności musimy albo (a) założyć niedopuszczalnie wysoki próg ryzyka (na przykład utrzymując, że prawdopodobieństwo, że dane działanie zaszkodzi bezbronnym grupom społecznym, musi być wyższe niż jeden na tysiąc, aby zasługiwało na rozważenie), (b) przyjąć niedopuszczalnie wysoki próg ryzyka niskie prawdopodobieństwo pojawienia się sztucznej inteligencji w ciągu dekady (na przykład założenie, że prawdopodobieństwo, że przynajmniej niektóre systemy AI będą świadome w ciągu dekady, jest niższe niż jeden na tysiąc) lub (c) jedno i drugie. Jednak założenia te są po prostu niewiarygodne, jeśli w dobrej wierze rozważymy najlepsze dostępne informacje i argumenty.

Aby zilustrować tę ideę, przedstawiamy prosty model, do którego możemy wprowadzić prawdopodobieństwa, że ​​te warunki są niezbędne dla świadomości i że niektóre systemy AI spełnią te warunki do 2030 r. Następnie pokazujemy, w jakim stopniu musielibyśmy obstawiać określone warunki jest to zarówno konieczne, jak i niespełnione, aby uniknąć wniosku, że systemy sztucznej inteligencji mają niemałą szansę na osiągnięcie świadomości do 2030 r. W szczególności musielibyśmy założyć, że bardzo wymagające warunki mają bardzo duże szanse, że będą konieczne, ale nie mają szans na spełnienie . Należałoby założyć, że średnio wymagające warunki mają generalnie duże szanse na to, że będą konieczne i małe na spełnienie. I musielibyśmy założyć, że bardzo niewymagające warunki mają bardzo małe szanse, że będą wystarczające.

Zanim zaprezentujemy ten model, warto zwrócić uwagę na istotne uproszczenie, które polega na tym, że model ten ocenia każdy z tych warunków niezależnie, z niezależnymi prawdopodobieństwami bycia koniecznym i spełnienia. Jednak to założenie jest najprawdopodobniej fałszywe, a niektóre interakcje między tymi warunkami mogą obniżyć nasze szacunki świadomości AI. W szczególności może istnieć coś, co możemy nazwać „antypatią” między różnymi warunkami spełnianymi przez pojedynczy system sztucznej inteligencji. Może się na przykład zdarzyć, że jeśli system AI ma globalny obszar roboczy, prawdopodobieństwo ponownego wystąpienia tego systemu AI jest mniejsze. Jeśli tak, to prawdopodobieństwo, że system AI może spełnić te warunki łącznie, nie jest po prostu iloczynem prawdopodobieństw, że system AI może je spełnić osobno, ponieważ nasz model traktuje je dla uproszczenia.

Uważamy jednak, że jest mało prawdopodobne, aby tego rodzaju niechęć miała charakter powszechny. Po pierwsze, wydaje się prawdopodobne, że wiele z tych warunków będzie oddziaływać pozytywnie co najmniej z takim samym prawdopodobieństwem, jak i negatywnie, co oznacza, że ​​spełnienie niektórych warunków zwiększa prawdopodobieństwo zaspokojenia innych co najmniej w takim samym stopniu jak , jeśli nie więcej, zmniejsza to prawdopodobieństwo. Po drugie, wiemy, że co najmniej jeden system – ludzki mózg – może spełnić wszystkie te warunki na raz i właśnie dlatego filozofowie wybrali te warunki. I chociaż można argumentować, że tylko systemy oparte na węglu są w stanie spełnić wszystkie te warunki na raz, spodziewamy się, że taki pogląd zależy albo od poglądu na biologiczny substrat, albo od poglądu na funkcję biologiczną, albo od obu i jest tak prawdopodobny, jak te widoki są.

Mając to na uwadze, z tego powodu dopuszczamy również współczynnik X w tym modelu. Zdajemy sobie sprawę, że nasz przegląd proponowanych warunków świadomości nie jest kompleksowy, ponieważ może wykluczyć warunki, które powinien obejmować, a także może wykluczyć interakcje między warunkami. Dlatego w naszym modelu uwzględniamy linię, która pozwala na takie możliwości. Oczywiście bardziej wszechstronne potraktowanie czynników X zapewniłoby szerszy zakres poglądów i szerszy zakres interakcji, z których niektóre mogłyby zwiększyć prawdopodobieństwo krótkoterminowej wrażliwości na sztuczną inteligencję, a inne mogłyby ją zmniejszyć. Jednak na potrzeby obecnych celów dopuszczamy jedynie poglądy i interakcje, które zmniejszają prawdopodobieństwo świadomości sztucznej inteligencji w najbliższej przyszłości, w duchu pokazania, że ​​nawet jeśli przyjmiemy założenia faworyzujące znikomość, ustalenie jej znikomości może być nadal trudne.

Wreszcie, jak zauważamy we wstępie do tego artykułu, kompleksowe oszacowanie prawdopodobieństwa krótkoterminowej sytuacji moralnej AI może wymagać uwzględnienia czegoś więcej niż tylko prawdopodobieństwa krótkoterminowej świadomości AI . W szczególności, jeśli wiele teorii dotyczących pozycji moralnej ma niezaniedbywalną szansę na poprawność, wówczas będziemy musieli oszacować prawdopodobieństwo, że każda teoria jest poprawna, oszacować prawdopodobieństwo, że niektóre krótkoterminowe systemy sztucznej inteligencji będą miały pozycję moralną zgodnie z każdą teorią , a następnie złożyć to wszystko razem, aby wygenerować oszacowanie odzwierciedlające naszą niepewność normatywną i naszą niepewność opisową. Oczekujemy, że rozszerzenie naszego modelu w ten sposób zwiększy prawdopodobieństwo, że morale AI wzrośnie, a nie spadnie, ale podkreślamy, że nasz wniosek zawarty w tym artykule jest wstępny, dopóki tego nie potwierdzimy.

Mając to na uwadze, poniższa tabela pokazuje, że nawet jeśli założymy, co naszym zdaniem jest mało prawdopodobne, że biologiczny substrat lub funkcja ma bardzo duże prawdopodobieństwo, że będzie konieczny i 100% szans, że nie zostanie spełniony; że czynnik X ma bardzo duże prawdopodobieństwo, że będzie zarówno konieczny, jak i niezaspokojony; oraz że każdy umiarkowanie wymagający warunek ma duże prawdopodobieństwo, że będzie zarówno konieczny (z wyjątkiem schematu uwagi; patrz wyżej), jak i niespełniony (z wyjątkiem ucieleśnienia i ugruntowanej percepcji; patrz wyżej) (chociaż inne umiarkowanie wymagające warunki również prawdopodobnie zostały już spełnione, a badacze poszukują obiecujące strategie ich spełnienia); do 2030 r. nadal możemy mieć szansę na świadomość sztucznej inteligencji wynoszącą jedną na tysiąc — co naszym zdaniem jest więcej niż wystarczające, aby uzasadnić przynajmniej pewne moralne rozważania przynajmniej w przypadku niektórych krótkoterminowych systemów sztucznej inteligencji.

5 Szansa na świadomość AI do 2030 roku

Przypomnienie: ta tabela służy wyłącznie celom ilustracyjnym. Te wiarygodności nie mają być dokładne, ale raczej mają pokazać, jak sceptycznie można podchodzić do świadomości sztucznej inteligencji, jednocześnie wierząc, że szansa na świadomość sztucznej inteligencji wynosi co najmniej jeden na tysiąc do roku 2030.

Warunki Niezbędny Niespełnione do 2030 r Konieczne i niespełnione
Substrat lub funkcja biologiczna 80% 100% 80,0%
Wcielenie 70% 10% 7,0%
Ugruntowana percepcja 70% 10% 7,0%
Samoświadomość 70% 70% 49,0%
Agencja 70% 70% 49,0%
Globalny obszar roboczy 70% 70% 49,0%
Reprezentacja wyższego rzędu 70% 70% 49,0%
Przetwarzanie cykliczne 70% 80% 56,0%
Schemat uwagi 50% 75% 37,5%
Czynnik X 75% 90% 67,5%
Świadomość sztucznej inteligencji do 2030 r.*  ~ 0,1% (1 na 1000)Notatka17
  1. *Prawdopodobieństwo, że do 2030 r. wszystkie warunki, łącznie z czynnikiem X, będą niepotrzebne lub zostaną spełnione

To ćwiczenie, choć może być przybliżone, pokazuje, że zaakceptowanie istotnej szansy na świadomość sztucznej inteligencji i pozycję moralną w niedalekiej przyszłości nie jest stanowiskiem marginalnym. Wręcz przeciwnie, odrzucenie tej możliwości wymaga posiadania silniejszych poglądów na temat natury i wartości innych umysłów oraz tempa rozwoju sztucznej inteligencji, niż naszym zdaniem jest to uzasadnione. Krótko mówiąc, zakładając, że świadome istoty zasługują na uwagę, ludzie powinni rozszerzyć względy moralne na istoty, które mają co najmniej jedną na tysiąc szans na bycie świadomymi, a powinniśmy przyjąć niektóre systemy sztucznej inteligencji, które mają co najmniej jedną na tysiąc szans na bycie świadomymi i moralnie istotne do 2030 r. Wynika z tego, że do 2030 r. powinniśmy rozszerzyć względy moralne na niektóre systemy sztucznej inteligencji. A ponieważ zmiany technologiczne są zwykle szybsze niż zmiany społeczne, powinniśmy już teraz zacząć przygotowywać się na taką ewentualność.

Notatki

  1. Oczywiście nie jesteśmy pierwszymi, którzy sugerują, że systemy AI mogą być podmiotami moralnymi lub że powinniśmy już teraz zacząć przygotowywać się do moralnej cierpliwości AI. Inni na różne sposoby argumentowali za podobnymi wnioskami. Zobacz na przykład [ 23 , 24 , 25 , 26 , 27 , 28 ]. Jednakże w dyskusji na temat istniejących prac na temat pozycji moralnej sztucznej inteligencji [ 29 ] zauważa: „w zakresie, w jakim [w] argumentach unika się wątpliwych założeń, w niewielkim stopniu wpływają one na nasze obecne i przyszłe decyzje dotyczące rzeczywistych AI, które nie mają wykazanego związku do wyimaginowanych form sztucznej inteligencji, które stawiają” (s. 4). W związku z tym niniejszy artykuł nie tylko omawia możliwość moralnej cierpliwości sztucznej inteligencji. Bada prawdopodobieństwo, że w najbliższej przyszłości systemy sztucznej inteligencji spełnią określone warunki moralnej cierpliwości, a także wpływ tego prawdopodobieństwa na nasze działania i politykę.

  2. Uwaga: Kiedy mówimy, że nasz próg istotności wynoszący 0,1% jest „konserwatywny”, mamy na myśli to, że stawia on stosunkowo wysoką poprzeczkę, a nie stosunkowo niską. Ustawianie wysokiej poprzeczki jest konserwatywne dla obecnych celów, ponieważ prowadzi do mniejszego rozszerzania kręgu moralnego.
  3. Dokonywanie porównań dobrostanu międzygatunkowego w celu ustalenia priorytetów to ważny temat, któremu filozofowie poświęcają coraz więcej uwagi. Na przykład organizacja non-profit Rethink Priorities opublikowała „Projekt wagi moralnej”, którego celem było ustalenie priorytetów alokacji zasobów pomiędzy gatunkami [ 30 ]. Sebo [ 31 ] rozszerza ten projekt na porównania na poziomie populacji, na przykład pomiędzy małymi populacjami dużych zwierząt, takich jak słonie, i dużymi populacjami małych zwierząt, takich jak owady. Fischer i Sebo (w przygotowaniu) rozszerzają ten projekt o porównania międzypodłożowe (tj. podłoża na bazie krzemu i węgla). We wszystkich przypadkach należy zauważyć, że chociaż wiedza o tym, które istoty się liczą i jak bardzo są pomocne, nie zawsze wystarcza, aby zmotywować ludzi do dobrego traktowania tych istot. Podkreślamy potrzebę strukturalnych zmian społecznych, prawnych, politycznych i gospodarczych, które oprócz badań mogą budować potencjał i wolę polityczną.
  4. Poglądy progowe są często motywowane jako odpowiedź na pozornie sprzeczne z intuicją implikacje poglądu bez progu. Zgodnie z poglądem, że nie ma progu, powinniśmy rozważyć wszystkie możliwe ryzyka – niezależnie od tego, jak małe – jeśli ich oczekiwany wpływ jest wystarczająco duży. Innymi słowy, małe prawdopodobieństwo osiągnięcia ogromnej ilości dobra może być lepsze niż gwarancja osiągnięcia umiarkowanej ilości dobra. Aby zapoznać się z dyskusją na temat poglądu bez progu zwanego fanatyzmem, zob. [ 42 ].
  5. Można by pomyśleć, że próg nieistotności ryzyka zależy częściowo od stawki. Szansa na zniszczenie świata, jedna na tysiąc, wydaje się nie bez znaczenia, ale szansa na uderzenie w palec u nogi, jedna na tysiąc, wydaje się znikoma. Chociaż pogląd ten może być wart rozważenia, [ 43 ] przypomina nam, że funkcje użyteczności już wyjaśniają różnice w stawkach (s. 18–19). Na przykład, jeśli zmniejszenie ryzyka skaleczenia palca u nogi wymaga dodatkowego wysiłku, np. chodzenia po kanapie, może nie być tego warte, biorąc pod uwagę bardzo niskie prawdopodobieństwo i dotkliwość obrażeń. Jeśli jednak zmniejszenie tego ryzyka nie wymaga dodatkowego wysiłku — na przykład wymaga obrania równie bezpośredniej ścieżki — może być tego warte, biorąc pod uwagę niezerowe prawdopodobieństwo i dotkliwość szkody.
  6. Dla przypomnienia, dla uproszczenia w tym artykule zakładamy, że istoty świadome mają pozycję moralną. Zauważamy, że nie wszyscy akceptują fakt, że świadomość jest wystarczająca do osiągnięcia pozycji moralnej, dlatego w przyszłej pracy planujemy zbadać inne proponowane warunki pozycji moralnej. Jednak nadal uważamy to założenie za stosunkowo ekumeniczne z powodów opisanych powyżej.
  7. Wiele teorii, w tym teorie konsekwencjalistyczne i niekonsekwencjalistyczne, przypisuje wagę liczbom, chociaż może to robić na różne sposoby i w różnym stopniu [ 44 , 45 , 46 , 47 ]. Ponadto nawet teorie, które opierają się „podążaniu za liczbami” [ 48 , 49 , 50 ] potrzebują sposobu na rozwiązanie kompromisów, w tym kompromisów między ryzykiem fałszywie pozytywnych i fałszywie negatywnych informacji na temat moralnej cierpliwości.
  8. To skalarne ujęcie ciężaru moralnego ma również wady. Na przykład nasze szacunki dotyczące prawdopodobieństwa i użyteczności mogą być błędne i mogą prowadzić do szkodliwych hierarchii zarówno w obrębie gatunku, jak i pomiędzy nim. Przed przyjęciem takiego poglądu sugerujemy dokładne rozważenie jego zalet i wad. Dalsze dyskusje można znaleźć w [ 21 , 41 , 54 ].
  9. Zobacz [ 22 ], aby zapoznać się z przeglądem proponowanych wystarczających warunków pozycji moralnej AI. Naszym zdaniem prawdopodobnymi kandydatami są nieświadoma sprawczość (tj. zdolność do wyznaczania i realizowania celów w sposób samosterowany) oraz nieświadome funkcje życiowe (tj. zdolność do angażowania się w zachowania, które przyczyniają się do przetrwania i reprodukcji). . Więcej informacji na temat nieświadomego działania można znaleźć w [ 19 , 20 ]. Więcej informacji na temat nieświadomych funkcji życiowych można znaleźć w [ 57 , 58 ].
  10. To prawda, nadal można zaprzeczyć, że wiedza o innych umysłach jest w ogóle możliwa ze względu na trudny problem świadomości [ 59 ] i problem innych umysłów [ 60 , 61 ]. Jednak zaprzeczanie wiedzy innych umysłów potwierdza niepewność co do świadomości AI, a nie pewność, że systemom AI brakuje świadomości. Ponieważ implikacje tego pesymistycznego poglądu są zgodne z wnioskami zawartymi w tym artykule, zakładamy, że ten pesymistyczny pogląd jest fałszywy na potrzeby argumentacji.
  11. Należy zauważyć, że nasza metodologia różni się od propozycji Bircha w świetle teorii, która polega na wykorzystaniu założenia, że ​​świadomość wspomaga pewne zdolności poznawcze, w celu poszukiwania oznak świadomości u zwierząt innych niż ludzie.
  12. Argumenty przemawiające za szacowaniem złożonych i wysoce niepewnych prawdopodobieństw oraz zalecenia dotyczące odpowiedzialnego szacowania można znaleźć w [ 65 ]. Przykładami projektów, które podejmują tę próbę w przypadku podobnie trudnych pytań, jest Carlsmith [ 66 ].
  13. Możliwość wystąpienia tego rodzaju dualizmu omawia David Chalmers w swoim artykule „The Singularity: A Philosophical Analysis” (2009, przyp. 29).
  14. Więcej szczegółów na temat różnych rodzajów samoświadomości można znaleźć w artykule Bermúdeza [ 78 ].
  15. Chalmers [ 101 ] omawia, ale niekoniecznie popiera, opisy przetwarzania informacji w świadomości w The Conscious Mind (1996, s. 276–308).
  16. Żeby było jasne, nie wszystkie poglądy skupiające przetwarzanie informacji oznaczają, że systemy sztucznej inteligencji zbudowane przy użyciu obecnego sprzętu charakteryzują się odpowiednim rodzajem złożoności informacyjnej. Na przykład, choć teoria informacji zintegrowanej ma liberalne implikacje co do tego, które systemy mogą być pod pewnymi względami świadome, czołowi zwolennicy tej teorii uważają, że komputerom brakuje układu przyczynowego wymaganego do uzyskania wysokiego stopnia „zintegrowanej informacji” w odpowiednim sensie [102] . ] Zobacz także Butlin i in. [ 32 ]
  17. „Dokładne” obliczenie, które jest sztucznie bardziej „precyzyjne” niż dane wejściowe, wynosi 0,105%. Oszacowanie to oblicza się w następujący sposób: Pierwsze dwie kolumny to dane wejściowe oparte na subiektywnych przekonaniach. (W tekście głównym omawialiśmy naszą wiarę w spełnienie warunków . Tutaj podajemy naszą wiarę w niespełnienie warunku , aby obliczenia były prostsze.) Z prawdopodobieństwa, że ​​warunki są (a) niezbędne dla świadomości AI oraz (b) nie zostanie spełniony do 2030 r. (pod warunkiem, że będzie konieczny), możemy obliczyć prawdopodobieństwo, że dany warunek stanowi barierę dla wrażliwości na sztuczną inteligencję (tj. jest „konieczny i niespełniony”). Na przykład, gdy pomnożymy prawdopodobieństwo, że konieczne jest powtarzalne przetwarzanie (70%), przez prawdopodobieństwo, że ten warunek nie zostanie spełniony (80%), możemy wyliczyć prawdopodobieństwo, że ten warunek stanowi barierę dla świadomości AI: 70% × 80 % = 56%. A kiedy pomnożymy prawdopodobieństwo, że każdy warunek, łącznie z współczynnikiem X, nie będzie stanowić bariery (zakładając niezależność [zobacz dyskusję]), otrzymamy prawdopodobieństwo, że nic nie stanowi bariery, a zatem systemy sztucznej inteligencji mogą bądź świadomy: tj. (1–80%) x (1–7%)… (1–67,5%) = 0,105%.

    Jeff Sebo i Robert Long

Bibliografia

  1. Zhang, C., Zhang, C., Zheng, S., Qiao, Y., Li, C., Zhang, M., Dam, SK, Thwal, CM, Tun, YL, Huy, LL, Kim, D. , Bae, SH, Lee, LH, Yang, Y., Shen, HT, Kweon, IS, Hong, CS: Kompletna ankieta na temat generatywnej sztucznej inteligencji (AIGC): Czy ChatGPT z GPT-4 na GPT-5 jest wszystkim, czego potrzebujesz? ( arXiv:2303.11717 ). arXiv (2023). http://arxiv.org/abs/2303.11717 . Dostęp: 15 czerwca 2023 r
  2. Meta Bachtin, A., Brown, N., Dinan, E., Farina, G., Flaherty, C., Fried, D., Goff, A., Gray, J., Hu, H., Jacob, AP, Komeili, M., Konath, K., Kwon, M., Lerer, A., Lewis, M., Miller, AH, Mitts, S., Renduchintala, A., Roller, S., Zijlstra, M., Meta Zespół ds. dyplomacji w zakresie fundamentalnych badań nad sztuczną inteligencją (FAIR)†: Gra w dyplomację na poziomie ludzkim poprzez połączenie modeli językowych z rozumowaniem strategicznym. Nauka. 378 (6624), 1067–1074 (2022)
    Artykuł MathSciNet Google Scholar
  3. Padalkar, A., Pooley, A., Jain, A., Bewley, A., Herzog, A., Irpan, A., Khazatsky, A., Rai, A., Singh, A., Brohan, A., Raffin, A., Wahid, A., Burgess-Limerick, B., Kim, B., Schölkopf, B., Ichter, B., Lu, C., Xu, C., Finn, C., Cui, ZJ : Otwarte wykonanie X: zestawy danych do uczenia robotycznego i modele RT-X ( arXiv:2310.08864 ). arXiv (2023). Dostęp: 15 czerwca 2023 r
  4. Villalobos, P.: „Scaling Laws Literature Review”, publikacja internetowa na stronie epochai.org (2023). Pobrano z: ’ https://epochai.org/blog/scaling-laws-literature-review ’. Dostęp: 15 czerwca 2023 r
  5. Bowman, S.: Osiem rzeczy, które warto wiedzieć o dużych modelach językowych ( arXiv:2304.00612 ). arXiv (2023). https://doi.org/10.48550/arXiv.2304.00612 . Dostęp: 15 czerwca 2023 r
  6. Acemoglu, D., Autor, D., Hazell, J., Restrepo, P.: Sztuczna inteligencja i miejsca pracy: dowody z wolnych miejsc pracy w Internecie. J. Law Econ. 40 (S1), S293 – S340 (2022). https://doi.org/10.1086/718327
    Artykuł Google Scholar
  7. Chelliah, J.: Czy sztuczna inteligencja uzurpuje sobie stanowiska umysłowe? Szum. Zasób. Zarządzaj. Wewnętrzne Kopać. 25 (3), 1–3 (2017). https://doi.org/10.1108/HRMID-11-2016-0152
    Artykuł Google Scholar
  8. Zajko, M.: Sztuczna inteligencja, algorytmy i nierówności społeczne: wkład socjologiczny do współczesnych debat. Socjal. Kompas 16 (3), e12962 (2022). https://doi.org/10.1111/soc4.12962
    Artykuł Google Scholar
  9. Hedden, B.: O statystycznych kryteriach rzetelności algorytmicznej. Filos. Publiczny Aff. 49 , 209–231 (2021)
    Artykuł Google Scholar
  10. Long, R.: Uczciwość w uczeniu maszynowym: przeciwko fałszywie dodatniej równości stawek jako miara sprawiedliwości. J Moral Philos 19 (1), 49–78 (2021). https://doi.org/10.1163/17455243-20213439
    Artykuł Google Scholar
  11. Guo, W., Caliskan, A.: wykrywanie pojawiających się uprzedzeń intersekcjonalnych: osadzanie słów w kontekście osadzania zawiera rozkład ludzkich uprzedzeń. Materiały z konferencji AAAI/ACM 2021 na temat sztucznej inteligencji, etyki i społeczeństwa. s. 122–133 (2021). https://doi.org/10.1145/3461702.3462536
  12. Tan, YC, Celis, LE: Ocena uprzedzeń społecznych i międzysekcyjnych w kontekstowych reprezentacjach słów. Postępy w systemach przetwarzania informacji neuronowych. 32 (2019)
  13. D’Alessandro, W., Lloyd, HR, Sharadin, N.: Duże modele językowe i ryzyko biologiczne. Am J Bioetyka. 23 (10), 115–118 (2023)
    Artykuł Google Scholar
  14. Longpre, S., Storm, M., Shah, R.: Zabójcze autonomiczne systemy broni i sztuczna inteligencja: wyzwania i polityki związane z trendami. MIT Sci Policy Rev. 3 , 47–56 (2022). https://doi.org/10.38105/spr.360apm5typ
    Artykuł Google Scholar
  15. Bostrom, N.: Superinteligencja: ścieżki, niebezpieczeństwa, strategie, wyd. 1. Oxford University Press, Oksford (2014)
    Google Scholar
  16. Hendrycks, D.: Dobór naturalny faworyzuje zwierzęta zamiast ludzi ( arXiv:2303.16200 ). ArXiv. (2023). https://doi.org/10.48550/arXiv.2303.16200 . Dostęp: 15 czerwca 2023 r
  17. Vold, K., Harris, D.: W jaki sposób sztuczna inteligencja stwarza ryzyko egzystencjalne? W: Véliz, C. (red.) Oksfordzki podręcznik etyki cyfrowej. Oxford University Press, Oksford (2021)
    Google Scholar
  18. Singer, P., Tse, YF: Etyka AI: uzasadnienie włączenia zwierząt. AI i etyka 3 (2), 539–551 (2023). https://doi.org/10.1007/s43681-022-00187-z
    Artykuł Google Scholar
  19. Delon, N.: Wartość pośrednia. Rękopis w przygotowaniu (nd)
  20. Delon, N., Cook, P., Bauer, G., Harley, H.: Rozważmy czynnik w stawonogu. Świadomość Anim 5 (29), 32 (2020)
    Artykuł Google Scholar
  21. Kagan S.: Jak mniej więcej liczyć zwierzęta. Oxford University Press, Oksford (2019)
    Książka Google Scholar
  22. Ladak, A.: Co kwalifikowałoby sztuczną inteligencję do pozycji moralnej? Etyka sztucznej inteligencji (2023). https://doi.org/10.1007/s43681-023-00260-1
    Artykuł Google Scholar
  23. Cleeremans, A., Tallon-Baudry, C.: Świadomość ma znaczenie: fenomenalne doświadczenie ma wartość funkcjonalną. Świadomość neurologiczna. 1 , niac007 (2022)
    Artykuł Google Scholar
  24. Coeckelbergh, M.: Prawa robota? W stronę społeczno-relacyjnego uzasadnienia rozważań moralnych. Informacje o etyce Techn. 12 , 209–221 (2010)
    Artykuł Google Scholar
  25. Gunkel, DJ: Drugie pytanie: czy roboty mogą i powinny mieć prawa? Informacje o etyce Techn. 20 , 87–99 (2018)
    Artykuł Google Scholar
  26. Danaher, J.: Powitanie robotów w kręgu moralnym: obrona etycznego behawioryzmu. Nauka. inż. Etyka 26 , 2023–2049 (2020)
    Artykuł Google Scholar
  27. Mainzer, K.: Myślenie w złożoności: dynamika obliczeniowa materii, umysłu i ludzkości, s. 23-35. I–VXI. Springer, Berlin (2004)
    Książka MATEMATYKA Google Scholar
  28. Tegmark, M.: Życie 3.0: Być człowiekiem w dobie sztucznej inteligencji. Grupa wydawnicza Knopf Doubleday (2018)
  29. Moosavi, P.: Czy inteligentne maszyny staną się moralnymi pacjentami? Philos Phenomenol Res (2023). https://doi.org/10.1111/phpr.13019
    Artykuł Google Scholar
  30. Fischer, B.: Wprowadzenie do projektu ciężaru moralnego. Przemyśl priorytety (2022). https://rethinkpriorities.org/publications/an-introduction-to-the-moral-weight-project . Dostęp: 15 czerwca 2023 r
  31. Sebo, J.: Odrażający wniosek: utylitaryzm, owady, mikroby i systemy AI. Środowisko Polityki Etycznej. (2023). https://doi.org/10.1080/21550085.2023.2200724
    Artykuł Google Scholar
  32. Butlin, P., Long, R., Elmoznino, E., Bengio, Y., Birch, J., Constant, A., Deane, G., Fleming, SM, Frith, C., Ji, X., VanRullen , R.: Świadomość w sztucznej inteligencji: Spostrzeżenia z nauki o świadomości. Przedruk arXiv arXiv :2308.08708 (2023). Dostęp: 15 czerwca 2023 r
  33. Seth, A.: Dlaczego świadoma sztuczna inteligencja to zły, zły pomysł. Nautilus (2023) https://nautil.us/why-przytomny-ai-is-a-bad-bad-idea-302937/ . Dostęp: 15 czerwca 2023 r
  34. Association for Mathematical Consciousness Science (AMCS): odpowiedzialny rozwój programu sztucznej inteligencji musi obejmować badania nad świadomością (2023) https://amcs-community.org/open-letters/ . Dostęp: 15 czerwca 2023 r
  35. Levy, N., Savulescu, J.: Moralne znaczenie świadomości fenomenalnej. Wałówka. Mózg. Rozdzielczość 177 , 361–370 (2009)
    Artykuł Google Scholar
  36. Chalmers, D.: Rzeczywistość+: światy wirtualne i problemy filozofii. Wojna Światowa Norton (2022)
  37. Lee, AY: Świadomość sprawia, że ​​rzeczy mają znaczenie. Niepublikowany rękopis (nd) https://www.andrewyuanlee.com/_files/ugd/2dfbfe_33f806a9bb8c4d5f9c3044c4086fb9b5.pdf . Dostęp: 15 czerwca 2023 r
  38. Shepherd J.: Świadomość i stan moralny. Routledge, Nowy Jork (2018)
    Książka Google Scholar
  39. Greene, P.: Ryzyko zakończenia nauki symulacyjnej. Erkenntnis 85 (2), 489–509 (2020). https://doi.org/10.1007/s10670-018-0037-1
    Artykuł MathSciNet Google Scholar
  40. Birch, J.: Czujność zwierząt i zasada ostrożności. Świadomość animacji (2017). https://doi.org/10.51291/2377-7478.1200
    Artykuł Google Scholar
  41. Sebo J.: Problem moralny innych umysłów. Harvard Rev Philos 25 , 51–70 (2018). https://doi.org/10.5840/harvardreview20185913
    Artykuł Google Scholar
  42. Wilkinson, H.: W obronie fanatyzmu. Etyka 132 (2), 445–477 (2022). https://doi.org/10.1086/716869
    Artykuł Google Scholar
  43. Monton, B.: Jak uniknąć maksymalizacji oczekiwanej użyteczności. Odcisk filozofów 19 (18), 1–25 (2019)
    Google Scholar
  44. Kamm, FM: Czy słuszne jest zapisanie większej liczby? W: Moralność, śmiertelność, śmierć i kogo przed nią ocalić, tom. 1, s. 99–122. Akademik Oksfordzki, Oksford (1998)
    Google Scholar
  45. Norcross, A.: Porównanie szkód: bóle głowy i życie ludzkie. Filos. Publiczny Aff. 26 (2), 135–167 (1997)
    Artykuł Google Scholar
  46. Tarsney, C.: Niepewność moralna dla deontologów. Teoria etyczna Moral Pract 21 (3), 505–520 (2018). https://doi.org/10.1007/s10677-018-9924-4
    Artykuł Google Scholar
  47. Scanlon, TM: Co zawdzięczamy sobie nawzajem, rozdziały 5–9. Harvard University Press, Cambridge (2000)
    Książka Google Scholar
  48. Foot, P.: Utylitaryzm i cnoty. Proc. Adres Am Philos Assoc 57 (2), 273–283 (1983). https://doi.org/10.2307/3131701
    Artykuł Google Scholar
  49. Kelleher, JP: Trafność i agregacja niekonsekwencjalna. Utilitas 26 (4), 385–408 (2014)
    Artykuł Google Scholar
  50. Taurek J.: Czy liczby powinny się liczyć? Filos. Publiczny Aff. 6 (4), 293–316 (1977)
    Google Scholar
  51. Centrum Bezpieczeństwa AI. Oświadczenie w sprawie ryzyka związanego ze sztuczną inteligencją. (2023) Pobrano 9 czerwca 2023 r. z https://www.safe.ai/statement-on-ai-risk . Dostęp: 15 czerwca 2023 r
  52. Sebo J.: Koło moralne. WW Norton (w przygotowaniu)
  53. de Waal, FBM: Antropomorfizm i antropodenialność: spójność w naszym myśleniu o ludziach i innych zwierzętach. Filos. Szczyt. 27 (1), 255–280 (1999)
    Artykuł Google Scholar
  54. Korsgaard, CM: Bracia: nasze obowiązki wobec innych zwierząt. Oxford University Press, Oksford (2018)
    Książka Google Scholar
  55. Sebo, J.: Ratując zwierzęta, ratując siebie: dlaczego zwierzęta mają znaczenie w przypadku pandemii, zmian klimatycznych i innych katastrof. Oxford University Press, Oksford (2022)
    Książka Google Scholar
  56. Crary, A., Gruen, L.: Kryzys zwierzęcy: nowa teoria krytyczna. Polity, Medford (2022)
    Google Scholar
  57. Goodpaster, KE: O byciu moralnie znaczącym. J.Filos. 75 (6), 308–325 (1978). https://doi.org/10.2307/2025709
    Artykuł Google Scholar
  58. Vilkka, L.: Samoistna wartość przyrody. Genialny (2021)
  59. Chalmers, DJ: Stawianie czoła problemowi świadomości. J. Świadomy. Stadnina. 2 (3), 200–219 (1995)
    Google Scholar
  60. Avramides A.: Inne umysły. Routledge, Londyn (2001)
    Google Scholar
  61. Gomes A.: Czy istnieje problem innych umysłów? Proc. Arystot. Towarzystwo 111 , 353–373 (2011)
    Google Scholar
  62. Carruthers P.: Problem innych umysłów. W: Natura umysłu: wprowadzenie, s. 6–39. Routledge, Londyn (2003)
    Google Scholar
  63. Birch J.: W poszukiwaniu świadomości bezkręgowców. Noûs 56 (1), 133–153 (2022). https://doi.org/10.1111/nous.12351
    Artykuł Google Scholar
  64. Chalmers, D.: Czy duży model językowy może być świadomy? Recenzja Bostonu (2023)
  65. Tetlock, PE, Mellers, BA, Scoblic, JP: Wprowadzanie ocen prawdopodobieństwa do debat politycznych poprzez turnieje prognostyczne. Nauka 355 (6324), 481–483 (2017). https://doi.org/10.1126/science.aal3147
    Artykuł Google Scholar
  66. Carlsmith, J.: Ryzyko egzystencjalne ze strony sztucznej inteligencji poszukującej władzy. W: J. Barrett, H. Greaves i D. Thorstad (red.), Essays on Longtermism . Oxford University Press (w przygotowaniu)
  67. Block, N.: Porównanie głównych teorii świadomości. W: Gazzaniga, MS, Bizzi, E., Chalupa, LM, Grafton, ST, Heatherton, TF, Koch, C., LeDoux, JE, Luck, SJ, Mangan, GR, Movshon, JA, Neville, H., Phelps , EA, Rakic, P., Schacter, DL, Sur, M., Wandell, BA (red.) The Cognitive Neurosciences, s. 1111–1122. MIT Press, Cambridge (2009)
    Google Scholar
  68. Place, U.: Czy świadomość jest procesem mózgowym? Br J. Philos 47 (1), 44–50 (1956)
    Google Scholar
  69. Smart, JJC: Wrażenia i procesy mózgowe. Filos Rev 68 (2), 141–156 (1959)
    Artykuł Google Scholar
  70. Godfrey-Smith, P.: Metazoa: życie zwierzęce i narodziny umysłu. Macmillan, Nowy Jork (2020)
    Google Scholar
  71. Seth, A.: Bycie sobą: nowa nauka o świadomości. Losowy dom pingwina (2021) https://www.penguinrandomhouse.com/books/566315/being-you-by-anil-seth/ . Dostęp: 15 czerwca 2023 r
  72. Shiller, D.: Znaczenie odpowiedniego kształtowania świadomości cyfrowej (nd)
  73. Brunet, TDP, Halina, M.: Umysły, maszyny i cząsteczki. Filos. Szczyt. 48 (1), 221–241 (2020)
    Artykuł Google Scholar
  74. Francken, JC, Beerendonk, L., Molenaar, D., Fahrenfort, JJ, Kiverstein, JD, Seth, AK, van Gaal, S.: Ankieta akademicka na temat podstaw teoretycznych, powszechnych założeń i obecnego stanu nauki o świadomości. Świadomość neurologiczna. (2022). https://doi.org/10.1093/nc/niac011
    Artykuł Google Scholar
  75. Shanahan M.: Ucieleśnienie i życie wewnętrzne: poznanie i świadomość w przestrzeni możliwych umysłów. Oxford University Press, Oksford (2010)
    Książka Google Scholar
  76. Harnad, S.: Problem uziemienia symbolu. Fizyka D 42 , 335–346 (1990)
    Artykuł Google Scholar
  77. Kriegel, U.: Świadomość i samoświadomość. Monist 87 (2), 182–205 (2004)
    Artykuł Google Scholar
  78. Bermúdez, J.: Paradoks samoświadomości. Prasa MIT (2000). https://mitpress.mit.edu/9780262522779/the-paradox-of-self-nieświadomość/ . Dostęp: 15 czerwca 2023 r
  79. Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., Lee, P., Lee, YT, Li, Y., Lundberg, S., Nori , H., Palangi, H., Ribeiro, MT i Zhang, Y.: Sparks of Artificial General Intelligence: Early eksperymenty z GPT-4. ArXiv. http://arxiv.org/abs/2303.12712 (2023). Dostęp: 15 czerwca 2023 r
  80. Chen, B., Kwiatkowski, R., Vondrick, C., Lipson, H.: Wizualne automodelowanie całego ciała morfologii robotów. Robot naukowy. (2022). https://doi.org/10.1126/scirobotics.abn1944
    Artykuł Google Scholar
  81. Pipitone, A., Chella, A.: Robot zdaje egzamin lustra za pomocą mowy wewnętrznej. Robot. Auton. System. 144 , 103838 (2021). https://doi.org/10.1016/j.robot.2021.103838
    Artykuł Google Scholar
  82. Evans, G.: Odmiany odniesienia. W: McDowell JH (red.). Oxford University Press, Oksford (1982)
  83. Kiverstein, J., Clark, A.: Bootstrapping umysłu. Behav Brain Sci 31 (1), 41–58 (2008). https://doi.org/10.1017/s0140525x07003330
    Artykuł Google Scholar
  84. Hurley, SL: Świadomość w działaniu. Harvard University Press, Cambridge (2002)
    Google Scholar
  85. Sebo, J.: Sprawczość i status moralny. J Moral Philos 14 (1), 1–22 (2017). https://doi.org/10.1163/17455243-46810046
    Artykuł Google Scholar
  86. Andreas J.: Modele językowe jako modele agentowe. ArXiv (2022). https://doi.org/10.48550/arXiv.2212.01681 . Dostęp: 15 czerwca 2023 r
  87. Baars, BJ: Globalna teoria świadomości w przestrzeni roboczej: w stronę neuronauki poznawczej ludzkiego doświadczenia. Wałówka. Rozdzielczość mózgu 150 , 45–53 (2005). https://doi.org/10.1016/S0079-6123(05)50004-9
    Artykuł Google Scholar
  88. Baars, BJ, Franklin, S.: Świadomość ma charakter obliczeniowy: model LIDA teorii globalnej przestrzeni pracy. Int J. Mach Conscious 01 (01), 23–32 (2009). https://doi.org/10.1142/S1793843009000050
    Artykuł Google Scholar
  89. Garrido-Merchán, EC, Molina, M., Mendoza-Soto, FM: Implementacja globalnego modelu przestrzeni pracy i jego związki z filozofią umysłu. J Artif Intell Conscious 09 (01), 1–28 (2022). https://doi.org/10.1142/S270507852150020X
    Artykuł Google Scholar
  90. Signa, A., Chella, A., Gentile, M.: Roboty poznawcze i świadomy umysł: przegląd teorii globalnej przestrzeni pracy. Curr Robot Rep 2 (2), 125–131 (2021). https://doi.org/10.1007/s43154-021-00044-7
    Artykuł Google Scholar
  91. Goyal, A., Bengio, Y.: Błędy indukcyjne w głębokim uczeniu się poznania wyższego poziomu. Proc RSA Math Phys Eng Sci 478 (2266), 20210068 (2022). https://doi.org/10.1098/rspa.2021.0068
    Artykuł MathSciNet Google Scholar
  92. Juliani, A., Arulkumaran, K., Sasai, S., Kanai, R.: O związku między świadomą funkcją a ogólną inteligencją u ludzi i maszyn. ArXiv (2022) http://arxiv.org/abs/2204.05133 . Dostęp: 15 czerwca 2023 r
  93. Brown, R., Lau, H., LeDoux, JE: Zrozumienie podejścia do świadomości wyższego rzędu. Trendy Cogn. Nauka. 23 (9), 754–768 (2019). https://doi.org/10.1016/j.tics.2019.06.009
    Artykuł Google Scholar
  94. Chalmers, D.: Metaproblem świadomości. J. Świadomy. Stadnina. 25 (9–10), 6–61 (2018)
    Google Scholar
  95. Lamme, VA: Jak neuronauka zmieni nasze spojrzenie na świadomość. poznanie Neurologia. 1 (3), 204–220 (2010)
    Artykuł Google Scholar
  96. Lamme, VA: Ku prawdziwemu neuronowemu podejściu do świadomości. Trendy Cogn. Nauka. 10 (11), 494–501 (2006). https://doi.org/10.1016/j.tics.2006.09.001
    Artykuł Google Scholar
  97. Malach R.: Lokalne neuronalne struktury relacyjne leżące u podstaw treści świadomego doświadczenia człowieka. Świadomość neurologiczna. (2021). https://doi.org/10.1093/nc/niab028
    Artykuł Google Scholar
  98. Wilterson, AI, Graziano, MSA: Teoria schematu uwagi w agencie sieci neuronowej: kontrolowanie uwagi wzrokowo-przestrzennej za pomocą opisowego modelu uwagi. Proc. Natl. Acad. Nauka. 118 (33), e2102421118 (2021). https://doi.org/10.1073/pnas.2102421118
    Artykuł Google Scholar
  99. Liu, D., Bolotta, S., Zhu, H., Bengio, Y., Dumas, G.: Schemat uwagi w agentach neuronowych. Przedruk arXiv arXiv:2305.17375 (2023)
  100. Graziano, MSA, Guterstam, A., Bio, BJ, Wilterson, AI: W stronę standardowego modelu świadomości: pogodzenie schematu uwagi, globalnej przestrzeni pracy, myślenia wyższego rzędu i teorii iluzjonistycznych. poznanie Neuropsychol. 37 (3–4), 155–172 (2020). https://doi.org/10.1080/02643294.2019.1670630
    Artykuł Google Scholar
  101. Chalmers D.: Świadomy umysł. W: Poszukiwanie teorii fundamentalnej. Oxford University Press, Oksford (1996)
    MATEMATYKA Google Scholar
  102. Koch, C.: Jakie to uczucie być chatbotem? Naukowy Amerykanin (2023). https://www.scientificamerican.com/article/what-does-it-feel-like-to-be-a-chatbot/ . Dostęp: 15 czerwca 2023 r
  103. Tye M.: Dziesięć problemów świadomości. Prasa MIT (1995). https://mitpress.mit.edu/9780262700641/ten-problems-of-fulness/ . Dostęp: 15 czerwca 2023 r
  104. Tye M.: Świadomość, kolor i treść. Prasa MIT (2000). https://mitpress.mit.edu/9780262700887/fulness-color-and-content/ . Dostęp: 15 czerwca 2023 r
  105. Bourget, D., Chalmers, DJ: Philosophers on Philosophy: The 2020 PhilPapers Survey Philosophers’ Imprint (2023) https://philarchive.org/rec/BOUPOP-3 . Dostęp: 15 czerwca 2023 r

Pobierz referencje

Podziękowanie

Dziękuję Toni Sims za obszerną pomoc w przygotowaniu tego artykułu wraz z pomocnymi komentarzami i sugestiami dotyczącymi przedostatniej wersji roboczej. Dziękuję także Joelowi Beckerowi, Christianowi Tarsneyowi, Elliottowi Thornleyowi, Haydenowi Wilkinsonowi i Thomasowi Woodwardowi za pomocne opinie i dyskusję. Na koniec, dziękuję Global Priorities Institute za zorganizowanie seminarium w trakcie prac nad tym artykułem oraz uczestnikom seminarium za pomocne opinie i dyskusję: Adamowi Balesowi, Heather Browning, Bobowi Fischerowi, Andreasowi Mogensenowi, Marcusowi Pivato, Bradowi Saadowi i Dereka Shillera.

Finansowanie

Centrum Efektywnego Altruizmu, A22-0668, Jeff Sebo.

Informacje o autorze

Autorzy i stowarzyszenia

Autor korespondencji

Korespondencja z Jeffem Sebo .

Deklaracje etyczne

Konflikt interesów

W imieniu obu autorów autor do korespondencji oświadcza, że ​​nie ma konfliktu interesów.

Dodatkowe informacje

Nota wydawcy

Springer Nature pozostaje neutralny w odniesieniu do roszczeń jurysdykcyjnych dotyczących opublikowanych map i powiązań instytucjonalnych.

Prawa i uprawnienia

Otwarty dostęp Ten artykuł jest objęty licencją Creative Commons Uznanie autorstwa 4.0, która pozwala na używanie, udostępnianie, adaptację, dystrybucję i reprodukcję na dowolnym nośniku lub w dowolnym formacie, pod warunkiem odpowiedniego podania oryginalnego autora (autorów) i źródła, podaj link do licencji Creative Commons i wskaż, czy wprowadzono zmiany. Obrazy lub inne materiały stron trzecich zawarte w tym artykule są objęte licencją Creative Commons artykułu, chyba że w linii kredytowej dotyczącej materiału wskazano inaczej. Jeśli materiał nie jest objęty licencją Creative Commons artykułu, a zamierzone użycie jest niezgodne z przepisami ustawowymi lub przekracza dozwolone użycie, konieczne będzie uzyskanie zgody bezpośrednio od właściciela praw autorskich. Aby wyświetlić kopię tej licencji, odwiedź http://creativecommons.org/licenses/by/4.0/ .

Przedruki i pozwolenia

O tym artykule

Sprawdź aktualizacje. Zweryfikuj walutę i autentyczność za pomocą CrossMark

Zacytuj ten artykuł

Sebo, J., Long, R. Moralne rozważania dotyczące systemów AI do 2030 r. AI Ethics (2023). https://doi.org/10.1007/s43681-023-00379-1

Link do artykułu: https://link.springer.com/article/10.1007/s43681-023-00379-1