Czy sztuczna inteligencja może być Twoim kolejnym współpracownikiem – lub zastępcą? PhonlamaiPhoto/iStock za pośrednictwem Getty Images
Od energii parowej i elektryczności po komputery i Internet, postęp technologiczny zawsze zakłócał rynki pracy, wypychając niektóre miejsca pracy i tworząc inne. Sztuczna inteligencja wciąż jest błędną nazwą – najmądrzejsze systemy komputerowe wciąż tak naprawdę nic nie wiedzą – ale technologia osiągnęła punkt zwrotny, w którym może wpłynąć na nowe klasy zawodów: artystów i pracowników umysłowych.
W szczególności pojawienie się dużych modeli językowych – systemów sztucznej inteligencji, które są szkolone na ogromnych ilościach tekstu – oznacza, że komputery mogą teraz tworzyć język pisany przypominający dzieła człowieka i przekształcać opisowe frazy w realistyczne obrazy. The Conversation poprosiło pięciu badaczy sztucznej inteligencji o omówienie, w jaki sposób duże modele językowe mogą wpłynąć na artystów i pracowników umysłowych. Jak zauważyli nasi eksperci, technologia ta jest daleka od doskonałości, co wiąże się z wieloma problemami – od dezinformacji po plagiat – które dotykają pracowników.
Aby szybko przejść do każdej odpowiedzi, oto ich lista:
Kreatywność dla wszystkich – ale utrata umiejętności?
Potencjalne nieścisłości, uprzedzenia i plagiaty
Wraz z wyprzedzeniem ludzi, prace niszowe i „rękodzielnicze” pozostaną
Stare miejsca pracy znikną, pojawią się nowe
Skoki technologiczne prowadzą do nowych umiejętności
Kreatywność dla wszystkich – ale utrata umiejętności?
Lynne Parker, wicekanclerz, University of Tennessee
Duże modele językowe sprawiają, że kreatywność i wiedza są dostępne dla wszystkich. Każdy, kto ma połączenie z Internetem, może teraz używać narzędzi, takich jak ChatGPT lub DALL-E 2, aby wyrazić siebie i zrozumieć ogromne zasoby informacji, na przykład tworząc streszczenia tekstowe.
Szczególnie godna uwagi jest głębia ludzkiej wiedzy eksperckiej wyświetlanej w dużych modelach językowych. W ciągu zaledwie kilku minut nowicjusze mogą tworzyć ilustracje do swoich prezentacji biznesowych, generować propozycje marketingowe, zdobywać pomysły na przezwyciężenie blokady twórczej lub generować nowy kod komputerowy do wykonywania określonych funkcji, a wszystko to na poziomie jakości typowym dla ekspertów.
Oczywiście te nowe narzędzia sztucznej inteligencji nie potrafią czytać w myślach. Potrzebny jest nowy, ale prostszy rodzaj ludzkiej kreatywności w postaci monitów tekstowych, aby uzyskać wyniki, których szuka użytkownik. Poprzez iteracyjne podpowiadanie – przykład współpracy człowieka z sztuczną inteligencją – system sztucznej inteligencji generuje kolejne rundy danych wyjściowych, dopóki człowiek piszący podpowiedzi nie będzie zadowolony z wyników. Na przykład (człowiek) zwycięzca niedawnego konkursu Colorado State Fair w kategorii artystów cyfrowych, który użył narzędzia opartego na sztucznej inteligencji, wykazał się kreatywnością, ale nie taką, która wymaga pędzli oraz wyczucia koloru i tekstury.
Otwarcie świata kreatywności i wiedzy dla wszystkich przynosi znaczne korzyści, ale te nowe narzędzia sztucznej inteligencji mają również wady. Po pierwsze, mogą przyspieszyć utratę ważnych ludzkich umiejętności, które pozostaną ważne w nadchodzących latach, zwłaszcza umiejętności pisania. Instytucje edukacyjne muszą opracować i egzekwować zasady dotyczące dopuszczalnych zastosowań dużych modeli językowych, aby zapewnić uczciwą grę i pożądane efekty uczenia się.
Po drugie, te narzędzia sztucznej inteligencji rodzą pytania dotyczące ochrony własności intelektualnej. Podczas gdy ludzcy twórcy regularnie inspirują się istniejącymi artefaktami na świecie, w tym architekturą i pismami, muzyką i obrazami innych osób, pozostają bez odpowiedzi pytania dotyczące właściwego i uczciwego wykorzystania przez duże modele językowe przykładów szkoleniowych chronionych prawem autorskim lub open source. Kwestia ta jest przedmiotem debaty w toczących się procesach sądowych, co może mieć wpływ na przyszły projekt i wykorzystanie dużych modeli językowych.
Gdy społeczeństwo porusza się po implikacjach tych nowych narzędzi sztucznej inteligencji, wydaje się, że społeczeństwo jest gotowe je przyjąć. Chatbot ChatGPT szybko stał się wirusowy, podobnie jak generator obrazów Dall-E mini i inne. Sugeruje to ogromny niewykorzystany potencjał kreatywności oraz znaczenie udostępniania pracy twórczej i opartej na wiedzy wszystkim.
Potencjalne nieścisłości, uprzedzenia i plagiat
Daniel Acuña, profesor nadzwyczajny informatyki, University of Colorado Boulder
Jestem regularnym użytkownikiem GitHub Copilot, narzędzia pomagającego ludziom pisać kod komputerowy, i spędziłem niezliczone godziny bawiąc się ChatGPT i podobnymi narzędziami do tekstu generowanego przez AI. Z mojego doświadczenia wynika, że te narzędzia są dobre do odkrywania pomysłów, o których wcześniej nie myślałem.
Byłem pod wrażeniem zdolności modeli do tłumaczenia moich instrukcji na spójny tekst lub kod. Są przydatne do odkrywania nowych sposobów usprawnienia przepływu moich pomysłów lub tworzenia rozwiązań za pomocą pakietów oprogramowania, o których istnieniu nie wiedziałem. Kiedy zobaczę, co generują te narzędzia, mogę ocenić ich jakość i mocno edytować. Ogólnie rzecz biorąc, myślę, że podnoszą poprzeczkę w zakresie tego, co uważa się za kreatywne.
Ale mam kilka zastrzeżeń.
Jednym zestawem problemów są ich nieścisłości – małe i duże. Dzięki Copilot i ChatGPT nieustannie sprawdzam, czy pomysły nie są zbyt płytkie — na przykład tekst bez treści lub nieefektywny kod, dane wyjściowe, które są po prostu błędne, takie jak błędne analogie lub wnioski, lub kod, który nie działa. Jeśli użytkownicy nie są krytyczni wobec tego, co wytwarzają te narzędzia, narzędzia te są potencjalnie szkodliwe.
Niedawno Meta zamknęła swój duży model językowy Galactica dla tekstu naukowego, ponieważ składał się z „faktów”, ale brzmiał bardzo pewnie. Obawiano się, że może to zanieczyścić Internet pewnym siebie kłamstwem.
Kolejnym problemem są uprzedzenia. Modele językowe mogą uczyć się na podstawie uprzedzeń danych i je replikować. Te odchylenia są trudne do zauważenia w generowaniu tekstu, ale bardzo wyraźne w modelach generowania obrazów. Badacze z OpenAI, twórcy ChatGPT, byli stosunkowo ostrożni w kwestii reakcji modelu, ale użytkownicy rutynowo znajdują sposoby na obejście tych barier.
Kolejnym problemem jest plagiat. Ostatnie badania wykazały, że narzędzia do generowania obrazów często plagiatują pracę innych osób. Czy to samo dzieje się z ChatGPT? Wierzę, że nie wiemy. Narzędzie może parafrazować swoje dane treningowe – zaawansowaną formę plagiatu. Praca w moim laboratorium pokazuje, że narzędzia do wykrywania plagiatu tekstowego są daleko w tyle, jeśli chodzi o wykrywanie parafrazowania.
Te narzędzia są w powijakach, biorąc pod uwagę ich potencjał. Na razie uważam, że istnieją rozwiązania ich obecnych ograniczeń. Na przykład narzędzia mogą weryfikować wygenerowany tekst w oparciu o bazy wiedzy, wykorzystywać zaktualizowane metody do wykrywania i usuwania błędów z dużych modeli językowych oraz analizować wyniki za pomocą bardziej zaawansowanych narzędzi do wykrywania plagiatu.
Wraz z wyprzedzeniem ludzi, prace niszowe i „rękodzielnicze” pozostaną
Kentaro Toyama, profesor informacji społecznych, University of Michigan
My, ludzie, uwielbiamy wierzyć w naszą wyjątkowość, ale nauka i technologia wielokrotnie dowiodły, że to przekonanie jest błędne. Kiedyś ludzie myśleli, że ludzie są jedynymi zwierzętami, które używają narzędzi, tworzą zespoły lub propagują kulturę, ale nauka wykazała, że inne zwierzęta robią każdą z tych rzeczy.
Tymczasem technologia obaliła, jeden po drugim, twierdzenia, że zadania poznawcze wymagają ludzkiego mózgu. Pierwsza maszyna licząca została wynaleziona w 1623 roku. W zeszłym roku praca wygenerowana komputerowo wygrała konkurs plastyczny. Wierzę, że osobliwość – moment, w którym komputery spotkają się i przewyższą ludzką inteligencję – jest już na horyzoncie.
Jak doceniona zostanie ludzka inteligencja i kreatywność, gdy maszyny staną się mądrzejsze i bardziej kreatywne niż najbystrzejsi ludzie? Prawdopodobnie będzie kontinuum. W niektórych dziedzinach ludzie nadal cenią ludzi za coś, nawet jeśli komputer może to zrobić lepiej. Minęło ćwierć wieku, odkąd IBM Deep Blue pokonał mistrza świata Garry’ego Kasparowa, ale ludzkie szachy – z całym swoim dramatyzmem – nie odeszły w zapomnienie.
W innych dziedzinach ludzkie umiejętności będą wydawać się kosztowne i obce. Weźmy na przykład ilustrację. W większości czytelników nie obchodzi, czy grafika towarzysząca artykułowi w czasopiśmie została narysowana przez człowieka, czy przez komputer – po prostu chcą, aby była aktualna, nowa i być może zabawna. Jeśli komputer potrafi dobrze rysować, czy czytelników obchodzi, czy linia kredytowa mówi Mary Chen czy System X? Ilustratorzy by to zrobili, ale czytelnicy mogą nawet tego nie zauważyć.
I oczywiście to pytanie nie jest czarno-białe. Wiele dziedzin będzie hybrydą, w której niektórzy Homo sapiens znajdą szczęśliwą niszę, ale większość pracy wykonają komputery. Pomyśl o produkcji – większość z nich jest dziś wykonywana przez roboty, ale niektórzy ludzie nadzorują maszyny i pozostaje rynek dla produktów ręcznie robionych.
Jeśli historia jest jakąś wskazówką, jest prawie pewne, że postępy w sztucznej inteligencji spowodują zniknięcie większej liczby miejsc pracy, że ludzie z klasy kreatywnej posiadający umiejętności wyłącznie ludzkie staną się bogatsi, ale będzie ich mniej, a ci, którzy posiadają kreatywną technologię, staną się nową mega -bogaty. Jeśli jest coś pozytywnego, może być tak, że kiedy jeszcze więcej ludzi nie ma przyzwoitych środków do życia, ludzie mogą zebrać wolę polityczną, by powstrzymać niekontrolowane nierówności.
Stare miejsca pracy znikną, pojawią się nowe
Mark Finlayson, profesor nadzwyczajny informatyki, Florida International University
Duże modele językowe są wyrafinowanymi maszynami do uzupełniania sekwencji: daj sekwencję słów („Chciałbym zjeść…”), a zwróci prawdopodobne uzupełnienia („… jabłko”). Duże modele językowe, takie jak ChatGPT, które zostały przeszkolone na rekordowej liczbie słów (biliony), zaskoczyły wielu, w tym wielu badaczy sztucznej inteligencji, tym, jak realistyczne, obszerne, elastyczne i kontekstowe są ich uzupełnienia.
Jak każda potężna nowa technologia, która automatyzuje umiejętność – w tym przypadku generowanie spójnego, choć nieco ogólnego tekstu – wpłynie na tych, którzy oferują tę umiejętność na rynku. Aby wyobrazić sobie, co może się wydarzyć, warto przypomnieć sobie wpływ wprowadzenia edytorów tekstu na początku lat osiemdziesiątych. Niektóre zawody, takie jak maszynistka, prawie całkowicie zniknęły. Ale z drugiej strony każdy, kto miał komputer osobisty, mógł z łatwością generować dobrze złożone dokumenty, znacznie zwiększając produktywność.
Ponadto pojawiły się nowe zawody i umiejętności, o których wcześniej nie można było marzyć, takie jak często dołączany element CV MS Office. A rynek zaawansowanej produkcji dokumentów pozostał, stając się znacznie bardziej wydajny, wyrafinowany i wyspecjalizowany.
Myślę, że ten sam schemat prawie na pewno będzie obowiązywać w przypadku dużych modeli językowych: nie będzie już potrzeby proszenia innych osób o sporządzenie spójnego, ogólnego tekstu. Z drugiej strony duże modele językowe umożliwią nowe sposoby pracy, a także doprowadzą do powstania nowych, niewyobrażalnych jeszcze miejsc pracy.
Aby to zobaczyć, rozważ tylko trzy aspekty, w których duże modele językowe zawodzą. Po pierwsze, może wymagać sporo (ludzkiego) sprytu, aby stworzyć monit, który uzyska pożądane wyniki. Niewielkie zmiany w monicie mogą spowodować poważną zmianę w danych wyjściowych.
Po drugie, duże modele językowe mogą generować nieodpowiednie lub bezsensowne dane wyjściowe bez ostrzeżenia.
Po trzecie, o ile badacze sztucznej inteligencji mogą stwierdzić, duże modele językowe nie mają abstrakcyjnego, ogólnego zrozumienia tego, co jest prawdą, a co fałszem, czy coś jest dobre, czy złe, a co jest po prostu zdrowym rozsądkiem. Warto zauważyć, że nie potrafią wykonać stosunkowo prostej matematyki. Oznacza to, że ich dane wyjściowe mogą nieoczekiwanie wprowadzać w błąd, być stronnicze, błędne logicznie lub po prostu fałszywe.
Te wady są szansą dla pracowników kreatywnych i pracowników wiedzy. W przypadku tworzenia wielu treści, nawet dla ogółu odbiorców, ludzie nadal będą potrzebować osądu pracowników kreatywnych i wiedzy, aby podpowiedzieć, poprowadzić, zestawić, wyselekcjonować, edytować, a zwłaszcza rozszerzyć wydajność maszyn. Wiele rodzajów specjalistycznego i wysoce technicznego języka pozostanie poza zasięgiem maszyn w dającej się przewidzieć przyszłości. Pojawią się też nowe rodzaje pracy – na przykład ci, którzy zrobią biznes z dostrajania wewnętrznych dużych modeli językowych w celu generowania określonych specjalistycznych typów tekstu na potrzeby określonych rynków.
Podsumowując, chociaż duże modele językowe z pewnością zwiastują przełom dla pracowników kreatywnych i umysłowych, wciąż istnieje wiele cennych możliwości dla tych, którzy chcą dostosować się i zintegrować te potężne nowe narzędzia.
Postęp technologiczny prowadzi do nowych umiejętności
Casey Greene, profesor informatyki biomedycznej, University of Colorado Anschutz Medical Campus
Technologia zmienia charakter pracy, a praca oparta na wiedzy nie jest inna. W ciągu ostatnich dwóch dekad biologia i medycyna przechodziły transformację poprzez szybko postępującą charakterystykę molekularną, taką jak szybkie i niedrogie sekwencjonowanie DNA oraz cyfryzację medycyny w postaci aplikacji, telemedycyny i analizy danych.
Niektóre etapy technologii wydają się większe niż inne. Yahoo wysłało kuratorów do indeksowania pojawiających się treści u zarania sieci World Wide Web. Pojawienie się algorytmów, które wykorzystywały informacje osadzone we wzorcach linków w sieci w celu nadania priorytetu wynikom, radykalnie zmieniło krajobraz wyszukiwania, zmieniając sposób, w jaki ludzie zbierają dziś informacje.
Wydanie ChatGPT OpenAI wskazuje na kolejny skok. ChatGPT zawiera najnowocześniejszy duży model językowy dostosowany do czatu w wysoce użyteczny interfejs. Dzięki temu dekada szybkiego postępu w dziedzinie sztucznej inteligencji jest na wyciągnięcie ręki. To narzędzie może pisać zadowalające listy motywacyjne i instruować użytkowników, jak rozwiązywać typowe problemy w wybranych przez użytkownika stylach językowych.
Tak jak umiejętności wyszukiwania informacji w Internecie zmieniły się wraz z pojawieniem się Google, umiejętności niezbędne do uzyskania najlepszych wyników z modeli językowych będą koncentrować się na tworzeniu monitów i szablonów podpowiedzi, które generują pożądane wyniki.
W przypadku przykładu listu przewodniego możliwych jest wiele monitów. „Napisz list motywacyjny na stanowisko” dałoby bardziej ogólny wynik niż „Napisz list motywacyjny na stanowisko specjalisty ds. wprowadzania danych”. Użytkownik może tworzyć jeszcze bardziej szczegółowe monity, wklejając fragmenty opisu stanowiska, CV i szczegółowe instrukcje – na przykład „podkreśl dbałość o szczegóły”.
Podobnie jak w przypadku wielu postępów technologicznych, sposób interakcji ludzi ze światem zmieni się w dobie powszechnie dostępnych modeli sztucznej inteligencji. Pytanie brzmi, czy społeczeństwo wykorzysta ten moment, aby zwiększyć równość lub pogłębić dysproporcje.
Lynne Parker, Casey Greene, Daniel Acuña, Kentaro Toyama i Mark Finlayson
Oświadczenie o ujawnieniu
Lynne Parker jest powiązana z dwiema organizacjami non-profit — Center for New American Security jako adiunkt oraz Special Competitive Studies Project jako ekspert-doradca.
Casey Greene otrzymuje fundusze z National Institutes of Health na prace nad metodami uczenia maszynowego do integracji danych biomedycznych, w tym R01 CA237170, R01 HG010067, R01 LM013863 i R01 HD109765, a także z Fundacji Gordona i Betty Moore (GBMF 4552). Casey Greene jest konsultantem Arcadia Science i SomaLogic.
Daniel Acuña otrzymuje fundusze z US Office of Research Integrity granty ORIIR180041, ORIIIR190049, ORIIIR200052 i ORIIIR210062, związane z automatycznymi metodami wykrywania manipulacji obrazami i plagiatu. Otrzymał również fundusze z National Science Foundation, Sloan Foundation i DARPA w ramach projektu SCORE Centrum Otwartej Nauki.
Kentaro Toyama otrzymuje fundusze od National Science Foundation, Russell Sage Foundation i University of Michigan.
Mark Finlayson otrzymuje fundusze od amerykańskiej Narodowej Fundacji Nauki (NSF) i Amerykańskiej Agencji Zaawansowanych Projektów Obronnych (DARPA) na pracę nad przetwarzaniem języka naturalnego. Od 2019 roku pełni również funkcję Edison Fellow for AI w Urzędzie Patentów i Znaków Towarowych Stanów Zjednoczonych (USPTO).
Ponownie publikuj nasze artykuły za darmo, online lub w formie drukowanej, na licencji Creative Commons.
Ten artykuł został ponownie opublikowany z The Conversation na licencji Creative Commons. Przeczytaj oryginalny artykuł .
Link do artykułu: https://theconversation.com/ai-and-the-future-of-work-5-experts-on-what-chatgpt-dall-e-and-other-ai-tools-mean-for-artists-and-knowledge-workers-196783