Zrzut ekranu „ChatGPT” w trakcie wyjaśniania Wikipedii.
Czy sztuczna inteligencja może pomóc w pisaniu naukowym?
Krytyczna opieka tom 27 , Numer artykułu: 75 ( 2023 )
Abstrakt
W tym artykule omówiono wykorzystanie Chatbota ze sztuczną inteligencją w piśmie naukowym. ChatGPT to rodzaj chatbota, opracowany przez OpenAI, który wykorzystuje model językowy Generative Pre-trained Transformer (GPT) do rozumienia i reagowania na dane wprowadzane w języku naturalnym. W szczególności chatbot AI i ChatGPT wydają się być przydatnymi narzędziami w pisaniu artykułów naukowych, pomagając badaczom i naukowcom w organizowaniu materiałów, generowaniu wstępnej wersji roboczej i/lub w korekcie. Nie ma publikacji z zakresu medycyny intensywnej opieki przygotowanej z wykorzystaniem tego podejścia; będzie to jednak możliwe w najbliższej przyszłości. Prace ChatGPT nie powinny zastępować ludzkiej oceny, a dane wyjściowe powinny być zawsze przeglądane przez ekspertów przed wykorzystaniem ich w procesie podejmowania krytycznych decyzji lub zastosowaniach. Ponadto w związku z korzystaniem z tych narzędzi pojawia się kilka problemów etycznych, takie jak ryzyko plagiatu i nieścisłości, a także potencjalna nierównowaga w dostępności między krajami o wysokich i niskich dochodach, jeśli oprogramowanie stanie się płatne. Z tego powodu wkrótce potrzebny będzie konsensus co do tego, jak uregulować wykorzystanie chatbotów w piśmiennictwie naukowym.
Wstęp
Chatbot to system elektroniczny (ogólnie oprogramowanie), który symuluje rozmowy, odpowiadając na rozpoznawane przez siebie słowa kluczowe lub frazy i który można zintegrować z różnymi platformami, takimi jak strony internetowe, aplikacje mobilne i platformy do przesyłania wiadomości.
Chatbot Generative Pre-trained Transformer (ChatGPT), opracowany przez OpenAI, to rodzaj oprogramowania sztucznej inteligencji (AI) zaprojektowanego do symulacji rozmów z użytkownikami. Ten chatbot działa za pomocą algorytmów zaprogramowanych do rozumienia danych wejściowych w języku naturalnym i odpowiadania odpowiednimi odpowiedziami, wcześniej napisanymi lub nowo wygenerowanymi przez sztuczną inteligencję. ChatGPT jest stale ulepszany dzięki technikom wzmacniania, przetwarzaniu języka naturalnego i uczeniu maszynowemu, aby poprawić jego zdolność rozumienia i dokładnego reagowania na potrzeby użytkowników. Konkretnie, możesz w konwersacji zapytać o wszystko i otrzymać szybką i adekwatną, ludzką pisemną odpowiedź na swoje pytania lub prośby, takie jak: (a) napisz krótki tekst na dany temat; (b) uzyskać informacje na interesujący temat; (c) skomponować wiadomość e-mail lub wiadomość o określonym tonie, określonej treści, i przeznaczone dla konkretnej osoby; (d) poprawiania kształtu tekstu lub zmiany jego brzmienia; e) rozwiązywać problemy.
Jako taki, ten chatbot mógłby być również używany w pracach naukowych [ 1 ]. Rzeczywiście, ChatGPT może stać się obiecującym i potężnym narzędziem do zadań, takich jak automatyczne generowanie szkiców, streszczanie artykułów i tłumaczenie na język, co może być przydatne w działaniach akademickich, aby przyspieszyć i ułatwić pisanie. Stosowanie tego narzędzia w piśmiennictwie naukowym budzi jednak pewne wątpliwości natury etycznej i dlatego powinno zostać uregulowane.
ChatGPT w piśmie naukowym
ChatGPT jest już w stanie pomóc badaczom medycznym i naukowcom w pisaniu artykułów i streszczeń, w badaniach literatury, podsumowaniu danych lub informacji, dostarczaniu sugestii dotyczących struktury, odniesień i tytułów, w recenzjach językowych, aby tekst był bardziej czytelny, a nawet wygenerować pełny szkic artykułu [ 2 ]. Na tym etapie, choć jest to wykonalne, nie opublikowano dotychczas żadnego artykułu dotyczącego medycyny krytycznej za pomocą tej aplikacji. Ponadto nie wiadomo, czy napisanie manuskryptu dotyczącego medycyny intensywnej opieki byłoby łatwiejsze, czy trudniejsze w porównaniu z innymi dyscyplinami medycznymi. Należy wyjaśnić, jakie są granice możliwych zastosowań tych narzędzi.
ChatGPT może generować tekst na wiele różnych tematów. Niedawno ChatGPT napisał cały list do redakcji, odpowiadając na pytania autora [ 1 ]. Sztuczna Inteligencja nie może generować nowych pomysłów, ale może uporządkować i rozwinąć pomysły badacza, tworząc wstępny szkic. Wydaje się jednak, że jest to punkt wyjścia do opracowania tekstu przez człowieka, ponieważ generowany automatycznie tekst jest daleki od substytutu wiedzy, kreatywności i krytycznego myślenia ludzkich ekspertów.
W przypadku wyszukiwania literatury asystenci naukowi ChatGPT i AI (tacy jak „elicit.org”) mogą pomóc naukowcom w procesie recenzji, znajdując artykuły naukowe, podsumowując ich wnioski i podkreślając obszary niepewności (tj. zastosowanie pozaustrojowego utlenowania membranowego w leczeniu opornego na leczenie zatrzymania krążenia [ 3 ], ryc. 1 ). Może to pomóc lekarzom, na przykład, w szybkim zrozumieniu aktualnego stanu wiedzy na dany temat i zidentyfikowaniu potencjalnych luk, którymi należy się zająć, chociaż dostarczone podsumowanie może być dość ogólne i nie analizować krytycznie różnic wśród studiów.
Podczas procesu pisania ChatGPT może pomóc w wygenerowaniu wstępnej wersji artykułu naukowego, a nawet zasugerować tytuły. Dostarczając surowe informacje, ChatGPT może również pomóc w skomponowaniu sekcji dotyczącej metod zastosowanych w badaniu, uzasadnić wielkość próby i opisać techniki analizy danych. Z doświadczenia autora wynika, że po sfinalizowaniu manuskryptu ChatGPT jest niezwykle skuteczny w procesie redagowania; formatowanie i redakcja językowa, przepisanie szczególnie złożonego zdania w jaśniejszy sposób, a nawet podsumowanie całego tekstu w celu skomponowania odpowiedniego streszczenia są możliwe przy zastosowaniu tego podejścia, choć rezultaty nie zawsze są zadowalające, ale z pewnością oszczędzają czas. ChatGPT został niedawno poproszony o przygotowywanie regularnych podsumowań absolutorium [ 4], ale jakość treści nie została szczegółowo oceniona. Według naszej wiedzy nie przeprowadzono jeszcze ustrukturyzowanej oceny w celu określenia jakości wyników. Bardziej skomplikowane procesy pisania, takie jak systematyczny przegląd i metaanalizy, wymagają interwencji człowieka, a ChatGPT może być pomocny głównie do edycji.
Przyszłe potencjalne zastosowanie sztucznej inteligencji polega na automatycznym generowaniu rysunków, tabel i innych elementów wizualnych manuskryptu, które mogą pomóc w podsumowaniu danych. Te elementy są ważne dla przejrzystości i zrozumienia manuskryptu, ale ich tworzenie jest często czasochłonne.
Co ważne, proces pisania artykułu naukowego wymaga na razie wskazówek i nadzoru badaczy, którzy są ekspertami w tej dziedzinie, aby zapewnić dokładność, spójność i wiarygodność treści przed ich wykorzystaniem lub przedłożeniem do publikacji. Chatboty mogą pomóc, ale potrzebują wkładu badacza, a nieodpowiedni wkład doprowadzi do nieodpowiednich wyników. Z tego powodu chatboty i ogólnie sztuczna inteligencja nie powinny zastępować ekspertyzy, osądu, osobowości i – w ostatecznym rozrachunku – odpowiedzialności badaczy.
Chatboty kontra ludzie
Jako sztuczna inteligencja, ChatGPT ma przewagę pod względem szybkiego głębokiego zrozumienia informacji i łączenia dowodów w celu wyciągnięcia wniosków, w porównaniu z ludźmi, którzy mają ograniczone możliwości czytania obszernej literatury i rozróżniania powiązań między pozornie oddzielnymi fragmentami informacji.
Co więcej, rozpoznanie, czy artykuł został napisany przez chatbota, czy człowieka, może być trudne [ 5 ], ponieważ chatboty wykorzystują zaawansowane techniki, takie jak przetwarzanie języka naturalnego (NLP) i uczenie maszynowe, do generowania tekstu podobnego do ludzkiego pismo. Wykrycie autora jest złożonym zadaniem i wymaga dogłębnej krytycznej lektury, aby dojść do konkluzji. Jednak kilka cech może ujawnić, że artykuł został napisany przez chatbota, na przykład brak niuansów, stylu lub oryginalności, co może pozwolić na identyfikację przez detektory danych wyjściowych AI i sceptycznych recenzentów [6] .]. Co ciekawe, te same cechy pisarskie można było znaleźć w tekstach napisanych w języku, który nie jest językiem ojczystym danej osoby. Koncentrując się na tych cechach, możliwe jest, że wykrywacze plagiatu AI identyfikują dokumenty w języku obcym dla języka angielskiego jako tekst generowany przez sztuczną inteligencję. Interesujące byłoby zbadanie wrażliwości tych narzędzi w wykrywaniu autorów tekstów napisanych przez te dwie grupy.
Niemniej jednak w tekście wygenerowanym przez chatbota może brakować subtelnego sformułowania i doboru słów, których autor-człowiek mógłby użyć do przekazania określonego znaczenia lub tonu. Może być również bardziej niejasny i zawierać niespójności, których nie byłoby w artykule napisanym przez człowieka. Zamiast tego, jeśli artykuł zawiera wysoki poziom błędów strukturalnych i gramatycznych, może sugerować, że został napisany przez człowieka (ale nie powinno być na odwrót). Wreszcie, jeśli artykuł omawia temat, który jest bardzo specyficzny i wysoce techniczny, jest mniej prawdopodobne, że chatbot mógłby wygenerować taki tekst, ponieważ wymagałoby to głębokiego zrozumienia tematu oraz umiejętności generowania analiz naukowych i wniosków.
Względy etyczne
Względy etyczne mogą również ograniczać wykorzystanie tych chatbotów do pisania prac naukowych [ 7 ].
Proces zdobywania wiedzy od innych i pisania nowych lub przeglądowych artykułów obejmuje ludzi obejmujących zarówno to, czego nauczyli się od innych, jak i ich pomysły. To naturalne, że ludzie powtarzają ustalenia, stwierdzenia i prace pisemne innych, a tym samym zbliżają się do popełnienia plagiatu, przedstawiając pomysł bez odpowiedniego odniesienia do oryginalnych autorów. Systemy AI lub ChatGPT mogą popełniać plagiaty zgodnie z tą definicją, ale można je również zaprogramować tak, aby unikały kopiowania innych poprzez przeformułowanie ich pracy w sposób podobny do tego, co robią autorzy-ludzie. Jednak używanie programów do przeformułowania zdań i pisania w celu zmniejszenia odsetka plagiatów (tj. proszenie oprogramowania o przepisanie sekcji napisanej przez innych autorów innymi słowami) nie może być uznane za dopuszczalne w badaniach naukowych. Jeśli zdefiniujemy „plagiat” jako zwykły akt polegający na skopiowaniu czyjejś pracy, po prostu przeformułowaniu tego, co zostało napisane, niezależnie od zastosowanej metody i bez dodania niczego osobistego, jest to naruszenie rzetelności akademickiej. Z tego powodu redaktorzy czasopism powinni używać programów do wykrywania treści pisanych przy użyciu sztucznej inteligencji, aby lepiej wykrywać plagiaty.
Po drugie, brak eksperckiego i krytycznego ludzkiego umysłu stojącego za pracą naukową (która jest podstawą metody naukowej) może prowadzić do ryzyka utrwalenia lub wzmocnienia istniejących uprzedzeń i nieścisłości w danych, dostarczając niesprawiedliwych wyników i hamując rozwój naukowy. Niezależnie od zastosowania AI wierzymy, że obecność eksperta w danej dziedzinie w prowadzeniu działalności naukowej i pisaniu jest niezbędnym kamieniem węgielnym choćby dla zagwarantowania jakości pracy.
Po trzecie, niesamowity rozwój narzędzi AI może doprowadzić do znacznego wzrostu liczby publikacji niektórych badaczy, ale nie towarzyszy temu rzeczywisty wzrost ich doświadczenia w tej dziedzinie. W związku z tym mogą pojawić się problemy etyczne związane z zatrudnianiem specjalistów przez instytucje akademickie, które oceniają raczej liczbę publikacji niż ich jakość.
Po czwarte, to, czy ChatGPT powinno być wymieniane wśród autorów manuskryptu napisanego przy użyciu tego podejścia, nie zostało odpowiednio określone. Wreszcie, jeśli w tej chwili ChatGPT i inne usługi chatbota są bezpłatne, nie ma gwarancji, że nie staną się płatne w przyszłości. Wprowadzenie opłat za dostęp do tych chatbotów mogłoby doprowadzić do dalszych dysproporcji między krajami o wysokich i niskich dochodach (a także między młodszymi a starszymi specjalistami) w produkcji naukowej, co spowodowałoby niesprawiedliwe ułatwienia dla tych pierwszych z nieprzewidywalnymi konsekwencjami.
Chatbot jako narzędzie na OIT
Oprócz pisania artykułów naukowych, ChatGPT może pomóc lekarzom w ich pracy w szpitalu, oszczędzając czas i pozwalając im skupić się na opiece nad pacjentem. Na oddziale intensywnej terapii (OIOM), gdzie wymagane jest ciągłe monitorowanie wielu informacji o pacjencie, takich jak postęp leczenia, wartości laboratoryjne, wyniki mikrobiologiczne i obliczenia bilansu płynów, ChatGPT może pomóc na kilka sposobów.
Po pierwsze, ChatGPT może dostarczyć ogólnych informacji na temat uznanych protokołów OIOM: po otrzymaniu konkretnego żądania, ChatGPT byłby w stanie wygenerować odpowiedź (tj. NA. Co więcej, ChatGPT ma wyraźną przewagę nad ludźmi w szybkim gromadzeniu, zrozumieniu i wykorzystaniu informacji. W przyszłości można ostatecznie nauczyć stosowania tej wiedzy w praktyce klinicznej, przedstawiając najnowsze dowody pracownikom służby zdrowia, jeśli nie bezpośrednio tworząc protokoły dostosowane do potrzeb pacjenta, odzwierciedlające nowe odkrycia.
Obecnie można go już używać do generowania notatek klinicznych, dostarczając tylko surowe informacje, takie jak podsumowania dzienne i podsumowania wypisów, co może zaoszczędzić czas i zwiększyć dokładność. Ponadto może pomóc w komunikowaniu się z pacjentami i rodzinami, tłumaczeniu na inne języki oraz generowaniu spersonalizowanych komunikatów z dokładnymi i aktualnymi informacjami o stanie pacjenta, które nie miałyby na celu zastąpienia relacji lekarz-pacjent (lub lekarz – krewni). Niestety, w zależności od obowiązujących przepisów, przy przekazywaniu informacji o pacjentach mogą pojawić się problemy z prywatnością.
Anegdotycznie, po dostarczeniu informacji klinicznych, wartości laboratoryjnych, historii medycznej i innych istotnych danych, ChatGPT może już pomóc lekarzom, na przykład w określeniu odpowiednich opcji leczenia; należy jednak pamiętać, że odpowiedzi udzielane przez chatbota mogą być błędne lub nieaktualne, ponieważ technologia jest wciąż w fazie rozwoju i może nie zapewniać pożądanego poziomu dokładności, aktualnej wiedzy lub precyzji. Niemniej jednak można uwierzyć, że sztuczna inteligencja będzie się nadal doskonalić w przyszłości i potencjalnie zapewniać dokładniejsze i bardziej wiarygodne wyniki.
W ramach kolejnych perspektyw na przyszłość sztuczną inteligencję można by potencjalnie wyszkolić, aby automatycznie wydobywała i rozumiała wszystkie istotne informacje z elektronicznej dokumentacji medycznej oraz poprzez analizę danych pacjenta, takich jak parametry życiowe, wyniki badań laboratoryjnych i historia medyczna, pomagając lekarzom w szybkim dostępie do informacji o pacjencie , przedstawiając zalecenia dotyczące interwencji i umożliwiając podejmowanie szybszych i bardziej kompleksowych decyzji. Implementacje tych systemów AI, które istnieją już w kilku częściach świata, z chatbotami, mogłyby stworzyć interakcyjny system, który natychmiast dostarczałby opracowane informacje lekarzowi prowadzącemu.
Wnioski
ChatGPT to oprogramowanie AI, które potencjalnie może pomóc w procesie pisania artykułu naukowego i może pomóc w przeglądzie literatury, zidentyfikowaniu pytań badawczych, zapewnieniu przeglądu aktualnego stanu dziedziny i pomocy w zadaniach, takich jak formatowanie i język recenzja. Co więcej, może mieć zastosowanie w praktyce klinicznej jako oszczędność czasu. Ponieważ narzędzia chatbotów będą powszechnie stosowane w najbliższej przyszłości, kluczowe znaczenie ma posiadanie międzynarodowych regulacji akademickich regulujących ich wykorzystanie w piśmiennictwie naukowym i ustanowienie mechanizmów identyfikacji i karania nieetycznego użycia. Chatboty to po prostu narzędzia, które mogą pomagać naukowcom, ale nie powinny zastępować ich wiedzy, osądu i osobowości.
Poprosiliśmy ChatGPT „Czy mógłbyś przejrzeć ten artykuł i powiedzieć nam, czy (jako autor!) zgadzasz się przesłać go do Critical Care Journal?”. (Niezmodyfikowana) odpowiedź od ChatGPT brzmiała: „Jako model AI nie jestem w stanie recenzować ani przesyłać artykułów do czasopism, ponieważ nie jestem badaczem ani autorem. Mogę jednak podzielić się z Państwem uwagami na temat przesłanego przez Państwa dokumentu. Artykuł przedstawia jasny i kompleksowy przegląd potencjalnych zastosowań ChatGPT w piśmiennictwie naukowym, w szczególności w dziedzinie medycyny intensywnej terapii. Wprowadzenie zawiera dobre informacje o chatbotach i ChatGPT oraz o tym, jak można je wykorzystać w różnych zadaniach. W artykule omówiono potencjalne zastosowania ChatGPT w piśmie naukowym, takie jak generowanie szkiców, badanie literatury i przegląd językowy. Artykuł porusza również kwestie etyczne i ograniczenia związane z używaniem ChatGPT w piśmie naukowym. Zalecam ponowne przejrzenie artykułu, sprawdzenie błędów gramatycznych i ortograficznych, i upewnij się, że cytaty i odniesienia są poprawnie sformatowane. Istotne byłoby również odpowiednie zakończenie podsumowujące główne idee artykułu oraz perspektywy na przyszłość. Należy pamiętać, że ChatGPT powinien być zawsze używany w połączeniu z wiedzą i oceną ekspertów, a jego wyniki powinny zostać zweryfikowane przed zastosowaniem w praktyce klinicznej”.
Dostępność danych i materiałów
Nie dotyczy.
Bibliografia
-
Król M.R. Przyszłość sztucznej inteligencji w medycynie: perspektywa chatbota. Ann Biomed inż. 2022;51:291–5. https://doi.org/10.1007/s10439-022-03121-w .
-
Hutson M. Czy sztuczna inteligencja mogłaby ci pomóc w napisaniu kolejnego artykułu? Natura Badania przyrody. 2022;611:192–3.
-
Suverein MM, Delnoij TSR, Lorusso R, Bruinsma GJBB, Otterspoor L, Kraemer CVE i in. Wczesna pozaustrojowa resuscytacja krążeniowo-oddechowa w opornym na leczenie pozaszpitalnym zatrzymaniu krążenia. New English J Med. 2023;388:299–309. https://doi.org/10.1056/NEJMoa2204511 .
-
Patel SB, Lam K. ChatGPT: przyszłość podsumowań absolutorium? Zdrowie cyfr Lanceta. 2023. https://doi.org/10.1016/S2589-7500(23)00021-3 .
-
Else H. Abstrakty napisane przez głupich naukowców ChatGPT. Natura. 2023;613:423–423.
-
Gao CA, Howard FM, Markov NS, Dyer EC, Ramesh S, Luo Y i in. Porównywanie abstraktów naukowych wygenerowanych przez ChatGPT z oryginalnymi abstraktami przy użyciu detektora wyjściowego sztucznej inteligencji, wykrywacza plagiatu i zaślepionych recenzentów. BioRxiv. 2022. https://doi.org/10.1101/2022.12.23.521610v1 .
-
Hammad M. Wpływ programów sztucznej inteligencji (AI) na pisanie badań naukowych. Ann Biomed inż. 2023;51:459–60.
Podziękowanie
Na napisanie tego artykułu nie otrzymaliśmy środków ani wsparcia od OpenAI, co nie jest związane z całym procesem, który doprowadził do przygotowania tego artykułu. Tekst, napisany przy wsparciu ChatGPT przez OpenAI, został jednak zmodyfikowany przez autorów-ludzi, którzy ponoszą pełną odpowiedzialność za formę i treść. Włączenie wśród autorów sztucznej inteligencji, jakkolwiek ironiczne, ma jedynie prowokujący do myślenia cel.
Finansowanie
Badania te nie otrzymały żadnego zewnętrznego finansowania.
Salvagno, M., ChatGPT, Taccone, FS i in. Czy sztuczna inteligencja może pomóc w pisaniu naukowym? Crit Care 27 , 75 (2023). https://doi.org/10.1186/s13054-023-04380-2
Czy sztuczna inteligencja może pomóc w pisaniu naukowym?
Wydawca:
Przyroda Springera
Data:
25 lutego 2023 r
Copyright © 2023, Autor(zy)
Creative Commons
Jest to artykuł o otwartym dostępie rozpowszechniany na warunkach licencji Creative Commons CC BY , która zezwala na nieograniczone użytkowanie, dystrybucję i powielanie na dowolnym nośniku, pod warunkiem prawidłowego cytowania oryginalnego dzieła.
Nie musisz uzyskiwać pozwolenia na ponowne użycie tego artykułu. CC0 dotyczy dodatkowych materiałów związanych z tym artykułem, a uznanie autorstwa nie jest wymagane.
Link do artykułu: https://ccforum.biomedcentral.com/articles/10.1186/s13054-023-04380-2#article-info
Obraz wyróżniający: An screenshot explaining about „ChatGPT” explaining about Wikipedia. Autorstwa Open AI – chat.openai.com, Domena publiczna, https://commons.wikimedia.org/w/index.php?curid=127324281