Fot.: ChatGPT, system oparty na sztucznej inteligencji, przeszkolony w zakresie wykonywania instrukcji i prowadzenia rozmów, może tworzyć przepisy za pomocą prostego podpowiedzi. Madyson Fitzgerald/Stateline
Stany zmagają się ze zrozumieniem technologii, aby móc wprowadzić zasady.
W marcu senator stanu Hawaje Chris Lee wprowadził przepisy wzywające Kongres USA do rozważenia korzyści i zagrożeń związanych z technologiami sztucznej inteligencji.
Ale on tego nie napisał. Sztuczna inteligencja to zrobiła.
Lee poinstruował ChatGPT, system oparty na sztucznej inteligencji, przeszkolony w zakresie wykonywania instrukcji i prowadzenia rozmów, aby napisał akt prawny podkreślający potencjalne zalety i wady sztucznej inteligencji. W ciągu kilku chwil podjęto decyzję. Lee skopiował i wkleił cały tekst, nie zmieniając ani słowa.
Rezolucję przyjęto w kwietniu przy poparciu obu partii.
„To było oświadczenie, że wykorzystanie sztucznej inteligencji do pisania przepisów – całego prawa – było prawdopodobnie największą rzeczą, jaką mogliśmy zrobić, aby pokazać, jakie mogą być dobre i złe strony sztucznej inteligencji” – powiedział Lee, demokrata w wywiadzie dla Stan.
ChatGPT, który w tym roku odbił się szerokim echem w całym kraju, to tylko jeden przykład sztucznej inteligencji. Sztuczna inteligencja może odnosić się do uczenia maszynowego, w którym firmy korzystają z algorytmów naśladujących sposób, w jaki ludzie uczą się i wykonują zadania. Sztuczna inteligencja może również odnosić się do zautomatyzowanego podejmowania decyzji. Mówiąc szerzej, słowa „sztuczna inteligencja” mogą przywoływać obrazy robotów.
Chociaż organizacje i eksperci próbowali zdefiniować sztuczną inteligencję, nie ma konsensusu co do jednej definicji. To sprawia, że poszczególne stany zmagają się z problemem zrozumienia technologii, aby móc wprowadzić zasady.
„Nie ma złotego środka, który można by znaleźć, co dalej robić” – powiedział Lee.
Jak wynika z raportu Krajowej Konferencji Ustawodawców Stanowych, brak jednolitej definicji stanowi wyzwanie dla ustawodawców próbujących stworzyć przepisy dotyczące rozwijającej się technologii. Raport pochodzi z grupy zadaniowej NCSL ds. sztucznej inteligencji, cyberbezpieczeństwa i prywatności, składającej się z ustawodawców z około połowy stanów.
Wiele stanów przyjęło już przepisy dotyczące badania lub regulowania sztucznej inteligencji. Jak wynika z analizy krajowej grupy legislacyjnej, w 2023 r. prawodawcy w co najmniej 24 stanach i Dystrykcie Kolumbii wprowadzili projekty ustaw związanych ze sztuczną inteligencją, a co najmniej 14 stanów przyjęło uchwały lub uchwaliło przepisy.
Niektóre, jak na przykład Teksas i Dakota Północna, utworzyły grupy zajmujące się badaniem sztucznej inteligencji. Inne, między innymi Arizona i Connecticut, zajęły się wykorzystaniem systemów sztucznej inteligencji w jednostkach władz stanowych.
Nowe prawo Connecticut, które będzie wymagało od stanu regularnej oceny swoich systemów zawierających sztuczną inteligencję, definiuje sztuczną inteligencję częściowo jako „sztuczny system”, który wykonuje zadania „bez znaczącego nadzoru ze strony człowieka lub może uczyć się na podstawie doświadczeń i poprawiać swoje wyniki pod wpływem danych”.
Jednak każde państwo, które definiuje sztuczną inteligencję w swoim ustawodawstwie, robi to inaczej. Na przykład Luizjana w tegorocznej rezolucji stwierdziła, że sztuczna inteligencja „łączy informatykę i solidne zbiory danych, aby umożliwić rozwiązywanie problemów bezpośrednio konsumentom”.
Jak niektóre przepisy stanowe definiują sztuczną inteligencję
- Connecticut SB 1103 : „sztuczny system, który „wykonuje zadania w zmiennych i nieprzewidywalnych okolicznościach bez znaczącego nadzoru ze strony człowieka lub może uczyć się na podstawie doświadczenia i poprawiać swoją wydajność po wystawieniu na działanie zbiorów danych”.
- Louisiana SCR 49 : „Łączy informatykę i solidne zbiory danych, aby umożliwić rozwiązywanie problemów bezpośrednio konsumentom”.
- Dakota Północna HB 1361 : „Osobowość” nie obejmuje „sztucznej inteligencji”.
- Rhode Island H 6423 : obejmuje „skomputeryzowane metody i narzędzia, w tym między innymi uczenie maszynowe i przetwarzanie języka naturalnego, które działają w sposób przypominający ludzkie zdolności poznawcze, jeśli chodzi o rozwiązywanie problemów lub wykonywanie określonych zadań”.
- Texas HB 2060 : Systemy zdolne do „postrzegania środowiska poprzez gromadzenie i przetwarzanie danych oraz interpretowanie uzyskanych informacji w celu podjęcia działania lub działań lub naśladowania inteligentnego zachowania przy określonym celu oraz uczenia się i dostosowywania zachowań poprzez analizę wpływu wcześniejszych czynników na środowisko działania.”
„Myślę, że definicja jest po prostu szara, ponieważ jest to tak szeroki i rozwijający się obszar, którego ludzie na ogół nie rozumieją” – powiedział Lee.
Sztuczna inteligencja to trudny temat, ale republikanka ze stanu Rhode Island Jennifer Stewart, Demokratka zasiadająca w stanowej Komisji ds. Innowacji, Internetu i Technologii Izby Reprezentantów, stwierdziła, że niepewność nie powinna powstrzymywać ustawodawców przed dalszymi działaniami.
„Uważam, że możemy uregulować i wykorzystać to, co stworzyliśmy” – powiedziała. „I nie powinniśmy się denerwować ani bać brodzić w tych wodach”.
Inne próby zdefiniowania sztucznej inteligencji
W ustawie National Artificial Intelligence Initiative Act z 2020 r. starano się zdefiniować sztuczną inteligencję, opisując ją jako „system oparty na maszynach, który może, dla danego zestawu celów określonych przez człowieka, formułować przewidywania, zalecenia lub decyzje wpływające na środowiska rzeczywiste lub wirtualne”, zgodnie z ustawa federalna , która weszła w życie 1 stycznia 2021 r.
Plan prezydenta Joe Bidena dotyczący karty praw AI, zbiór zasad przewodnich opracowanych przez Biały Dom w zakresie korzystania z systemów zautomatyzowanych, rozszerza definicję na „systemy zautomatyzowane, które mogą potencjalnie znacząco wpłynąć na prawa, możliwości lub dostęp amerykańskiego społeczeństwa do krytycznych zasobów lub usług.”
Unia Europejska, Google grupa handlowa znana jako BSA | Software Alliance i wiele innych podmiotów opracowało podobne, ale różne definicje sztucznej inteligencji. Jednak eksperci i ustawodawcy zajmujący się sztuczną inteligencją wciąż pracują nad ostateczną definicją i rozważają, czy konkretna definicja jest w ogóle konieczna do wprowadzenia ram regulacyjnych.
Na najbardziej podstawowym poziomie sztuczna inteligencja odnosi się do systemów maszynowych, które generują wyniki na podstawie wprowadzonych do nich informacji, powiedział Sylvester Johnson, prorektor ds. technologii interesu publicznego w Virginia Tech.
Jednak różne programy sztucznej inteligencji działają w oparciu o sposób, w jaki systemy te zostały przeszkolone do korzystania z danych, o czym – stwierdził Johnson – ustawodawcy powinni wiedzieć.
„Sztuczna inteligencja rozwija się bardzo szybko” – powiedział. „Jeśli naprawdę chcesz, aby ludzie tworzący zgromadzenia polityczne i legislacyjne na szczeblu federalnym lub stanowym byli bogato poinformowani, potrzebujesz ekosystemu zaprojektowanego w celu zapewnienia zwięzłego i precyzyjnego sposobu informowania ludzi o trendach i zmianach, które dzieją się w technologii.”
Podjęcie decyzji, jak szeroka powinna być definicja sztucznej inteligencji, jest poważnym wyzwaniem, powiedział Jake Morabito, dyrektor grupy zadaniowej ds. komunikacji i technologii w Amerykańskiej Radzie Wymiany Legislacyjnej. ALEC, konserwatywna organizacja polityki publicznej, wspiera rozwiązania wolnorynkowe i egzekwowanie istniejących przepisów, które mogłyby obejmować różne zastosowania sztucznej inteligencji.
„Lekkie” podejście do regulowania sztucznej inteligencji pomogłoby Stanom Zjednoczonym stać się liderem technologii na arenie międzynarodowej, ale biorąc pod uwagę zapał do ChatGPT i innych systemów, prawodawcy na wszystkich poziomach powinni analizować rozwój tej technologii w celu lepszego zrozumienia, powiedział Morabito.
„Po prostu uważam, że ta technologia nie jest już gotowa i nie możemy włożyć jej z powrotem do butelki” – powiedział Morabito. „Musimy to w pełni zrozumieć. Myślę, że prawodawcy mogą wiele zrobić, aby przyspieszyć zrozumienie, w jaki sposób możemy zmaksymalizować korzyści, ograniczyć ryzyko i zapewnić rozwój tej technologii na naszych wybrzeżach, a nie za granicą”.
Niektórzy eksperci uważają, że ustawodawcy nie potrzebują definicji regulującej sztuczną inteligencję. Jeśli chodzi o zastosowanie sztucznej inteligencji – specyficznego obszaru, w którym wykorzystuje się sztuczną inteligencję – definicja nie jest całkowicie wymagana – argumentował Alex Engler, pracownik naukowy zajmujący się badaniami nad zarządzaniem w Brookings Institution.
– Alex Engler, pracownik naukowy zajmujący się zarządzaniem w Brookings Institution
Zamiast tego, powiedział, podstawowy zestaw zasad powinien mieć zastosowanie do każdego programu korzystającego z systemów zautomatyzowanych, bez względu na cel.
Można w zasadzie powiedzieć: «Nie obchodzi mnie, jakiego algorytmu używasz, musisz spełnić te kryteria» – powiedział Engler. To nie znaczy, że dosłownie nie ma definicji, oznacza to po prostu, że nie uwzględnia się niektórych algorytmów, a innych nie.
Skupianie się na konkretnych systemach, takich jak generatywna sztuczna inteligencja zdolna do tworzenia tekstu lub obrazów, może być niewłaściwym podejściem – stwierdził.
Podstawowe pytanie, powiedział Engler, brzmi: Jak zaktualizować nasze społeczeństwo obywatelskie i nasze zabezpieczenia konsumentów, aby ludzie nadal je mieli w erze algorytmicznej?
Potencjalne szkody
Ustawodawstwo przyjęte przez niektóre stany w ciągu ostatnich kilku lat próbowało odpowiedzieć na to pytanie. Chociaż Kentucky nie jest w czołówce – stanowa legislatura niedawno utworzyła nowe komisje zajmujące się technologią – senator stanowy Whitney Westerfield, republikanin i członek grupy zadaniowej NCSL ds. sztucznej inteligencji, powiedział, że „lawina rachunków” w całym kraju wynika z tego, że ludzie się boją.
Zauważył, że technologia sztucznej inteligencji nie jest nowa, ale teraz, gdy temat jest w centrum uwagi, opinia publiczna – i ustawodawcy – zaczynają reagować.
Kiedy [ustawodawcy] mają w ręku młotek legislacyjny, wszystko jest gwoździem – powiedział Westerfield. „A jeśli pojawia się historia o tym, tym czy innym, nie musi nawet wpływać na ich wyborców, myślę, że to tylko dodaje więcej oliwy do ognia”.
Potencjalne szkody związane z wykorzystaniem sztucznej inteligencji tworzą impuls do wprowadzenia większej liczby regulacji. Na przykład, niektóre narzędzia sztucznej inteligencji mogą powodować namacalne szkody poprzez powielanie ludzkich uprzedzeń, podejmowanie decyzji lub działań, które faworyzują pewne grupy względem innych, powiedziała Megan Price, dyrektor wykonawczy Human Rights Data Analysis Group.
Grupa non-profit stosuje naukę o danych do analizy naruszeń praw człowieka na całym świecie. Price opracowała kilka metod analizy statystycznej danych dotyczących praw człowieka, które pomogły jej w oszacowaniu liczby zgonów związanych z konfliktem w Syrii. Jak powiedziała, organizacja wykorzystuje również sztuczną inteligencję w niektórych własnych systemach.
Potencjalne implikacje sztucznej inteligencji i jej mocy stworzyły odpowiednie poczucie pilności wśród prawodawców, powiedziała Price. Ważenie potencjalnych szkód i zastosowań, tak jak robi to jej zespół, ma kluczowe znaczenie.
I tak naprawdę pytanie brzmi: kiedy popełniony zostanie błąd, jaki jest koszt i kto go poniesie? – zapytała.
Warto również zwrócić uwagę na nowy nacisk na sprawiedliwość społeczną w technologii, powiedział Johnson z Virginia Tech. „Technologia interesu publicznego” to rosnący ruch wśród grup sprawiedliwości społecznej, który koncentruje się na tym, jak sztuczna inteligencja może działać na rzecz dobra publicznego i korzyści publicznych.
Myślę, że jeśli istnieje powód do nadziei na faktyczne zwiększenie naszej zdolności do regulowania technologii w sposób, który poprawia życie ludzi i ich wyniki, to [technologia interesu publicznego] jest drogą do zrobienia – powiedział Johnson.
Link do artykułu:
What is artificial intelligence? Legislators are still looking for a definition.
Nasze historie [artykuły Sateline] mogą być ponownie publikowane w Internecie lub w formie drukowanej na licencji Creative Commons CC BY-NC-ND 4.0. Prosimy o edycję wyłącznie w celu nadania stylu lub skrócenia, podanie odpowiedniego źródła i linku do naszej strony internetowej. Prosimy o zapoznanie się z naszymi wytycznymi dotyczącymi ponownego publikowania dotyczącymi wykorzystania zdjęć i grafik.