Jak organizacje mogą przygotować się na generatywną sztuczną inteligencję?

0
105

Obraz: Renderowanie ludzkiego mózgu. Commons – repozytorium wolnych multimediów

  • Organizacje na całym świecie znacznie nie doceniają ryzyka związanego ze sztuczną inteligencją.

  • Niewłaściwe wdrożenie sztucznej inteligencji może utrwalić istniejące nierówności w miejscu pracy.

  • Badamy, w jaki sposób firmy mogą zapewnić etyczne wdrożenie generatywnej sztucznej inteligencji.

Wśród niedawnego szumu wokół ChatGPT i generatywnej sztucznej inteligencji (AI) wiele osób chce wykorzystać coraz bardziej wyrafinowany potencjał tej technologii.

Jednak wyniki badania AI przeprowadzonego przez firmę Baker McKenzie w Ameryce Północnej w 2022 r. wskazują, że liderzy biznesowi mogą obecnie nie doceniać zagrożeń związanych ze sztuczną inteligencją dla ich organizacji. Tylko 4% respondentów na szczeblu kierowniczym stwierdziło, że ryzyko związane z wykorzystaniem sztucznej inteligencji uważa za „znaczące”, a mniej niż połowa stwierdziła, że ​​ma wiedzę na temat sztucznej inteligencji na poziomie zarządu.

Liczby te rzucają światło na niepokojącą rzeczywistość: wiele organizacji jest niedostatecznie przygotowanych na sztuczną inteligencję, brakuje im odpowiedniego nadzoru i wiedzy ze strony kluczowych decydentów w zakresie zarządzania ryzykiem. A jeśli nie zostaną rozwiązane, organizacyjne martwe punkty wokół etycznego i skutecznego wdrażania technologii prawdopodobnie przyćmią możliwości transformacji, powodując jednocześnie, że organizacje stracą tempo z gwałtownym rozwojem technologii.

Jak generatywna sztuczna inteligencja zmienia krajobraz ryzyka?

Obecnie postęp i adopcja sztucznej inteligencji następują w tempie wykładniczym – niektórzy twierdzą, że zbyt szybko.

Chociaż ten wykładniczy wzrost ponownie skupił się na wykorzystaniu sztucznej inteligencji, rzeczywistość jest taka, że ​​akademicy, naukowcy, decydenci, prawnicy i inne osoby od pewnego czasu prowadzą kampanie na rzecz etycznego i legalnego wykorzystania i wdrożenia sztucznej inteligencji, szczególnie w miejsce pracy, w którym istnieją liczne zastosowania AI w funkcji HR (np. pozyskiwanie talentów, obowiązki administracyjne, szkolenie pracowników).

Według naszego badania 75% firm korzysta już z narzędzi i technologii sztucznej inteligencji do celów rekrutacyjnych i HR.

W tej nowej fazie generatywnej sztucznej inteligencji podstawowe założenia dotyczące wdrażania sztucznej inteligencji – takie jak zarządzanie, odpowiedzialność i przejrzystość – są ważniejsze niż kiedykolwiek, podobnie jak obawy dotyczące konsekwencji źle wdrożonej sztucznej inteligencji.

Na przykład niekontrolowane algorytmy mogą skutkować stronniczymi i dyskryminującymi wynikami, utrwalając nierówności i hamując postęp różnorodności siły roboczej. Prywatność danych i naruszenia to kolejny problem, który łatwo pojawia się w wyniku nieanonimizacji i gromadzenia danych pracowników.

Generatywna sztuczna inteligencja ustąpiła również miejsca nowym rozważaniom dotyczącym własności intelektualnej, rodząc pytania dotyczące własności zarówno danych wejściowych, jak i wyjściowych z programów stron trzecich oraz późniejszych obaw związanych z naruszeniem praw autorskich.

Ogólnie rzecz biorąc, widzieliśmy, jak rządy i organy regulacyjne starają się wdrożyć przepisy dotyczące sztucznej inteligencji i mechanizmy egzekwowania przepisów. W Stanach Zjednoczonych głównym tematem powstających przepisów będzie przypadek użycia sztucznej inteligencji w zatrudnianiu i operacjach związanych z zasobami ludzkimi.

Na horyzoncie są również spory sądowe, w tym pozwy zbiorowe. W Stanach Zjednoczonych obserwujemy już pierwszą falę generatywnych sporów dotyczących własności intelektualnej AI, a te wczesne orzeczenia sądowe kształtują krajobraz prawny pozbawiony istniejących regulacji.

Organizacje, które wdrażają generatywną sztuczną inteligencję, powinny również założyć, że dane wprowadzane do narzędzi i zapytań AI będą gromadzone przez zewnętrznych dostawców technologii. W niektórych przypadkach dostawcy ci będą mieli prawo do wykorzystywania i/lub ujawniania tych danych wejściowych.

Czy pracodawcy, chcąc wyposażyć swoich pracowników w generatywne narzędzia sztucznej inteligencji, narażają wrażliwe dane i tajemnice handlowe? Krótko mówiąc, tak. Podsumowując, wydaje się, że każdy nowy rozwój stawia pytania szybciej, niż organizacje, organy regulacyjne i sądy mogą na nie odpowiedzieć.

W jaki sposób organizacje mogą zwiększyć gotowość AI?

Generatywna sztuczna inteligencja zmienia paradygmat, a ryzyko związane z określonymi przypadkami użycia będzie nadal się pojawiać. Aby pozostać w czołówce, organizacje będą musiały wyjść z dotychczasowych podejść poza izolowane wysiłki i połączyć oddzielne funkcje pod parasolem silnych ram zarządzania.

Podczas gdy wiele organizacji polega na analitykach danych, aby przewodzić inicjatywom AI, wszyscy interesariusze, w tym dział prawny, kadra kierownicza, zarządy, ochrona prywatności, zgodność i HR, muszą być zaangażowani w cały proces decyzyjny.

Ta luka w reprezentacji została wyraźnie podkreślona w wynikach naszego badania. Obecnie tylko 54% respondentów stwierdziło, że ich organizacja angażuje HR w proces decyzyjny dotyczący narzędzi AI, a tylko 36% respondentów stwierdziło, że ma na swoim miejscu Chief AI Officer (CAIO).

W tym środowisku wysokiego ryzyka CAIO będzie odgrywać kluczową rolę w zapewnianiu odpowiedniego zarządzania i nadzoru na poziomie C-Suite oraz angażować HR w szkolenie i wspieranie interdyscyplinarnego zespołu AI.

Równolegle z tym organizacje powinny przygotować i przestrzegać ram ładu wewnętrznego, które uwzględniają ryzyko przedsiębiorstwa w różnych przypadkach użycia i umożliwiają firmie skuteczne wprowadzanie prawidłowych dostosowań zgodności po zidentyfikowaniu problemów.

Ryzyko dla firm bez struktury zarządzania AI i braku nadzoru ze strony kluczowych interesariuszy – lub tych, które polegają hurtowo na narzędziach stron trzecich – polega na wykorzystaniu narzędzi AI w sposób, który powoduje powstanie odpowiedzialności prawnej organizacji (np. roszczenia o dyskryminację).

Praktycznie wszystkie procesy decyzyjne, czy to oparte na sztucznej inteligencji, czy w inny sposób, powodują stronniczość. Firmy korzystające z tych narzędzi muszą opracować ramy określające podejście do oceny stronniczości oraz mechanizm testowania i unikania bezprawnej stronniczości, a także zapewnić spełnienie odpowiednich wymogów dotyczących prywatności danych.

Wysiłki na rzecz zwalczania uprzedzeń powinny być dalej wspierane przez skuteczne środki testów przed i po wdrożeniu.

Firmy, które wdrażają sztuczną inteligencję, muszą również upewnić się, że istnieją procesy, które zapewniają jasne zrozumienie używanych zestawów danych, funkcjonalności algorytmów i ograniczeń technologicznych, ponieważ proponowane przepisy prawdopodobnie będą obejmować wymogi dotyczące sprawozdawczości.

Ostateczna perspektywa AI

Wniosek jest prosty: sztuczna inteligencja jest szeroko i szybko wdrażana i zapewnia wiele korzyści. Jednak jest on wdrażany i rozwijany tak szybko, że strategiczny nadzór i zarządzanie stają się jeszcze bardziej krytyczne dla jego odpowiedzialnego wykorzystania i ograniczania ryzyka.

Wiele organizacji nie jest przygotowanych na sztuczną inteligencję i nie docenia ryzyka, przez co gotowość do wdrożenia tej technologii bez odpowiednich barier jest niepokojąca.

Na szczęście dzięki ustanowieniu silnych struktur zarządzania i nadzoru organizacje mogą wytrzymać te technologiczne fale bez względu na to, na jakim etapie swojej podróży AI się znajdują.

Poza tym długoterminowe rozwiązanie zarządzania ryzykiem związanym ze sztuczną inteligencją będzie polegać na połączeniu sił poinformowanych interesariuszy z sektora prawnego, regulacyjnego i prywatnego w celu opracowania przepisów, kodeksów postępowania lub wytycznych, które uznają zarówno możliwości, jak i zagrożenia, jakie stwarza technologia.

Dzięki bezpiecznym ramom organizacje mogą wdrażać technologię sztucznej inteligencji i pewniej wykorzystywać jej zalety.

Krissy Katzenstein

PartnerBaker McKenzie

Brada Newmana

PartnerBaker McKenzie

Robina J. Samuela

Partner, praktyka zatrudnienia i odszkodowańBaker McKenzie

Julia Wilson

Partner, Zatrudnienie i ochrona danychBaker McKenzie.

 

Link do artykułu: https://www.weforum.org/agenda/2023/05/how-can-organizations-prepare-for-generative-ai/

Licencja i ponowne publikowanie
Artykuły Światowego Forum Ekonomicznego mogą być publikowane ponownie zgodnie z międzynarodową licencją publiczną Creative Commons Uznanie autorstwa-Użycie niekomercyjne-Bez utworów zależnych 4.0 oraz zgodnie z naszymi Warunkami użytkowania.
Poglądy wyrażone w tym artykule są poglądami samego autora, a nie Światowego Forum Ekonomicznego.

Obraz wyróżniający: Autorstwa Nicolas Rougier – http://www.loria.fr/~rougier, GPL, https://commons.wikimedia.org/w/index.php?curid=959427