Sam Altman, dyrektor generalny OpenAI, zasiada przed rozpoczęciem przesłuchania Senackiej Podkomisji Sądownictwa ds. Prywatności, Technologii i Prawa w sprawie „Nadzór nad sztuczną inteligencją: zasady dotyczące sztucznej inteligencji” we wtorek, 16 maja 2023 r.
Źródło zdjęcia Bill Clark/CQ-Roll Call, Inc./Getty Images
W ostatnim czasie Sam Altman, dyrektor generalny OpenAI, stworzycieli ChatGPT, zeznawał przed członkami Senackiej Podkomisji, omawiając potrzebę regulacji technologii sztucznej inteligencji. Technologia ta staje się coraz potężniejsza, a tworzą ją nie tylko w jego firmie, ale również w takich gigantach jak Google i Microsoft.
Trzygodzinne przesłuchanie dotyczyło wielu aspektów ryzyka, jakie AI może stanowić dla społeczeństwa, jak wpłynie na rynek pracy i dlaczego wymaga ona regulacji rządowych. Przesłuchanie to jest pierwszym z serii, które mają miejsce w miarę jak ustawodawcy zmierzają do opracowania regulacji dotyczących AI, aby odpowiedzieć na jej etyczne, prawne i narodowe problemy bezpieczeństwa.
Pięć kluczowych wniosków z przesłuchania:
- Przesłuchanie rozpoczęło się od deepfake’u Senatora Richarda Blumenthala z Connecticut. Rozpoczął procedurę za pomocą nagrania audio generowanego przez AI, które brzmiało dokładnie jak on sam. Przyznał, że to AI wygenerowało jego wypowiedzi.
- AI może spowodować znaczne szkody. Sam Altman, użył swojego wystąpienia, aby wezwać Kongres do nałożenia nowych zasad na wielkie firmy technologiczne.”Moje najgorsze obawy dotyczą tego, że my, jako branża, technologia, przemysł, możemy spowodować znaczne szkody dla świata.”
- Altman opisał obecny boom AI jako potencjalny „moment prasy drukarskiej”, który jednak wymaga środków zabezpieczających. „Myślimy, że interwencja regulacyjna rządów będzie kluczowa dla zmniejszenia ryzyka coraz potężniejszych modeli”, powiedział Altman. W przesłuchaniu brała udział również Christina Montgomery, wiceprezesi główny oficer ds. prywatności i zaufania w IBM, oraz Gary Marcus, były profesor na New York University.
- Substytucja miejsc pracy nadal jest problemem. Zarówno Altman, jak i Montgomery stwierdzili, że AI może zlikwidować niektóre miejsca pracy, ale stworzyć nowe na ich miejscu. Montgomery powiedziała, że „najważniejszą rzeczą, jaką musimy zrobić, jest przygotowanie siły roboczej do umiejętności związanych z AI” poprzez szkolenia i edukację.
- Dezinformacja i nadchodzące wybory w USA. Na pytanie o to, jak generatywna AI może wpłynąć na wyborców, Altman powiedział, że potencjał AI do manipulowania wyborcami i dezinformacji należy do jego największych zmartwień. Szczególnie dlatego, że „mamy do czynienia z wyborami w przyszłym roku, a te modele AI stają się coraz lepsze. OpenAI przyjęło politykę mającą na celu przeciwdziałanie tym zagrożeniom, które obejmują zakaz korzystania z ChatGPT do generowania dużych ilości materiałów wyborczych.
W dniu przesłuchania, Sam Altman, CEO OpenAI z siedzibą w San Francisco, zgodził się z członkami Podkomisji Senackiej na potrzebę regulacji coraz potężniejszej technologii AI, tworzonej w jego firmie oraz w innych takich jak Google i Microsoft. Z okazji przesłuchania 38-letni przedsiębiorca założył granatowy garnitur i krawat zamiast swojego zwyczajnego swetra i dżinsów.
Sam Altman, zeznaje przed przesłuchaniem Senackiej Podkomisji ds. Prywatności, Technologii i Prawa pod tytułem „Nadzór nad sztuczną inteligencją: zasady sztucznej inteligencji” na Kapitolu w Waszyngtonie, USA, 16 maja 2023 r.
Źródło zdjęcia: Elizabeth Frantz/Reuters
W swoim pierwszym wystąpieniu przed Kongresem, Altman wezwał ustawodawców do regulacji sztucznej inteligencji, podczas gdy członkowie komitetu pokazali rosnące zrozumienie technologii. Przesłuchanie podkreśliło głębokie niepokoje technologów i rządu dotyczące potencjalnych szkód związanych z AI.
Altman rozmawiał o technologii swojej firmy również podczas kolacji z kilkudziesięcioma członkami Izby Reprezentantów w noc poprzedzającą przesłuchanie, a przed przesłuchaniem spotkał się prywatnie z kilkoma senatorami. Przedstawił ramy do zarządzania tym, co nastąpi w związku z szybko rozwijającymi się systemami, które według niektórych mogą fundamentalnie zmienić gospodarkę.
Członkowie senackiego podkomitetu ds. prywatności, technologii i prawa jasno zaznaczyli, że nie planują ostro przesłuchiwać pana Altmana, wręcz przeciwnie, atmosfera była bardzo przyjazna, podziękowano mu za prywatne spotkania oraz za zgodę na udział w przesłuchaniu. Niektórzy z członków komisji zwracali się do niego bezpośrednio po imieniu, co świadczy o ich wspólnych, dość bliskich stosunkach.
Altman stwierdził, że technologia jego firmy może zniszczyć niektóre miejsca pracy, ale również stworzyć nowe, i że ważne będzie dla „rządu, aby zrozumieć, jak chcemy to złagodzić.” Popierając pomysł sugerowany przez Dr. Marcusa, zaproponował stworzenie agencji, która wydaje licencje na rozwój dużych modeli AI, regulacje dotyczące bezpieczeństwa i testy, które modele AI muszą zdać, zanim zostaną udostępnione publiczności.
Wierzymy, że korzyści z narzędzi, które do tej pory wdrożyliśmy, znacznie przewyższają ryzyko, ale zapewnienie ich bezpieczeństwa jest kluczowe dla naszej pracy. powiedział Altman.
Nie było jednak jasne, jak ustawodawcy zareagują na apel o regulację AI. Dotychczasowy bilans Kongresu w zakresie regulacji technologicznych nie wygląda zbyt dobrze. W ciągu ostatniej dekady nie udało się przyjąć dziesiątek ustaw dotyczących prywatności, wolności słowa i bezpieczeństwa z powodu partii politycznych i gwałtownego oporu gigantów technologicznych.
Senator Richard Blumenthal, Demokrata z Connecticut i przewodniczący Senackiego Panelu, powiedział, że przesłuchanie było pierwszym z serii mających na celu dowiedzenie się więcej o potencjalnych korzyściach i zagrożeniach płynących z AI, aby ostatecznie „ustalić odpowiednie zasady”. Co przy takich szybkim rozwoju AI, na pewno nie będzie szybkim i łatwym zadaniem.
Przyznał również, że Kongres nie sprostał wyzwaniu związanemu z wprowadzaniem nowych technologii w przeszłości. „Naszym celem jest zdemistyfikowanie i pociągnięcie do odpowiedzialności tych nowych technologii, aby uniknąć niektórych błędów z przeszłości”, powiedział Blumenthal. „Kongres nie sprostał wyzwaniu związanemu z mediami społecznościowymi”.
Patronite
Zostań Patronem Astrofazy! Pomóż rozwijać projekt i zyskaj dostęp do bonusowych treści!Członkowie podkomitetu sugerowali niezależną agencję do nadzoru nad AI; zasady, które zmuszą firmy do ujawniania, jak działają ich modele i jakie zestawy danych wykorzystują; oraz zasady antymonopolowe, aby zapobiec monopolizacji rozwijającego się rynku przez firmy takie jak Microsoft i Google.
„Diabeł tkwi w szczegółach”, powiedziała Sarah Myers West, dyrektor zarządzający AI Now Institute. Stwierdziła, że sugestie Altmana dotyczące regulacji nie są wystarczająco daleko idące i powinny obejmować ograniczenia dotyczące wykorzystania AI w policji oraz wykorzystania danych biometrycznych. Zauważyła, że Altman nie wykazał żadnych oznak zwolnienia tempa rozwoju narzędzia ChatGPT firmy OpenAI.
To taka ironia, obserwować postawę zaniepokojenia szkodami ze strony osób, które szybko wprowadzają do komercyjnego użytku system odpowiedzialny za te szkody – powiedziała West.
Niektórzy członkowie podkomitetu wykazali również niechęć do zbyt silnego ograniczenia branży o wielkim potencjale gospodarczym dla Stanów Zjednoczonych, która rywalizuje bezpośrednio z przeciwnikami takimi jak Chiny. Altman, spokojny i niewzruszony, kilkakrotnie próbował wykazać też różnicę między AI a mediami społecznościowymi. „Musimy współpracować, aby znaleźć całkowicie nowe podejście”, powiedział.
Najtrudniejsze pytania i uwagi wobec Altmana wysunął Dr Marcus, który zauważył, że OpenAI nie była transparentna co do danych, które wykorzystuje do opracowywania swoich systemów. Wyraził wątpliwość co do przewidywań Altmana, że nowe miejsca pracy zastąpią te zniszczone przez AI.
Firmy technologiczne argumentowały, że Kongres powinien zachować ostrożność przy wprowadzaniu jakichkolwiek szeroko zakrojonych zasad, które łączą różne rodzaje AI. Na przesłuchaniu we wtorek, Pani Montgomery z IBM opowiedziała się za prawem AI, które jest podobne do proponowanych regulacji w Europie, które określają różne poziomy ryzyka. Wezwała do stworzenia zasad skupiających się na konkretnych zastosowaniach, a nie na regulacji technologii jako takiej.
W swojej istocie, AI jest tylko narzędziem, a narzędzia mogą służyć różnym celom. A jak rozwinie się cała sprawa? Na tą chwilę ciężko jest cokolwiek przewidywać, jest jeszcze po prostu za wcześnie, jak widać sami regulatorzy i politycy nie wiedzą jeszcze, z której strony podejść do tematu. Pewne jest natomiast to, że nie zostawią AI bez żadnej kontroli i regulacji prawnej.