niebezpieczeństwo ai 7 11
Sztuczna inteligencja raczej nie zniewoli ludzkości, ale może przejąć wiele aspektów naszego życia. elenabs/iStock przez Getty Images

Powstaniu ChatGPT i podobnych systemów sztucznej inteligencji towarzyszył gwałtowny wzrost wzrost niepokoju związanego z AI. Przez ostatnie kilka miesięcy kierownictwo i badacze bezpieczeństwa sztucznej inteligencji oferowali prognozy, nazwane „P (zagłada)”, o prawdopodobieństwie, że sztuczna inteligencja doprowadzi do katastrofy na dużą skalę.

Zmartwienia osiągnęły szczyt w maju 2023 r., kiedy organizacja non-profit zajmująca się badaniami i rzecznictwem Center for AI Safety wydała oświadczenie jednozdaniowe stwierdzenie: „Ograniczanie ryzyka wyginięcia przez sztuczną inteligencję powinno być globalnym priorytetem obok innych zagrożeń na skalę społeczną, takich jak pandemie i wojna nuklearna”. Pod oświadczeniem podpisało się wielu kluczowych graczy w tej dziedzinie, w tym liderzy OpenAI, Google i Anthropic, a także dwóch tzw. „ojców chrzestnych” AI: Geoffreya Hintona i Joshua Bengio.

Możesz zapytać, jak mają się rozegrać takie egzystencjalne lęki. Jednym ze słynnych scenariuszy jest „maksymalizator spinacza do papieru” eksperyment myślowy wyartykułowany przez filozofa z Oksfordu Nicka Bostroma. Pomysł polega na tym, że system sztucznej inteligencji, którego zadaniem jest wyprodukowanie jak największej liczby spinaczy do papieru, może posunąć się do nadzwyczajnych wysiłków w celu znalezienia surowców, takich jak niszczenie fabryk i powodowanie wypadków samochodowych.

A mniej zasobochłonna odmiana ma sztuczną inteligencję, której zadaniem jest zdobycie rezerwacji w popularnej restauracji, wyłączanie sieci komórkowych i sygnalizacji świetlnej, aby uniemożliwić innym klientom zdobycie stolika.


wewnętrzna grafika subskrypcji


Artykuły biurowe lub obiad, podstawowa idea jest taka sama: sztuczna inteligencja szybko staje się obcą inteligencją, dobrą w osiąganiu celów, ale niebezpieczną, ponieważ niekoniecznie będzie zgodna z wartościami moralnymi jej twórców. A w najbardziej ekstremalnej wersji argument ten przekształca się w jawne obawy dotyczące sztucznej inteligencji zniewolenie lub zniszczenie rodzaju ludzkiego.

Sztuczna inteligencja tworząca spinacze do papieru wpada w amok to jeden z wariantów scenariusza apokalipsy AI.

 

Rzeczywista szkoda

W ciągu ostatnich kilku lat moi koledzy i ja w Centrum Etyki Stosowanej UMass w Bostonie badałem wpływ zaangażowania ze sztuczną inteligencją na rozumienie siebie przez ludzi i uważam, że te katastroficzne lęki są przesadzone i źle skierowane.

Tak, zdolność sztucznej inteligencji do tworzenia przekonujących fałszywych materiałów wideo i audio jest przerażająca i może być wykorzystywana przez osoby o złych intencjach. W rzeczywistości to już się dzieje: rosyjscy agenci prawdopodobnie próbowali zawstydzić krytyka Kremla Bill Browder wciągając go w rozmowę z awatarem byłego prezydenta Ukrainy Petra Poroszenki. Cyberprzestępcy wykorzystują klonowanie głosu AI do różnych przestępstw – od napady high-tech do zwykłe oszustwa.

Systemy podejmowania decyzji AI, które oferować zatwierdzenie pożyczki i rekomendacje dotyczące zatrudnienia niosą ze sobą ryzyko błędu algorytmicznego, ponieważ dane szkoleniowe i modele decyzyjne, na których opierają się, odzwierciedlają długotrwałe uprzedzenia społeczne.

To są duże problemy i wymagają uwagi decydentów. Ale istnieją już od jakiegoś czasu i raczej nie są kataklizmami.

Nie w tej samej lidze

W oświadczeniu Centrum Bezpieczeństwa AI wrzucono sztuczną inteligencję do pandemii i broni nuklearnej jako główne zagrożenie dla cywilizacji. Z tym porównaniem są problemy. COVID-19 spowodował prawie 7 milionów zgonów na całym świecie, wniesiony na A masowy i ciągły kryzys zdrowia psychicznego i stworzony wyzwania gospodarcze, w tym chroniczne niedobory w łańcuchu dostaw i niekontrolowana inflacja.

Broń nuklearna prawdopodobnie zabita więcej niż 200,000 ludzie w Hiroszimie i Nagasaki w 1945 r., w następnych latach pochłonęła wiele ofiar śmiertelnych z powodu raka, wywołała dziesiątki głębokich niepokojów podczas zimnej wojny i doprowadziła świat na skraj zagłady podczas kubańskiego kryzysu rakietowego w 1962 r. zmienił kalkulacje przywódców narodowych o tym, jak odpowiedzieć na międzynarodową agresję, która rozgrywa się obecnie w przypadku rosyjskiej inwazji na Ukrainę.

Sztuczna inteligencja po prostu nie jest w stanie zdobyć zdolności zadawania tego rodzaju obrażeń. Scenariusz spinacza do papieru i inne podobne to science fiction. Istniejące aplikacje AI wykonują określone zadania, a nie dokonują ogólnych osądów. Technologia jest daleko od możliwości podjęcia decyzji, a następnie zaplanowania cele i cele podrzędne niezbędne do zamknięcia ruchu, aby zapewnić ci miejsce w restauracji, lub wysadzenia fabryki samochodów, aby zaspokoić twój głód spinaczy biurowych.

Tej technologii nie tylko brakuje skomplikowanej zdolności do wielowarstwowej oceny, która jest wymagana w tych scenariuszach, ale także nie ma autonomicznego dostępu do wystarczających części naszej infrastruktury krytycznej, aby zacząć powodować tego rodzaju szkody.

Co to znaczy być człowiekiem

W rzeczywistości korzystanie ze sztucznej inteligencji wiąże się z egzystencjalnym niebezpieczeństwem, ale jest ono egzystencjalne w sensie filozoficznym, a nie apokaliptycznym. Sztuczna inteligencja w swojej obecnej formie może zmienić sposób, w jaki ludzie postrzegają siebie. Może degradować zdolności i doświadczenia, które ludzie uważają za niezbędne do bycia człowiekiem.

Na przykład ludzie są stworzeniami osądzającymi. Ludzie racjonalnie rozważają szczegóły i codziennie oceniają w pracy iw czasie wolnym, kogo zatrudnić, kto powinien dostać pożyczkę, co oglądać i tak dalej. Ale coraz więcej takich orzeczeń jest zautomatyzowany i poddany algorytmom. Jak to się stanie, świat się nie skończy. Ale ludzie będą stopniowo tracić zdolność do samodzielnego dokonywania takich osądów. Im mniej ich ludzie wykonują, tym gorzej sobie z tym poradzą.

Lub rozważ rolę przypadku w życiu ludzi. Ludzie cenią nieoczekiwane spotkania: przypadkowe natknięcie się na miejsce, osobę lub czynność, wciągnięcie w to i retrospektywne docenienie roli, jaką przypadek odegrał w tych znaczących znaleziskach. Ale rolą algorytmicznych silników rekomendacji jest zredukować ten rodzaj serendipity i zastąp je planowaniem i przewidywaniem.

Na koniec rozważ możliwości pisania ChatGPT. Technologia jest w trakcie eliminowania roli pisania zadań w szkolnictwie wyższym. Jeśli tak się stanie, nauczyciele stracą kluczowe narzędzie do nauczania uczniów jak myśleć krytycznie.

Nie martwy, ale pomniejszony

Więc nie, AI nie wysadzi świata w powietrze. Ale coraz bardziej bezkrytyczne przyjmowanie tego, w różnych wąskich kontekstach, oznacza stopniową erozję niektórych najważniejszych ludzkich umiejętności. Algorytmy już teraz osłabiają zdolność ludzi do wydawania osądów, cieszenia się nieoczekiwanymi spotkaniami i doskonalenia krytycznego myślenia.

Gatunek ludzki przetrwa takie straty. Ale w trakcie tego procesu nasz sposób istnienia ulegnie zubożeniu. Fantastyczne niepokoje związane z nadchodzącym kataklizmem AI, osobliwością, Skynetem, czy jakkolwiek o tym myślisz, przesłaniają te bardziej subtelne koszty. Przypomnij sobie słynne końcowe wersety TS Eliota z „Hollow Men”: „Tak właśnie kończy się świat”, napisał, „nie z hukiem, ale skomleniem”.Konwersacje

O autorze

Nira Eisikovitsa, profesor filozofii i dyrektor Centrum Etyki Stosowanej, UMass Boston

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.