i091hbdc
NicoElNino / Shutterstock

Wydanie zaawansowanego chatbota ChatGPT w 2022 roku wszyscy zaczęli mówić o sztucznej inteligencji (AI). Jego wyrafinowane możliwości potęgowały obawy, że sztuczna inteligencja stanie się tak zaawansowana, że ​​wkrótce nie będziemy w stanie jej kontrolować. Doprowadziło to nawet niektórych ekspertów i liderów branży do ostrzeżenia, że technologia może doprowadzić do wyginięcia ludzkości.

Inni komentatorzy nie byli jednak przekonani. Noam Chomsky, profesor lingwistyki, odrzucił ChatGPT jako „plagiat hi-tech".

Przez lata byłem spokojny o perspektywę wpływu sztucznej inteligencji na ludzką egzystencję i nasze środowisko. To dlatego, że zawsze myślałem o tym jako o przewodnik lub doradca ludzi. Ale perspektywa podejmowania decyzji przez sztuczną inteligencję – sprawowania kontroli wykonawczej – to inna sprawa. I to jest ten, który jest teraz poważnie zabawiany.

Jednym z głównych powodów, dla których nie powinniśmy pozwalać sztucznej inteligencji na władzę wykonawczą, jest całkowity brak emocji, które są kluczowe przy podejmowaniu decyzji. Bez emocji, empatii i kompasu moralnego stworzyliście doskonały psychopata. Wynikowy system może być bardzo inteligentny, ale będzie mu brakować ludzkiego rdzenia emocjonalnego, który umożliwi mu zmierzenie potencjalnie niszczycielskich konsekwencji emocjonalnych racjonalnej decyzji.

Kiedy AI przejmuje kontrolę wykonawczą

Co ważne, gdybyśmy mieli, nie powinniśmy myśleć o sztucznej inteligencji jako o egzystencjalnym zagrożeniu powierzyć mu zarządzanie arsenałami nuklearnymi. Zasadniczo nie ma ograniczeń co do liczby pozycji kontrolnych, z których może wyrządzić niewyobrażalne szkody.


wewnętrzna grafika subskrypcji


Zastanówmy się na przykład, w jaki sposób sztuczna inteligencja może już identyfikować i organizować informacje wymagane do zbudowania własnego ogrodu zimowego. Obecne iteracje technologii mogą skutecznie przeprowadzi Cię przez każdy krok budowy i zapobiegnie wielu błędom początkującego. Ale w przyszłości sztuczna inteligencja może działać jako kierownik projektu i koordynować budowę, wybierając wykonawców i płacąc im bezpośrednio z budżetu.

Sztuczna inteligencja jest już wykorzystywana w prawie wszystkich dziedzinach przetwarzania informacji i analizy danych – od modelowanie wzorców pogodowych do kontrolowanie pojazdów bez kierowcy do pomoc w diagnozach lekarskich. Ale tutaj zaczynają się problemy – kiedy pozwolimy systemom sztucznej inteligencji wykonać krytyczny krok naprzód z roli doradcy do roli kierownika wykonawczego.

Zamiast po prostu sugerować środki zaradcze dla konta firmy, co by było, gdyby AI dostała bezpośrednią kontrolę, z możliwością wdrażania procedur odzyskiwania długów, dokonywania przelewów bankowych i maksymalizacji zysków – bez ograniczeń, jak to zrobić. Lub wyobraź sobie system sztucznej inteligencji, który nie tylko zapewnia diagnostyka na podstawie zdjęć rentgenowskich, ale mając uprawnienia do bezpośredniego przepisywania leczenia lub leków.

Możesz zacząć czuć się nieswojo w związku z takimi scenariuszami – ja na pewno bym to zrobił. Powodem może być Twoja intuicja, że ​​te maszyny tak naprawdę nie mają „duszy”. Są to po prostu programy przeznaczone do przetwarzać ogromne ilości informacji w celu uproszczenia złożonych danych w znacznie prostsze wzorce, pozwalając ludziom podejmować decyzje z większą pewnością. Nie mają – i nie mogą – mieć emocji, które są ściśle powiązane z biologicznymi zmysłami i instynktami.

Emocje i moralność

Inteligencja emocjonalna to umiejętność zarządzania emocjami w celu przezwyciężenia stresu, empatii i skutecznej komunikacji. To prawdopodobnie ma większe znaczenie w kontekście podejmowania decyzji niż sama inteligencja, ponieważ najlepsza decyzja nie zawsze jest najbardziej racjonalna.

Jest prawdopodobne, że inteligencja, zdolność rozumowania i logicznego działania, może zostać wbudowana w systemy oparte na sztucznej inteligencji, aby mogły podejmować racjonalne decyzje. Ale wyobraź sobie, że poprosisz potężną sztuczną inteligencję o zdolnościach wykonawczych rozwiązać kryzys klimatyczny. Pierwszą rzeczą, do której może zostać zainspirowany, jest drastyczne zmniejszenie populacji ludzkiej.

Dedukcja ta nie wymaga wielu wyjaśnień. My, ludzie, jesteśmy niemal z definicji źródłem zanieczyszczeń w każdej możliwej formie. Axe ludzkość i zmiany klimatyczne zostaną rozwiązane. Można mieć nadzieję, że nie jest to wybór, do którego podeszliby ludzie podejmujący decyzje, ale sztuczna inteligencja znalazłaby własne rozwiązania – nieprzeniknione i nieobciążone ludzką niechęcią do wyrządzania krzywdy. A gdyby miał władzę wykonawczą, mogłoby nie być nic, co mogłoby powstrzymać go przed kontynuowaniem.

9dfujyxp
 Nadanie sztucznej inteligencji możliwości podejmowania decyzji wykonawczych w kontroli ruchu lotniczego może być błędem. Gorodenkoff/Shutterstock

Scenariusze sabotażu

A co do sabotażu czujniki i monitory sterujące gospodarstwami spożywczymi? Na początku może się to odbywać stopniowo, przesuwając kontrole tuż poza punkt krytyczny, aby żaden człowiek nie zauważył, że uprawy są potępione. W pewnych scenariuszach może to szybko doprowadzić do głodu.

Alternatywnie, co powiesz na wyłączenie kontroli ruchu lotniczego na całym świecie lub po prostu rozbicie wszystkich samolotów lecących jednocześnie? Około 22,000 XNUMX samolotów jest normalnie w powietrzu jednocześnie, co daje potencjalną liczbę ofiar śmiertelnych kilku milionów ludzi.

Jeśli myślisz, że daleko nam do takiej sytuacji, pomyśl jeszcze raz. Sztuczna inteligencja już jeździ samochodami i latać samolotami wojskowymi, autonomicznie.

Alternatywnie, co powiesz na zamknięcie dostępu do kont bankowych w rozległych regionach świata, wywołując niepokoje społeczne wszędzie na raz? Lub wyłączenie systemy grzewcze sterowane komputerowo w środku zimy, czy systemy klimatyzacji w szczycie letnich upałów?

Krótko mówiąc, system sztucznej inteligencji nie musi być odpowiedzialny za broń jądrową, aby stanowić poważne zagrożenie dla ludzkości. Ale skoro jesteśmy przy tym temacie, gdyby system sztucznej inteligencji był wystarczająco potężny i inteligentny, mógłby znaleźć sposób na sfingowany atak na kraj posiadający broń nuklearną, wywołując odwet zainicjowany przez człowieka.

Czy AI może zabić dużą liczbę ludzi? Odpowiedź musi brzmieć tak, w teorii. Ale to zależy w dużej mierze od ludzi, którzy zdecydują się nadać mu kontrolę wykonawczą. Naprawdę nie mogę wymyślić nic bardziej przerażającego niż sztuczna inteligencja, która może podejmować decyzje i ma moc ich wdrażania.Konwersacje

O autorze

Guillaume’a Thierry’egoProfesor Neuronauki Poznawczej, Uniwersytet w Bangor

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.