Dlaczego sztuczna inteligencja nie może zastąpić niedoskonałości ludzkiej empatii?

Wydaje się, że u podstaw rozwoju sztucznej inteligencji leży poszukiwanie doskonałości. I może być równie niebezpieczny dla ludzkości, jak ten, który wywodzi się z idei filozoficznych i pseudonaukowych XIX i początku XX wieku i doprowadził do okropności kolonializmu, wojny światowej i Holokaustu. Zamiast ludzkiej rządzącej „rasy panów” moglibyśmy skończyć z maszynową.

Jeśli wydaje się to ekstremalne, weź pod uwagę antyludzki perfekcjonizm, który już jest centralnym elementem rynku pracy. W tym przypadku technologia sztucznej inteligencji jest kolejnym krokiem w dążeniu do maksymalnej produktywności, która zastąpiła indywidualne rzemiosło fabryczną linią produkcyjną. Te ogromne zmiany w produktywności i sposobie, w jaki pracujemy, stworzyły szanse i zagrożenia, które teraz zostaną spotęgowane przez „czwarta rewolucja przemysłowa”, w którym sztuczna inteligencja dodatkowo zastępuje pracowników.

Kilka ostatnie prace badawcze przewidują, że w ciągu dekady automatyzacja zastąpi połowę obecnych miejsc pracy. Tak więc, przynajmniej w tym przejściu do nowej gospodarki cyfrowej, wiele osób straci środki do życia. Nawet jeśli założymy, że ta nowa rewolucja przemysłowa stworzy nową siłę roboczą zdolną do poruszania się i kierowania światem zdominowanym przez dane, nadal będziemy musieli stawić czoła poważnym problemom społeczno-ekonomicznym. Zakłócenia będą ogromne i należy je dokładnie przeanalizować.

Ostatecznym celem sztucznej inteligencji, nawet wąskiej, obsługującej bardzo specyficzne zadania, jest prześcignięcie i udoskonalenie każdej funkcji poznawczej człowieka. W końcu systemy uczenia maszynowego mogą zostać zaprogramowane tak, aby były we wszystkim lepsze od ludzi.

Jednak to, czego mogą nigdy nie rozwinąć, to ludzki dotyk – empatia, miłość, nienawiść lub jakiekolwiek inne samoświadome emocje, które czynią nas ludźmi. Chyba że przypiszemy im te uczucia, czyli co niektórzy z nas już to robią z naszymi „Alexas” i „Siris”.


wewnętrzna grafika subskrypcji


Produktywność a kontakt z człowiekiem

Obsesja na punkcie perfekcji i „hiper-wydajności” wywarła głęboki wpływ na relacje międzyludzkie, a nawet reprodukcję człowieka, ponieważ ludzie żyją w zamkniętych, wirtualnych rzeczywistościach, które sami tworzą. Na przykład kilka firm z siedzibą w USA i Chinach wyprodukowało roboty-lalki, które szybko wyprzedają się jako partnerzy zastępczy.

Nawet jeden człowiek w Chinach ożenił się ze swoją cyberlalką, podczas kobieta we Francji „poślubiła” „robo-człowieka”, reklamując swoją historię miłosną jako formę „roboseksualności” i prowadząc kampanię na rzecz legalizacji swojego małżeństwa. „Jestem naprawdę i całkowicie szczęśliwa” — powiedziała. „Nasze relacje będą coraz lepsze wraz z rozwojem technologii”. Tam wygląda na to duże zapotrzebowanie na żony i mężów robotów na całym świecie.

W doskonale produktywnym świecie ludzie zostaliby uznani za bezwartościowych, z pewnością pod względem produktywności, ale także pod względem naszego słabego człowieczeństwa. O ile nie odrzucimy tego perfekcjonistycznego podejścia do życia, które przedkłada produktywność i „rozwój materialny” nad zrównoważony rozwój i indywidualne szczęście, badania nad sztuczną inteligencją mogą stać się kolejnym łańcuchem w historii bezskutecznych ludzkich wynalazków.

Już teraz jesteśmy świadkami dyskryminacji w obliczeniach algorytmicznych. Ostatnio popularna Południowokoreański chatbot o imieniu Lee Luda został wyłączony. „Ona” była wzorowana na 20-letniej studentce i została usunięta z komunikatora Facebooka po używaniu mowy nienawiści wobec osób LGBT.

Tymczasem zautomatyzowana broń zaprogramowana do zabijania przenosi do bitwy takie maksymy, jak „produktywność” i „wydajność”. W rezultacie wojna stała się bardziej zrównoważona. Rozpowszechnianie się dronów wojennych jest bardzo jaskrawym przykładem tych nowych form konfliktów. Tworzą wirtualną rzeczywistość, która jest prawie nieobecna w naszym zasięgu.

Ale komiczne byłoby przedstawianie sztucznej inteligencji jako nieuniknionego orwellowskiego koszmaru armii superinteligentnych „Terminatorów”, których misją jest wymazanie rasy ludzkiej. Takie dystopijne prognozy są zbyt prymitywne, aby uchwycić szczegóły sztucznej inteligencji i jej wpływ na naszą codzienną egzystencję.

Społeczeństwa mogą czerpać korzyści z sztucznej inteligencji, jeśli zostanie ona opracowana z myślą o zrównoważonym rozwoju gospodarczym i bezpieczeństwie ludzi. Połączenie mocy i sztucznej inteligencji, która dąży m.in. systemy kontroli i nadzoru, nie powinien zastępować obietnicy zhumanizowanej sztucznej inteligencji, która sprawi, że technologia uczenia maszynowego będzie służyła ludziom, a nie odwrotnie.

W tym celu interfejsy AI-człowiek, które szybko otwierają się na przykład w więzieniach, opiece zdrowotnej, rządzie, ubezpieczeniach społecznych i kontroli granicznej, muszą zostać uregulowane tak, aby faworyzować etykę i bezpieczeństwo ludzi zamiast wydajności instytucjonalnej. Nauki społeczne i humanistyczne mają ok wiele do powiedzenia o takich sprawach.

Jedną z rzeczy, z których należy się cieszyć, jest prawdopodobieństwo, że sztuczna inteligencja nigdy nie zastąpi ludzkiej filozofii i intelektualności. W końcu bycie filozofem wymaga empatii, zrozumienia człowieczeństwa oraz naszych wrodzonych emocji i motywów. Jeśli uda nam się zaprogramować nasze maszyny, aby rozumiały takie standardy etyczne, badania nad sztuczną inteligencją mogą poprawić nasze życie, co powinno być ostatecznym celem każdego postępu technologicznego.

Ale jeśli badania nad sztuczną inteligencją doprowadzą do powstania nowej ideologii skupionej wokół pojęcia perfekcjonizmu i maksymalnej produktywności, będzie to niszczycielska siła, która doprowadzi do większej liczby wojen, głodu i większego cierpienia społecznego i ekonomicznego, zwłaszcza dla biednych. W tym momencie globalnej historii ten wybór nadal należy do nas.Konwersacje

O autorze

Arshin Adib-Moghaddam, profesor myśli globalnej i filozofii porównawczej, SOAS, University of London

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.