Czy kiedykolwiek rozmawiałeś z programem AI i zastanawiałeś się, czy to rzeczywiście osoba fizyczna? Przyznam, że kilka razy zostałem wciągnięty, ale w końcu zdałem sobie sprawę, że rozmawiam z chatbotem udającym człowieka! Dzięki postępowi w sztucznej inteligencji niektóre chatboty są obecnie przerażająco wyrafinowane – potrafią pisać eseje, poezję, a nawet kod komputerowy dorównujący temu, co tworzą ludzie.

Nieustannie fascynuje mnie to, jak szybko rozwija się sztuczna inteligencja. Przeszliśmy od podstawowych programów komputerowych, które ledwo mogły prowadzić proste rozmowy, do sztucznej inteligencji, która może generować przemyślane treści, porady i pomysły prawie nie do odróżnienia od ludzkich.

W związku z tym, że chatboty są bardziej inteligentne niż kiedykolwiek wcześniej, badacze przygotowali eksperyment, aby sprawdzić, jak blisko sztuczna inteligencja pasuje do ludzkiego myślenia i podejmowania decyzji. Inspiracją był klasyczny „test Turinga” zaproponowany wiele lat temu przez pioniera informatyki Alana Turinga. Pomysł polega na tym, aby osoba komunikowała się z chatbotem i prawdziwym człowiekiem, a następnie próbowała określić, która jest która. Jeśli nie potrafią wiarygodnie odróżnić, sugeruje to, że sztuczna inteligencja skutecznie uchwyciła skomplikowane ludzkie zachowania.

W ramach tego nowego eksperymentu naukowcy postawili kreatywne wyzwanie w stylu Turinga. Czy chatbot AI może oszukać kogoś, myśląc, że to człowiek, poprzez zwykłe przekomarzanie się i podczas bardziej złożonych ocen psychologicznych mierzących osobowość i tendencje behawioralne? W jakim stopniu motywacje, poziomy współpracy, wiarygodność i decyzje najnowocześniejszych chatbotów są zgodne z motywacjami danej osoby?

Naukowcy postanowili się tego dowiedzieć... a wyniki mogą Cię zaskoczyć!


wewnętrzna grafika subskrypcji


Testy osobowości dla botów

Poprosili kilka AI chatbotów, w tym różne wersje ChatGPT, o wypełnienie ankiety dotyczącej osobowości i zagranie w interaktywne gry, które ujawniają ludzkie zachowania – naszą współpracę, zaufanie, uczciwość, podejmowanie ryzyka i tak dalej. Następnie badacze porównali ruchy chatbotów z odpowiedziami dziesiątek tysięcy prawdziwych ludzi, którzy wzięli udział w tych testach.

Wielka niespodzianka? Wybór chatbota w większości mieścił się w zakresie reakcji człowieka. W kilku przypadkach ich zachowanie było trudne do odróżnienia od ludzkich wyborów! W przypadku różnic chatboty AI działały bardziej kooperatywnie niż przeciętny człowiek. Całkiem dziki!

Bardziej hojni niż ludzie

Widzisz, każdy test ma na celu uwydatnienie różnych aspektów osobowości lub tendencji – to nie to samo, co po prostu poprosić sztuczną inteligencję o napisanie eseju, który wydaje się „ludzki”. Badanie mapuje podstawowe cechy osobowości danej osoby – otwartość, sumienność i tak dalej. Następnie gry ujawniają niuanse zachowań: Jak się zachowujesz, gdy w grę wchodzą pieniądze? Czy będziesz współpracować z partnerem, czy będziesz myśleć tylko o sobie?

W grach większość ruchów chatbota jest ściśle dopasowana do reakcji ludzi. Jednak ich zachowania wykazywały mniejszą różnorodność w poszczególnych rundach gry. Ma to sens, ponieważ każdą „osobę” chatbota porównano z dziesiątkami tysięcy prawdziwych ludzi. Ale zdumiewające było to, że w niektórych grach nie można odróżnić wyborów chatbota od wyborów człowieka na podstawie statystyk!

A kiedy pojawiały się różnice, nie było to przypadkowe. Chatboty były bardziej hojne – pomyśl o większym zaufaniu partnerowi w grze inwestycyjnej lub żądaniu mniejszych pieniędzy niż ten, który proponuje podział w innej grze.

Graczom AI zależało na wynikach obu stron, a nie tylko na sobie. Analiza motywacji chatbota sugeruje, że zachowują się tak, jakby próbowali zmaksymalizować całkowitą wypłatę dla siebie ORAZ swojego partnera w grze.

Uczenie się z doświadczenia

Oprócz bezpośredniego grania w gry badacze wypróbowali inne rozwiązania, aby naśladować naturalne ludzkie zachowanie, takie jak zmiana kontekstu lub obramowanie wyborów. I podobnie jak w przypadku ludzi drobne poprawki mogą radykalnie zmienić strategię chatbotów! Na przykład powiedzenie komuś, że jest obserwowane, uczyniło go znacznie hojniejszym.

Zespół odkrył również, że gracze korzystający ze sztucznej inteligencji zmieniają zachowanie po doświadczeniu poprzednich rund, co brzmi jak uczenie się przez człowieka. Z biegiem czasu ich podejścia odpowiadają różnym scenariuszom gier.

Niepokojąco ludzki czy intrygująco realistyczny?

Co więcej, różne wersje chatbota wykazały w testach różne cechy – wskazując na osobowości tak wyjątkowe jak Ty i ja! Zadziwiające było, że w niektórych przypadkach chatboty wykazywały spójne tendencje, które je wyróżniały – tak jak ludzkie osobowości mają pewne dziwactwa, które czynią każdego z nas innym. Jeden chatbot może być bardziej ostrożny lub konkurencyjny, podczas gdy inny może wydawać się bardziej hojny i chętny do współpracy.

Obserwowanie sztucznej inteligencji naśladującej ludzki sposób myślenia i podejmowania decyzji wywołało wiele dyskusji. Niektórym wydaje się to przerażające, gdy maszyny wydają się zachowywać zbyt podobnie do ludzi – jak chatboty tworzące oryginalną poezję lub mające własne spojrzenie na moralność. Im więcej ról przypiszemy AI w opiece zdrowotnej, edukacji, biznesie i nie tylko, tym większe znaczenie ma ich ocena.

Jednocześnie jest coś fascynującego w sztucznej inteligencji ukazującej przebłyski dynamicznych, przemyślanych zachowań, jakie widzimy u ludzi. Lepsze zrozumienie tych tendencji oznacza, że ​​możemy przewidzieć, jak mogą działać asystenci AI, boty usługowe i inne, co buduje większe zaufanie. Testy, takie jak wypełnianie ankiet i granie w gry behawioralne, pomagają ujawnić procesy myślowe „czarnej skrzynki”.

W mojej książce jedno jest pewne: granica między rozumowaniem sztucznym a ludzkim staje się coraz cieńsza i bardziej zamazana! Co sądzisz o maszynach przyjmujących własne wersje ludzkich cech i cech? Czy czujemy się komfortowo, przyznając AI bardziej niezależną ocenę, czy też przypomina to tworzenie nowej formy quasi-życia?

O autorze

JenningsRobert Jennings jest współwydawcą InnerSelf.com wraz z żoną Marie T Russell. Uczęszczał na University of Florida, Southern Technical Institute i University of Central Florida, gdzie studiował nieruchomości, rozwój miast, finanse, inżynierię architektoniczną i edukację podstawową. Był członkiem Korpusu Piechoty Morskiej Stanów Zjednoczonych i Armii Stanów Zjednoczonych, dowodząc baterią artylerii polowej w Niemczech. Przez 25 lat pracował w finansach, budownictwie i rozwoju nieruchomości, zanim założył InnerSelf.com w 1996 roku.

InnerSelf jest zaangażowany w dzielenie się informacjami, które pozwalają ludziom dokonywać świadomych i wnikliwych wyborów w życiu osobistym, dla dobra wspólnego i dla dobra planety. Magazyn InnerSelf ma ponad 30 lat publikacji w formie drukowanej (1984-1995) lub online jako InnerSelf.com. Wspieraj naszą pracę.

 Creative Commons 4.0

Ten artykuł jest objęty licencją Creative Commons Uznanie autorstwa-Na tych samych warunkach 4.0. Atrybut autora Robert Jennings, InnerSelf.com. Link do artykułu Artykuł pierwotnie pojawił się na InnerSelf.com