test Turinga i AI 10 17

Pexels/Google Deepmind, CC BY-SA

W 1950 roku brytyjski informatyk Alan Turing zaproponował eksperymentalną metodę odpowiedzi na pytanie: czy maszyny potrafią myśleć? Zasugerował, że gdyby człowiek po pięciu minutach przesłuchania nie był w stanie stwierdzić, czy rozmawia z maszyną sztucznie inteligentną (AI), czy z innym człowiekiem, oznaczałoby to, że sztuczna inteligencja ma inteligencję ludzką.

Chociaż systemy sztucznej inteligencji za jego życia były dalekie od zdania testu Turinga, spekulował na ten temat

„[…] za około pięćdziesiąt lat możliwe będzie zaprogramowanie komputerów […] tak, aby grały w grę w naśladownictwo tak dobrze, że przeciętny przesłuchujący będzie miał nie więcej niż 70% szans na dokonanie prawidłowej identyfikacji po pięciu minutach pytający.

Dziś, ponad 70 lat po propozycji Turinga, żadnej sztucznej inteligencji nie udało się pomyślnie przejść testu, spełniając określone przez niego określone przez niego warunki. Niemniej jednak, jak niektóre nagłówki odzwierciedlić, kilka systemów było całkiem blisko.

Jeden niedawny eksperyment przetestował trzy duże modele językowe, w tym GPT-4 (technologię AI stojącą za ChatGPT). Uczestnicy spędzili dwie minuty na czacie z inną osobą lub systemem AI. Sztuczna inteligencja była zachęcana do popełniania drobnych błędów ortograficznych i kończenia działania, jeśli tester stał się zbyt agresywny.


wewnętrzna grafika subskrypcji


Dzięki tej podpowiedzi sztuczna inteligencja wykonała dobrą robotę, oszukując testerów. W połączeniu z botem AI testerzy mogli poprawnie zgadnąć, czy rozmawiają z systemem AI tylko w 60% przypadków.

Biorąc pod uwagę szybki postęp osiągnięty w projektowaniu systemów przetwarzania języka naturalnego, w ciągu najbliższych kilku lat sztuczna inteligencja może przejść oryginalny test Turinga.

Ale czy naśladowanie ludzi naprawdę jest skutecznym testem inteligencji? A jeśli nie, jakie są alternatywne punkty odniesienia, których moglibyśmy użyć do pomiaru możliwości sztucznej inteligencji?

Ograniczenia testu Turinga

Natomiast system przechodzący test Turinga daje nam kilka dowodów na to, że jest inteligentny, ten test nie jest decydującym testem inteligencji. Jednym z problemów jest to, że może dawać „fałszywie negatywne wyniki”.

Dzisiejsze duże modele językowe są często projektowane tak, aby natychmiast deklarować, że nie są ludźmi. Na przykład, gdy zadajesz pytanie ChatGPT, często poprzedza ono odpowiedź frazą „jako model języka AI”. Nawet jeśli systemy sztucznej inteligencji mają podstawową zdolność do zdania testu Turinga, tego rodzaju programowanie zastąpiłoby tę zdolność.

Test stwarza również ryzyko wystąpienia pewnych rodzajów „fałszywie pozytywnych wyników”. Jako filozof Ned Block wskazał w artykule z 1981 r. można sobie wyobrazić, że system mógłby przejść test Turinga po prostu poprzez zakodowanie go z ludzką reakcją na wszelkie możliwe dane wejściowe.

Poza tym test Turinga koncentruje się w szczególności na ludzkim poznaniu. Jeśli poznanie sztucznej inteligencji różni się od poznania ludzkiego, doświadczony przesłuchujący będzie w stanie znaleźć zadanie, w którym sztuczna inteligencja i ludzie różnią się pod względem wydajności.

Odnosząc się do tego problemu, Turing napisał:

Zarzut ten jest bardzo mocny, ale możemy przynajmniej powiedzieć, że jeśli mimo to uda się skonstruować maszynę, która będzie w stanie zadowalająco grać w grę w naśladownictwo, nie powinniśmy się tym zarzutem niepokoić.

Innymi słowy, choć zdanie testu Turinga jest dobrym dowodem na to, że system jest inteligentny, jego niezaliczenie nie jest dobrym dowodem na to, że system jest inteligentny. nie inteligentny.

Co więcej, test nie jest dobrym miernikiem tego, czy AI są świadome, czy potrafią odczuwać ból i przyjemność ani czy mają znaczenie moralne. Według wielu kognitywistów świadomość obejmuje szczególny zespół zdolności umysłowych, w tym pamięć roboczą, myśli wyższego rzędu oraz zdolność postrzegania otoczenia i modelowania ruchu ciała w nim.

Test Turinga nie daje odpowiedzi na pytanie, czy systemy AI są, czy nie mieć te zdolności.

Rosnące możliwości sztucznej inteligencji

Test Turinga opiera się na pewnej logice. To znaczy: ludzie są inteligentni, więc wszystko, co może skutecznie naśladować ludzi, prawdopodobnie będzie inteligentne.

Ale ta koncepcja nie mówi nam nic o naturze inteligencji. Inny sposób pomiaru inteligencji sztucznej inteligencji polega na bardziej krytycznym myśleniu o tym, czym jest inteligencja.

Obecnie nie ma jednego testu, który mógłby miarodajnie zmierzyć sztuczną lub ludzką inteligencję.

Na najszerszym poziomie możemy myśleć o inteligencji jako o zdolność aby osiągnąć szereg celów w różnych środowiskach. Bardziej inteligentne systemy to takie, które mogą osiągnąć szerszy zakres celów w szerszej gamie środowisk.

W związku z tym najlepszym sposobem śledzenia postępów w projektowaniu systemów sztucznej inteligencji ogólnego przeznaczenia jest ocena ich wydajności w różnych zadaniach. Badacze zajmujący się uczeniem maszynowym opracowali szereg testów porównawczych, które to umożliwiają.

Na przykład GPT-4 był w stanie poprawnie odpowiedzieć 86% pytań w przypadku wielozadaniowego rozumienia języka – punkt odniesienia mierzący wyniki w testach wielokrotnego wyboru z szeregu przedmiotów akademickich na poziomie uniwersyteckim.

Pozytywnie uzyskał także wynik w AgentBench, narzędzie, które może zmierzyć zdolność dużego modelu językowego do zachowywania się jak agent, na przykład przeglądając Internet, kupując produkty online i rywalizując w grach.

Czy test Turinga jest nadal aktualny?

Test Turinga jest miarą naśladownictwa – zdolności sztucznej inteligencji do symulowania ludzkich zachowań. Duże modele językowe są ekspertami w naśladowaniu, co obecnie znajduje odzwierciedlenie w ich potencjale do zdania testu Turinga. Ale inteligencja to nie to samo, co naśladownictwo.

Rodzajów inteligencji jest tyle, ile celów do osiągnięcia. Najlepszym sposobem zrozumienia inteligencji sztucznej inteligencji jest monitorowanie jej postępów w rozwijaniu szeregu ważnych zdolności.

Jednocześnie ważne jest, abyśmy nie „zmieniali słupków bramkowych”, jeśli chodzi o kwestię, czy sztuczna inteligencja jest inteligentna. Ponieważ możliwości sztucznej inteligencji szybko się poprawiają, krytycy idei inteligencji sztucznej inteligencji nieustannie znajdują nowe zadania, z wykonaniem których systemy sztucznej inteligencji mogą mieć trudności – ale okazuje się, że je przeskoczyły kolejna przeszkoda.

W tym przypadku istotnym pytaniem nie jest to, czy systemy AI są inteligentne, ale dokładniej: co rodzaje inteligencji, jaką mogą posiadać.Konwersacje

Szymona Goldsteina, profesor nadzwyczajny, Instytut Filozofii Dianoia, Australijski Uniwersytet Katolicki, Australijski Uniwersytet Katolicki i Camerona Domenico Kirka-Gianniniego, adiunkt filozofii, Rutgers University

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.