osoba i robot AI sięgające do siebie
Sztuczna inteligencja nie zastępuje kontaktu z ludźmi, ale może zmniejszyć samotność.
AP Zdjęcie/Frank

"Jak się z tym czujesz?"

W izolacji pandemii COVID-19 wielu ludziom brakuje współczującego ucha. Czy taka odpowiedź sprawi, że poczujesz się słyszany, mniej samotny, nawet jeśli byłaby to maszyna odpisująca do ciebie?

Pandemia przyczyniła się do chroniczna samotność. Narzędzia cyfrowe, takie jak czat wideo i media społecznościowe, pomagają łączyć ludzi, którzy mieszkają lub znajdują się daleko od siebie. Ale kiedy ci przyjaciele lub członkowie rodziny nie są łatwo dostępni, sztuczna inteligencja może wkroczyć.

Miliony odizolowanych osób mają znalazłem pocieszenie rozmawiając z botem AI. Boty terapeutyczne mają poprawa zdrowia psychicznego użytkowników na dziesięciolecia. Teraz psychiatrzy badają, w jaki sposób ci towarzysze AI mogą poprawić samopoczucie psychiczne podczas pandemii i poza nią.

Jak sztuczna inteligencja stała się narzędziem terapeutycznym

Systemy sztucznej inteligencji to programy komputerowe, które mogą wykonywać zadania, które normalnie wykonywaliby ludzie, takie jak tłumaczenie języków lub rozpoznawanie obiektów na obrazach. Chatboty AI to programy symulujące ludzką konwersację. Oni stali się powszechne w obsłudze klienta ponieważ potrafią szybko odpowiedzieć na podstawowe pytania.


wewnętrzna grafika subskrypcji


Pierwszy chatbot był wzorowany na praktykach zdrowia psychicznego. W 1966 r. stworzył informatyk Joseph Weizenbaum elizja, który zaprogramował tak, aby brzmiał jak Psychoterapeuta Rogerian. Podejście rogerowskie zachęcało psychoterapeutów do zadawania pytań otwartych, często odzwierciedlając zwroty pacjentów, aby zachęcić pacjentów do rozwinięcia. Weizenbaum nie spodziewał się, że jego sztuczna inteligencja podobna do psychoterapeuty może przynieść użytkownikom jakiekolwiek korzyści terapeutyczne. Szkolenie ELIZA w przekładaniu komentarzy użytkowników na pytania było jedynie praktycznym, jeśli nie ironicznym, modelem dialogu AI.

Weizenbaum był zdumiony, kiedy faktycznie jego obiekty testowe zwierzył się ELIZA jak psychoterapeuta z krwi i kości. Wielu uczestników badania uważało, że dzielą się z wrażliwymi myślami żywa osoba. Niektórzy z tych uczestników nie chcieli uwierzyć, że pozornie uważna ELIZA, która podczas każdej rozmowy zadawała tyle pytań, była w rzeczywistości komputerem.

ELIZA nie musiała jednak nakłaniać użytkowników do pomocy. Nawet sekretarz Weizenbauma, który wiedział, że ELIZA to program komputerowy, poprosił o prywatność żeby mogła prowadzić osobiste rozmowy z chatbotem.

{vembed Y=RMK9AphfLco}

W ciągu dziesięcioleci, odkąd ELIZA oszołomiła swojego wynalazcę, informatycy pracowali z lekarzami, aby zbadać, w jaki sposób sztuczna inteligencja może wspierać zdrowie psychiczne. Niektóre z największych botów terapeutycznych w branży mają zdumiewający zasięg, szczególnie w czasach niepewność społeczno-polityczna, kiedy ludzie mają tendencję do zgłaszania wyższego poziomu izolacji i zmęczenia.

Od czasu wybuchu pandemii COVID-19 zapotrzebowanie na opcje telezdrowia, w tym chatboty AI, gwałtownie wzrosła. Replika to aplikacja słynąca z realistycznych, konfigurowalnych awatarów i zgłosiła się 35% wzrost ruchu. Z placówkami zdrowia psychicznego przytłoczony tygodniowymi listami oczekującychmiliony ludzi uzupełniają swoje procedury związane ze zdrowiem psychicznym za pomocą chatbotów terapeutycznych.

Ponieważ potrzeby w zakresie zdrowia psychicznego zmieniały się z biegiem czasu, programiści i terapeuci współpracują, aby: budować nowe SI które mogą sprostać tym nowym wyzwaniom.

kobieta pisze SMS-a na swoim telefoniePodczas pandemii COVID-19 miliony ludzi pobrało aplikacje do terapii AI. Jhaymesisviphotography/flickr

Cyfrowy lekarz jest w

Jak chatbot może wydawać się tak ludzki? Gdybyś miał przeanalizować sztuczną inteligencję, znalazłbyś algorytmy i skrypty: zasadniczo zasady, których ludzie używają do kierowania zachowaniem sztucznej inteligencji. Dzięki chatbotom programiści szkolą sztuczną inteligencję, aby automatycznie tworzyła określone frazy w odpowiedzi na wiadomość użytkownika. Następnie koderzy współpracują z pisarzami, aby określić, jakiego rodzaju interpunkcji, emotikonów i innych elementów stylistycznych użyje bot.

Skrypty te ostatecznie dają poczucie „postawy” bota. Na przykład programista może nauczyć sztuczną inteligencję rozpoznawania słowa „przygnębiony”, dzięki czemu za każdym razem, gdy użytkownik wpisze frazę typu „Czuję się dzisiaj zmęczony i przygnębiony”, chatbot może odpowiedzieć „Słyszę, że czujesz się przygnębiony. Czy możesz mi wytłumaczyć dlaczego?" Lub pisarz może zakodować bota, aby wytworzył bardziej kolokwialny ton: „Wow, przepraszam, że tak się czujesz. Jak myślisz, dlaczego możesz mieć depresję?”

Skrypty te replikują wspólną taktykę terapii poznawczo-behawioralnej: zadawać pytania. Boty do terapii AI zachęcają ludzi do wyładowania frustracji, a następnie proszą ich o bliższe zastanowienie się nad tymi doświadczeniami lub emocjami. Nawet jeśli odpowiedzi AI są szerokie lub niespecyficzne, pacjent może znaleźć proces wpisywania komuś swoich myśli – nawet sztuczny „ktoś” – oczyszczający.

Kto korzysta i jak?

Czy chatboty faktycznie działają na łagodzenie samotności lub niepokoju? Potrzebne są dalsze badania, ale na to wygląda. Kilka badań zapewnia obiecujące wyniki. Na przykład młodzi dorośli, którzy regularnie wysyłali wiadomości do chatbota terapeutycznego zgłaszali mniej samotności i niepokoju niż ich rówieśnicy, którzy nie używali sztucznej inteligencji. Osoby w podeszłym wieku również mogą na tym skorzystać od komunikowania się z chatbotami, zwłaszcza jeśli starsi mieszkają samotnie lub nie mają regularnego kontaktu z bliskimi.

Leczniczą mocą chatbota – i jego piętą achillesową – jest jego scenariusz. Dialog jest z góry określony, te same linie dostarczane do wielu użytkowników. Te oskryptowane odpowiedzi pozwalają chatbotowi komunikować się z wieloma użytkownikami jednocześnie. Chatboty są szczególnie pomocne dla osób, które chcą wyrazić siebie szybko i anonimowo, bez oceniania. Użytkownicy mogą natychmiast uruchomić chatbota, aby odciążyć swój dzień, kiedy nie chcą lub nie mogą dzielić się takimi myślami z rodziną lub przyjaciółmi.

Jednak te same skrypty sprawiają, że sztuczna inteligencja nie jest poważnym zamiennikiem ludzkich terapeutów. Boty AI reagują na określone słowa kluczowe, więc czasami źle rozumieją użytkowników. Gdy Vice przetestował popularną aplikację terapeutyczną Woebot, aplikacja wywołał niesamowitą odpowiedź.

Użytkownik: „Jestem bardzo niespokojny i ledwo mogę spać.”

Woebot: „Ach, nie mogę się doczekać, aby później wskoczyć do moich jammies”, a następnie seria sennych emotikonów „z”

{vembed Y=AE966uR09es}

Czy użytkownik w ferworze ataku paniki uzna ten skryptowy komentarz za pomocny lub pocieszający? Raczej nie. Ale w przeciwieństwie do ludzkich terapeutów, boty AI nie są dobre w interpretowaniu kontekstu społecznego lub interweniowaniu w sytuacjach kryzysowych. Chociaż sztuczna inteligencja może wydawać się realistyczna, nie zawsze jest to odpowiednie narzędzie do wykorzystania, gdy czyjeś życie jest na szali. W przeciwieństwie do przeszkolonych doradców kryzysowych, chatboty nie mogą rekomendować konkretnych planów bezpieczeństwa ani łączyć użytkowników z zasobami zdrowotnymi i wsparciem w ich społeczności.

Pomimo tych prawdziwych ograniczeń chatboty AI zapewniają bardzo potrzebną platformę do otwartej komunikacji i wyrażania siebie. Dzięki aplikacjom terapeutycznym, takim jak Replika, Tess i Woebot zgarniając miliony funduszy i pobrań użytkowników, ludzie mają więcej opcji niż kiedykolwiek, jeśli chcą spróbować czatować z botem, aby przetwarzać swoje emocje między wizytami terapeutycznymi lub zaprzyjaźnij się z cyfrowym przyjacielem podczas pandemii.


O autorzeKonwersacje

Laken Brooks, doktorant filologii angielskiej, University of Florida

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.

złamać

Powiązane książki:

Ciało utrzymuje punktację: mózg, umysł i ciało w leczeniu traumy

przez Bessela van der Kolka

Ta książka bada powiązania między traumą a zdrowiem fizycznym i psychicznym, oferując spostrzeżenia i strategie leczenia i powrotu do zdrowia.

Kliknij, aby uzyskać więcej informacji lub zamówić

Chłopiec, Kret, Lis i Koń

przez Charliego Mackesy'ego

Ta książka to pięknie ilustrowana historia, która zgłębia tematy miłości, nadziei i życzliwości, oferując pocieszenie i inspirację osobom zmagającym się z wyzwaniami związanymi ze zdrowiem psychicznym.

Kliknij, aby uzyskać więcej informacji lub zamówić

Ulga w niepokoju dla nastolatków: podstawowe umiejętności CBT i praktyki uważności, aby przezwyciężyć lęk i stres

przez Reginę Galanti

Ta książka oferuje praktyczne strategie i techniki radzenia sobie z lękiem i stresem, ze szczególnym uwzględnieniem potrzeb i doświadczeń nastolatków.

Kliknij, aby uzyskać więcej informacji lub zamówić

Ciało: przewodnik dla mieszkańców

przez Billa Brysona

Ta książka bada złożoność ludzkiego ciała, oferując wgląd i informacje o tym, jak działa ciało i jak zachować zdrowie fizyczne i psychiczne.

Kliknij, aby uzyskać więcej informacji lub zamówić

Atomowe nawyki: łatwy i sprawdzony sposób na budowanie dobrych nawyków i łamanie złych

autorstwa Jamesa Cleara

Ta książka oferuje praktyczne strategie budowania i utrzymywania zdrowych nawyków, skupiając się na zasadach psychologii i neuronauki.

Kliknij, aby uzyskać więcej informacji lub zamówić