4rupi02z

R. Classen / Shutterstock

Chatboty oparte na sztucznej inteligencji są już powszechnie stosowane przez firmy do witania klientów i odpowiadania na ich pytania – przez telefon lub na stronach internetowych. Niektóre firmy odkryły, że w pewnym stopniu mogą zastąpić ludzi maszynami w roli call center.

Dostępne dowody sugerują jednak, że w niektórych sektorach – takich jak opieka zdrowotna i zasoby ludzkie – należy zachować szczególną ostrożność w zakresie stosowania tych narzędzi pierwszej pomocy i może być konieczny nadzór etyczny.

Niedawnym i szeroko nagłośnionym przykładem jest a chatbot o nazwie Tessa, z którego korzystał m.in Krajowe Stowarzyszenie Zaburzeń Odżywiania (NEDA) w Stanach Zjednoczonych. Organizacja początkowo utrzymywała infolinię obsługiwaną przez pracowników najemnych i wolontariuszy. Miało to wyraźny cel: pomoc bezbronnym osobom cierpiącym na zaburzenia odżywiania.

Jednak w tym roku organizacja rozwiązała swój personel infolinii, ogłaszając, że zastąpi je chatbot Tessa. Przyczyny tego są kwestionowane. Byli pracownicy twierdzą, że zmiana nastąpiła po decyzji personelu infolinii o utworzeniu związku zawodowego. The cytowany wiceprezes NEDA zwiększona liczba połączeń i czas oczekiwania, a także zobowiązania prawne związane z korzystaniem z wolontariuszy.

Tak czy inaczej, po bardzo krótkim okresie działania Tessa została odłączona od sieci w związku z doniesieniami, że chatbot udzielał problematycznych porad, które mogły zaostrzyć objawy osób szukających pomocy w związku z zaburzeniami odżywiania.


wewnętrzna grafika subskrypcji


Poinformowano również, że Doktor Ellen Fitzsimmons-Craft i dr C. Barr Taylor, dwóch wysoko wykwalifikowanych badaczy, którzy pomogli w stworzeniu Tessy, zastrzegło, że chatbot nigdy nie miał zastąpić istniejącej infolinii ani zapewnić natychmiastowej pomocy osobom doświadczającym intensywnych objawów zaburzeń odżywiania.

Znacząca aktualizacja

Do czego więc Tessa została zaprojektowana? Naukowcy wraz z kolegami wygenerowali plik badania obserwacyjne podkreślając wyzwania, przed którymi stanęli przy projektowaniu opartego na regułach chatbota do interakcji z użytkownikami zaniepokojonymi zaburzeniami odżywiania. Jest to dość fascynująca lektura, ilustrująca wybory projektowe, operacje, pułapki i poprawki.

Oryginalna wersja Tessy była tradycyjną, chatbot oparty na regułach, aczkolwiek wysoce wyrafinowany, czyli taki, który ma z góry określoną strukturę opartą na logice. Nie mógł odbiegać od standardowych, zaprogramowanych reakcji, skalibrowanych przez jego twórców.

Ich wniosek zawierał następujący punkt: „Chatboty oparte na regułach mają potencjał dotarcia do dużych populacji niskim kosztem poprzez dostarczanie informacji i proste interakcje, ale mają ograniczone możliwości zrozumienia i odpowiedniego reagowania na nieoczekiwane reakcje użytkowników”.

Może to wydawać się ograniczać zastosowania, do których Tessa była odpowiednia. Jak więc doszło do zastąpienia infolinii używanej wcześniej przez NEDA? Dokładny łańcuch wydarzeń jest przedmiotem dyskusji na różnych kontach, ale według NPR firma hostująca chatbota zmieniła Tessę z chatbota opartego na regułach z zaprogramowanymi odpowiedziami na chatbota z „ulepszona funkcja pytań i odpowiedzi”.

Późniejsza wersja Tessy wykorzystywała generatywną sztuczną inteligencję, podobnie jak ChatGPT i podobne produkty. Te zaawansowane chatboty AI zaprojektowano tak, aby symulowały ludzkie wzorce konwersacji w celu udzielania bardziej realistycznych i użytecznych odpowiedzi. Generowanie takich niestandardowych odpowiedzi opiera się na dużych bazach danych zawierających informacje, które modele sztucznej inteligencji są szkolone w „rozumieniu” poprzez różne procesy technologiczne: uczenie maszynowe, głęboka nauka i przetwarzanie języka naturalnego.

Lekcje uczenia się

Ostatecznie chatbot wygenerował potencjalnie szkodliwe odpowiedzi na pytania niektórych użytkowników. W wyniku dyskusji przerzucono winę z jednej instytucji na drugą. Pozostaje jednak kwestia, że ​​zaistniałych okoliczności można było potencjalnie uniknąć, gdyby istniał organ zapewniający nadzór etyczny, „człowiek w obiegu” i trzymanie się jasnego celu pierwotnego projektu Tessy.

Ważne jest, aby wyciągnąć wnioski z takich przypadków, jak ten, w obliczu pośpiechu w kierunku integracji sztucznej inteligencji z różnymi systemami. I chociaż te wydarzenia miały miejsce w USA, zawierają lekcje dla tych, którzy chcą zrobić to samo w innych krajach.

Wydaje się, że Wielka Brytania ma nieco fragmentaryczne podejście do tej kwestii. Rada doradcza Centrum Etyki i Innowacji w zakresie Danych (CDEI) został niedawno rozwiązany a jej miejsce przy stole zajęła nowo utworzona grupa zadaniowa Frontier AI. Istnieją również doniesienia, że ​​systemy sztucznej inteligencji są już testowane w Londynie jako narzędzia pomagające pracownikom – choć nie w celu zastąpienia linii pomocy.

Obydwa przykłady podkreślają potencjalne napięcie pomiędzy względami etycznymi a interesami biznesowymi. Musimy mieć nadzieję, że oba rozwiązania w końcu się połączą, równoważąc dobro jednostek z wydajnością i korzyściami, jakie może zapewnić sztuczna inteligencja.

Jednak w niektórych obszarach, w których organizacje wchodzą w interakcję ze społeczeństwem, reakcje generowane przez sztuczną inteligencję i symulowana empatia mogą nigdy nie wystarczyć, aby zastąpić prawdziwe człowieczeństwo i współczucie – szczególnie w obszarach medycyny i zdrowia psychicznego.Konwersacje

Marka Tsagasa, wykładowca prawa karnego, University of East London

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.