Czy sztuczna inteligencja kiedykolwiek zrozumie ludzkie emocje?

Jak byś się czuł o poddaniu się terapii od robota? Maszyny inteligentne emocjonalnie mogą nie być tak daleko, jak się wydaje. W ciągu ostatnich kilku dekad sztuczna inteligencja (AI) stawała się coraz lepsza w odczytywaniu reakcji emocjonalnych u ludzi.

Ale czytanie to nie to samo, co rozumienie. Jeśli sztuczna inteligencja nie może sama doświadczać emocji, czy może nas naprawdę zrozumieć? A jeśli nie, to czy istnieje ryzyko, że przypisujemy robotom właściwości, których one nie mają?

Najnowsza generacja sztucznej inteligencji pojawiła się dzięki zwiększeniu ilości danych dostępnych dla komputerów, z których mogą się uczyć, a także ich zwiększonej mocy przetwarzania. Maszyny te są coraz bardziej konkurencyjne w zadaniach, które zawsze były postrzegane jako ludzkie.

AI może teraz m.in. rozpoznawać twarze, zamień szkice twarzy w zdjęcia, rozpoznać mowę i graj w Go.

Identyfikacja przestępców

Niedawno naukowcy opracowali sztuczną inteligencję, która jest w stanie stwierdzić, czy dana osoba jest przestępcą, po prostu patrząc na jej rysy twarzy. System został oceniony na podstawie bazy danych chińskich zdjęć legitymacyjnych i wyniki opadają szczęki. AI błędnie sklasyfikowała niewinnych jako przestępców tylko w około 6% przypadków, podczas gdy była w stanie skutecznie zidentyfikować około 83% przestępców. Prowadzi to do oszałamiającej ogólnej dokładności prawie 90%.

System opiera się na podejściu zwanym „głębokim uczeniem”, które sprawdza się w zadaniach percepcyjnych, takich jak rozpoznawanie twarzy. W tym przypadku głębokie uczenie połączone z „modelem rotacji twarzy” pozwala sztucznej inteligencji zweryfikować, czy dwa zdjęcia twarzy przedstawiają tę samą osobę, nawet jeśli między zdjęciami zmienia się oświetlenie lub kąt.


wewnętrzna grafika subskrypcji


Głęboka nauka buduje „sieć neuronową”, luźno wzorowaną na ludzkim mózgu. Składa się z setek tysięcy neuronów zorganizowanych w różne warstwy. Każda warstwa przekształca dane wejściowe, na przykład obraz twarzy, na wyższy poziom abstrakcji, taki jak zestaw krawędzi w określonych orientacjach i lokalizacjach. To automatycznie podkreśla cechy, które są najbardziej istotne dla wykonania danego zadania.

Biorąc pod uwagę sukces głębokiego uczenia, nie dziwi fakt, że sztuczne sieci neuronowe potrafią odróżnić przestępców od nie-przestępców – jeśli rzeczywiście istnieją rysy twarzy, które mogą ich odróżnić. Badania sugerują, że są trzy. Jednym z nich jest kąt między czubkiem nosa a kącikami ust, który w przypadku przestępców był średnio o 19.6% mniejszy. Krzywizna górnej wargi była również średnio o 23.4% większa u przestępców, podczas gdy odległość między wewnętrznymi kącikami oczu była średnio o 5.6% mniejsza.

Na pierwszy rzut oka analiza ta wydaje się sugerować, że: przestarzałe poglądy to, że przestępców można zidentyfikować na podstawie cech fizycznych, nie jest całkowicie błędne. Jednak może to nie być pełna historia. Interesujące jest to, że dwie najważniejsze cechy są związane z ustami, które są naszymi najbardziej wyrazistymi rysami twarzy. Zdjęcia identyfikacyjne, takie jak te użyte w badaniu, muszą mieć neutralny wyraz twarzy, ale możliwe, że sztuczna inteligencja zdołała znaleźć na tych zdjęciach ukryte emocje. Mogą być tak niewielkie, że ludzie mogliby mieć trudności z ich zauważeniem.

Trudno oprzeć się pokusie przyjrzenia się przykładowym zdjęciom zamieszczonym w artykule, który nie został jeszcze zrecenzowany. Rzeczywiście, uważne spojrzenie ujawnia lekki uśmiech na zdjęciach nie-przestępców – Sam zobacz. Ale dostępnych jest tylko kilka przykładowych zdjęć, więc nie możemy uogólniać naszych wniosków na całą bazę danych.

Siła komputerów afektywnych

To nie byłby pierwszy raz, kiedy komputer był w stanie rozpoznać ludzkie emocje. Tak zwane pole „informatyka afektywna” istnieje od kilku lat. Twierdzi się, że jeśli mamy wygodnie żyć i wchodzić w interakcje z robotami, maszyny te powinny być w stanie zrozumieć ludzkie emocje i odpowiednio na nie reagować. W okolicy jest dużo pracy, a możliwości są ogromne.

Na przykład naukowcy wykorzystali analizę twarzy do: na miejscu zmagających się uczniów na korepetycjach komputerowych. Sztuczna inteligencja została przeszkolona, ​​aby rozpoznawać różne poziomy zaangażowania i frustracji, aby system wiedział, kiedy uczniowie uważają pracę za zbyt łatwą lub zbyt trudną. Ta technologia może być przydatna do poprawy doświadczenia edukacyjnego na platformach internetowych.

Sztuczna inteligencja była również wykorzystywana do wykrywać emocje na podstawie brzmienia naszego głosu przez firmę o nazwie PozaWerbalne. Stworzyli oprogramowanie, które analizuje modulację głosu i szuka określonych wzorców w sposobie mówienia ludzi. Firma twierdzi, że potrafi poprawnie identyfikować emocje z 80% dokładnością. W przyszłości ten rodzaj technologii może na przykład pomóc osobom z autyzmem identyfikować emocje.

Sony próbuje nawet opracować robota zdolny do tworzenia więzi emocjonalnych z ludźmi. Niewiele jest informacji o tym, jak zamierzają to osiągnąć lub co dokładnie zrobi robot. Wspominają jednak, że starają się „zintegrować sprzęt i usługi, aby zapewnić przekonujące emocjonalnie wrażenia".

Inteligentna emocjonalnie sztuczna inteligencja ma kilka potencjalnych korzyści, czy to zapewnienie komuś towarzysza, czy pomoc w wykonywaniu pewnych zadań – od przesłuchań kryminalnych po terapię rozmową.

Ale wiążą się z tym również problemy i zagrożenia etyczne. Czy słuszne jest pozwolić pacjentowi z demencją polegać na towarzyszu AI i wierzyć, że ma on emocjonalne życie, kiedy tak nie jest? I czy możesz skazać osobę na podstawie sztucznej inteligencji, która klasyfikuje ją jako winną? Oczywiście nie. Zamiast tego, gdy system taki jak ten zostanie dalej udoskonalony i w pełni oceniony, mniej szkodliwym i potencjalnie pomocnym zastosowaniem może być uruchomienie dalszych kontroli osób uznanych za „podejrzane” przez sztuczną inteligencję.

Czego więc możemy się spodziewać po sztucznej inteligencji? Subiektywne tematy, takie jak emocje i sentymenty, są nadal trudne do opanowania przez sztuczną inteligencję, częściowo dlatego, że sztuczna inteligencja może nie mieć dostępu do wystarczająco dobrych danych, aby obiektywnie je przeanalizować. Na przykład, czy sztuczna inteligencja mogłaby kiedykolwiek zrozumieć sarkazm? Dane zdanie może być sarkastyczne, gdy jest wypowiedziane w jednym kontekście, ale nie w innym.

Jednak ilość danych i moc obliczeniowa wciąż rosną. Tak więc, z kilkoma wyjątkami, sztuczna inteligencja może być w stanie dorównać ludziom w rozpoznawaniu różnych rodzajów emocji w ciągu najbliższych kilku dekad. Ale to, czy sztuczna inteligencja może kiedykolwiek doświadczać emocji, jest kontrowersyjny temat. Nawet gdyby mogli, z pewnością mogą istnieć emocje, których nigdy nie mogliby doświadczyć – co utrudnia ich prawdziwe zrozumienie.

Konwersacje

O autorze

Leandro Minku, wykładowca informatyki, University of Leicester

Ten artykuł został pierwotnie opublikowany w Konwersacje. Przeczytać oryginalny artykuł.

Powiązane książki:

at Rynek wewnętrzny i Amazon