Jak Uber i inne platformy cyfrowe mogą nas oszukać za pomocą nauki behawioralnej? Twoja lokalizacja to nie wszystko, co wie. AP Photo / Mary Altaffer

Model biznesowy Ubera jest niezwykle prosty: to platforma, która ułatwia wymianę między ludźmi. A Uber odniósł w tym niesamowity sukces, prawie eliminując koszty transakcyjne of robić interesy we wszystkim, od transportu ludzi po mieście po dostarczanie jedzenia.

Jeśli korzystasz z Ubera – a może nawet jeśli nie – zna skarbnicę danych o Tobie, w tym Twoją lokalizację, płeć, historię wydatków, kontakty, poziom naładowania baterii telefonu i nawet czy jesteś w drodze do domu z jednodniowej przystanki. Może wkrótce wiedzieć czy jesteś pijany lub nie.

Chociaż to wystarczająco przerażające, połącz wszystkie te dane z Ekspertyza Ubera analizując to przez pryzmat nauka behawioralna i masz niebezpieczny potencjał do wykorzystywania użytkowników dla zysku.

Uber prawie nie jest sam. Nasze badania pokazują największe platformy cyfrowe – Airbnb, Facebook, eBay i inne – gromadzą tak dużo danych o tym, jak żyjemy, że mają już możliwość manipulowania swoimi użytkownikami na wielką skalę. Mogą przewidywać zachowanie i wpływać na nasze decyzje dotyczące tego, gdzie klikać, udostępniać i wydawać.

Podczas gdy większość platform nie wykorzystuje jeszcze wszystkich tych możliwości, manipulacja za pomocą technik psychologii behawioralnej może odbywać się po cichu i pozostawiać niewiele śladów. Jeśli nie ustalimy teraz zasad ruchu drogowego, znacznie trudniej będzie je wykryć i zatrzymać się później.


wewnętrzna grafika subskrypcji


„Wybierz architekturę”

Platformą może być dowolna przestrzeń, która ułatwia transakcje między kupującymi a sprzedającymi. Tradycyjne przykłady obejmują pchle targi i parkiety handlowe.

Platforma cyfrowa służy temu samemu celowi, ale daje właścicielowi możliwość „mediowania” swoich użytkowników, gdy z niej korzystają – a często, gdy tego nie robią. Rozumiemy przez to, że może obserwować i uczyć się niesamowitej ilości informacji o zachowaniu użytkownika, aby udoskonalić to, co naukowcy behawioralni nazywają „wybór architektury”, niepozorne elementy projektu, które mają wpływać na ludzkie zachowanie poprzez sposób prezentacji decyzji.

Jak Uber i inne platformy cyfrowe mogą nas oszukać za pomocą nauki behawioralnej? Uber wie, kiedy bateria telefonu się wyczerpuje. boyhey/Shutterstock.com

Na przykład Uber eksperymentował ze swoimi sterownikami aby określić najskuteczniejsze strategie utrzymania ich na drodze tak długo, jak to możliwe. Strategie te obejmują grę w błędy poznawcze, takie jak niechęć do strat i przecenianie zdarzeń o niskim prawdopodobieństwie, nawet jeśli kierowca ledwo zarabia wystarczająco dużo pieniędzy, aby było to warte jego czasu. Kierowcy kończą jak hazardziści w kasynie, zachęcani do grania trochę dłużej pomimo szans.

Uber nie odpowiedział od razu na prośbę o komentarz.

Airbnb również eksperymentuje ze swoimi użytkownikami. Wykorzystał nauki behawioralne aby skłonić gospodarzy do obniżenia cen i akceptowania rezerwacji bez sprawdzania gości – co stwarza realne ryzyko dla gospodarzy, zwłaszcza gdy dzielą oni swój własny apartament.

Chociaż te przykłady wydają się stosunkowo łagodne, pokazują, w jaki sposób platformy cyfrowe są w stanie po cichu projektować systemy kierujące działaniami użytkowników w potencjalnie manipulacyjny sposób.

A wraz z rozwojem platform stają się one tylko lepszymi architektami wyboru. Dzięki ogromnemu napływowi pieniędzy inwestorów na IPO, aby sfinansować więcej danych i nauka behawioralna, Uber może wejść na niebezpiecznie nieetyczne terytorium – łatwo to sobie wyobrazić biorąc pod uwagę jego przeszłe praktyki.

Na przykład, jeśli aplikacja rozpozna, że ​​jesteś pijany lub znajdujesz się w okolicy, do której rzadko podróżujesz – a jej dane pokazują, że jest ona pełna przestępczości – może obciążyć Cię wyższą stawką, wiedząc, że raczej nie odmówisz.

Wyzwania prawne

I to nie tylko spekulacje.

Próbując oszukać organy ścigania próbujące zbadać firmę, Uber faktycznie znalazł sposób na identyfikację regulatorów rządowych próbował użyć swojej aplikacji, a następnie uniemożliwił im przejazdy.

To jeden z powodów, dla których prawodawcy i regulatorzy dyskutowali trudne, powiązane ze sobą role nauk behawioralnych i technologii przez lata. A niektóre firmy, Uber w szczególności zostały zbadane pod kątem wielu złych praktyk biznesowych, od dyskryminacja do nadużywanie danych użytkownika.

Ale większość manipulacji, które zidentyfikowaliśmy i o którą się martwimy, nie jest wyraźnie nielegalna. A ponieważ organy regulacyjne często nie są w stanie nadążyć za stale ewoluującym wykorzystaniem technologii i architektury wyboru, prawdopodobnie tak pozostanie.

Biorąc pod uwagę brak dobrze zdefiniowanych i możliwych do wyegzekwowania barier prawnych, skłonność firm zajmujących się platformami do wykorzystywania nauk behawioralnych kosztem użytkowników pozostanie w dużej mierze niekontrolowana.

Kodeks etyczny

Naszym zdaniem jednym z rozwiązań jest ustanowienie kodeksu etycznego, którego mają przestrzegać firmy zajmujące się platformami. A jeśli nie przyjmą go dobrowolnie, inwestorzy, pracownicy i użytkownicy mogą się tego domagać.

Od połowy XX wieku spisane kodeksy postępowania etycznego były podstawą amerykańskich firm. Zawody prawnicze i medyczne polegałem na nich dla tysiąclecia. I badania sugerują skutecznie zachęcają do etycznych zachowań w firmach.

Przeanalizowaliśmy setki kodeksów etycznych, w tym te skierowane do firm technologicznych i komputerowych. Na podstawie naszych badań zachęcamy platformy cyfrowe do przyjęcia pięciu wytycznych etycznych:

  1. Każda architektura wyboru zastosowana na platformie powinna być w pełni przejrzysta. Platformy powinny ujawniać, kiedy wykorzystują narzędzia nauki behawioralnej do wpływania na zachowanie użytkowników

  2. Użytkownicy powinni mieć możliwość swobodnego i łatwego dokonywania wyborów na platformie, a architekci wyboru powinni ograniczyć interwencje behawioralne do przypomnień lub podpowiedzi, które są najmniej szkodliwe dla autonomii użytkownika

  3. Platformy powinny unikać „popychania” użytkowników w sposób, który wykorzystuje nieświadome i irracjonalne decyzje oparte na impulsach i emocjach. Nowe badania pokazuje, że architektura transparentnego wyboru może działać równie dobrze

  4. Platformy powinny uznawać posiadaną władzę i dbać o to, by nie wykorzystywać utworzonych przez siebie rynków, w tym poprzez nadużywanie asymetrii informacji między sobą a użytkownikami lub sprzeciwianie się rozsądnym regulacjom

  5. Platformy powinny unikać korzystania z architektury wyboru, która zniechęca użytkowników do działania we własnym interesie. Jako zdobywca Nagrody Nobla, ekonomista behawioralny Richard Thaler połóż to, powinniśmy tylko „szturchać na dobre”.

Big tech i nauka behawioralna są teraz zintegrowane w sposób, który sprawia, że ​​firmy odnoszą ogromny sukces, od: brzęczące szczoteczki do zębów Które czynią mycie zębów wydają się satysfakcjonujące dla używanie tekstów do nakłaniania biedniejszych matek do korzystania z opieki zdrowotnej.

Chociaż wyniki mogą znacznie poprawić nasze życie, ułatwiają również firmom manipulowanie użytkownikami w celu poprawy wyników.Konwersacje

O Autorach

Abbey Stemler, adiunkt prawa gospodarczego i etyki, Indiana University; Joshua E. Perry, profesor nadzwyczajny prawa gospodarczego i etyki, Indiana Universityoraz Todd Haugh, adiunkt prawa gospodarczego i etyki, Indiana University

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.

Powiązane książki

at Rynek wewnętrzny i Amazon