Twoja lokalizacja to nie wszystko, co wie. AP Photo / Mary Altaffer
Model biznesowy Ubera jest niezwykle prosty: to platforma, która ułatwia wymianę między ludźmi. A Uber odniósł w tym niesamowity sukces, prawie eliminując koszty transakcyjne of robić interesy we wszystkim, od transportu ludzi po mieście po dostarczanie jedzenia.
Jeśli korzystasz z Ubera – a może nawet jeśli nie – zna skarbnicę danych o Tobie, w tym Twoją lokalizację, płeć, historię wydatków, kontakty, poziom naładowania baterii telefonu i nawet czy jesteś w drodze do domu z jednodniowej przystanki. Może wkrótce wiedzieć czy jesteś pijany lub nie.
Chociaż to wystarczająco przerażające, połącz wszystkie te dane z Ekspertyza Ubera analizując to przez pryzmat nauka behawioralna i masz niebezpieczny potencjał do wykorzystywania użytkowników dla zysku.
Uber prawie nie jest sam. Nasze badania pokazują największe platformy cyfrowe – Airbnb, Facebook, eBay i inne – gromadzą tak dużo danych o tym, jak żyjemy, że mają już możliwość manipulowania swoimi użytkownikami na wielką skalę. Mogą przewidywać zachowanie i wpływać na nasze decyzje dotyczące tego, gdzie klikać, udostępniać i wydawać.
Podczas gdy większość platform nie wykorzystuje jeszcze wszystkich tych możliwości, manipulacja za pomocą technik psychologii behawioralnej może odbywać się po cichu i pozostawiać niewiele śladów. Jeśli nie ustalimy teraz zasad ruchu drogowego, znacznie trudniej będzie je wykryć i zatrzymać się później.
„Wybierz architekturę”
Platformą może być dowolna przestrzeń, która ułatwia transakcje między kupującymi a sprzedającymi. Tradycyjne przykłady obejmują pchle targi i parkiety handlowe.
Platforma cyfrowa służy temu samemu celowi, ale daje właścicielowi możliwość „mediowania” swoich użytkowników, gdy z niej korzystają – a często, gdy tego nie robią. Rozumiemy przez to, że może obserwować i uczyć się niesamowitej ilości informacji o zachowaniu użytkownika, aby udoskonalić to, co naukowcy behawioralni nazywają „wybór architektury”, niepozorne elementy projektu, które mają wpływać na ludzkie zachowanie poprzez sposób prezentacji decyzji.
Uber wie, kiedy bateria telefonu się wyczerpuje. boyhey/Shutterstock.com
Na przykład Uber eksperymentował ze swoimi sterownikami aby określić najskuteczniejsze strategie utrzymania ich na drodze tak długo, jak to możliwe. Strategie te obejmują grę w błędy poznawcze, takie jak niechęć do strat i przecenianie zdarzeń o niskim prawdopodobieństwie, nawet jeśli kierowca ledwo zarabia wystarczająco dużo pieniędzy, aby było to warte jego czasu. Kierowcy kończą jak hazardziści w kasynie, zachęcani do grania trochę dłużej pomimo szans.
Uber nie odpowiedział od razu na prośbę o komentarz.
Airbnb również eksperymentuje ze swoimi użytkownikami. Wykorzystał nauki behawioralne aby skłonić gospodarzy do obniżenia cen i akceptowania rezerwacji bez sprawdzania gości – co stwarza realne ryzyko dla gospodarzy, zwłaszcza gdy dzielą oni swój własny apartament.
Chociaż te przykłady wydają się stosunkowo łagodne, pokazują, w jaki sposób platformy cyfrowe są w stanie po cichu projektować systemy kierujące działaniami użytkowników w potencjalnie manipulacyjny sposób.
A wraz z rozwojem platform stają się one tylko lepszymi architektami wyboru. Dzięki ogromnemu napływowi pieniędzy inwestorów na IPO, aby sfinansować więcej danych i nauka behawioralna, Uber może wejść na niebezpiecznie nieetyczne terytorium – łatwo to sobie wyobrazić biorąc pod uwagę jego przeszłe praktyki.
Na przykład, jeśli aplikacja rozpozna, że jesteś pijany lub znajdujesz się w okolicy, do której rzadko podróżujesz – a jej dane pokazują, że jest ona pełna przestępczości – może obciążyć Cię wyższą stawką, wiedząc, że raczej nie odmówisz.
Wyzwania prawne
I to nie tylko spekulacje.
Próbując oszukać organy ścigania próbujące zbadać firmę, Uber faktycznie znalazł sposób na identyfikację regulatorów rządowych próbował użyć swojej aplikacji, a następnie uniemożliwił im przejazdy.
To jeden z powodów, dla których prawodawcy i regulatorzy dyskutowali trudne, powiązane ze sobą role nauk behawioralnych i technologii przez lata. A niektóre firmy, Uber w szczególności zostały zbadane pod kątem wielu złych praktyk biznesowych, od dyskryminacja do nadużywanie danych użytkownika.
Ale większość manipulacji, które zidentyfikowaliśmy i o którą się martwimy, nie jest wyraźnie nielegalna. A ponieważ organy regulacyjne często nie są w stanie nadążyć za stale ewoluującym wykorzystaniem technologii i architektury wyboru, prawdopodobnie tak pozostanie.
Biorąc pod uwagę brak dobrze zdefiniowanych i możliwych do wyegzekwowania barier prawnych, skłonność firm zajmujących się platformami do wykorzystywania nauk behawioralnych kosztem użytkowników pozostanie w dużej mierze niekontrolowana.
Kodeks etyczny
Naszym zdaniem jednym z rozwiązań jest ustanowienie kodeksu etycznego, którego mają przestrzegać firmy zajmujące się platformami. A jeśli nie przyjmą go dobrowolnie, inwestorzy, pracownicy i użytkownicy mogą się tego domagać.
Od połowy XX wieku spisane kodeksy postępowania etycznego były podstawą amerykańskich firm. Zawody prawnicze i medyczne polegałem na nich dla tysiąclecia. I badania sugerują skutecznie zachęcają do etycznych zachowań w firmach.
Przeanalizowaliśmy setki kodeksów etycznych, w tym te skierowane do firm technologicznych i komputerowych. Na podstawie naszych badań zachęcamy platformy cyfrowe do przyjęcia pięciu wytycznych etycznych:
-
Każda architektura wyboru zastosowana na platformie powinna być w pełni przejrzysta. Platformy powinny ujawniać, kiedy wykorzystują narzędzia nauki behawioralnej do wpływania na zachowanie użytkowników
-
Użytkownicy powinni mieć możliwość swobodnego i łatwego dokonywania wyborów na platformie, a architekci wyboru powinni ograniczyć interwencje behawioralne do przypomnień lub podpowiedzi, które są najmniej szkodliwe dla autonomii użytkownika
-
Platformy powinny unikać „popychania” użytkowników w sposób, który wykorzystuje nieświadome i irracjonalne decyzje oparte na impulsach i emocjach. Nowe badania pokazuje, że architektura transparentnego wyboru może działać równie dobrze
-
Platformy powinny uznawać posiadaną władzę i dbać o to, by nie wykorzystywać utworzonych przez siebie rynków, w tym poprzez nadużywanie asymetrii informacji między sobą a użytkownikami lub sprzeciwianie się rozsądnym regulacjom
-
Platformy powinny unikać korzystania z architektury wyboru, która zniechęca użytkowników do działania we własnym interesie. Jako zdobywca Nagrody Nobla, ekonomista behawioralny Richard Thaler połóż to, powinniśmy tylko „szturchać na dobre”.
Big tech i nauka behawioralna są teraz zintegrowane w sposób, który sprawia, że firmy odnoszą ogromny sukces, od: brzęczące szczoteczki do zębów Które czynią mycie zębów wydają się satysfakcjonujące dla używanie tekstów do nakłaniania biedniejszych matek do korzystania z opieki zdrowotnej.
Chociaż wyniki mogą znacznie poprawić nasze życie, ułatwiają również firmom manipulowanie użytkownikami w celu poprawy wyników.
O Autorach
Abbey Stemler, adiunkt prawa gospodarczego i etyki, Indiana University; Joshua E. Perry, profesor nadzwyczajny prawa gospodarczego i etyki, Indiana Universityoraz Todd Haugh, adiunkt prawa gospodarczego i etyki, Indiana University
Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.
Powiązane książki
at Rynek wewnętrzny i Amazon