Nowy podział cyfrowy występuje między ludźmi, którzy rezygnują z algorytmów, a tymi, którzy tego nie robią Czy wiesz, co się dzieje, gdy udostępniasz swoje dane? mtkang/shutterstock.com

Algorytmy sztucznej inteligencji mogą kierować każdym aspektem życia – od wyboru drogi na poranny dojazd do pracy, przez decydowanie, kogo zabrać na randkę, po skomplikowane kwestie prawne i sądowe, takie jak predykcyjna policja.

Wielkie firmy technologiczne, takie jak Google i Facebook, wykorzystują sztuczną inteligencję, aby uzyskać wgląd w swoją ogromną skarbnicę szczegółowych danych klientów. Dzięki temu mogą zarabiać na zbiorowych preferencjach użytkowników poprzez praktyki takie jak mikrotargetowanie, strategia stosowana przez reklamodawców w celu wąskiego dotarcia do określonych grup użytkowników.

Jednocześnie wiele osób ufa teraz platformom i algorytmom bardziej niż własnym rządom i społeczeństwu obywatelskiemu. Badanie z października 2018 r. sugerowało, że ludzie demonstrują „uznanie algorytmu”, do tego stopnia, że ​​bardziej polegaliby na poradach, gdy uważają, że pochodzą one od algorytmu niż od człowieka.

W przeszłości eksperci technologiczni martwili się "przepaść cyfrowa" między tymi, którzy mieli dostęp do komputerów i Internetu, a tymi, którzy nie mogli. Gospodarstwa domowe z mniejszym dostępem do technologii cyfrowych są w gorszej sytuacji, jeśli chodzi o ich zdolność do: zarabiaj pieniądze i gromadź umiejętności.


wewnętrzna grafika subskrypcji


Jednak w miarę mnożenia się urządzeń cyfrowych przepaść nie dotyczy już tylko dostępu. Jak ludzie radzą sobie z nadmiarem informacji i mnóstwem algorytmicznych decyzji, które przenikają każdy aspekt ich życia?

Doświadczeni użytkownicy odchodzą od urządzeń i stają się świadomi tego, jak algorytmy wpływają na ich życie. Tymczasem konsumenci, którzy mają mniej informacji, w jeszcze większym stopniu polegają na algorytmach kierujących swoimi decyzjami.

Czy powinieneś pozostać w kontakcie – czy odłączyć? pryzmat/shutterstock.com

Sekretny sos stojący za sztuczną inteligencją

Głównym powodem nowej przepaści cyfrowej, moim zdaniem jako osoby badającej systemy informacyjne, jest to, że tak niewiele osób rozumie, jak działają algorytmy. Dla większości użytkowników algorytmy są postrzegane jako czarna skrzynka.

Algorytmy AI pobierają dane, dopasowują je do modelu matematycznego i przygotowują prognozę, począwszy od jakie piosenki mogą Ci się spodobać do ile lat ktoś powinien spędzić w więzieniu. Modele te są opracowywane i modyfikowane na podstawie danych z przeszłości i sukcesów poprzednich modeli. Większość ludzi – nawet czasami sami projektanci algorytmów – tak naprawdę nie wie, co znajduje się w modelu.

Badacze od dawna się martwię o sprawiedliwości algorytmicznej. Na przykład narzędzie do rekrutacji oparte na sztucznej inteligencji firmy Amazon okazało się odrzucić kandydatki. System Amazona wydobywał selektywnie niejawnie związane z płcią słowa – słowa, których mężczyźni częściej używają w codziennej mowie, takie jak „stracony” i „schwytany”.

Inne badania wykazali, że algorytmy sądowe są rasowo stronnicze, skazując biednych czarnoskórych oskarżonych na dłużej niż inne. .

W ramach niedawno zatwierdzonego ogólnego rozporządzenia o ochronie danych w Unii Europejskiej ludzie mają „prawo do wyjaśnienia” kryteriów, które algorytmy wykorzystują w swoich decyzjach. Ustawa ta traktuje proces algorytmicznego podejmowania decyzji jak książkę kucharską. Myślenie jest takie, że jeśli zrozumiesz przepis, możesz zrozumieć, jak algorytm wpływa na twoje życie.

Tymczasem niektórzy badacze AI naciskali na algorytmy, które: uczciwy, odpowiedzialny i przejrzysty, jak również interpretowalne, co oznacza, że ​​powinni podejmować decyzje za pomocą procesów, które ludzie mogą zrozumieć i którym mogą zaufać.

Jaki efekt będzie miała przejrzystość? W jedno badanie, uczniowie byli oceniani przez algorytm i oferowali różne poziomy wyjaśnień na temat tego, w jaki sposób wyniki ich rówieśników zostały dostosowane, aby uzyskać ocenę końcową. Studenci z bardziej przejrzystymi wyjaśnieniami faktycznie mniej ufali algorytmowi. To znowu sugeruje przepaść cyfrową: świadomość algorytmiczna nie prowadzi do większego zaufania do systemu.

Ale przejrzystość nie jest panaceum. Nawet gdy cały proces algorytmu jest naszkicowany, szczegóły mogą być nadal zbyt skomplikowane dla użytkowników do zrozumienia. Przejrzystość pomoże tylko użytkownikom, którzy są wystarczająco wyrafinowani, aby zrozumieć zawiłości algorytmów.

Na przykład w 2014 roku Ben Bernanke, były prezes Rezerwy Federalnej, był początkowo odmówiono refinansowania kredytu hipotecznego przez automatyczny system. Większość osób ubiegających się o takie refinansowanie kredytu hipotecznego nie rozumiałaby, w jaki sposób algorytmy mogą określać ich zdolność kredytową.

Co dziś algorytm mówi do zrobienia? Maria Savenko/shutterstock.com

Rezygnacja z nowego ekosystemu informacyjnego

Chociaż algorytmy wpływają na życie ludzi tak bardzo, tylko niewielka część uczestników jest wystarczająco wyrafinowana, aby w pełni się w to zaangażować jak algorytmy wpływają na ich życie.

Nie ma zbyt wielu statystyk dotyczących liczby osób świadomych algorytmu. Badania wykazały dowody na lęk algorytmiczny, co prowadzi do głębokiej nierównowagi sił między platformami wdrażającymi algorytmy i użytkownicy, którzy na nich polegają.

Badanie korzystania z Facebooka odkryli, że gdy uczestnicy zostali poinformowani o algorytmie Facebooka służącym do nadzorowania kanałów informacyjnych, około 83% uczestników zmodyfikowało swoje zachowanie, aby spróbować skorzystać z algorytmu, podczas gdy około 10% zmniejszyło korzystanie z Facebooka.

Raport z listopada 2018 z Pew Research Center stwierdzili, że znaczna większość opinii publicznej ma poważne obawy co do wykorzystania algorytmów do określonych zastosowań. . Okazało się, że 66% uważało, że algorytmy obliczające wyniki finansów osobistych nie byłyby sprawiedliwe, podczas gdy 57% powiedziało to samo o automatycznym sprawdzaniu CV.

Niewielka część osób sprawuje pewną kontrolę nad sposobem, w jaki algorytmy wykorzystują ich dane osobowe. Na przykład platforma Hu-Manity pozwala użytkownikom możliwość kontrolowania ilości gromadzonych danych data. Encyklopedia online Everipedia oferuje użytkownikom możliwość bycia interesariuszem w procesie selekcji, co oznacza, że ​​użytkownicy mogą również kontrolować, w jaki sposób informacje są agregowane i prezentowane im.

Jednak zdecydowana większość platform nie zapewnia ani takiej elastyczności swoim użytkownikom końcowym, ani prawa do wyboru sposobu, w jaki algorytm wykorzystuje ich preferencje do nadzorowania ich kanału informacyjnego lub polecania im treści. Jeśli istnieją opcje, użytkownicy mogą o nich nie wiedzieć. Około 74% użytkowników Facebooka stwierdziło w ankiecie, że: nie wiedzą, jak platforma charakteryzuje ich osobiste zainteresowania personal.

Moim zdaniem, nowa alfabetyzacja cyfrowa nie polega na korzystaniu z komputera lub przebywaniu w Internecie, ale na zrozumieniu i ocenie konsekwencji stylu życia, który zawsze jest podłączony do sieci.

Ten styl życia ma znaczący wpływ na jak ludzie wchodzą w interakcję z innymi; o ich zdolności do zwracaj uwagę na nowe informacje; i dalej złożoność ich procesów decyzyjnych.

Narastający niepokój algorytmiczny może również odzwierciedlać równoległe zmiany w gospodarce. Niewielka grupa osób jest uchwycenie zysków z automatyzacji, podczas gdy wielu pracowników jest w niepewna pozycja.

Rezygnacja z algorytmicznej kuratorstwa to luksus – i może pewnego dnia stać się symbolem zamożności, dostępnym tylko dla nielicznych. Powstaje zatem pytanie, jakie będą wymierne szkody dla osób znajdujących się po złej stronie przepaści cyfrowej.

O autorze

Anjana Susarla, profesor nadzwyczajny systemów informatycznych, Michigan State University

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.

Powiązane książki

at Rynek wewnętrzny i Amazon