YouTube's Algorithms Might Radicalize People – But The Real Problem Is We've No Idea How They Work Pan Tempter/Shutterstock

Czy YouTube tworzy ekstremistów? A Ostatnie badania wywołał kłótnie wśród naukowców, argumentując, że algorytmy, które napędzają witrynę, nie pomagają radykalizować ludzi, polecając coraz bardziej ekstremalne filmy, ponieważ Zaproponowano w ostatnich latach.

Artykuł, przesłany do ogólnodostępnego czasopisma First Monday, ale jeszcze nie został formalnie zrecenzowany, przeanalizował rekomendacje wideo otrzymane przez różne rodzaje kanałów. Twierdził, że algorytm YouTube faworyzuje główne kanały medialne nad treściami niezależnymi, dochodząc do wniosku, że radykalizacja ma więcej wspólnego z ludźmi, którzy tworzą szkodliwe treści niż algorytm witryny.

Specjaliści w tej dziedzinie byli szybcy w odpowiadając na badanie, z pewną krytyką metody pracy i inni twierdząc, że algorytm był jednym z kilka ważnych czynników i tylko ta nauka o danych nie da nam odpowiedzi.

Problem z tą dyskusją polega na tym, że tak naprawdę nie możemy odpowiedzieć na pytanie, jaką rolę w radykalizacji ludzi odgrywa algorytm YouTube, ponieważ nie rozumiemy, jak to działa. A to tylko symptom znacznie szerszego problemu. Algorytmy te odgrywają coraz większą rolę w naszym codziennym życiu, ale brakuje im jakiejkolwiek przejrzystości.

Trudno twierdzić, że YouTube nie odgrywa roli w radykalizacji. Po raz pierwszy zwrócił na to uwagę socjolog technologii Zeynep Tufekci, który zilustrował, w jaki sposób polecane filmy stopniowo przyciągają użytkowników w kierunku bardziej ekstremalnych treści. Według słów Tufekci, filmy o bieganiu prowadzą do filmów o bieganiu ultramaratonów, filmy o szczepionkach prowadzą do teorii spiskowych, a filmy o polityce prowadzą do „negacji Holokaustu i innych niepokojących treści”.


innerself subscribe graphic


O tym też pisano szczegółowo autorstwa byłego pracownika YouTube, Guillaume Chaslot, który pracował nad algorytmem rekomendacji witryny. Od czasu opuszczenia firmy Chaslot nadal stara się przedstawiać te zalecenia bardziej przejrzyste. Mówi, że rekomendacje YouTube są stronnicze teorie spiskowe i nieprawdziwe filmy wideo, dzięki czemu ludzie mogą spędzać w witrynie więcej czasu.

W rzeczywistości, maksymalizacja czasu oglądania to cały sens algorytmów YouTube, a to zachęca twórców wideo do walki o uwagę w każdy możliwy sposób. Firma sama brak przejrzystości o tym, jak to działa, prawie niemożliwe jest zwalczanie radykalizacji na stronie. Przecież bez przejrzystości trudno jest wiedzieć, co można zmienić, aby poprawić sytuację.

YouTube's Algorithms Might Radicalize People – But The Real Problem Is We've No Idea How They Work Jak działa algorytm YouTube, pozostaje tajemnicą. Kim jest Danny/Shutterstock?

Ale YouTube nie jest pod tym względem niczym niezwykłym. Brak przejrzystości co do sposobu działania algorytmów ma zwykle miejsce, gdy są one wykorzystywane w dużych systemach, czy to przez firmy prywatne, czy przez organy publiczne. Algorytmy uczenia maszynowego są teraz wykorzystywane nie tylko do decydowania o tym, jaki film wideo chcesz pokazać umieścić dzieci w szkołach, decyzję w sprawie kary więzienia, określać oceny zdolności kredytowej i stawki ubezpieczenia, a także los imigranci, kandydaci do pracy i kandydaci na studia. I zwykle nie rozumiemy, jak te systemy podejmują decyzje.

Badacze znaleźli kreatywne sposoby pokazania wpływu tych algorytmów na społeczeństwo, czy to poprzez zbadanie powstanie reakcyjnej prawicy albo rozpowszechnianie teorii spiskowych na YouTube lub pokazując jak wyszukiwarki odzwierciedlają rasistowskie uprzedzenia osób, które je tworzą.

Systemy uczenia maszynowego są zwykle duże, złożone i nieprzejrzyste. Słusznie są one często opisywane jako czarne skrzynki, gdzie informacje trafiają, a informacje lub działania wychodzą, ale nikt nie może zobaczyć, co dzieje się pomiędzy. Oznacza to, że ponieważ nie wiemy dokładnie, jak działają algorytmy, takie jak system rekomendacji YouTube, próba ustalenia, jak działa strona, byłaby próbą zrozumienia samochodu bez otwierania maski.

To z kolei oznacza, że ​​próba pisania praw regulujących to, co algorytmy powinny, a czego nie powinny robić, staje się ślepym procesem lub metodą prób i błędów. To właśnie dzieje się z YouTube i wieloma innymi algorytmami uczenia maszynowego. Staramy się mieć wpływ na ich wyniki, nie rozumiejąc, jak naprawdę działają. Musimy otworzyć te opatentowane technologie, a przynajmniej sprawić, by były wystarczająco przejrzyste, aby móc je regulować.

Wyjaśnienia i testy

Jednym ze sposobów, aby to zrobić, byłoby zapewnienie algorytmów wyjaśnienia kontrfaktyczne wraz z ich decyzjami. Oznacza to wypracowanie minimalnych warunków potrzebnych algorytmowi do podjęcia innej decyzji, bez opisywania jego pełnej logiki. Na przykład algorytm podejmujący decyzje o pożyczkach bankowych może wygenerować wynik, który mówi, że „gdybyś miał ukończone 18 lat i nie miał wcześniejszego zadłużenia, zaakceptowałbyś swoją pożyczkę bankową”. Ale może to być trudne w przypadku YouTube i innych witryn, które używają algorytmów rekomendacji, ponieważ teoretycznie każdy film na platformie może być polecany w dowolnym momencie.

Innym potężnym narzędziem jest testowanie i audytowanie algorytmów, które jest szczególnie przydatne w diagnozowaniu algorytmów stronniczych. W niedawnym przypadku profesjonalna firma zajmująca się badaniem CV odkryła, że ​​jej algorytm był: nadanie priorytetu dwóm czynnikom jako najlepsze predyktory wyników pracy: czy kandydat nazywał się Jared i czy grał w lacrosse w liceum. Tak się dzieje, gdy maszyna nie jest nadzorowana.

W tym przypadku algorytm przesiewania życiorysów zauważył, że biali mężczyźni mają większe szanse na zatrudnienie, i wykrył korelujące cechy zastępcze (takie jak bycie Jaredem lub granie w lacrosse) obecne w zatrudnianych kandydatach. Dzięki YouTube audyt algorytmów może pomóc w zrozumieniu, jakie rodzaje filmów wideo są traktowane priorytetowo pod kątem rekomendacji – i być może pomóc w rozstrzygnięciu debaty na temat tego, czy rekomendacje YouTube przyczyniają się do radykalizacji postaw, czy nie.

Wprowadzanie wyjaśnień kontrfaktycznych lub stosowanie audytu algorytmów jest procesem trudnym i kosztownym. Ale to ważne, bo alternatywa jest gorsza. Jeśli algorytmy pozostaną niekontrolowane i nieuregulowane, możemy zaobserwować stopniowe pełzanie do naszych mediów teoretyków spiskowych i ekstremistów, a naszą uwagę kontroluje ten, kto może tworzyć najbardziej dochodowe treści.The Conversation

O autorze

Chico Q. Camargo, badacz z tytułem doktora nauk o danych, University of Oxford

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.