Problem Facebooka jest bardziej skomplikowany niż fałszywe wiadomości

W obliczu nieoczekiwanego zwycięstwa Donalda Trumpa wielu pytania pojawiały się głosy na temat roli Facebooka w promowanie niedokładnych i wysoce stronniczych informacji podczas wyścigu prezydenckiego i czy te fałszywe wiadomości wpłynęły na wynik wyborów.

Kilku zbagatelizowało sprawę Wpływ Facebooka, w tym dyrektora generalnego Marka Zuckerberga, który stwierdził, że tak "bardzo mało prawdopodobne" te fałszywe wiadomości mogły wpłynąć na wynik wyborów. Jednak pytania dotyczące politycznego znaczenia sieci społecznościowej zasługują na coś więcej niż tylko przemilczenie.

Zrób Facebooka algorytmy filtrowania wyjaśnij, dlaczego tak wielu liberałów błędnie pokładało zaufanie w zwycięstwie Clintona (powtarzając błąd popełniony przez Zwolennicy Romneya w 2012 r)? I jest fałszywe wiadomości rozpowszechniane na Facebooku powód, dla którego tak wielu zwolenników Trumpa poparło ewidentnie fałszywe oświadczenia ich kandydata?

Popularne twierdzenie, że przyczyną popularności fałszywych wiadomości na Facebooku są „bąbelki filtrujące”, jest prawie na pewno błędne. Jeśli sieć zachęca ludzi do wiary w nieprawdę – a to duże „jeśli” – problem najprawdopodobniej leży w tym, jak platforma wchodzi w interakcję z podstawowymi ludzkimi tendencjami społecznymi. Dużo trudniej to zmienić.

Źle poinformowana opinia publiczna

Rola Facebooka w rozpowszechnianiu wiadomości politycznych jest niezaprzeczalna. W maju 2016 r. 44 procent Amerykanów powiedział, że otrzymał wiadomości z serwisu społecznościowego. Liczba dezinformacji rozpowszechnianych za pośrednictwem Facebooka jest coraz większa niezaprzeczalny.


wewnętrzna grafika subskrypcji


Jest zatem prawdopodobne, że ilość fałszywych wiadomości na platformie, z której tak wiele osób otrzymuje wiadomości, może pomóc wyjaśnić, dlaczego tak wielu Amerykanów jest źle poinformowanych o polityce.

Trudno jednak powiedzieć, na ile jest to prawdopodobne. Zacząłem badać rolę Internetu w promowaniu fałszywych przekonań podczas wyborów w 2008 r., a w 2012 r. skierowałem swoją uwagę na media społecznościowe. W toku prowadzonych badań znalazłem niewiele spójnych dowodów na to, że korzystanie z mediów społecznościowych sprzyjało akceptacji fałszywych twierdzeń na temat kandydatów, pomimo rozpowszechnienie wielu nieprawd. Zamiast tego wydaje się, że w 2012 r., podobnie jak w 2008 r., poczta elektroniczna nadal była wyjątkowo potężnym kanałem za kłamstwa i teorie spiskowe. Media społecznościowe nie miały zauważalnego wpływu na przekonania ludzi.

Załóżmy jednak na chwilę, że rok 2016 różnił się od 2012 i 2008. (Wybory z pewnością były wyjątkowe pod wieloma innymi względami).

Jeśli Facebook promuje platformę, na której obywatele mają mniejszą zdolność odróżniania prawdy od fikcji, stanowiłoby to poważne zagrożenie dla amerykańskiej demokracji. Ale nazwanie problemu nie wystarczy. Aby walczyć z przepływem dezinformacji w mediach społecznościowych, ważne jest, aby zrozumieć, dlaczego tak się dzieje.

Nie obwiniaj bąbelków filtrujących

Facebook chce, aby jego użytkownicy byli zaangażowani, a nie przytłoczeni, dlatego wykorzystuje autorskie oprogramowanie, które filtruje aktualności użytkowników i wybiera treści, które się pojawią. Ryzyko leży w sposobie, w jaki odbywa się to krawiectwo.

Jest mnóstwo dowodów że ludzie są zainteresowani wiadomościami potwierdzającymi ich poglądy polityczne. Oprogramowanie Facebooka uczy się na podstawie przeszłych działań użytkowników; próbuje odgadnąć, które historie prawdopodobnie klikną lub udostępnią w przyszłości. Doprowadzony do skrajności, daje to bańka filtra, w którym użytkownicy mają dostęp wyłącznie do treści potwierdzających ich uprzedzenia. Ryzyko jest zatem takie bąbelki filtrujące sprzyjają błędnym wyobrażeniom ukrywając prawdę.

Atrakcyjność tego wyjaśnienia jest oczywista. Łatwo to zrozumieć, więc może łatwo będzie to naprawić. Pozbądź się spersonalizowanych kanałów informacyjnych, a bąbelki filtrów już nie będą potrzebne.

Problem z metaforą bańki filtrującej polega na tym, że zakłada ona, że ​​ludzie są doskonale odizolowani od innych perspektyw. W rzeczywistości, liczny badania naukowe mieć pokazane że diety medialne poszczególnych osób prawie zawsze zawierają informacje i źródła podważające ich postawy polityczne. Oraz badanie danych użytkowników Facebooka stwierdziło, że spotkania z informacjami przekrojowymi są powszechne. Innymi słowy, jest mało prawdopodobne, aby trzymanie się fałszywych przekonań zostało wyjaśnione przez ludzi brak kontaktu z dokładniejszymi wiadomościami.

Zamiast tego istniejąca wcześniej tożsamość polityczna ludzi głęboko kształtują swoje przekonania. Zatem nawet w obliczu tych samych informacji, niezależnie od tego, czy jest to np artykuł informacyjny lub kontrola faktów, ludzie o różnych orientacjach politycznych często wydobywają dramatycznie różne znaczenia.

Pomocny może być eksperyment myślowy: jeśli byłeś zwolennikiem Clintona, czy wiedziałeś, że bardzo szanowana witryna z prognozami FiveThirtyEight dał Clintonowi jedynie 71 procent szans na wygraną? Te szanse są lepsze niż rzut monetą, ale nie są pewne. Podejrzewam, że wielu Demokratów było zszokowanych pomimo zobaczenia tych niewygodnych dowodów. Rzeczywiście, wielu było krytycznych wobec tej projekcji w dniach poprzedzających wybory.

Jeśli głosowałeś na Trumpa, czy kiedykolwiek spotkałeś się z dowodami podważającymi twierdzenie Trumpa, że ​​oszustwa wyborcze są w USA powszechne? Kontrolery faktów i organizacje informacyjne obszernie omówili tę kwestię, przedstawiając solidne dowody na to, że twierdzenie to jest nieprawdziwe. Jednak zwolennik Trumpa może pozostać niewzruszony: W sondażu z września 2016 r90 procent zwolenników Trumpa stwierdziło, że nie ufa weryfikatorom faktów.

Facebook = wściekli partyzanci?

Jeśli głównym źródłem niedokładnych informacji rzeczywiście jest izolacja od prawdy, rozwiązanie byłoby oczywiste: uczynić prawdę bardziej widoczną.

Niestety odpowiedź nie jest taka prosta. To prowadzi nas z powrotem do pytania o Facebooka: czy istnieją inne aspekty usługi, które mogą zniekształcać przekonania użytkowników?

Minie trochę czasu, zanim badacze będą mogli z całą pewnością odpowiedzieć na to pytanie, ale jako osoba, która badała, w jaki sposób inne technologie internetowe mogą prowadzić ludzi do wiary w fałszywe informacje, jestem gotów przedstawić kilka uzasadnionych przypuszczeń.

Istnieją dwie rzeczy, które już wiemy o Facebooku, a które mogą zachęcać do rozpowszechniania fałszywych informacji.

Po pierwsze, emocje są zaraźliwe i mogą rozprzestrzeniać się na Facebooku. Jedno z zakrojonych na szeroką skalę badań wykazało, że w kanałach informacyjnych użytkowników Facebooka zachodzą niewielkie zmiany mogą kształtować emocje, które wyrażają w późniejszych postach. W tym badaniu zmiany emocjonalne były niewielkie, podobnie jak zmiany w kanałach informacyjnych, które je spowodowały. Wyobraźcie sobie, jak użytkownicy Facebooka reagują na powszechne oskarżenia kandydatów o korupcję, działalność przestępczą i kłamstwa. Nie jest to zaskakujące prawie połowa (49 procent) wszystkich użytkowników określiło dyskusję polityczną w mediach społecznościowych jako „wściekłą”.

Jeśli chodzi o politykę, złość jest potężną emocją. Wykazano, że tworzy ludzi bardziej skłonni zaakceptować stronnicze kłamstwa i chętniej publikuje i udostępnia informacje polityczne, prawdopodobnie zawierające fałszywe artykuły, które wzmacniają ich przekonania. Jeśli korzystanie z Facebooka powoduje złość partyzantów, jednocześnie narażając ich na kłamstwa partyzanckie, zapewnienie obecności dokładnych informacji może nie mieć większego znaczenia. Republikanie czy Demokraci, wściekli ludzie ufają informacjom, które sprawiają, że ich strona wygląda dobrze.

Po drugie, Facebook wydaje się wzmacniać tożsamość polityczną ludzi – wspierając i tak już dużą podział partyzancki. Chociaż Facebook nie chroni ludzi przed informacjami, z którymi się nie zgadzają, z pewnością ułatwia znalezienie innych osób o podobnych poglądach. Nasze sieci społecznościowe zazwyczaj obejmuje wiele osób, które podzielają nasze wartości i przekonania. Może to być kolejny sposób, w jaki Facebook wzmacnia kłamstwa o podłożu politycznym. Przekonania często pełnią funkcję społeczną, pomagając ludziom określić, kim są i jak pasują do świata. Im łatwiej jest ludziom postrzegać siebie w kategoriach politycznych, tym bardziej są przywiązani do przekonań potwierdzających tę tożsamość.

Te dwa czynniki – sposób, w jaki gniew może rozprzestrzeniać się w sieciach społecznościowych Facebooka oraz sposób, w jaki sieci te mogą sprawić, że tożsamość polityczna jednostek stanie się bardziej istotna dla tego, kim są – prawdopodobnie wyjaśniają nieprawidłowe przekonania użytkowników Facebooka skuteczniej niż tak zwana bańka filtrująca.

Jeśli to prawda, to przed nami poważne wyzwanie. Facebook prawdopodobnie zostanie przekonany do zmiany algorytmu filtrowania, aby nadać priorytet dokładniejszym informacjom. Google już to zrobił podjął podobne przedsięwzięcie. Ostatnie raporty sugerują, że może tak być na Facebooku podejść do problemu poważniej niż sugerują komentarze Zuckerberga.

Nie rozwiązuje to jednak problemu podstawowych sił, które propagują i wzmacniają fałszywe informacje: emocji i ludzi w sieciach społecznościowych. Nie jest też oczywiste, że te cechy Facebooka można lub należy „poprawić”. Sieć społecznościowa pozbawiona emocji wydaje się sprzecznością, a policja, z którą poszczególne osoby wchodzą w interakcje, nie jest czymś, co powinno być akceptowane przez nasze społeczeństwo.

Być może jest tak, że Facebook udostępnia kilka winy za kilka kłamstw, które krążyły w tym roku wyborczym – i że zmieniły one przebieg wyborów.

Jeśli to prawda, wyzwaniem będzie ustalenie, co możemy z tym zrobić.

Konwersacje

O autorze

R. Kelly Garretta, profesor nadzwyczajny komunikacji, Ohio State University

Ten artykuł został pierwotnie opublikowany w Konwersacje. Przeczytać oryginalny artykuł.

Powiązane książki

at Rynek wewnętrzny i Amazon