3 sposoby, w jakie Facebook może ograniczyć fałszywe wiadomości Fake

Społeczeństwo dostaje bardzo dużo nowości i informacje z Facebooka. Niektóre z nich są fałszywe. Stanowi to problem zarówno dla użytkowników serwisu, jak i dla samej firmy.

Współzałożyciel i prezes Facebooka, Mark Zuckerberg, powiedział, że firma znajdzie sposoby na rozwiązanie tego problemu, chociaż nie uznał jego powagi. I bez widocznej ironii ogłosił to oświadczenie w krótkim czasie Facebook postu otoczony – przynajmniej dla niektórych widzów – przez fałszywe wiadomości.

Inne firmy zorientowane na technologię, mające podobną władzę nad sposobem informowania się opinii publicznej, takie jak Google, przez lata ciężko pracowały, aby zdegraduj informacje niskiej jakości w swoich wynikach wyszukiwania. Ale Facebook nie wykonał podobnych ruchów, aby pomóc użytkownikom.

Co może zrobić Facebook, aby spełnić swój społeczny obowiązek oddzielenia faktów od fikcji dla 70 proc. internautów kto ma dostęp do Facebooka? Jeśli witryna jest coraz częściej miejscem, w którym ludzie otrzymują swoje wiadomości, co może zrobić firma, nie przyjmując płaszcza ostatecznego arbitra prawdy? Moja praca jako profesora informatyki sugeruje, że istnieją co najmniej trzy opcje.

Rola Facebooka

Facebook mówi, że to firma technologiczna, a nie firma medialna. Głównym motywem firmy jest zysk, a nie wyższy cel jak tworzenie wysokiej jakości informacji, aby pomóc społeczeństwu w świadomym działaniu na świecie.

Mimo to coraz częściej pojawiają się posty na stronie i otaczające je rozmowy, zarówno online, jak i poza nim zaangażowani w nasz dyskurs publiczny i program polityczny narodu. W rezultacie korporacja ma społeczny obowiązek wykorzystywania swojej technologii do rozwoju dobra wspólnego.


wewnętrzna grafika subskrypcji


Odróżnianie prawdy od fałszu może jednak zniechęcać. Facebook nie jest sam w zgłaszanie wątpliwości co do jego zdolności – i innych firm technologicznych – aby ocenić jakość wiadomości. Dyrektor FactCheck.org, niedochodowa grupa sprawdzająca fakty z siedzibą na Uniwersytecie Pensylwanii, powiedziała Bloomberg News, że wiele twierdzeń i historii nie jest całkowicie fałszywych. Wielu ma ziarna prawdy, nawet jeśli są sformułowane w bardzo mylący sposób. Więc co tak naprawdę może zrobić Facebook?

Opcja 1: Szturchanie

Jedną z opcji, którą może zastosować Facebook, jest wykorzystanie istniejących list identyfikujących wstępnie sprawdzone i niezawodne i strony z fałszywymi wiadomościami. Witryna może wtedy ostrzec tych, którzy chcą udostępnić kłopotliwy artykuł, że jego źródło jest wątpliwe.

Na przykład jeden programista stworzył rozszerzenie do przeglądarki Chrome który wskazuje, kiedy strona internetowa na który patrzysz, może być fałszywy. (Nazywa go „Wykrywaczem BS”). Podczas 36-godzinnego hackathonu grupa studentów… stworzył podobne rozszerzenie przeglądarki Chrome wskazuje, czy witryna, z której pochodzi artykuł, znajduje się na liście zweryfikowanych, wiarygodnych witryn, czy też jest niezweryfikowana.

Te rozszerzenia wyświetlają swoje alerty, gdy ludzie przeglądają swoje kanały informacyjne. Obecnie żadna z nich nie działa bezpośrednio w ramach Facebooka. Zintegrowanie ich zapewniłoby bardziej płynne wrażenia i udostępniłoby usługę wszystkim użytkownikom Facebooka, nie tylko tym, którzy zainstalowali jedno z rozszerzeń na własnym komputerze.

Firma może również wykorzystać informacje generowane przez rozszerzenia – lub ich materiał źródłowy – do ostrzegania użytkowników przed udostępnieniem niewiarygodnych informacji. W świecie projektowania oprogramowania jest to znane jako „szturchać”. System ostrzegania monitoruje zachowanie użytkowników i powiadamia ludzi lub przekazuje im informacje zwrotne, aby pomóc zmienić ich działania podczas korzystania z oprogramowania.

Zrobiono to już wcześniej, do innych celów. Na przykład moi koledzy z Syracuse University zbudowałem podniecającą aplikację który monitoruje, co użytkownicy Facebooka piszą w nowym poście. Pojawia się powiadomienie, jeśli treść, którą piszą, jest czymś, czego mogą żałować, na przykład gniewną wiadomością z przekleństwami.

Piękno szturchnięć to delikatny, ale skuteczny sposób, w jaki przypominają ludziom o zachowaniu, aby pomóc im zmienić to zachowanie. Badania, w których przetestowano użycie bodźców, aby poprawić zdrowe zachowanie, na przykład stwierdzają, że ludzie są bardziej skłonni do zmiany diety i ćwiczeń na podstawie delikatnych przypomnień i zaleceń. Szturchnięcia mogą być skuteczne, ponieważ dają ludziom kontrolę, a jednocześnie dostarczają im przydatnych informacji. Ostatecznie odbiorca bodźca nadal decyduje, czy skorzystać z otrzymanej opinii. Szturchnięcia nie są przymusowe; zamiast tego potencjalnie wzmacniają.

Opcja 2: Crowdsourcing

Facebook mógłby również wykorzystać siłę crowdsourcingu, aby pomóc ocenić źródła wiadomości i wskazać, kiedy udostępniane wiadomości zostały ocenione i ocenione. Jednym z ważnych wyzwań związanych z fałszywymi wiadomościami jest to, że wpływa na sposób, w jaki nasze mózgi są połączone. Mamy skróty myślowe, zwane Uprzedzenia poznawcze, które pomagają nam podejmować decyzje, gdy nie mamy wystarczająco dużo informacji (nigdy nie mamy) lub wystarczająco dużo czasu (nigdy nie mamy). Ogólnie rzecz biorąc, te skróty działają dobrze dla nas, ponieważ podejmujemy decyzje dotyczące wszystkiego, od której trasy jechać do pracy, po jaki samochód kupić, ale czasami nas zawodzą. Jednym z takich przypadków jest zakochanie się w fałszywych wiadomościach.

To może się przydarzyć każdemu – nawet mnie. W sezonie podstawowym śledziłem hashtag na Twitterze, na którym tweetował ówczesny główny kandydat Donald Trump. Pojawiła się wiadomość, która mnie zszokowała. Przesłałem go dalej z komentarzem kpiącym z jego obraźliwości. Dzień później zdałem sobie sprawę, że tweet pochodził z konta z parodią, które wyglądało identycznie jak nazwa uchwytu Trumpa na Twitterze, ale zmieniono jedną literę.

Tęskniłam, bo się zakochałam błąd potwierdzenia – tendencja do przeoczenia niektórych informacji, ponieważ jest to sprzeczne z moimi oczekiwaniami, przewidywaniami lub przeczuciami. W tym przypadku zignorowałem ten cichy głos, który powiedział mi, że ten konkretny tweet jest trochę zbyt przesadny dla Trumpa, ponieważ wierzyłem, że jest w stanie generować wiadomości jeszcze bardziej nieodpowiednie. Fałszywe wiadomości żerują na nas w ten sam sposób.

Innym problemem związanym z fałszywymi wiadomościami jest to, że mogą one podróżować znacznie dalej niż jakakolwiek korekta, która może nastąpić później. Jest to podobne do wyzwań, z którymi zawsze borykały się redakcje, gdy zgłaszały błędne informacje. Chociaż publikują poprawki, często osoby pierwotnie narażone na dezinformację nigdy nie widzą aktualizacji, a zatem nie wiedzą, co przeczytały wcześniej, jest błędne. Co więcej, ludzie mają tendencję do trzymania się pierwszej napotkanej informacji; korekty mogą się nawet odwrócić powtarzając błędne informacje i wzmacniając błąd w umysłach czytelników.

Gdyby ludzie oceniali informacje podczas czytania i udostępniali te oceny, oceny prawdy, takie jak podpowiedzi, mogą być częścią aplikacji Facebooka. To może pomóc użytkownikom samemu zdecydować, czy czytać, udostępniać, czy po prostu ignorować. Jednym z wyzwań związanych z crowdsourcingiem jest to, że ludzie mogą oszukać te systemy, aby spróbować uzyskać stronnicze wyniki. Ale piękno crowdsourcingu polega na tym, że tłum może również oceniać oceniających, tak jak to ma miejsce na Reddicie lub w recenzjach Amazona, aby zmniejszyć skutki i wagę awanturników.

Opcja 3: Algorytmiczna odległość społeczna

Trzecim sposobem, w jaki Facebook mógłby pomóc, byłoby zmniejszenie błędu algorytmicznego, który obecnie istnieje w Facebooku. Witryna pokazuje przede wszystkim posty osób, z którymi współpracowałeś na Facebooku. Innymi słowy, algorytm Facebooka tworzy coś, co niektórzy nazywają bańka filtra, fenomen wiadomości internetowych, który ma zaniepokojeni uczeni od dziesięcioleci. Jeśli jesteś narażony tylko na osoby z pomysłami podobnymi do Twoich, prowadzi to do: polaryzacja polityczna: Liberałowie stają się jeszcze bardziej ekstremalni w swoim liberalizmie, a konserwatyści stają się bardziej konserwatywni.

Bańka filtra tworzy „komorę echa”, w której podobne pomysły odbijają się w nieskończoność, ale nowe informacje ma trudności ze znalezieniem drogi do środka. Jest to problem, gdy komora echa blokuje informacje korygujące lub sprawdzające fakty.

Jeśli Facebook miałby otwierać więcej wiadomości, które trafiałyby do kanału informacyjnego danej osoby od losowej grupy osób w ich sieci społecznościowej, zwiększyłoby to szanse na przepływ nowych informacji, alternatywnych informacji i sprzecznych informacji w tej sieci. Średnia liczba liczba znajomych w sieci użytkownika Facebooka to 338. Chociaż wielu z nas ma przyjaciół i rodzinę, którzy podzielają nasze wartości i przekonania, mamy również znajomych i nieznajomych, którzy są częścią naszej sieci na Facebooku, którzy mają diametralnie odmienne poglądy. Gdyby algorytmy Facebooka wprowadziły do ​​naszych sieci więcej takich widoków, bańka filtrująca byłaby bardziej porowata.

Wszystkie te opcje mieszczą się w możliwościach inżynierów i badaczy Facebooka. Umożliwiłyby użytkownikom podejmowanie lepszych decyzji dotyczących informacji, które zdecydują się czytać i udostępniać w swoich sieciach społecznościowych. Jako wiodąca platforma rozpowszechniania informacji oraz generator kultury społecznej i politycznej poprzez rozmowy i dzielenie się informacjami, Facebook nie musi być ostatecznym arbitrem prawdy. Może jednak wykorzystać moc swoich sieci społecznościowych, aby pomóc użytkownikom ocenić wartość przedmiotów w strumieniu treści, z którymi mają do czynienia.

Konwersacje

O autorze

Jennifer Stromer-Galley, profesor studiów informacyjnych, Syracuse University

Ten artykuł został pierwotnie opublikowany w Konwersacje. Przeczytać oryginalny artykuł.

Powiązane książki:

at Rynek wewnętrzny i Amazon