Czy technologia może uchronić nas przed dezinformacją w mediach społecznościowych?

Jeśli otrzymujesz wiadomości z mediów społecznościowych, np większość Amerykanów tak ma, jesteś narażony na codzienną dawkę mistyfikacji, plotek, teorii spiskowych i wprowadzających w błąd wiadomości. Kiedy to wszystko jest zmieszane z wiarygodnymi informacjami z uczciwych źródeł, prawda może być bardzo trudna do rozpoznania.

W rzeczywistości analiza danych z Uniwersytetu Columbia przeprowadzona przez mój zespół badawczy Wyłaniający się ploter tracker sugeruje, że to dezinformacja równie dobrze może stać się wirusowa jako wiarygodna informacja.

Wielu pyta, czy to atak cyfrowej dezinformacji wpłynęło na wynik wyborów w USA w 2016 roku. Prawdy nie wiemy, chociaż istnieją powody, by sądzić, że jest to całkowicie możliwe, na podstawie analiza przeszłości i konta z innych krajów. Każda dezinformacja przyczynia się do kształtowania naszych opinii. Ogólnie szkoda może być bardzo realna.

Jako badaczka rozprzestrzeniania się dezinformacji w mediach społecznościowych wiem, że ograniczenie możliwości sprzedaży reklam przez fakerów wiadomości, o czym niedawno informował m.in. Google i Facebook, to krok we właściwym kierunku. Ale nie ograniczy nadużyć motywowanych motywami politycznymi.

Eksploatacja mediów społecznościowych

Około 10 lat temu wraz z kolegami prowadziliśmy tzw eksperyment w którym dowiedzieliśmy się, że 72 procent studentów ufa linkom, które wydają się pochodzić od znajomych – nawet do tego stopnia, że ​​wprowadzają osobiste dane logowania na stronach wyłudzających informacje. Ta powszechna luka sugerowała inną formę złośliwej manipulacji: ludzie mogą również uwierzyć w dezinformację, którą otrzymują po kliknięciu łącza z kontaktu społecznościowego.

Aby zbadać ten pomysł, stworzyłem plik fałszywa strona internetowa z przypadkowymi, generowanymi komputerowo wiadomościami plotkarskimi – takimi jak „Celebrytka X przyłapana w łóżku z Celebrytką Y!” Odwiedzający witrynę, którzy szukali imienia, uruchomiliby skrypt, aby automatycznie sfabrykować historię o tej osobie. Zamieściłem na stronie zastrzeżenie, że strona zawiera bezsensowny tekst i zmyślone „fakty”. Umieściłem również reklamy na stronie. Pod koniec miesiąca dostałem pocztą czek z zarobkami z reklam. To był mój dowód: fałszywe wiadomości mogą zarabiać, zanieczyszczając internet kłamstwami.


wewnętrzna grafika subskrypcji


Niestety nie tylko ja wpadłem na ten pomysł. Dziesięć lat później mamy tzw branża fake newsów i dezinformacja cyfrowa. Witryny z przynętą na kliknięcia produkują mistyfikacje, aby zarabiać na reklamach, podczas gdy tak zwane hiperpartyjne witryny publikują i rozpowszechniają plotki i teorie spiskowe, aby wpłynąć na opinię publiczną.

Ta branża jest wspierana przez łatwość tworzenia boty społeczne, fałszywe konta kontrolowane przez oprogramowanie, które wyglądają jak prawdziwi ludzie i dlatego mogą mieć realny wpływ. Badania w moim laboratorium odkryła wiele przykładów fałszywych kampanii oddolnych, tzw astroturfing polityczny.

W odpowiedzi opracowaliśmy tzw BotOrNot narzędzie do wykrywania botów społecznościowych. Nie jest idealnie, ale wystarczająco dokładne odkryć kampanie perswazyjne w ruchach brexitowych i antyszczepionkowych. Korzystając z BotOrNot, nasi koledzy odkryli, że a Duża część rozmów online na temat wyborów w 2016 r. zostało wygenerowanych przez boty.

Tworzenie baniek informacyjnych

My, ludzie, jesteśmy podatni na manipulację ze strony cyfrowej dezinformacji dzięki złożonemu zestawowi uprzedzeń społecznych, poznawczych, ekonomicznych i algorytmicznych. Niektóre z nich ewoluowały z ważnych powodów: ufanie sygnałom z naszych kręgów społecznych i odrzucanie informacji sprzecznych z naszym doświadczeniem dobrze nam służyło, gdy nasz gatunek przystosował się do unikania drapieżników. Ale w dzisiejszych kurczących się sieciach internetowych połączenie sieci społecznościowej z teoretykiem spisku po drugiej stronie planety nie pomaga w kształtowaniu moich opinii.

Kopiowanie naszych przyjaciół i nieobserwowanie tych, którzy mają inne opinie, daje nam echo spolaryzowane że naukowcy mogą z dużą dokładnością stwierdzić, czy jesteś liberalny czy konserwatywny po prostu patrząc na swoich przyjaciół. Struktura sieci jest taka gęsty że każda dezinformacja rozprzestrzenia się niemal natychmiast w obrębie jednej grupy i jest tak segregowana, że ​​nie dociera do drugiej.

Wewnątrz naszej bańki jesteśmy wybiórczo narażeni na informacje zgodne z naszymi przekonaniami. Jest to idealny scenariusz maksymalizacji zaangażowania, ale szkodliwy dla rozwoju zdrowego sceptycyzmu. Błąd uprzedzenia prowadzi nas do udostępnienia nagłówka nawet bez czytania artykuł.

Nasze laboratorium otrzymało osobistą lekcję w tym zakresie, kiedy nasz własny projekt badawczy stał się przedmiotem badania okrutna kampania dezinformacyjna w okresie poprzedzającym wybory śródokresowe w USA w 2014 r. Kiedy zbadaliśmy, co się dzieje, znaleźliśmy fałszywe wiadomości o naszych badaniach, które były głównie udostępniane przez użytkowników Twittera w ramach jednej partyzanckiej komory echa, dużej i jednorodnej społeczności aktywnych politycznie użytkowników. Ci ludzie szybko przesyłali dalej i byli odporni na obalanie informacji.

Wirusowa nieuchronność

Nasze badania pokazują, że biorąc pod uwagę strukturę naszych sieci społecznościowych i naszą ograniczoną uwagę, tak jest nieunikniony że niektóre memy będą wirusowe, niezależnie od ich jakości. Nawet jeśli poszczególne osoby mają tendencję do dzielenia się informacjami o wyższej jakości, sieć jako całość nie jest skuteczna w rozróżnianiu między informacjami wiarygodnymi a sfabrykowanymi. To pomaga wyjaśnić wszystkie wirusowe mistyfikacje, które obserwujemy na wolności.

Połączenia uwaga ekonomia zajmuje się resztą: jeśli zwrócimy uwagę na określony temat, zostanie wygenerowanych więcej informacji na ten temat. Taniej jest sfabrykować informacje i podawać je jako fakty niż zgłaszanie faktycznej prawdy. A fabrykację można dostosować do każdej grupy: konserwatyści czytają, że papież poparł Trumpa, liberałowie czytają, że poparł Clintona. On też nie.

Zobowiązany do algorytmów

Ponieważ nie możemy zwracać uwagi na wszystkie posty w naszych kanałach, algorytmy określają, co widzimy, a czego nie. Algorytmy używane obecnie przez platformy mediów społecznościowych mają na celu priorytetowe traktowanie angażujących postów – takich, które prawdopodobnie klikniemy, zareagujemy i udostępnimy. Ale niedawna analiza wykazała, że ​​strony celowo wprowadzające w błąd uzyskały co najmniej tyle samo udostępniania online i reakcja jako prawdziwa wiadomość.

To algorytmiczne nastawienie na zaangażowanie zamiast prawdy wzmacnia nasze uprzedzenia społeczne i poznawcze. W rezultacie, korzystając z linków udostępnianych w mediach społecznościowych, zwykle odwiedzamy mniejszą, bardziej jednorodny zestawu źródeł niż wtedy, gdy przeprowadzamy wyszukiwanie i odwiedzamy najlepsze wyniki.

Istniejące badania pokazują, że przebywanie w komorze echa może wpływać na ludzi bardziej łatwowierny o przyjmowaniu niepotwierdzonych plotek. Ale musimy wiedzieć znacznie więcej o tym, jak różni ludzie reagują na pojedynczą mistyfikację: niektórzy dzielą się nią od razu, inni najpierw sprawdzają fakty.

Jesteśmy symulowanie sieci społecznościowej zbadać tę rywalizację między udostępnianiem a sprawdzaniem faktów. Mamy nadzieję, że pomożemy rozwikłać sprzeczne dowody na temat gdy sprawdzanie faktów pomaga zapobiegać oszustwom przed rozprzestrzenianiem się, a kiedy nie. Nasze wstępne wyniki sugerują, że im bardziej posegregowana społeczność wyznawców mistyfikacji, tym dłużej mistyfikacja przetrwa. Ponownie, nie chodzi tylko o samą mistyfikację, ale także o sieć.

Wiele osób próbuje się dowiedzieć co z tym wszystkim zrobić. Według najnowszego raportu Marka Zuckerberga zapowiedź, zespoły Facebooka testują potencjalne opcje. A grupa studentów zaproponowała prosty sposób oznacz łącza udostępnione jako „zweryfikowany” lub nie.

Niektóre rozwiązania pozostają poza zasięgiem, przynajmniej na razie. Na przykład nie możemy jeszcze nauczyć systemów sztucznej inteligencji, jak to robić odróżniać prawdę od fałszu. Ale możemy powiedzieć algorytmom rankingowym, aby dawały wyższy priorytet bardziej wiarygodnym źródłom.

Badanie rozprzestrzeniania się fałszywych wiadomości

Możemy skuteczniej walczyć z fałszywymi wiadomościami, jeśli lepiej zrozumiemy, w jaki sposób rozprzestrzeniają się złe informacje. Jeśli np. za wiele fałszerstw odpowiadają boty, możemy skupić się na ich wykrywaniu. Jeśli, alternatywnie, problem dotyczy komór pogłosowych, być może moglibyśmy zaprojektować systemy rekomendacji, które nie wykluczają różnych poglądów.

W tym celu nasze laboratorium buduje platformę o nazwie Fałszywy śledzenie i wizualizacja rozprzestrzeniania się niezweryfikowanych twierdzeń oraz odpowiednie sprawdzanie faktów w mediach społecznościowych. To da nam dane ze świata rzeczywistego, za pomocą których możemy informować nasze symulowane sieci społecznościowe. Następnie możemy przetestować możliwe podejścia do walki z fake newsami.

Hoaxy może również być w stanie pokazać ludziom, jak łatwo manipulować ich opiniami za pomocą informacji online – a nawet jak prawdopodobne jest, że niektórzy z nas podzielą się kłamstwami online. Hoaxy dołączy do zestawu narzędzi w naszym Obserwatorium w mediach społecznościowych, który pozwala każdemu zobaczyć, jak memy rozprzestrzeniają się na Twitterze. Łączenie takich narzędzi z narzędziami do sprawdzania faktów przez ludzi i platformami mediów społecznościowych może ułatwić zminimalizowanie powielania wysiłków i wsparcie wzajemnie.

Konieczne jest, abyśmy zainwestowali środki w badanie tego zjawiska. Potrzebujemy wszystkich rąk na pokład: informatyków, socjologów, ekonomistów, dziennikarzy i partnerów branżowych pracować razem stanowczo sprzeciwiać się rozpowszechnianiu dezinformacji.

Konwersacje

O autorze

Filippo Menczer, profesor informatyki; Dyrektor Centrum Badań Sieci Złożonych i Systemów, Indiana University, Bloomington

Ten artykuł został pierwotnie opublikowany w Konwersacje. Przeczytać oryginalny artykuł.

Powiązane książki:

at Rynek wewnętrzny i Amazon