robot siedzi przy laptopie z rękami na klawiszach
Image by Zuzanna Cipriano 

Od redaktora:

Jak podkreślono w tym artykule, rozwój kampanii politycznych opartych na sztucznej inteligencji, takich jak hipotetyczna maszyna o nazwie Clogger, może głęboko podważyć uczciwość wyborów. Wykorzystując automatyzację, dostosowane wiadomości i uczenie się przez wzmacnianie, maszyny te mają potencjał do manipulowania i zmiany zachowań wyborców na masową skalę.

W czasach szybkiego rozwoju sztucznej inteligencji (AI) musimy zachować czujność wobec potencjalnych zagrożeń, jakie stwarza ona dla naszych procesów demokratycznych. Pojawienie się kampanii opartych na sztucznej inteligencji stanowi wyzwanie dla samej istoty demokracji. Zamiast o wyborach decydowała siła idei, propozycji politycznych i autentycznych wyborów wyborców, mogłyby nimi rządzić maszyny skupione wyłącznie na zwycięstwie. Przeważająca treść pochodziłaby z modeli językowych AI bez względu na prawdę lub zasady polityczne. Zasadniczo wynik wyborów byłby podyktowany przez sztuczną inteligencję, niszcząc proces demokratyczny.

Aby zapobiec powstaniu „klogokracji” i pozbawieniu obywateli władzy, konieczne jest podjęcie działań. Ulepszona ochrona prywatności i surowe przepisy dotyczące prywatności danych mogą pomóc ograniczyć dostęp maszyn AI do danych osobowych, zmniejszając ich skuteczność w namierzaniu osób i manipulowaniu nimi. Komisje wyborcze powinny również rozważyć zakazanie lub ścisłe uregulowanie systemów sztucznej inteligencji, które mają wpływać na wyborców. Wdrażanie przepisów, które wymagają jasnych zastrzeżeń, gdy komunikaty generowane przez sztuczną inteligencję są wykorzystywane w kampaniach politycznych. Może to zapewnić przejrzystość i pomóc wyborcom w podejmowaniu świadomych decyzji.

Konieczne jest proaktywne stawienie czoła tym wyzwaniom i zapewnienie odpowiedzialnego wykorzystania mocy sztucznej inteligencji w celu przestrzegania zasad demokracji. Chroniąc uczciwość wyborów i chroniąc wolność wyboru, możemy poradzić sobie ze złożonością sztucznej inteligencji i zachować podstawy demokratycznych rządów.

Jak sztuczna inteligencja może przejąć wybory – i podważyć demokrację

Scenariusz Archonta Funga, profesor obywatelstwa i samorządności, Harvard Kennedy School i Lawrence Lessig, profesor prawa i przywództwa, Harvard University


wewnętrzna grafika subskrypcji


Czy organizacje mogą wykorzystywać modele językowe sztucznej inteligencji, takie jak ChatGPT, aby skłonić wyborców do określonych zachowań?

Senator Josh Hawley zadał to pytanie dyrektorowi generalnemu OpenAI, Samowi Altmanowi 16 maja 2023 r., przesłuchanie w Senacie USA na sztuczną inteligencję. Altman odpowiedział, że rzeczywiście obawia się, że niektórzy ludzie mogą używać modeli językowych do manipulowania, przekonywania i angażowania się w interakcje jeden na jednego z wyborcami.

Altman nie rozwinął szczegółów, ale mógł mieć na myśli coś w rodzaju tego scenariusza. Wyobraź sobie, że wkrótce politolodzy opracowują maszynę o nazwie Clogger – kampanię polityczną w czarnej skrzynce. Clogger nieustannie dąży do jednego celu: zmaksymalizować szanse, że jego kandydat – kampania, która kupuje usługi Clogger Inc. – zwycięży w wyborach.

Podczas gdy platformy takie jak Facebook, Twitter i YouTube używają form sztucznej inteligencji, aby zachęcić użytkowników spędzać więcej czasu na ich stronach sztuczna inteligencja Cloggera miałaby inny cel: zmienić zachowania ludzi związane z głosowaniem.

Jak działałby Clogger

Jak politolog oraz prawnik którzy badają skrzyżowanie technologii i demokracji, wierzymy, że coś takiego jak Clogger mogłoby wykorzystać automatyzację do radykalnego zwiększenia skali i potencjalnej skuteczności techniki manipulacji zachowaniem i mikrotargetowania których kampanie polityczne używały od początku XXI wieku. Tak jak reklamodawcy wykorzystują Twoją historię przeglądania i mediów społecznościowych aby teraz indywidualnie kierować reklamy komercyjne i polityczne, Clogger zwróciłby uwagę na Ciebie – i setki milionów innych wyborców – indywidualnie.

Dałoby to trzy postępy w stosunku do najnowocześniejszej algorytmicznej manipulacji zachowaniem. Po pierwsze, jego model językowy generowałby wiadomości — teksty, media społecznościowe i e-maile, być może zawierające obrazy i filmy — dostosowane do Ciebie osobiście. Podczas gdy reklamodawcy strategicznie umieszczają stosunkowo niewielką liczbę reklam, modele językowe, takie jak ChatGPT, mogą wygenerować niezliczone unikalne wiadomości dla Ciebie osobiście – i miliony dla innych – w trakcie kampanii.

Po drugie, Clogger użyłby techniki zwanej uczenie się wzmacniania wygenerować serię wiadomości, które z coraz większym prawdopodobieństwem zmienią Twój głos. Uczenie się przez wzmacnianie to uczenie maszynowe, metoda prób i błędów, w której komputer podejmuje działania i otrzymuje informacje zwrotne o tym, które działają lepiej, aby dowiedzieć się, jak osiągnąć cel. Maszyny, które mogą grać w Go, Chess i wiele gier wideo lepiej niż jakikolwiek człowiek korzystali z uczenia się przez wzmacnianie.

Jak działa uczenie się przez wzmacnianie.

 

Po trzecie, w trakcie kampanii wiadomości Cloggera mogą ewoluować, aby uwzględnić twoje odpowiedzi na wcześniejsze wiadomości maszyny i to, czego dowiedziała się o zmianie zdania innych. Clogger byłby w stanie prowadzić dynamiczne „rozmowy” z Tobą – i milionami innych osób – przez dłuższy czas. Wiadomości Cloggera byłyby podobne do reklamy, które Cię śledzą na różnych stronach internetowych i w mediach społecznościowych.

Natura sztucznej inteligencji

Warto zwrócić uwagę na jeszcze trzy funkcje – lub błędy.

Po pierwsze, wiadomości wysyłane przez Cloggera mogą, ale nie muszą, mieć treść polityczną. Jedynym celem maszyny jest maksymalizacja udziału głosów i prawdopodobnie opracowałaby strategie osiągnięcia tego celu, o których nie pomyślałby żaden ludzki działacz.

Jedną z możliwości jest wysyłanie potencjalnym wyborcom opozycji informacji o niepolitycznych pasjach, jakie mają w sporcie lub rozrywce, aby ukryć otrzymywane komunikaty polityczne. Inną możliwością jest wysyłanie odpychających wiadomości – na przykład reklam związanych z nietrzymaniem moczu – tak, aby zbiegły się w czasie z wiadomościami przeciwników. Innym jest manipulowanie grupami przyjaciół wyborców w mediach społecznościowych, aby dać wrażenie, że ich kręgi społeczne popierają jego kandydata.

Po drugie, Clogger nie ma szacunku dla prawdy. Rzeczywiście, nie ma możliwości poznania, co jest prawdą, a co fałszem. Model języka „halucynacje” nie stanowią problemu dla tej maszyny, ponieważ jej celem jest zmiana Twojego głosu, a nie podanie dokładnych informacji.

Po trzecie, ponieważ jest to tzw sztuczna inteligencja typu czarnej skrzynki, ludzie nie mieliby możliwości dowiedzieć się, jakich strategii używa.

Dziedzina wyjaśnialnej sztucznej inteligencji ma na celu otwarcie czarnej skrzynki wielu modeli uczenia maszynowego, aby ludzie mogli zrozumieć, jak działają.

 

klokracja

Gdyby republikańska kampania prezydencka miała rozmieścić Cloggera w 2024 r., kampania Demokratów prawdopodobnie byłaby zmuszona odpowiedzieć w naturze, być może podobną maszyną. Nazwij to Doggerem. Gdyby menedżerowie kampanii myśleli, że te maszyny są skuteczne, prezydencki konkurs mógłby równie dobrze sprowadzić się do Cloggera kontra Doggera, a zwycięzcą byłby klient skuteczniejszej maszyny.

Politolodzy i eksperci mieliby wiele do powiedzenia na temat tego, dlaczego jedna lub druga sztuczna inteligencja zwyciężyła, ale prawdopodobnie nikt tak naprawdę nie wiedziałby. Prezydent zostanie wybrany nie dlatego, że jego propozycje polityczne lub idee polityczne przekonały więcej Amerykanów, ale dlatego, że miał skuteczniejszą sztuczną inteligencję. Treści, które wygrały tego dnia, pochodziłyby od sztucznej inteligencji skupionej wyłącznie na zwycięstwie, bez własnych idei politycznych, a nie od kandydatów lub partii.

W tym bardzo ważnym sensie maszyna wygrałaby wybory, a nie osoba. Wybory nie byłyby już demokratyczne, mimo że wszystkie zwykłe czynności demokracji – przemówienia, reklamy, przesłania, głosowanie i liczenie głosów – miałyby miejsce.

Prezydent wybrany przez sztuczną inteligencję mógłby wtedy pójść na jeden z dwóch sposobów. Mógł wykorzystać płaszcz wyborczy do prowadzenia polityki Partii Republikańskiej lub Demokratycznej. Ale ponieważ idee partii mogły mieć niewiele wspólnego z tym, dlaczego ludzie głosowali w taki sposób, w jaki głosowali – Clogger i Dogger nie dbają o poglądy polityczne – działania prezydenta niekoniecznie odzwierciedlałyby wolę wyborców. Wyborcy byliby manipulowani przez sztuczną inteligencję, zamiast swobodnie wybierać swoich przywódców politycznych i politykę.

Inną drogą jest podążanie przez prezydenta za przekazami, zachowaniami i politykami, które zgodnie z przewidywaniami maszyny zmaksymalizują szanse na reelekcję. Na tej ścieżce prezydent nie miałby żadnej konkretnej platformy ani programu poza utrzymaniem władzy. Działania prezydenta, kierowane przez Cloggera, byłyby najbardziej skłonne do manipulowania wyborcami, a nie do służenia ich autentycznym interesom, a nawet własnej ideologii prezydenta.

Unikanie Clogocracy

Można by uniknąć manipulacji wyborami AI, gdyby wszyscy kandydaci, kampanie i konsultanci zrzekli się korzystania z takiej politycznej AI. Uważamy, że jest to mało prawdopodobne. Gdyby opracowano politycznie skuteczne czarne skrzynki, pokusa ich wykorzystania byłaby niemal nie do odparcia. Rzeczywiście, konsultanci polityczni mogą równie dobrze postrzegać wykorzystanie tych narzędzi jako wymagane przez ich odpowiedzialność zawodową, aby pomóc swoim kandydatom w zwycięstwie. A kiedy jeden z kandydatów użyje tak skutecznego narzędzia, trudno oczekiwać, że przeciwnicy stawią opór przez jednostronne rozbrojenie.

Ulepszona ochrona prywatności mogłoby pomóc. Clogger byłby zależny od dostępu do ogromnych ilości danych osobowych w celu dotarcia do poszczególnych osób, tworzenia wiadomości dostosowanych do ich przekonania lub manipulowania nimi oraz śledzenia ich i ponownego kierowania w trakcie kampanii. Każda informacja, której firmy lub decydenci zaprzeczają maszynie, sprawiłaby, że byłaby ona mniej skuteczna.

Silne przepisy dotyczące prywatności danych mogą pomóc odciągnąć sztuczną inteligencję od manipulacji.

 

Innym rozwiązaniem są komisje wyborcze. Mogliby spróbować zakazać lub surowo uregulować te maszyny. jest zaciekła debata o tym, czy takie mowa „replikanta”., nawet jeśli ma charakter polityczny, może być regulowany. Ekstremalna amerykańska tradycja wolności słowa prowadzi wielu czołowych naukowców do stwierdzenia, że ​​nie może.

Ale nie ma powodu, aby automatycznie rozszerzać ochronę Pierwszej Poprawki na produkt tych maszyn. Naród może równie dobrze zdecydować się na nadanie maszynom praw, ale powinna to być decyzja oparta na wyzwaniach dnia dzisiejszego, nie błędne założenie że poglądy Jamesa Madisona z 1789 r. miały zastosowanie do sztucznej inteligencji.

Regulatorzy Unii Europejskiej idą w tym kierunku. Decydenci polityczni zmienili projekt ustawy Parlamentu Europejskiego o sztucznej inteligencji, aby wyznaczyć „systemy sztucznej inteligencji, które mają wpływać na wyborców w kampaniach” jako „wysokiego ryzyka” i podlegają kontroli regulacyjnej.

Jeden konstytucyjnie bezpieczniejszy, choć mniejszy krok, już częściowo przyjęty przez Europejscy regulatorzy Internetu oraz w California, ma zakazać botom podszywania się pod ludzi. Na przykład przepisy mogą wymagać, aby komunikaty kampanii zawierały zastrzeżenia, jeśli zawarte w nich treści są generowane przez maszyny, a nie przez ludzi.

Byłoby to podobne do wymagań dotyczących wyłączenia odpowiedzialności reklamowej – „Opłacone przez Sam Jones for Congress Committee” – ale zmodyfikowane, aby odzwierciedlić pochodzenie AI: „Ta reklama wygenerowana przez AI została opłacona przez Sam Jones for Congress Committee”. Mocniejsza wersja może wymagać: „Ta wiadomość wygenerowana przez sztuczną inteligencję jest wysyłana do Ciebie przez Sam Jones for Congress Committee, ponieważ Clogger przewidział, że zwiększy to Twoje szanse na głosowanie na Sama Jonesa o 0.0002%”. Uważamy, że przynajmniej wyborcy zasługują na to, aby wiedzieć, kiedy mówi do nich bot, i powinni również wiedzieć, dlaczego.

Możliwość systemu takiego jak Clogger pokazuje, że droga do ludzkie zbiorowe osłabienie może nie wymagać jakiegoś nadczłowieka sztuczna inteligencja ogólna. Może to po prostu wymagać nadgorliwych działaczy i konsultantów, którzy mają potężne nowe narzędzia, które mogą skutecznie naciskać miliony ludzi.

O Autorach

Archonta Funga, profesor obywatelstwa i samorządności, Harvard Kennedy School i Lawrence Lessig, profesor prawa i przywództwa, Harvard University

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.


Dodatek redaktora: Potencjał sztucznej inteligencji do przejęcia kontroli nad wyborami i podważenia demokracji jest palącym problemem, który wymaga naszej uwagi. Jak podkreślono w tym artykule, rozwój kampanii politycznych opartych na sztucznej inteligencji, takich jak Clogger, może zmienić wyniki wyborów, a maszyny będą wpływać na zachowania wyborców na niespotykaną dotąd skalę. Konsekwencje takiej zmiany byłyby dalekosiężne, a o wyborach decydowałaby nie wola ludu, ale skuteczność manipulacji AI.

Aby zapobiec temu pozbawianiu uprawnień obywateli i chronić demokrację, musimy podjąć proaktywne działania. Solidna ochrona prywatności i przepisy ograniczające wpływ systemów sztucznej inteligencji na wybory mają kluczowe znaczenie. Zapewniając przejrzystość, egzekwując wyraźne zastrzeżenia dotyczące treści generowanych przez sztuczną inteligencję i promując odpowiedzialne korzystanie z sztucznej inteligencji, możemy stać na straży integralności procesów demokratycznych i chronić podstawowe wartości naszego społeczeństwa.

Istotne jest, abyśmy zachowali czujność i pracowali wspólnie, aby sprostać wyzwaniom stawianym przez sztuczną inteligencję w wyborach. W ten sposób możemy zachować demokratyczne ideały leżące u podstaw naszych społeczeństw i zabezpieczyć przyszłość, w której potęga technologii będzie zgodna z interesami i aspiracjami ludzi.

złamać

Powiązane książki:

O tyranii: dwadzieścia lekcji z XX wieku

autorstwa Timothy'ego Snydera

Ta książka oferuje lekcje historii dotyczące zachowania i obrony demokracji, w tym znaczenie instytucji, rolę poszczególnych obywateli i niebezpieczeństwa autorytaryzmu.

Kliknij, aby uzyskać więcej informacji lub zamówić

Nasz czas jest teraz: władza, cel i walka o sprawiedliwą Amerykę

autorstwa Stacey Abrams

Autorka, polityk i aktywistka, dzieli się swoją wizją bardziej inkluzywnej i sprawiedliwej demokracji oraz oferuje praktyczne strategie zaangażowania politycznego i mobilizacji wyborców.

Kliknij, aby uzyskać więcej informacji lub zamówić

Jak umierają demokracje

autorstwa Stevena Levitsky'ego i Daniela Ziblatta

Ta książka analizuje znaki ostrzegawcze i przyczyny rozpadu demokracji, opierając się na studiach przypadków z całego świata, aby zaoferować wgląd w to, jak chronić demokrację.

Kliknij, aby uzyskać więcej informacji lub zamówić

The People, No: Krótka historia antypopulizmu

przez Thomasa Franka

Autor przedstawia historię ruchów populistycznych w Stanach Zjednoczonych i krytykuje „antypopulistyczną” ideologię, która, jak twierdzi, zdławiła demokratyczne reformy i postęp.

Kliknij, aby uzyskać więcej informacji lub zamówić

Demokracja w jednej książce lub mniej: jak to działa, dlaczego nie działa i dlaczego jej naprawienie jest łatwiejsze niż myślisz

przez Davida Litta

Ta książka zawiera przegląd demokracji, w tym jej mocne i słabe strony, oraz proponuje reformy, które uczynią system bardziej responsywnym i odpowiedzialnym.

Kliknij, aby uzyskać więcej informacji lub zamówić