Jak science fiction może nas uratować przed złymi technologiami
Ahmet Misirligul / Shutterstock

Krótki film Slaughterbots przedstawia najbliższą przyszłość, w której roje mikro-dronów zabijają tysiące ludzi za ich przekonania polityczne. Wydany w listopadzie 2017 przez naukowców i aktywistów ostrzegających o zagrożeniach związanych z zaawansowaną sztuczną inteligencją (AI), szybko stała się wirusowa, przyciągając do tej pory ponad 3m. Pomogło iskrzyć debata publiczna w sprawie przyszłości autonomicznej broni i wywrzeć presję na dyplomatów zebranych w ONZ Konwencja o broni konwencjonalnej.

Ale tego rodzaju spekulacyjne opowiadania science fiction są przydatne nie tylko do przyciągania uwagi. Ludzie, którzy projektują i budują zaawansowaną technologię, mogą wykorzystać historie do rozważenia konsekwencji swojej pracy i upewnić się, że zostanie ona użyta na dobre. Uważamy, że tego rodzaju „prototypowanie science fiction” lub „fikcja projektowa” może pomóc w zapobieganiu uprzedzeniom ludzi w kierunku nowej technologii, dodatkowo wzmacniając uprzedzenia i niesprawiedliwość społeczeństwa.

{vembed Y=9CO6M2HsoIA}

Uprzedzenie może prowadzić do arbitralnej preferencji niektórych kategorii (wyników, ludzi lub pomysłów) nad innymi. Na przykład niektóre osoby mogą być stronnicze w stosunku do zatrudniania kobiet na stanowiska kierownicze, niezależnie od tego, czy są tego świadome albo nie.

Technologia zbudowana wokół danych, które rejestrują takie odchylenie, może się skończyć replikacja problemu. Na przykład, oprogramowanie rekrutacyjne zaprojektowane w celu wybrania najlepszych CV dla określonej pracy może zostać zaprogramowane w celu wyszukiwania cech odzwierciedlających nieświadome uprzedzenia wobec mężczyzn. W takim przypadku algorytm ostatecznie faworyzuje męskie CV. I to nie jest teoretyczne - to właściwie stało się z Amazonem.

Projektowanie algorytmów bez uwzględnienia możliwych negatywnych implikacji zostało porównane lekarzom „piszącym o korzyściach danego leczenia i całkowicie ignorującym skutki uboczne, bez względu na to, jak poważne są one”.


wewnętrzna grafika subskrypcji


Niektóre firmy technologiczne i badacze próbują rozwiązać ten problem. Na przykład Google opracował zbiór zasad etycznych by kierować jego rozwojem AI. A brytyjscy naukowcy podjęli inicjatywę o nazwie Nie równe ma to na celu promowanie większej uczciwości i sprawiedliwości w projektowaniu i stosowaniu technologii.

Problem polega na tym, że publicznie firmy zwykle przedstawiają tylko pozytywną wizję potencjalnych konsekwencji technologii w najbliższej przyszłości. Na przykład samochody bez kierowcy są często przedstawiane jako rozwiązanie wszystkich naszych problemów transportowych od kosztów do bezpieczeństwa, ignorując wzrost niebezpieczeństwa cyberataków lub fakt, że mogą zachęcić ludzi chodzić mniej lub jeździć na rowerze.

Trudność w zrozumieniu, w jaki sposób działają technologie cyfrowe, zwłaszcza te, które są silnie napędzane przez niejasne algorytmy, utrudnia także ludziom kompleksowe i kompleksowe spojrzenie na problemy. Ta sytuacja powoduje napięcie między uspokajającą pozytywną narracją a niejasnym podejrzeniem, że uprzedzenia są w pewnym stopniu osadzone w otaczających nas technologiach. Uważamy, że właśnie tutaj może nadejść opowiadanie historii poprzez fikcję projektową.

Opowieści są naturalną metodą myślenia o możliwościach i skomplikowanych sytuacjach i słyszeliśmy je przez całe życie. Science fiction może pomóc nam spekulować na temat wpływu technologii w najbliższej przyszłości na społeczeństwo, podobnie jak Slaughterbots. Może to obejmować nawet kwestie sprawiedliwości społecznej, takie jak niektóre grupy, takie jak uchodźcy i migranci wykluczone z innowacje cyfrowe.

Ujawnienie (możliwej) przyszłości

Twórz historie fabularne zapewniają projektantom, inżynierom i futurystom (między innymi) nowatorski sposób myślenia o wpływie technologii z ludzkiej perspektywy i łączenie jej z możliwymi przyszłymi potrzebami. Dzięki połączeniu logiki i wyobraźni fikcja projektowa może ujawnić aspekty, w jaki sposób można przyjąć i wykorzystać technologię, rozpoczynając rozmowy na temat jej przyszłe konsekwencje.

Na przykład krótka historia „Pozyskiwanie przestępstw”Bada, co mogłoby się stać, gdyby AI wykorzystała informacje z crowdsourcingu i bazę danych kryminalnych, aby przewidzieć, kto może popełnić morderstwo. Naukowcy odkryli, że ponieważ baza danych była pełna osób należących do mniejszościowych grup etnicznych, które ze względów społecznych były statystycznie bardziej skłonne do ponownego popełnienia przestępstwa, model „pozyskiwania przestępczości” był bardziej prawdopodobny mylnie podejrzewają mniejszości niż biali ludzie.

Nie musisz być utalentowanym pisarzem ani robić zręcznego filmu, aby tworzyć fikcje projektowe. Burze mózgów obejmujące karty i storyboardy był używany rozwijać fikcję projektową i pomagać w rozwijaniu procesu opowiadania historii. Upowszechnienie warsztatów wykorzystujących tego rodzaju narzędzia pozwoliłoby większej liczbie inżynierów, przedsiębiorców i decydentów na stosowanie tej metody oceny. A upublicznienie powstałych prac pomogłoby ujawnić potencjalne uprzedzenia w technologiach, zanim wpłyną one na społeczeństwo.

Zachęcanie projektantów do tworzenia i dzielenia się większą liczbą historii w ten sposób zapewniłoby, że narracja leżąca u podstaw nowej technologii nie byłaby tylko pozytywnym obrazem, ani wyjątkowo negatywnym czy dystopijnym. Zamiast tego ludzie będą w stanie docenić oba aspekty tego, co dzieje się wokół nas.Konwersacje

O autorach

Alessio Malizia, Profesor projektowania doświadczeń użytkowników, University of Hertfordshire i Silvio Carta, Kierownik sztuki i designu oraz przewodniczący Design Research Group, University of Hertfordshire

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.