Dlaczego technologia naraża prawa człowieka na ryzyko
Spainter_vfx/Shutterstock.com

Filmy takie jak 2001: Odyseja kosmiczna, Blade Runner i "Terminator" sprowadziła zbuntowane roboty i systemy komputerowe na ekrany naszych kin. Ale w dzisiejszych czasach takie klasyczne widowiska science fiction nie wydają się tak odległe od rzeczywistości.

Coraz częściej żyjemy, pracujemy i bawimy się technologiami obliczeniowymi, które są autonomiczne i inteligentne. Systemy te obejmują oprogramowanie i sprzęt zdolny do niezależnego rozumowania i podejmowania decyzji. Pracują dla nas na hali fabrycznej; decydują o tym, czy możemy dostać kredyt hipoteczny; śledzą i mierzą naszą aktywność i poziom sprawności; czyszczą podłogi w naszych salonach i przycinają trawniki.

Autonomiczne i inteligentne systemy mogą potencjalnie wpłynąć na niemal każdy aspekt naszego życia społecznego, gospodarczego, politycznego i prywatnego, w tym na przyziemne aspekty życia codziennego. Wiele z tego wydaje się niewinne, ale są powody do niepokoju. Technologie obliczeniowe wpływają na każde prawo człowieka, od prawa do życia, przez prawo do prywatności, wolność wypowiedzi, po prawa społeczne i ekonomiczne. Jak więc możemy bronić praw człowieka w krajobrazie technologicznym, w coraz większym stopniu kształtowanym przez robotykę i sztuczną inteligencję (AI)?

Sztuczna inteligencja i prawa człowieka

Po pierwsze, istnieje realna obawa, że ​​zwiększona autonomia maszyn podważy status człowieka. Ten strach potęguje brak jasności co do tego, kto zostanie pociągnięty do odpowiedzialności, czy to w sensie prawnym, czy moralnym, kiedy inteligentne maszyny wyrządzą krzywdę. Ale nie jestem pewien, czy nasza troska o prawa człowieka powinna naprawdę skupiać się na nieuczciwe roboty, jak się to obecnie wydaje. Powinniśmy raczej martwić się o wykorzystywanie przez ludzi robotów i sztucznej inteligencji oraz ich rozmieszczanie w niesprawiedliwych i nierównych kontekstach politycznych, wojskowych, ekonomicznych i społecznych.

To zmartwienie jest szczególnie istotne w odniesieniu do śmiercionośnych autonomicznych systemów uzbrojenia (LAWS), często określanych jako zabójcze roboty. Jak my iść w kierunku wyścigu zbrojeń AI, badacze praw człowieka i działacze na rzecz praw człowieka, tacy jak Christof Heyns, były specjalny sprawozdawca ONZ ds. odpowiedzialny za decyzje dotyczące życia i śmierci, z ograniczoną lub żadną kontrolą człowieka.


wewnętrzna grafika subskrypcji


Sztuczna inteligencja rewolucjonizuje również powiązania między działaniami wojennymi a praktykami inwigilacyjnymi. Grupy takie jak Międzynarodowy Komitet ds. Kontroli Broni Robotów (ICRAC) niedawno wyrazili sprzeciw wobec udziału Google w Project Maven, program wojskowy, który wykorzystuje uczenie maszynowe do analizy nagrań z monitoringu dronów, które można wykorzystać do zabójstw pozasądowych. IKRAC Odwołanie Google, aby zapewnić, że dane, które gromadzi o swoich użytkownikach, nigdy nie zostaną wykorzystane do celów wojskowych, przyłączając się do protestów pracowników Google w związku z zaangażowaniem firmy w projekt. Google niedawno to ogłosił nie będzie się odnawiać jego umowa.

W 2013 roku Edward Snowden zwrócił uwagę na zakres praktyk inwigilacyjnych Rewelacje. Nauczyły nas one wiele o zagrożeniu prawa do prywatności i wymiany danych między służbami wywiadowczymi, agencjami rządowymi i prywatnymi korporacjami. Ostatnie kontrowersje wokół Cambridge AnalyticaGromadzenie danych osobowych za pośrednictwem platform mediów społecznościowych, takich jak Facebook, nadal budzi poważne obawy, tym razem dotyczące manipulacji i ingerencji w demokratyczne wybory, które naruszają prawo do wolności wypowiedzi.

Tymczasem krytyczni analitycy danych stają przed wyzwaniem praktyki dyskryminacyjne związane z tym, co nazywają „problemem białego faceta” AI. Jest to obawa, że ​​systemy sztucznej inteligencji wytrenowane na istniejących danych powielają istniejące stereotypy rasowe i płciowe, które utrwalają praktyki dyskryminacyjne w obszarach takich jak policja, orzeczenia sądowe lub zatrudnienie.

Sztuczna inteligencja może powielać i utrwalać stereotypy.
Sztuczna inteligencja może powielać i utrwalać stereotypy.
Ollyy/Shutterstock.com

Niejednoznaczne boty

W niedawno opublikowanym badaniu pt Złośliwe wykorzystanie sztucznej inteligencji. Obawy wyrażone w niniejszym raporcie Uniwersytetu Cambridge należy traktować poważnie. Ale jak powinniśmy sobie radzić z tymi zagrożeniami? Czy prawa człowieka są gotowe na erę robotyki i sztucznej inteligencji?

Trwają starania, aby zaktualizować istniejące zasady praw człowieka dla tej epoki. Należą do nich Ramy i wytyczne ONZ dotyczące biznesu i praw człowieka, próbuje napisać a Magna Carta dla ery cyfrowej oraz Instytut Przyszłości Życia Zasady Asilomar AI, które określają wytyczne dotyczące etycznych badań, przestrzegania wartości i zaangażowania na rzecz długoterminowego korzystnego rozwoju sztucznej inteligencji.

Te wysiłki są godne pochwały, ale niewystarczające. Rządy i agencje rządowe, partie polityczne i prywatne korporacje, zwłaszcza wiodące firmy technologiczne, muszą zobowiązać się do etycznego wykorzystania sztucznej inteligencji. Potrzebujemy również skutecznej i możliwej do wyegzekwowania kontroli legislacyjnej.

Bez względu na to, jakie nowe środki wprowadzimy, ważne jest, aby uznać, że nasze życie jest coraz bardziej uwikłane w autonomiczne maszyny i inteligentne systemy. To uwikłanie poprawia dobrostan ludzi w obszarach takich jak badania medyczne i leczenie, w naszym systemie transportowym, w placówkach opieki społecznej oraz w wysiłkach na rzecz ochrony środowiska.

Jednak w innych obszarach to uwikłanie stwarza niepokojące perspektywy. Technologie obliczeniowe służą do obserwowania i śledzenia naszych działań i zachowań, śledzenia naszych kroków, naszej lokalizacji, naszego zdrowia, naszych gustów i naszych przyjaźni. Systemy te kształtują ludzkie zachowanie i popychają nas w kierunku praktyk samokontroli, które ograniczają naszą wolność i podważają idee i ideały praw człowieka.

KonwersacjeI tu tkwi sedno: zdolność do podwójnego wykorzystania technologii obliczeniowych zaciera granicę między praktykami dobroczynnymi i szkodliwymi. Co więcej, technologie obliczeniowe są głęboko uwikłane w nierówne relacje władzy między poszczególnymi obywatelami, państwem i jego agencjami oraz prywatnymi korporacjami. Jeśli zostaną wyrwani z równowagi ze skutecznych krajowych i międzynarodowych systemów kontroli i równowagi, stanowią realne i niepokojące zagrożenie dla naszych praw człowieka.

O autorze

Birgit Schippers, pracownik naukowy wizytujący, Instytut Senatora George'a J. Mitchella na rzecz Globalnego Pokoju, Bezpieczeństwa i Sprawiedliwości, Queen's University Belfast

Ten artykuł został pierwotnie opublikowany w Konwersacje. Przeczytać oryginalny artykuł.

Powiązane książki

{amazonWS:searchindex=Books;Birgit Schippers=innerself" target="_blank" rel="nofollow noopener">InnerSelf Market i Amazon