Sztuczna inteligencja może teraz naśladować ludzkie zachowania, a wkrótce będzie niebezpiecznie dobraCzy ta twarz to tylko zestaw bitów komputerowych? FOTOKREO Michał Bednarek/Shutterstock.com

Kiedy systemy sztucznej inteligencji zaczynają być kreatywne, mogą tworzyć wspaniałe rzeczy – i przerażające. Weźmy na przykład program AI, który pozwala internauci komponują muzykę wraz z wirtualny Johann Sebastian Bach wprowadzając nuty do programu, który generuje harmonie podobne do Bacha, aby je dopasować.

Prowadzony przez Google, Aplikacja rysował wspaniały pochwała za bycie przełomowym i dobrą zabawą. To również przyciągnęło krytykai zgłosiło obawy dotyczące zagrożeń związanych ze sztuczną inteligencją.

Moje studium jak nowe technologie wpływają na życie ludzi nauczyła mnie, że problemy wykraczają poza co prawda duże zainteresowanie concern czy algorytmy czy naprawdę? tworzyć muzykę lub ogólnie sztuka. Niektóre skargi wydawały się niewielkie, ale tak naprawdę nie były, na przykład obserwacje, że AI Google była łamanie podstawowych zasad kompozycji muzycznej.

W rzeczywistości wysiłki, aby komputery naśladowały zachowanie rzeczywistych ludzi, mogą być mylące i potencjalnie szkodliwe.


wewnętrzna grafika subskrypcji


Technologie personifikacji

Program Google przeanalizował nuty w 306 utworach muzycznych Bacha, znajdując relacje między melodią a nutami, które zapewniały harmonię. Ponieważ Bach przestrzegał ścisłych zasad komponowania, program skutecznie się tych zasad uczył, więc mógł je stosować, gdy użytkownicy dostarczali własne notatki.

 Zespół Google Doodle wyjaśnia program Bacha.

{youtube}XBfYPp6KF2g{/youtube}

Sama aplikacja Bacha jest nowa, ale technologia leżąca u jej podstaw nie jest. Algorytmy wyszkolone do rozpoznawać wzorce i zrób probabilistyczne decyzje istnieją od dawna. Niektóre z tych algorytmów są tak złożone, że ludzie nie zawsze rozumiem w jaki sposób podejmują decyzje lub osiągają określony wynik.

Systemy AI nie są doskonałe – wiele z nich polega na rely dane, które nie są reprezentatywne całej populacji, lub które są pod wpływem ludzkich uprzedzeń. Nie jest do końca jasne kto może być prawnie odpowiedzialny? gdy system AI popełni błąd lub spowoduje problem.

Teraz jednak technologie sztucznej inteligencji stają się wystarczająco zaawansowane, aby móc przybliżyć styl pisania lub mówienia poszczególnych osób, a nawet mimikę twarzy. Nie zawsze jest źle: dość prosta sztuczna inteligencja dała Stephenowi Hawkingowi zdolność do komunikacji efektywniej z innymi, przewidując słowa, których użyje najczęściej.

Bardziej złożone programy naśladujące ludzkie głosy pomagać osobom niepełnosprawnym – ale może też służyć do oszukiwania słuchaczy. Na przykład twórcy Lyrebird, program do naśladowania głosu, wydali symulowana rozmowa między Barackiem Obamą, Donaldem Trumpem i Hillary Clinton. Może to brzmieć realnie, ale ta wymiana nigdy się nie zdarzyła.

Od dobrego do złego

W lutym 2019 roku firma non-profit OpenAI stworzyła program generujący tekst, który jest praktycznie nie do odróżnienia od tekstu napisane przez ludzi. Potrafi „pisać” mowę w stylu John F. Kennedy, JRR Tolkien w „Władca Pierścieni”lub piszący student zadanie szkolne o wojnie secesyjnej w USA.

Tekst wygenerowany przez oprogramowanie OpenAI jest tak wiarygodny, że firma wybrała nie wypuszczać sam program.

Podobne technologie mogą symulować zdjęcia i filmy. Na przykład na początku 2018 roku aktor i filmowiec Jordan Peele stworzył wideo, które pokazało byłego prezydenta USA Baracka Obamę mówiącego rzeczy, których Obama nigdy nie powiedział aby ostrzec opinię publiczną o zagrożeniach stwarzanych przez te technologie.

Uważaj, w jakie filmy wierzysz.

{youtube}cQ54GDm1eL0{/youtube}

Na początku 2019 r fałszywe nagie zdjęcie amerykańskiej reprezentantki Alexandrii Ocasio-Cortez krążyła w Internecie. Sfabrykowane filmy, często nazywany "deepfakes”, oczekuje się, że coraz bardziej używany w kampaniach wyborczych.

Członkowie Kongresu zacząłem przyglądać się temu problemowi przed wyborami 2020. Departament Obrony USA uczy opinię publiczną jak rozpoznać przerobione filmy? i audio. Organizacje prasowe, takie jak Reuters zaczynają szkolić dziennikarzy do wykrywania deepfake.

Moim zdaniem jednak pozostaje jeszcze większy problem: użytkownicy mogą nie być w stanie nauczyć się wystarczająco szybko, aby odróżnić fałszywe treści, ponieważ technologia AI staje się bardziej wyrafinowana. Na przykład, gdy opinia publiczna zaczyna zdawać sobie sprawę z deepfake'ów, sztuczna inteligencja jest już wykorzystywana do jeszcze bardziej zaawansowanych oszustw. Istnieją teraz programy, które mogą generować fałszywe twarze i fałszywe cyfrowe odciski palców, skutecznie tworząc informacje potrzebne do sfabrykowania całej osoby – przynajmniej w rejestrach korporacyjnych lub rządowych.

Maszyny ciągle się uczą

W tej chwili w tych technologiach jest wystarczająco dużo potencjalnych błędów, aby dać ludziom szansę na wykrycie cyfrowych fabrykacji. Kompozytor Bacha Google popełniłem kilka błędów ekspert mógł wykryć. Na przykład, gdy próbowałem, program pozwolił mi wejść kwint równoległych, interwał muzyczny, który Bach starannie unikane. Aplikacja również złamał muzyczne zasady kontrapunktu, harmonizując melodie w złej tonacji. Podobnie program do generowania tekstu OpenAI od czasu do czasu pisał frazy takie jak „pożary pod wodą”, które nie miały sensu w ich kontekstach.

W miarę jak deweloperzy pracują nad swoimi kreacjami, błędy te będą coraz rzadsze. W rzeczywistości technologie AI będą ewoluować i uczyć się. Lepsza wydajność może przynieść wiele korzyści społecznych – w tym lepszą opiekę zdrowotną, ponieważ pomagają programy AI demokratyzować praktykę medyczną.

Danie naukowcom i firmom swobody w odkrywaniu, w celu poszukiwania tych pozytywnych osiągnięć w systemach sztucznej inteligencji, oznacza otwarcie ryzyka opracowania bardziej zaawansowanych sposobów tworzenia oszustw i innych problemów społecznych. Poważne ograniczenie badań nad sztuczną inteligencją może: ograniczyć ten postęp. Ale dając korzystne technologie miejsce do rozwoju wiąże się to z niemałymi kosztami – a potencjalne nadużycia, czy to w celu stworzenia niedokładnej muzyki „Bachowskiej”, czy oszukania milionów, prawdopodobnie wzrośnie w sposób, którego ludzie jeszcze nie są w stanie przewidzieć.Konwersacje

O autorze

Ana Santos Rutschman, adiunkt prawa, Saint Louis University

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.

Powiązane książki

at Rynek wewnętrzny i Amazon