deepfake voice scams 7 18
 Klonowanie czyjegoś głosu jest łatwiejsze niż kiedykolwiek. D-Keine/iStock za pośrednictwem Getty Images

Właśnie wróciłeś do domu po długim dniu w pracy i masz zamiar usiąść do kolacji, gdy nagle zaczyna dzwonić Twój telefon. Po drugiej stronie jest ukochana osoba, być może rodzic, dziecko lub przyjaciel z dzieciństwa, błagający o natychmiastowe przesłanie pieniędzy.

Zadajesz im pytania, starając się zrozumieć. Jest coś nie tak z ich odpowiedziami, które są albo niejasne, albo niepasujące do charakteru, a czasami pojawia się osobliwe opóźnienie, prawie tak, jakby myśleli trochę za wolno. Jednak masz pewność, że to na pewno mówi twoja ukochana osoba: to jest jej głos, który słyszysz, a identyfikator dzwoniącego pokazuje jej numer. Tłumacząc dziwność ich paniki, posłusznie wysyłasz pieniądze na podane przez nich konto bankowe.

Następnego dnia dzwonisz do nich ponownie, aby upewnić się, że wszystko w porządku. Twój ukochany nie ma pojęcia, o czym mówisz. To dlatego, że nigdy do ciebie nie zadzwonili – zostałeś oszukany przez technologię: głęboki fałszerstwo głosu. Były tysiące ludzi oszukany w ten sposób w 2022 r.

Możliwość klonowania ludzkiego głosu jest coraz bardziej dostępna dla każdego, kto ma komputer.


innerself subscribe graphic


 

As bezpieczeństwo komputera Badacze, widzimy, że ciągły postęp w algorytmach głębokiego uczenia się, edycji i inżynierii dźwięku oraz generowaniu syntetycznego głosu oznacza, że ​​coraz bardziej możliwe jest przekonująco symulować głos osoby.

Co gorsza, chatboty, takie jak ChatGPT, zaczynają generować realistyczne skrypty z adaptacyjnymi odpowiedziami w czasie rzeczywistym. Przez łącząc te technologie z generowaniem głosu, deepfake zmienia się ze statycznego nagrania w żywego, realistycznego awatara, który w przekonujący sposób może prowadzić rozmowę telefoniczną.

Klonowanie głosu

Stworzenie atrakcyjnego, wysokiej jakości deepfake'u, czy to wideo, czy audio, nie jest najłatwiejszą rzeczą do zrobienia. Wymaga bogactwa umiejętności artystycznych i technicznych, potężnego sprzętu i dość sporej próbki docelowego głosu.

Istnieje coraz więcej usług oferowanych do produkować klony głosowe o średniej lub wysokiej jakości za opłatą, a niektóre narzędzia do głębokiego fałszowania głosu wymagają próbki trwa tylko minutę, lub nawet zaledwie kilka sekund, aby stworzyć klon głosu, który mógłby być wystarczająco przekonujący, by kogoś oszukać. Jednak przekonanie ukochanej osoby – na przykład do wykorzystania jej w oszustwie polegającym na podszywaniu się pod inne osoby – prawdopodobnie wymagałoby znacznie większej próby.

Naukowcom udało się sklonować głosy w ciągu zaledwie pięciu sekund nagrania.

 

Ochrona przed oszustwami i dezinformacją

Biorąc to wszystko pod uwagę, my w Projekt DeFake z Rochester Institute of Technology, University of Mississippi i Michigan State University oraz inni badacze ciężko pracują, aby móc wykrywać deepfake wideo i audio oraz ograniczać szkody, jakie wyrządzają. Istnieją również proste i codzienne działania, które możesz podjąć, aby się chronić.

Na początek, phishing głosowy, lub „vishing”, oszustwa takie jak opisane powyżej to najbardziej prawdopodobne fałszywe fałszywe głosy, z którymi możesz się spotkać w życiu codziennym, zarówno w pracy, jak iw domu. w 2019 r firma energetyczna została oszukana na 243,000 XNUMX USD kiedy przestępcy symulowali głos szefa firmy macierzystej, aby nakazać pracownikowi przekazanie środków dostawcy. W 2022 roku ludzie byli wyłudził około 11 milionów dolarów za pomocą symulowanych głosów, w tym bliskich, osobistych powiązań.

Co można zrobić?

Uważaj na nieoczekiwane telefony, nawet od osób, które dobrze znasz. Nie oznacza to, że musisz planować każdą rozmowę, ale pomaga przynajmniej wysłać wiadomość e-mail lub SMS z wyprzedzeniem. Ponadto nie polegaj na identyfikatorze dzwoniącego, ponieważ to też można sfałszować. Na przykład, jeśli otrzymasz telefon od kogoś, kto twierdzi, że reprezentuje Twój bank, rozłącz się i zadzwoń bezpośrednio do banku, aby potwierdzić autentyczność połączenia. Pamiętaj, aby użyć numeru, który zapisałeś, zapisałeś na liście kontaktów lub który możesz znaleźć w Google.

Ponadto uważaj na swoje dane osobowe, takie jak numer ubezpieczenia społecznego, adres domowy, data urodzenia, numer telefonu, drugie imię, a nawet imiona dzieci i zwierząt domowych. Oszuści mogą wykorzystać te informacje, aby podszywać się pod Ciebie przed bankami, pośrednikami w handlu nieruchomościami i innymi osobami, wzbogacając się, doprowadzając Cię do bankructwa lub niszcząc Twój kredyt.

Oto kolejna rada: poznaj siebie. W szczególności poznaj swoje intelektualne i emocjonalne uprzedzenia i słabości. Ogólnie rzecz biorąc, jest to dobra rada życiowa, ale kluczem jest ochrona przed manipulacją. Oszuści zazwyczaj starają się wydobyć, a następnie żerują na twoich obawach finansowych, twoich przywiązaniach politycznych lub innych skłonnościach, jakiekolwiek by one nie były.

Ta czujność jest również przyzwoitą obroną przed dezinformacją za pomocą deepfake'ów głosowych. Deepfake może być wykorzystany do wykorzystania twojego błąd potwierdzenialub w co jesteś skłonny wierzyć o kimś.

Jeśli słyszysz, jak ważna osoba, czy to z twojej społeczności, czy z rządu, mówi coś, co albo wydaje się dla niej bardzo nietypowe, albo potwierdza twoje najgorsze podejrzenia co do niej, mądrze byłoby zachować ostrożność.The Conversation

O Autorach

Matthew Wright, profesor bezpieczeństwa komputerowego, Rochester Institute of Technology i Krzysztof Szwartz, pracownik naukowy ze stopniem doktora w zakresie bezpieczeństwa komputerowego, Rochester Institute of Technology

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.