Jak zróżnicowana prywatność może chronić Twoje dane? Marco Verch/Flickr, CC BY 

Firmy technologiczne mogą wykorzystywać zróżnicowaną prywatność do zbierania i udostępniania zagregowanych danych na temat nawyków użytkowników, przy jednoczesnym zachowaniu indywidualnej prywatności.

Nie jest tajemnicą, że duże firmy technologiczne, takie jak Facebook, Google, Apple i Amazon, coraz częściej infiltrują nasze osobiste i społeczne interakcje, aby codziennie gromadzić ogromne ilości danych o nas. Jednocześnie naruszenia prywatności w cyberprzestrzeni regularnie trafiają na pierwsze strony gazet.

Jak zatem chronić prywatność w świecie, w którym dane są gromadzone i udostępniane z coraz większą szybkością i pomysłowością?

Prywatność różnicowa to nowy model bezpieczeństwa cybernetycznego, który według zwolenników może chronić dane osobowe znacznie lepiej niż tradycyjne metody.

Matematyka, na której się opiera, została opracowana 10 lat temu, a metoda została przyjęta przez Apple i Google w ostatnich latach.


wewnętrzna grafika subskrypcji


Co to jest prywatność różnicowa?

Prywatność różnicowa umożliwia firmom technologicznym gromadzenie i udostępnianie zagregowanych informacji o zwyczajach użytkowników, przy jednoczesnym zachowaniu prywatności poszczególnych użytkowników.

Załóżmy na przykład, że chcesz pokazać najpopularniejsze trasy, którymi ludzie przemierzają park. Śledzisz trasy 100 osób, które regularnie chodzą po parku i czy chodzą po ścieżce, czy po trawie.

Ale zamiast udostępniać konkretne osoby poruszające się każdą trasą, udostępniasz zbiorcze dane zebrane w czasie. Osoby przeglądające Twoje wyniki mogą wiedzieć, że 60 na 100 osób woli iść na skróty przez trawę, ale nie które 60 osób.

Dlaczego tego potrzebujemy?

Wiele rządów na świecie ma surowe zasady dotyczące zbierania i udostępniania danych użytkowników przez firmy technologiczne. Firmy, które nie przestrzegają zasad, mogą zostać ukarane ogromnymi grzywnami. A Belgijski sąd niedawno nakazał Facebookowi zaprzestać gromadzenia danych o zwyczajach przeglądania zewnętrznych stron internetowych pod groźbą grzywny w wysokości 250,000 XNUMX euro dziennie.

W przypadku wielu firm, zwłaszcza międzynarodowych korporacji działających w różnych jurysdykcjach, stawia to je w delikatnej sytuacji, jeśli chodzi o gromadzenie i wykorzystywanie danych klientów.

Z jednej strony firmy te potrzebują danych użytkowników, aby móc świadczyć wysokiej jakości usługi przynoszące korzyści użytkownikom, takie jak spersonalizowane rekomendacje. Z drugiej strony mogą zostać obciążeni opłatami, jeśli zbiorą zbyt dużo danych użytkowników lub spróbują przenieść dane z jednej jurysdykcji do drugiej.

Tradycyjne narzędzia chroniące prywatność, takie jak kryptografia, nie mogą rozwiązać tego dylematu, ponieważ w ogóle uniemożliwiają firmom technologicznym dostęp do danych. A anonimowość zmniejsza wartość danych – algorytm nie może serwować Ci spersonalizowanych rekomendacji, jeśli nie wie, jakie są Twoje nawyki.

Jak to działa?

Kontynuujmy przykład tras spacerowych przez park. Jeśli znasz tożsamość osób objętych badaniem, ale nie wiesz, kto wybrał jaką drogę, możesz założyć, że prywatność jest chroniona. Ale może tak nie być.

Załóżmy, że ktoś przeglądający Twoje dane chce się upewnić, czy Bob woli chodzić po trawie, czy po ścieżce. Uzyskali podstawowe informacje o pozostałych 99 osobach biorących udział w badaniu, z których wynika, że ​​40 osób woli chodzić po ścieżce, a 59 woli chodzić po trawie. Dlatego mogą wywnioskować, że Bob, który jest setną osobą w bazie danych, jest 100. osobą, która woli chodzić po trawie.

Ten rodzaj ataku nazywany jest atakiem zróżnicowanym i dość trudno jest się przed nim obronić, ponieważ nie można kontrolować, ile wiedzy podstawowej ktoś może uzyskać. Prywatność różnicowa ma na celu obronę przed tego typu atakami.

Ktoś, kto wydedukuje Twoją trasę pieszą, może nie brzmieć zbyt poważnie, ale jeśli zastąpisz trasy spacerowe wynikami testu na obecność wirusa HIV, zobaczysz, że istnieje możliwość poważnego naruszenia prywatności.

Różnicowy model prywatności gwarantuje, że nawet jeśli ktoś ma pełne informacje o 99 ze 100 osób w zbiorze danych, nadal nie może wywnioskować informacji o ostatniej osobie.

Podstawowym mechanizmem pozwalającym to osiągnąć jest dodanie losowego szumu do zagregowanych danych. W przykładzie ze ścieżką możesz powiedzieć, że liczba osób, które wolą przechodzić przez trawę, wynosi 59 lub 61, a nie dokładna liczba 60. Niedokładna liczba może chronić prywatność Boba, ale będzie miała bardzo niewielki wpływ na wzór: około 60% osób woli iść na skróty.

Hałas jest starannie zaprojektowany. Kiedy Apple zastosowało różnicową prywatność w iOS 10, dodało szum do danych wprowadzanych przez poszczególnych użytkowników. Oznacza to, że może na przykład śledzić najczęściej używane emotikony, ale użycie emotikonów przez dowolnego użytkownika jest maskowane.

Cynthia Dwork, ur wynalazca prywatności różnicowej, zaproponował wspaniałe matematyczne dowody na to, ile hałasu wystarczy, aby spełnić wymóg różnicowej prywatności.

Jakie są jego praktyczne zastosowania?

Zróżnicowaną prywatność można zastosować do wszystkiego, od systemów rekomendacji po usługi lokalizacyjne i sieci społecznościowe. Jabłko wykorzystuje prywatność różnicową do zbierania anonimowych informacji o użytkowaniu z urządzeń takich jak iPhone, iPad i Mac. Metoda jest przyjazna dla użytkownika i prawnie jasne.

Prywatność różnicowa umożliwiłaby również firmie takiej jak Amazon dostęp do Twoich spersonalizowanych preferencji zakupowych, ukrywając poufne informacje o Twojej historycznej liście zakupów. Facebook mógłby go używać do zbierania danych behawioralnych w celu reklamy ukierunkowanej, bez naruszania polityki prywatności danego kraju.

Jak można to wykorzystać w przyszłości?

Różne kraje mają różne polityki prywatności, a poufne dokumenty muszą być obecnie sprawdzane ręcznie, zanim zostaną przeniesione z jednego kraju do drugiego. Jest to czasochłonne i kosztowne.

Ostatnio zespół z Uniwersytet Deakin opracowała technologię prywatności różnicowej, aby zautomatyzować procesy prywatności w społecznościach udostępniających chmurę w różnych krajach.

KonwersacjeProponują użycie wzorów matematycznych do modelowania przepisów dotyczących prywatności w każdym kraju, które można przetłumaczyć na „oprogramowanie pośrednie” (oprogramowanie), aby zapewnić zgodność danych. Wykorzystanie zróżnicowanej prywatności w ten sposób może chronić prywatność użytkowników i rozwiązać problemy związane z udostępnianiem danych dla firm technologicznych.

O autorze

Tianqing Zhu, wykładowca cyberbezpieczeństwa, Wydział Nauki, Inżynierii i Środowiska Budowlanego, Uniwersytet Deakin

Ten artykuł został pierwotnie opublikowany w Konwersacje. Przeczytać oryginalny artykuł.

Powiązane książki

at Rynek wewnętrzny i Amazon