Prywatność różnicowa jest już dostępna dla wszystkich

Niezależnie od tego, czy jesteście właścicielami małej firmy, czy programistami, zdobycie przydatnych wniosków z analizowanych danych może pomóc Wam w polepszeniu jakości usług i uzyskaniu odpowiedzi na istotne pytania. Ale bez silnej ochrony prywatności ryzykujecie utratą zaufania klientów czy użytkowników.

Prywatność różnicowa (ang. Differential Privacy) jest rozwiązaniem, dzięki któremu organizacje mogą korzystać z danych i wyciągać z nich wnioski, zapewniając jednocześnie, że ich rezultaty nie pozwalają na odróżnienie lub ponowne zidentyfikowanie indywidualnych informacji na temat żadnej z osób.

Ten rodzaj analizy danych można wykorzystać na wiele różnych sposobów i do różnych celów. Na przykład, jeśli zajmujecie się analizą danych w służbie zdrowia, możecie porównać średni czas pozostawania pacjentów w różnych szpitalach w celu ustalenia, czy istnieją różnice w jakości opieki. Prywatność różnicowa jest podejściem analitycznym zapewniającym wysoką ochronę i dającym gwarancję, że przykłady takie jak ten są analizowane w sposób chroniący prywatność.

Google udostępniło otwartą wersję biblioteki prywatności różnicowej, która jest elementem wielu podstawowych usług Google. Aby była możliwie łatwa w użyciu dla programistów, skupia się na funkcjach, które mogą być szczególnie trudne do wdrożenia do zera, jak np. automatyczne ograniczanie wkładu użytkowników. Jest teraz dostępna za darmo dla każdej organizacji czy programisty, który będzie chciał jej użyć.


Głębsze spojrzenie na technologię

Biblioteka open source Google’a została zaprojektowana w celu zaspokojenia potrzeb programistów. Oprócz tego, że jest swobodnie dostępna, ma być  łatwa do wdrożenia i użyteczna.

Prywatność różnicowa Google - open source

Oto jej kluczowe możliwości:

  • Funkcje statystyczne: w tej wersji obsługiwane są najczęściej używane operacje związane z analizą danych. Programiści mogą obliczać liczby, sumy, średnie, mediany i percentyle.
  • Rygorystyczne testy: Właściwe wdrożenie prywatności różnicowej jest skomplikowane. Oprócz obszernego zestawu testów, dodaliśmy rozszerzalną bibliotekę „Stochastic Differential Privacy Model Checker”, aby zapobiec błędom.
  • Gotowość do użycia: prawdziwym testem użyteczności wersji open source jest udzielenie odpowiedzi na pytanie „Czy mogę jej od razu użyć?” Dlatego dołączyliśmy rozszerzenie PostgreSQL wraz z typowymi przykładami na początek. Nasze podejście do problemu, szczegółowo opisaliśmy w dokumencie technicznym, także dostępnym od dzisiaj.
  • Modułowość: Biblioteka została zaprojektowana w taki sposób, aby można ją rozszerzyć o inne funkcje, takie jak dodatkowe mechanizmy, funkcje agregujące czy zarządzanie budżetem prywatności.

Inwestycje w technologie związane z prywatnością

Prace nad badaniem i wdrożeniem prywatności różnicowej Google prowadzi od czasu wprowadzenia rozwiązania RAPPOR, pomagającego ulepszyć Chrome w 2014 r. i od tamtego czasu nadal jest w czołówce firm stosujących te rozwiązania w publicznie dostępnych produktach.

W tym roku Google ogłosiło kilka technologii ochrony prywatności open source – Tensorflow Privacy, Tensorflow Federated, Private Join i Compute – dzisiejsza nowość rozszerza tę listę. Mamy nadzieję, że te narzędzia przysłużą się wszystkim – od branży medycznej, przez administrację publiczną po biznes.

źródło: informacja prasowa Google Polska

Obserwuj

Łukasz Majchrzyk

redaktor mobiRANK.pl
Od 2005 roku zajmuję się komunikacją internetową i e-marketingiem, jestem pasjonatem urządzeń mobilnych oraz nowych technologii – i nie waham się ich używać.
Łukasz Majchrzyk
Obserwuj