Społeczna konsekwencja SI 3: Zmiana pojęć prywatności

Od dawna wiadomo, że firmy technologiczne zbierają wiele informacji o swoich użytkownikach. Wcześniej były to głównie sklepy spożywcze, które gromadziły dane dotyczące zakupów, przekazując klientom karty lojalnościowe umożliwiające sklepowi kojarzenie pewnych produktów z klientami indywidualnymi.

Bezprecedensowa dokładność danych

Dokładność danych, które firmy technologiczne, takie jak Facebook, Google, Amazon i wiele innych, znacznie wykracza poza dane zakupowe gromadzone przez konwencjonalne sklepy: w zasadzie możliwe jest rejestrowanie każdego kliknięcia, przewijania każdej strony i czasu spędzanego na przeglądaniu dowolnej treści. Strony internetowe mogą nawet uzyskać dostęp do Twojej historii przeglądania, więc jeśli nie skorzystasz z trybu incognito (lub podobnego), po przejściu na loty np. do Londynu na jednej stronie, prawdopodobnie otrzymasz reklamy hoteli w tym mieście na innym portalu.

Jednakże powyższy sposób rejestrowania danych nie jest jeszcze sztuczną inteligencją. Korzystanie ze sztucznej inteligencji stwarza nowe rodzaje zagrożeń dla naszej prywatności, których trudniej będzie uniknąć, nawet jeśli ostrożnie ujawnisz swoją tożsamość.

Wykorzystanie analizy danych do identyfikacji osób

Wykorzystanie analizy danych do identyfikacji osób

Dobrym przykładem trudnego do uniknięcia problemu jest deanonimizacja, tj. przełamanie anonimowości danych, które moglibyśmy uważać za bezpieczne. Głównym problemem jest to, że kiedy raportujemy wyniki analizy, mogą być one tak szczegółowe, że pozwalają dowiedzieć się czegoś o poszczególnych użytkownikach, których dane są uwzględnione w analizie. Klasycznym przykładem jest pytanie o średnią pensję osób urodzonych w danym roku, posiadających określony kod pocztowy. W wielu przypadkach może to być bardzo mała grupa osób, często tylko jednostka, a więc przypuszczalnie podajesz dane dotyczące wynagrodzenia jednej osoby.

Ciekawy przykład bardziej subtelnej kwestii wskazali naukowcy z University of Texas w Austin. Przebadali publiczny zestaw danych udostępniony przez Netflix zawierający 10 milionów ocen filmów wystawionych przez około 500 000 anonimowych użytkowników. Naukowcy wykazali, że wiele z nich można faktycznie połączyć z kontami użytkowników w internetowej bazie danych filmów, ponieważ ocenie poddano kilka produkcji w obu aplikacjach. W ten sposób naukowcy byli w stanie denonimizować dane użytkowników Netflix. Choć możesz nie uważać, że to istotna sprawa to czy ktoś inny ma pojęcie, jak oceniłeś najnowszą część Gwiezdnych wojen? Niektóre filmy mogą ukazywać szereg aspektów z naszego życia (np. polityka lub seksualność), które powinniśmy zachować dla swojej prywatności.

Inne metody identyfikacji dzięki SI

Podobne podejście można w zasadzie zastosować do dopasowania kont użytkowników w prawie każdej usłudze, która gromadzi szczegółowe dane o zachowaniach użytkowników. Innym przykładem są wzorce pisania. Naukowcy z Uniwersytetu w Helsinkach wykazali, że można zidentyfikować użytkowników na podstawie ich wzorców pisania: krótkich odstępów między określonymi naciśnięciami klawiszy podczas pisania tekstu. Może to oznaczać, że jeśli ktoś ma dostęp do danych dotyczących twojego wzoru pisania (być może korzystałeś z jego strony internetowej i zarejestrowałeś się, wpisując swoje imię i nazwisko), może Cię zidentyfikować podczas następnego korzystania z jego usługi, nawet jeśli odmówisz jednoznacznej identyfikacji. Mogą również sprzedawać te informacje każdemu, kto chce je nabyć.

Chociaż wiele z powyższych problemów było niespodziewane – w przeciwnym razie można byłoby ich uniknąć – wciąż trwają badania, których celem jest ich rozwiązanie. W szczególności obszar zwany różnicową prywatnością ma na celu opracowanie algorytmów uczenia maszynowego, które mogą zagwarantować, że wyniki są wystarczająco zgubne, aby zapobiec wprowadzeniu do nich określonych danych inżynierii odwrotnej.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *