Społeczna konsekwencja SI 1: Błąd algorytmiczny

Sztuczna inteligencja, a w szczególności uczenie maszynowe są wykorzystywane do podejmowania ważnych decyzji w wielu obszarach. Należy w tym miejscu przywołać pojęcie błędu algorytmicznego. Oznacza to skłonność do tendencji do dyskryminacji ze względu na pochodzenie etniczne, płeć lub inne czynniki przy podejmowaniu decyzji dotyczących wniosków o pracę, kredytów itp. 

Uczenie maszynowe oparte na danych dostarczonych przez ludzi może prowadzić do błędów algorytmicznych
Uczenie maszynowe oparte na danych dostarczonych przez ludzi może prowadzić do błędów algorytmicznych

Głównym powodem błędu algorytmicznego jest błąd człowieka, który dostarcza danych. Na przykład, gdy narzędzie do filtrowania podań o pracę jest oparte o dane decyzyjne ludzi, algorytm uczenia maszynowego może nabyć umiejętności dyskryminowania kobiet albo jednostek o określonym pochodzeniu etnicznym. Zauważ, że może się to zdarzyć, nawet jeśli etniczność lub płeć zostaną wyłączone z danych, ponieważ algorytm będzie mógł wykorzystać informacje podane w nazwie lub adresie wnioskodawcy. 

Odchylenie algorytmiczne nie jest hipotetycznym zagrożeniem wymyślonym przez badaczy akademickich. To prawdziwe zjawisko, które już dziś dotyka ludzkość.

Reklama w Internecie

Zauważono, że reklamodawcy internetowi, tacy jak Google często wyświetlają reklamy ofert pracy o niższych zarobkach kobietom, aniżeli mężczyznom. Podobna sytuacja występuję po próbie wyszukania słowa Afroamerykanin, kiedy to zwiększa się prawdopodobieństwo pojawienia się reklamy narzędzia do przeszukiwania rejestrów karnych.

Portale społecznościowe

Sieci społecznościowe opierają swoje rekomendacje dotyczące treści zasadniczo na kliknięciach innych użytkowników, mogą one z łatwością doprowadzić do powiększenia istniejących uprzedzeń, nawet jeśli są bardzo niewielkie. Przykładowo zaobserwowano, że podczas wyszukiwania specjalistów o imionach kobiecych na portalu LinkedIn, ten pyta użytkownika, czy w rzeczywistości ma na myśli podobne imię męskie: wyszukiwanie Aleksandry spowoduje, że system zapyta „czy miałeś na myśli Aleksandra”? Jeśli człowiek od czasu do czasu kliknie profil Aleksandra, nawet z ciekawości, bardziej prawdopodobnym będzie, iż w przyszłości zdarzy się powyższa sytuacja.

Istnieje wiele innych przykładów, o których moglibyśmy wspomnieć. Główną trudnością w wykorzystaniu sztucznej inteligencji i uczenia maszynowego zamiast systemów opartych na regułach jest ich brak przejrzystości. Częściowo jest to konsekwencja algorytmów i danych stanowiących tajemnicę handlową, niestety ich odtajnienie jest mało prawdopodobne. Nawet jeśli by to nastąpiło, to zapewne trudno byłoby zidentyfikować część algorytmu lub elementy danych, które prowadzą do dyskryminujących rozwiązań.

Więcej na temat przyjrzystości i prywatności w artykule: RODO: SI, a przejrzystość.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *