Czas czytania artykułu: 3 min
03/07/2023

Czy sztuczna inteligencja jest uprzedzona?

uprzedzenia-AI

Sztuczna inteligencja (AI) przekształca nasz świat w niesamowitym tempie, wprowadzając zmiany we wszystkim. Od naszych telefonów komórkowych po nasze miejsca pracy. AI ma potencjał do zrewolucjonizowania wielu aspektów naszego życia, od medycyny po transport, a nawet naszą codzienną interakcję z technologią. Ale jak każde potężne narzędzie, AI ma swoje wady. Jednym z największych wyzwań dla AI jest problem uprzedzeń. Czy sztuczna inteligencja jest uprzedzona?

To pytanie, które wywołuje wiele kontrowersji. W końcu AI jest tylko narzędziem, które działa na podstawie danych, które otrzymuje. Ale co jeśli te dane są uprzedzone? Co, jeśli algorytmy, które kierują AI, są zaprojektowane w taki sposób, że nieumyślnie promują uprzedzenia? W tym artykule postaramy się znaleźć odpowiedzi na te pytania i omówimy przykłady uprzedzeń sztucznej inteligencji.

Uprzedzenia sztucznej inteligencji

Może i AI jest tylko narzędziem, ale tworzonym przez człowieka na wzór ludzkiego umysłu. My ludzie również jesteśmy istotami omylnymi więc, czy można wymagać od sztucznej inteligencji doskonałości? AI uczy się na danych treningowych pochodzących ze świata rzeczywistego. Mowa tutaj m.in. o różnych artykułach, postach czy publikacjach w sieci. W związku z tym AI najprawdopodobniej będzie powtarzać stereotypy i uprzedzenia w nich zawarte.

Najprościej mówiąc uprzedzenia przejawiane przez sztuczną inteligencję, pochodzą z uprzedzeń zawartych w danych, z których się uczy. Ponadto źródłem uprzedzeń mogą być błędne założenia podczas tworzenia algorytmów. AI nie posiada własnego zdania ani poglądów i bazuje na danych, na których się uczy. Przyjrzyjmy się konkretnym przykładom, które pomogą odpowiedzieć na pytanie, czy sztuczna inteligencja jest uprzedzona.

Uprzedzenia AI przejawiają się choćby w tak prostych czynnościach, jak np. wyświetlanie znacznie większej ilości zdjęć kobiet podczas wyszukiwania frazy „nauczyciel”. Jednak istnieją znacznie poważniejsze przykłady uprzedzeń sztucznej inteligencji.

Przykłady

Jednym z nich jest sytuacja z 2018 roku dotycząca systemów AI rozpoznających płeć na podstawie zdjęć. Jeden z naukowców poinformował wówczas, iż 3 z ostatnich systemów miały skuteczność na poziomie 99%, ale tylko w przypadku zdjęć białych mężczyzn. W przypadku ciemnoskórych kobiet skuteczność spadała do zaledwie 35%. Wynikało to z tego, że systemy były rozwijane głównie na podstawie fotografii białych mężczyzn.

W niektórych stanach w USA system PredPol jest wykorzystywany do przewidywania, kiedy i gdzie może dojść do przestępstwa. Jest on oparty na danych statystycznych i ma na celu wysyłanie patroli policyjnych częściej do regionów, gdzie faktycznie są popełniane przestępstwa, a nie do tych, do których panują uprzedzenia. Symulacja przeprowadzona przez NGO w 2016 r. wykazała, że algorytm nakazywał najczęściej wysyłanie patroli policyjnych do regionów zamieszkanych przez mniejszości rasowe, podczas gdy przestępstwa częściej popełniano w innych miejscach. Powodem tego mogło być to, że algorytm uczył się w oparciu o raporty z patroli, a nie ze statystyk popełnionych przestępstw.

Kolejnym przykładem jest historia systemu AI wykorzystywanego przez Amazon w 2018 roku. Model miał zautomatyzować proces rekrutacji i selekcjonować CV osób, które wg sztucznej inteligencji miały kompetencje najbliższe ideałowi firmy. Dość szybko okazało się, że system przejawia cechy seksistowskie i faworyzuje męskich kandydatów. Dlaczego tak się stało? Firma szkoliła sztuczną inteligencję na podstawie CV pracowników zatrudnionych na przestrzeni ostatnich 10 lat. Jak się okazało, zdecydowaną większość stanowili mężczyźni, co wpłynęło na funkcjonowanie stworzonego systemu.

Ostatnim przykładem uprzedzenia sztucznej inteligencji jest algorytm stosowany przez amerykańskie szpitale. Naukowcy odkryli w 2019 roku uprzedzenia na tle rasowym w algorytmie. Sztuczna inteligencja miała tutaj za zadanie przewidywać, którzy pacjenci będą wymagać dodatkowej opieki medycznej. Z uwagi na to, że czarnoskórzy o takich samych potrzebach, jak biali pacjenci, wydają na opiekę zdrowotną mniej środków, algorytm mylnie wnioskował, że są oni zdrowsi od pacjentów z białym kolorem skóry. Algorytm nie uwzględniał jednak jednej ważnej rzeczy. Różnica w wydatkach na opiekę zdrowotną nie wynikała z poziomu zdrowia, ale z powodów geograficznych i ekonomicznych. Osoby czarnoskóre z uwagi na te czynniki mają mniejszą dostępność do leczenia i mogą przeznaczać mniejsze środki.

Podsumowanie

Podsumowując, czy sztuczna inteligencja jest uprzedzona? Jak widać na powyższych przykładach, można odpowiedzieć, że tak. To człowiek jest odpowiedzialny za tworzenie AI i dostarczanie jej danych do trenowania. Sztuczna inteligencja chłonie wiedzę i informacje z podstawionych danych wraz ze stereotypami i uprzedzeniami, które następnie przenosi na powierzone jej zadania.

Tworzenie algorytmów jest więc dla naukowców i twórców bardzo odpowiedzialnym zadaniem. Absolutnie nie można traktować sztucznej inteligencji, jako nieomylnego narzędzia pozbawionego uprzedzeń i stereotypów. Wszystko zależy od twórców danego systemu lub modelu oraz danych, na podstawie których AI się uczy.

Proponowany kurs