Rasistowski algorytm nie dostrzegł uczennicy w ciemnym pokoju (FELIETON)

Stoimy u progu „nowego wspaniałego świata”. Takiego jak u Huxley’a, albo jeszcze gorszego. Wszędzie wokół nas jest sztuczna inteligencja, inteligentne algorytmy, które same się uczą i doskonalą. Czasami jednak idzie to jak po grudzie i nawet algorytm może być oskarżony o… rasizm! W końcu wszystko jest we współczesnym świecie rasistowskie. Dlaczego więc nie może być nią także sztuczna inteligencja. Ostatnio coś takiego miało miejsce w Holandii. Gdzie… algorytm w ciemnym pokoju nie wykrył twarzy czarnoskórej uczennicy. I od razu podniósł się klangor pod Niebiesie, że holenderska murzynka została przez sztuczną inteligencję potraktowana rasistowsko.
Jak podały holenderskie media „holenderska studentka złożyła skargę do Holenderskiego Instytutu Praw Człowieka w sprawie używania rasistowskiego oprogramowania przez jej uniwersytet. Oprogramowanie nadzorujące nie rozpoznało jej twarzy, gdy próbowała się zalogować, prawdopodobnie z powodu ciemnej skóry”. I ta teraz twierdzi, że oprogramowanie zabezpieczające miało ją chamsko dyskryminować.
I dalej „Tematyka analityki big data, algorytmów uczących się i sztucznej inteligencji jest ostatnio bardzo gorący. W czasie pandemii holenderska studentka Robin Pocornie musiała zdawać egzaminy ze światłem skierowanym prosto na twarz. Jej koledzy, którzy byli biali, nie mieli tego problemu. Oprogramowanie zabezpieczające uniwersytetu dyskryminowało ją i dlatego złożyła skargę do Holenderskiego Trybunału Praw Człowieka (NJCM)”. A o co konkretnie chodzi naszej dyskryminowanej?
Czarny kot w czarnym pokoju
I dalej „Robin Pocornie powiedziała mediom, że wielokrotnie próbowała zalogować się do systemu zabezpieczającego zdalny egzamin i kilka razy nie pozwolono jej odpowiedzieć na pytania”. Co więcej zamiast tego oprogramowanie dodawało komentarze, takie jak "pokój jest zbyt ciemny" lub "nie znaleziono twarzy". Oprogramowanie dopiero zaczęło działać, gdy świeciła lampą bezpośrednio na twarz. Cóż może po prostu różnica w kontraście twarzy i otoczenia w przypadku osób białych była większa? A faktycznie była większa. I to strasznie naszą murzynkę zdenerwowało. Dlatego sprawa trafiła do Instytutu Praw Człowieka i Holenderskiego Trybunału Praw Człowieka oraz wszelkich możliwych organizacji walczących z rasizmem i innymi izmami (oczywiście poza idiotyzmem). A trybunał zamiast kazać lasce spadać na drzewo (przepraszam za to jak to zabrzmiało i proszę się nie doszukiwać drugiego dna) już rozpoczął proces badania skargi. Uniwersytet VU, którego uczennicą jest Robin, miał dziesięć dni na złożenie formalnych wyjaśnień. Teraz Trybunał Praw Człowieka zorganizuje przesłuchanie i ma pół roku na wydanie. Wstępnie jednak Rada Trybunału w orzeczeniu pośrednim stwierdziła, że Robin Pocornie „przedstawiła wystarczające dowody, aby wskazać, że algorytm był dyskryminujący, a uniwersytet do tej pory nie przedstawił wystarczającej ilości możliwych do sprawdzenia informacji, aby udowodnić coś przeciwnego”. Mamy tutaj często omawiany przez rosyjskich polityków i geostrategów problem czarnego kota w ciemnym pokoju. O którym nie wiadomo, czy on tam naprawdę jest, czy go nie ma. Tutaj rzeczywistość twórczo przekształciła ową historię na taką w której w ciemnym pokoju zamiast kota mamy „afroamerykańską Holenderkę”, albo „holenderską afroamerykankę”, a w zasadzie holenderską „afroeuropejkę” i „afroholenderkę”.
Te problemy z kontrastem
Ja wiem, że wszystko potrafi być rasistowskie (nawet mleko, mydło, rowery, chodniki i telefony), jednak czepianie się, że algorytm nie rozpoznał tak niewielkiego kontrastu pomiędzy twarzą, a otoczeniem to już pewna przesada. I naprawdę czepianie się przez roszczeniową przedstawicielkę mniejszości kolorystycznej. Którą podejrzewam o chęć wyłudzenia konkretnego odszkodowania, ponieważ jeśli trybunał uzna, że to była dyskryminacja to uniwersytet zapłaci potężne odszkodowanie. A na konto naszej gwiazdy wpłynie naprawdę poważna sumka. I może właśnie o to chodzi w tej sprawie. Przynajmniej ja tak sądzę, ponieważ zgodnie z odwieczną zasadą „kiedy nie wiadomo o co chodzi, to zawsze chodzi o pieniądze”.
Zdzisław Markowski
Źródło: ZM