Słowa te nie są wyłącznie złą wróżbą, bo obecnie trwają próby włączenia sztucznej inteligencji do zarządzania wojskiem, w tym ustalaniem kto pierwszy wymaga zniszczenia. W ostatnich dniach listopada 2019 na łamach Science ukazała się praca Philipa S. Thomasa, Bruno Castron da Silva, Stepehjna Giguere, Jurija Bruna, Andrew Barto i Emmy Brunskill. Zastanawiają się jakie środki są wymagane, aby sztuczna inteligencja nie była samodzielna, a zależna od człowieka. AI u swych podstaw zakłada, że będzie sama uczyła się i wyciągała wnioski. Uczenie maszynowe polega na tworzeniu modelów z dostarczonych informacji. Mogą one być nadzorowane (tak zwane supervised learning), lub juz typowo automatyczne, nastawione na samodzielne wykrywanie związków. Przykładami zastosowań w nauce jest typowanie osuwisk lądu, badania biologów odnośnie HIV, wydawaniu wyroków sądowych w sprawach kryminalnych, kontrolę samochodów jadących bez udziału kierowcy, czy tworzenie przełomowych leków w medycynie.

Każdy proces wnioskowania opiera się na sposobie postępowania wyjaśnianym jako podejmowane kroki do ustalenia jaki będzie ostateczny rezultat. W środowisku naukowym oraz wśród programistów istnieje tak zwany problem black boxing. Oznacza to nic innego, że dana metoda rozwiązywania problemu przez uczenie maszynowe działa, lecz nie wiadomo do końca jak, bo albo producent (twórca) danego rozwiązania nie ujawnił dlaczego tak się dzieje, lub też nie jest do końca wiadome. Cały proces wnioskowania z wykazem podejmowanych kroków nazywa się w informatyce algorytmem. Od nich zależy, czy technologie sztucznej inteligencji będą w ręku człowieka.

Znamienne, że naukowcy od samego początku odrzucają kwestie ujmowania w działaniach maszyn ludzkiej moralności. Cytowani badacze wprost piszą, że proponowane przez nich rozwiązania odrzucają wartości jakie są znane człowiekowi. Jest to echo myślenia cybernetycznego z okresu drugiej wojny światowej. Nakłada ono skuteczność nad wszystko. Wyraża się on z definiowaniu algorytmów jako problemów matematycznych do rozwiązania. Pomijanie tutaj zakresu moralnego powoduje, że pomija się na przykład na jakich zakresach zgodnie z regułami prawa naturalnego dany system może działać. W tym myśleniu na przykład stosowanie sztucznej inteligencji do typowania ludzi używających “mowy nienawiści”, czyli głoszących treści uderzające w marksizm jest zasadne i nie wymaga żadnego głębszego rozeznania.

Zespół Thomasa i da Silvy proponuje zmianę sposobu określania algorytmów za pomocą trzech kroków. Pierwszy jest to użycie równania nazwanego przez jego twórców optymalizacją Seldona. Drugi opiera się na określenie sposobu wprowadzania danych i komunikacji (tak zwanego interfejsu). Trzeci stanowi właściwe określenie i stworzenie algorytmu seldonyjskiego. W matematycznych założeniach kryje się możliwość odfiltrowania tych zachowań jakie są uznawane za nieporządane. Jest to rozwiązanie kwestii rasistowskiego bota Microsoft. Pod wpływem kontaktu z Internautami sztuczna inteligencja twórcy systemu operacyjnego Windows nauczyła się “myślenia” przeciwnego zasadom lewicy. Media wychwyciły zwłaszcza wypowiedź chwalącą Hitlera i pogromy Żydów przez Taya, a uniknęła wskazania konserwatywnych elementów kontroli emigracji do USA, a feminizm nazwał “kultem” i “chorobą”. Algorytm Seldona umożliwi uniknięcie takich sytuacji, co oznacza cenzurę wspisaną w sam projekt samouczący się, czyli w istocie prymat ideologii twórcy nad tym, co rzeczywiste i prawdziwe. Badania wskazują, że ten system budowania modelu powoduje zwiększenie precyzji o jakieś kilkanaście procent z standardowych pięćdziesięciu dwóch procent do około sześćdziesięciu pięciu.

Algorytmy wymagają ustalania ograniczeń, aby spełniały swoją funkcję. W przypadku zastosowania tego systemu do przewidywania ocen uczniów nie ma w tym nic zdrożnego. Sztuczna inteligencja dziś jednak wykracza daleko poza suche analizy danych demograficznych, czy lepszą wizualizację statystyk. Sama problematyka jest bardziej złożona, bo w ramach uczenia maszynowego wyróżnia się chociażby sieci neuronowe, a wśród nich choćby sieci Hopfielda, w ramach regularyzacji pojawiają się algorytmy LASSO, LARS, a to dopiero wierzchołek góry lodowej. Wśród blisko siedemdziesięciu najczęściej spotykanych są odwołania do teorii ewolucji Karola Darwina, a sama lista z takimi przykładami jak GBM, AdaBoost, PCR, CNN, DBN to tylko przykłady wymagające osobnej analizy i zastanowienia. Za algorytmem seldońskim kryje się nie tylko świat matematyki, ale w jakim stopniu ideologia pokona wyszukiwanie faktów takie, jakie one są. Cytowany artykuł to próba uniknięcia odwołania do tego, co rzeczywiście kryją dane na rzecz tego, co chcemy, aby z nich zostało wyłowione, a co pominięte.

Jacek Skrzypacz