Eksperci wskazują cztery sposoby, jak sztuczna inteligencja może doprowadzić do światowej katastrofy

1
0
4
Sztuczna inteligencja
Sztuczna inteligencja / Pixabay

Naukowcy z Center for AI Safety szczegółowo opisali, jakie "katastrofalne" zagrożenia dla świata stwarza sztuczna inteligencja.

"Świat, jaki znamy, nie jest normalny" - napisali naukowcy z Center for AI Safety (CAIS) w niedawnym artykule zatytułowanym "Przegląd katastrofalnych zagrożeń związanych ze sztuczną inteligencją". "Przyjmujemy za pewnik, że możemy natychmiast rozmawiać z ludźmi oddalonymi o tysiące kilometrów, latać na drugi koniec świata w mniej niż jeden dzień i uzyskiwać dostęp do ogromnych gór zgromadzonej wiedzy na urządzeniach, które nosimy w kieszeniach".

Rzeczywistość ta byłaby "niewyobrażalna" dla ludzi wieki temu i pozostawała odległa nawet kilkadziesiąt lat temu, stwierdzono w artykule. Naukowcy zauważyli, że w historii pojawił się wzorzec "przyspieszającego rozwoju".

"Setki tysięcy lat upłynęły między pojawieniem się Homo sapiens na Ziemi a rewolucją rolniczą" - kontynuują badacze. "Następnie minęły tysiące lat przed rewolucją przemysłową. Teraz, zaledwie kilka wieków później, rozpoczyna się rewolucja sztucznej inteligencji (AI). Marsz historii nie jest stały - gwałtownie przyspiesza".

CAIS jest technologiczną organizacją non-profit, która działa na rzecz zmniejszenia "zagrożeń społecznych związanych ze sztuczną inteligencją poprzez prowadzenie badań nad bezpieczeństwem, budowanie pola badaczy bezpieczeństwa sztucznej inteligencji i opowiadanie się za standardami bezpieczeństwa", jednocześnie uznając, że sztuczna inteligencja może przynieść korzyści światu.

Liderzy CAIS stojący za badaniem, w tym dyrektor organizacji non-profit Dan Hendrycks, podzielili cztery kategorie obejmujące główne źródła katastrofalnych zagrożeń związanych ze sztuczną inteligencją, które obejmują: złośliwe wykorzystanie, sam wyścig AI, ryzyko organizacyjne i nieuczciwe AI.

"Podobnie jak w przypadku wszystkich potężnych technologii, sztuczna inteligencja musi być traktowana z wielką odpowiedzialnością, aby zarządzać ryzykiem i wykorzystać jej potencjał dla poprawy społeczeństwa" - napisali Hendrycks i jego koledzy Mantas Mazeika i Thomas Woodside. "Istnieje jednak ograniczona ilość dostępnych informacji na temat tego, w jaki sposób katastrofalne lub egzystencjalne zagrożenia związane ze sztuczną inteligencją mogą się pojawić lub jak można im zaradzić".

Badanie przeprowadzone przez ekspertów CAIS definiuje złośliwe wykorzystanie sztucznej inteligencji jako sytuację, w której ktoś wykorzystuje technologię do wyrządzenia "powszechnej szkody", na przykład poprzez bioterroryzm, dezinformację i propagandę lub "celowe rozpowszechnianie niekontrolowanych agentów sztucznej inteligencji".

Naukowcy wskazali na incydent w Japonii w 1995 roku, kiedy to kult zagłady Aum Shinrikyo rozprzestrzenił bezwonną i bezbarwną ciecz w wagonach metra w Tokio. Płyn ostatecznie zabił 13 osób i zranił 5800 innych osób w ramach próby kultu, aby przyspieszyć koniec świata.

Sztuczna inteligencja może zostać potencjalnie wykorzystana do stworzenia broni biologicznej, która może mieć katastrofalne skutki dla ludzkości, jeśli ktoś zły dostanie w swoje ręce tę technologię. Naukowcy z CAIS przedstawili hipotezę, w której zespół badawczy udostępnia "system sztucznej inteligencji z możliwościami badań biologicznych", który ma na celu ratowanie życia, ale w rzeczywistości może zostać wykorzystany przez złych ludzi do stworzenia broni biologicznej.

"W takich sytuacjach o wyniku może zadecydować najmniej skłonna do ryzyka grupa badawcza. Jeśli tylko jedna grupa badawcza uważa, że korzyści przewyższają ryzyko, może działać jednostronnie, decydując o wyniku, nawet jeśli większość innych się z tym nie zgadza. A jeśli się mylą i ktoś zdecyduje się opracować broń biologiczną, będzie już za późno na zmianę kursu" - czytamy w badaniu.

Złośliwe wykorzystanie może pociągać za sobą tworzenie pandemii bioinżynieryjnych, wykorzystywanie sztucznej inteligencji do tworzenia nowych i potężniejszych broni chemicznych i biologicznych, a nawet uwalnianie "nieuczciwych systemów AI" wyszkolonych do niszczenia życia.

"Aby zmniejszyć to ryzyko, sugerujemy poprawę bezpieczeństwa biologicznego, ograniczenie dostępu do najbardziej niebezpiecznych modeli AI i pociągnięcie twórców AI do odpowiedzialności prawnej za szkody spowodowane przez ich systemy AI" - sugerują naukowcy.

Naukowcy definiują wyścig AI jako konkurencję potencjalnie skłaniającą rządy i korporacje do "przyspieszenia rozwoju sztucznej inteligencji i przekazania kontroli systemom AI", porównując wyścig do zimnej wojny, kiedy USA i Związek Radziecki rzuciły się do budowy broni jądrowej.

"Ogromny potencjał sztucznej inteligencji stworzył presję konkurencyjną wśród globalnych graczy walczących o władzę i wpływy. Ten "wyścig AI" jest napędzany przez narody i korporacje, które uważają, że muszą szybko budować i wdrażać sztuczną inteligencję, aby zabezpieczyć swoją pozycję i przetrwać. Poprzez brak odpowiedniego priorytetyzowania globalnych zagrożeń, dynamika ta zwiększa prawdopodobieństwo, że rozwój sztucznej inteligencji przyniesie niebezpieczne skutki" - czytamy w dokumencie badawczym.

W wojsku wyścig sztucznej inteligencji może przełożyć się na "bardziej niszczycielskie wojny, możliwość przypadkowego użycia lub utraty kontroli oraz perspektywę złośliwych podmiotów współpracujących z tymi technologiami do własnych celów", ponieważ sztuczna inteligencja zyskuje na popularności jako użyteczna broń wojskowa.

Naukowcy stojący za artykułem twierdzą, że laboratoria i zespoły badawcze tworzące systemy sztucznej inteligencji "mogą ulec katastrofalnym wypadkom, zwłaszcza jeśli nie mają silnej kultury bezpieczeństwa".

"Sztuczna inteligencja może zostać przypadkowo ujawniona publicznie lub skradziona przez złośliwe podmioty. Organizacje mogą nie inwestować w badania nad bezpieczeństwem, nie rozumieć, jak niezawodnie poprawić bezpieczeństwo sztucznej inteligencji szybciej niż ogólne możliwości sztucznej inteligencji lub tłumić wewnętrzne obawy dotyczące zagrożeń związanych ze sztuczną inteligencją" - napisali naukowcy.

Porównali oni organizacje AI do katastrof, takich jak Czarnobyl i śmiertelny wypadek promu kosmicznego Challenger.

Jedną z najczęstszych obaw związanych ze sztuczną inteligencją od czasu rozpowszechnienia się tej technologii w ostatnich latach jest to, że ludzie mogą stracić kontrolę, a komputery obezwładnią ludzką inteligencję.

"Jeśli system sztucznej inteligencji jest bardziej inteligentny niż my i jeśli nie jesteśmy w stanie pokierować nim w korzystnym kierunku, oznaczałoby to utratę kontroli, która mogłaby mieć poważne konsekwencje. Kontrola nad SI jest bardziej technicznym problemem niż te przedstawione w poprzednich sekcjach" - napisali naukowcy.

Te cztery zagrożenia, czyli złośliwe wykorzystanie, sam wyścig AI, ryzyko organizacyjne i nieuczciwe AI, wydają się niezwykle realne.

Źródło: Fox News

Sonda

Wczytywanie sondy...

Polecane

Wczytywanie komentarzy...
Przejdź na stronę główną