New York Times: Jak sztuczna inteligencja mogłaby zniszczyć ludzkość

0
0
0
Sztuczna inteligencja
Sztuczna inteligencja / Pixabay

W maju setki znanych osób ze świata sztucznej inteligencji podpisały list otwarty, w którym ostrzegają, że sztuczna inteligencja może pewnego dnia zniszczyć ludzkość.

"Zmniejszenie ryzyka wyginięcia z powodu sztucznej inteligencji powinno być globalnym priorytetem, obok innych zagrożeń społecznych, takich jak pandemie i wojna nuklearna" - czytamy w jednozdaniowym oświadczeniu.

List był najnowszym z serii złowieszczych ostrzeżeń dotyczących sztucznej inteligencji, które były szczególnie mało szczegółowe. Dzisiejsze systemy sztucznej inteligencji nie są w stanie zniszczyć ludzkości. Niektóre z nich ledwo potrafią dodawać i odejmować. Dlaczego więc ludzie, którzy wiedzą najwięcej o sztucznej inteligencji, są tak zaniepokojeni?

Eksperci z branży technologicznej twierdzą, że pewnego dnia firmy, rządy lub niezależni badacze mogą wdrożyć potężne systemy sztucznej inteligencji do obsługi wszystkiego, od biznesu po działania wojenne. Systemy te mogłyby robić rzeczy, których byśmy nie chcieli. A jeśli ludzie próbowaliby im przeszkodzić lub je wyłączyć, mogłyby stawiać opór, a nawet replikować się, aby mogły nadal działać.

"Dzisiejsze systemy nie są bliskie zagrożenia egzystencjalnego" - powiedział Yoshua Bengio, profesor i badacz sztucznej inteligencji na Uniwersytecie w Montrealu. "Ale za rok, dwa, pięć lat? Jest zbyt wiele niepewności. To jest właśnie problem. Nie jesteśmy pewni, czy w pewnym momencie nie dojdzie do katastrofy".

Obawiający się często używają prostej metafory. Mówią, że jeśli poprosisz maszynę o stworzenie jak największej liczby spinaczy do papieru, może ona dać się ponieść emocjom i przekształcić wszystko - w tym ludzkość - w fabryki spinaczy.

Jak to się ma do rzeczywistego świata - lub wyobrażonego świata za kilka lat? Firmy mogłyby dać systemom sztucznej inteligencji coraz większą autonomię i połączyć je z kluczową infrastrukturą, w tym sieciami energetycznymi, giełdami i bronią wojskową. Wtedy mogłyby powodować problemy.

Dla wielu ekspertów nie wydawało się to aż tak prawdopodobne aż do ubiegłego roku, kiedy to firmy takie jak OpenAI zademonstrowały znaczące ulepszenia swojej technologii. Pokazało to, co może być możliwe, jeśli sztuczna inteligencja będzie nadal rozwijać się w tak szybkim tempie.

"Sztuczna inteligencja będzie stale delegowana do różnych zadań i może - gdy stanie się bardziej autonomiczna - uzurpować sobie prawo do podejmowania decyzji i myślenia od obecnych ludzi i instytucji zarządzanych przez ludzi" - powiedział Anthony Aguirre, kosmolog z Uniwersytetu Kalifornijskiego w Santa Cruz i założyciel Future of Life Institute, organizacji stojącej za jednym z dwóch listów otwartych.

"W pewnym momencie stałoby się jasne, że wielka maszyna, która kieruje społeczeństwem i gospodarką, nie jest tak naprawdę pod ludzką kontrolą, ani nie można jej wyłączyć, tak samo jak nie można wyłączyć S&P 500" - powiedział.

Naukowcy przekształcają chatboty takie jak ChatGPT w systemy, które mogą podejmować działania w oparciu o generowany przez nie tekst. Projekt o nazwie AutoGPT jest tego najlepszym przykładem.

Pomysł polega na wyznaczeniu systemowi celów, takich jak "stworzenie firmy" lub "zarobienie pieniędzy". Następnie będzie on szukał sposobów na osiągnięcie tego celu, zwłaszcza jeśli jest połączony z innymi usługami internetowymi.

System taki jak AutoGPT może generować programy komputerowe. Jeśli badacze dadzą mu dostęp do serwera komputerowego, może on faktycznie uruchomić te programy. Teoretycznie jest to sposób, w jaki AutoGPT może robić prawie wszystko online - pobierać informacje, korzystać z aplikacji, tworzyć nowe aplikacje, a nawet ulepszać siebie.

Systemy takie jak AutoGPT nie działają obecnie dobrze. Mają tendencję do utknięcia w niekończących się pętlach. Naukowcy dali jednemu systemowi wszystkie zasoby potrzebne do replikacji. System nie był w stanie tego zrobić. Z czasem te ograniczenia mogą zostać naprawione.

"Ludzie aktywnie próbują budować systemy, które same się doskonalą" - powiedział Connor Leahy, założyciel Conjecture, firmy, która twierdzi, że chce dostosować technologie sztucznej inteligencji do ludzkich wartości. "Obecnie to nie działa. Ale pewnego dnia będzie. I nie wiemy, kiedy nadejdzie ten dzień".

Pan Leahy twierdzi, że ponieważ naukowcy, firmy i przestępcy stawiają tym systemom cele takie jak "zarobienie pieniędzy", mogą one włamać się do systemów bankowych, wzniecić rewolucję w kraju, w którym posiadają kontrakty terminowe na ropę naftową lub replikować się, gdy ktoś spróbuje je wyłączyć.

Źródło: New York Times

Sonda
Wczytywanie sondy...
Polecane
Wczytywanie komentarzy...
Przejdź na stronę główną