Według czołowego eksperta sztuczna inteligencja może oznaczać koniec tradycyjnej szkoły
Ostatnie postępy w dziedzinie sztucznej inteligencji mogą oznaczać koniec tradycyjnej klasy szkolnej, przewiduje jeden z czołowych światowych ekspertów w dziedzinie sztucznej inteligencji.
Prof. Stuart Russell, brytyjski informatyk z Uniwersytetu Kalifornijskiego w Berkeley, powiedział, że spersonalizowani nauczyciele w stylu ChatGPT mogą potencjalnie wzbogacić edukację i poszerzyć globalny dostęp poprzez dostarczanie spersonalizowanych lekcji do każdego gospodarstwa domowego ze smartfonem. Technologia ta mogłaby dostarczyć "większość materiału do końca szkoły średniej", powiedział.
"Edukacja jest największą korzyścią, jakiej możemy oczekiwać w ciągu najbliższych kilku lat" - powiedział Russell przed piątkowym przemówieniem na globalnym szczycie ONZ AI for Good w Genewie. "W ciągu kilku lat, być może do końca tej dekady, powinno być możliwe zapewnienie wysokiej jakości edukacji każdemu dziecku na świecie. To potencjalnie transformujące".
Ostrzegł jednak, że wdrożenie potężnej technologii w sektorze edukacji niesie ze sobą również ryzyko, w tym potencjał indoktrynacji.
Russell przytoczył dowody z badań wykorzystujących ludzkich opiekunów, że nauczanie indywidualne może być dwa do trzech razy bardziej skuteczne niż tradycyjne lekcje w klasie, umożliwiając dzieciom uzyskanie dostosowanego wsparcia i kierowanie się ciekawością.
"Oxford i Cambridge tak naprawdę nie korzystają z tradycyjnej klasy... używają korepetytorów prawdopodobnie dlatego, że jest to bardziej efektywne" - powiedział. "To dosłownie niewykonalne, aby zrobić to dla każdego dziecka na świecie. Nie ma wystarczającej liczby dorosłych".
OpenAI bada już zastosowania edukacyjne, ogłaszając w marcu partnerstwo z edukacyjną organizacją non-profit, Khan Academy, w celu pilotowania wirtualnego nauczyciela obsługiwanego przez ChatGPT-4.
Perspektywa ta może wywołać "uzasadnione obawy" wśród nauczycieli i związków zawodowych nauczycieli o "mniejszą liczbę zatrudnionych nauczycieli - być może nawet ich brak" - powiedział Russell. Przewidywał on, że zaangażowanie człowieka będzie nadal niezbędne, ale może drastycznie różnić się od tradycyjnej roli nauczyciela, potencjalnie obejmując obowiązki "monitora placu zabaw", ułatwiając bardziej złożone działania zbiorowe i zapewniając edukację obywatelską i moralną.
"Nie przeprowadziliśmy eksperymentów, więc nie wiemy, czy system sztucznej inteligencji będzie wystarczający dla dziecka. Jest motywacja, jest nauka współpracy” – powiedział Russell. "Niezbędne będzie zapewnienie zachowania i poprawy społecznych aspektów dzieciństwa".
Technologia będzie również wymagała starannej oceny ryzyka. "Miejmy nadzieję, że system, jeśli zostanie odpowiednio zaprojektowany, nie powie dziecku, jak zrobić broń biologiczną. Myślę, że można sobie z tym poradzić" - powiedział Russell. Zasugerował, że bardziej palącym zmartwieniem jest możliwość przejęcia oprogramowania przez autorytarne reżimy lub innych graczy. "Jestem pewien, że chiński rząd ma nadzieję, że [technologia] będzie bardziej skuteczna w zaszczepianiu lojalności wobec państwa" - powiedział. "Przypuszczam, że spodziewalibyśmy się, że ta technologia będzie bardziej skuteczna niż książka lub nauczyciel".
Russell spędził lata na podkreślaniu szerszych zagrożeń egzystencjalnych stwarzanych przez sztuczną inteligencję i był sygnatariuszem listu otwartego w marcu, podpisanego przez Elona Muska i innych, wzywającego do wstrzymania "wymykającego się spod kontroli wyścigu" w celu opracowania potężnych cyfrowych umysłów. Kwestia ta stała się bardziej paląca od czasu pojawienia się dużych modeli językowych, powiedział Russell. "Myślę o [sztucznej inteligencji] jak o gigantycznym magnesie w przyszłości" - powiedział. "Im bardziej się do niej zbliżamy, tym większa jest jej siła. Zdecydowanie jest bliżej niż kiedyś".
Politycy z opóźnieniem angażują się w tę kwestię, powiedział. "Myślę, że rządy się obudziły... teraz biegają i zastanawiają się, co robić" - powiedział. "To dobrze - przynajmniej ludzie zwracają na to uwagę".
Jednak kontrolowanie systemów sztucznej inteligencji stwarza zarówno wyzwania regulacyjne, jak i techniczne, ponieważ nawet eksperci nie wiedzą, jak określić ilościowo ryzyko utraty kontroli nad systemem. OpenAI ogłosiło w czwartek, że poświęci 20% swojej mocy obliczeniowej na poszukiwanie rozwiązania dla "sterowania lub kontrolowania potencjalnie superinteligentnej sztucznej inteligencji i zapobiegania jej zbuntowaniu się".
"W szczególności duże modele językowe, naprawdę nie mamy pojęcia, jak działają" - powiedział Russell. "Nie wiemy, czy są zdolne do rozumowania lub planowania. Mogą mieć wewnętrzne cele, do których dążą - nie wiemy, jakie one są".
Nawet poza bezpośrednimi zagrożeniami, systemy mogą mieć inne nieprzewidywalne konsekwencje dla wszystkiego, od działań w zakresie zmian klimatu po stosunki z Chinami.
"Setki milionów ludzi, a wkrótce miliardy, będą przez cały czas rozmawiać z tymi urządzeniami" - powiedział Russell. "Nie wiemy, w jakim kierunku mogą one zmienić globalną opinię i tendencje polityczne".
"Możemy wpaść w ogromny kryzys środowiskowy lub wojnę nuklearną i nawet nie zdawać sobie sprawy, dlaczego tak się stało" - dodał. "Są to tylko konsekwencje faktu, że niezależnie od kierunku, w którym porusza się opinia publiczna, robi to w skorelowany sposób na całym świecie".
Źródło: Guardian