Publiczny nadawca eksperymentował z AI. Nagle zmienia decyzję
Wedle początkowych zapowiedzi kilka miesięcy miał trwać “eksperyment” z zastąpieniem prezenterów przez kreacje wygenerowane przy pomocy sztucznej inteligencji w OFF Radiu Kraków. Jak się okazuje, potrwa znacznie krócej.
Zmiana, jaka nastąpiła niedawno w OFF Radiu Kraków, wywołała wiele kontrowersji i krytycznych komentarzy. Spore grono osób negatywnie oceniało już to, że zwolniono ludzi, a ich miejsce zajęły sztuczne kreacje generowane przez sztuczną inteligencję (AI). Kolejne osoby oburzyły się, gdy okazało się, że wśród tych wygenerowanych materiałów znalazł się także “wywiad” ze zmarłą przed laty pisarką Wisławą Szymborską.
Pomysł, żeby przygotowywać zmyślone rozmowy ze zmarłymi, ale popularnymi osobami, nie jest nowy i nie zaczął się dopiero od momentu pojawienia się AI. Warto przypomnieć, że swego czasu podobną inicjatywą zasłynęła “Gazeta Wyborcza”. Wówczas jej “wywiad” również wywołał falę krytycznych komentarzy. Wygląda na to, że ludzie po prostu niechętnie podchodzą do kolportowania przez media kłamstw, niezależnie od tego, czy ich twórcą jest człowiek, czy sztuczna inteligencja. Bo wymyślanie rozmów, które w rzeczywistości nigdy nie zostały przeprowadzone i przedstawianie ich tak, jakby to był zwyczajny, rzeczywisty wywiad, należy określić jako po prostu kłamstwo.
Wracając do radiowego “eksperymentu” z AI, to warto dodać, że OFF Radio Kraków to emitowany w internecie oraz poprzez system DAB+ program radiowy prowadzony przez państwowe Radio Kraków. W ramach programu generowanego przez sztuczną inteligencję słuchacze mogli usłyszeć trzy głosy: Emilii, Jakuba oraz Alexa.
Z listu szefa i likwidatora Radia Kraków, Marcina Pulita do pracowników rozgłośni wynika, że takie, a nie inne reakcje na “eksperyment z AI” postrzega on jako wynik pionierskiego charakteru ich działań.
"Jesteśmy pionierami, a los pionierów bywa trudny. Są krytykowani, wyśmiewani. Z takimi reakcjami przyszło nam się zmierzyć w ostatnich dniach. Nasz przypadek z pewnością będzie przedmiotem analiz socjologów, medioznawców. Pokazuje on, co się dzieje, gdy fakty są mniej ważne od emocji i fałszywych informacji trafiających w przekonania odbiorców"
- napisał.
A może wystarczyłoby po prostu, aby AI generowała materiały w oparciu o rzeczywistość, a nie odbiegała od niej materiały typu “wywiady”, które w rzeczywistości nie miały miejsca, z nieżyjącymi od dawna osobami?
Źródła: x.com, dorzeczy.pl