Sztuczna inteligencja zalewa internet dziecięcą pornografią

1
0
0
Sztuczna inteligencja
Sztuczna inteligencja / Pixabay

Internet Watch Foundation (IWF) poinformowała, że znalazła prawie 3 000 obrazów przedstawiających wykorzystywanie dzieci przez sztuczną inteligencję, które łamią brytyjskie prawo.

Organizacja z siedzibą w Wielkiej Brytanii stwierdziła, że istniejące obrazy rzeczywistych ofiar nadużyć były wbudowywane w modele sztucznej inteligencji, które następnie tworzyły ich nowe wizerunki.

Dodano, że technologia ta była również wykorzystywana do tworzenia zdjęć celebrytów, którzy zostali "odmłodzeni", a następnie przedstawieni jako dzieci w scenariuszach wykorzystywania seksualnego. Inne przykłady materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM) obejmowały wykorzystanie narzędzi AI do "nagości" zdjęć ubranych dzieci znalezionych w Internecie.

IWF ostrzegła latem, że zaczynają pojawiać się dowody nadużyć spowodowanych przez sztuczną inteligencję, ale stwierdziła, że jej najnowszy raport wykazał przyspieszenie wykorzystania tej technologii. Susie Hargreaves, dyrektor naczelna IWF, powiedziała, że "najgorsze koszmary strażnika się spełniły".

"Na początku tego roku ostrzegaliśmy, że obrazy AI mogą wkrótce stać się nie do odróżnienia od prawdziwych zdjęć dzieci wykorzystywanych seksualnie i że możemy zacząć widzieć, jak te obrazy rozprzestrzeniają się w znacznie większej liczbie. Teraz przekroczyliśmy ten punkt" - powiedziała.

"Co przerażające, widzimy, jak przestępcy celowo szkolą swoją sztuczną inteligencję na zdjęciach prawdziwych ofiar, które już padły ofiarą nadużyć. Dzieci, które zostały zgwałcone w przeszłości, są teraz włączane do nowych scenariuszy, ponieważ ktoś, gdzieś, chce to zobaczyć".

IWF powiedział, że widział również dowody na to, że obrazy generowane przez sztuczną inteligencję są sprzedawane online.

Najnowsze ustalenia opierają się na miesięcznym dochodzeniu w sprawie forum poświęconego wykorzystywaniu dzieci w ciemnej sieci, sekcji Internetu, do której można uzyskać dostęp tylko za pomocą specjalistycznej przeglądarki.

Zbadano 11 108 zdjęć na forum, z których 2 978 łamało brytyjskie prawo, przedstawiając seksualne wykorzystywanie dzieci.

CSAM generowane przez sztuczną inteligencję jest nielegalne na mocy ustawy o ochronie dzieci z 1978 r., która uznaje za przestępstwo robienie, rozpowszechnianie i posiadanie "nieprzyzwoitego zdjęcia lub pseudofotografii" dziecka. IWF stwierdziła, że zdecydowana większość nielegalnych materiałów, które znalazła, naruszała ustawę o ochronie dzieci, przy czym więcej niż jeden na pięć z tych obrazów sklasyfikowano jako kategorię A, najpoważniejszy rodzaj treści, który może przedstawiać gwałt i tortury seksualne.

Ustawa o koronerach i sprawiedliwości z 2009 r. penalizuje również niefotograficzne zakazane obrazy dziecka, takie jak kreskówki lub rysunki.

IWF obawia się, że fala CSAM generowanych przez sztuczną inteligencję odciągnie organy ścigania od wykrywania prawdziwych nadużyć i pomocy ofiarom.

Źródło: Guardian

Sonda
Wczytywanie sondy...
Polecane
Wczytywanie komentarzy...
Przejdź na stronę główną