Opisany przez niego system był zorientowany na przedstawienie użytkownikowi podobnych treści. Jeśli ktoś ogląda informacje o Grecji wtedy maszyna zaproponuje mu podobne artykuły. Mechanizm ten trafił do medioznawców jako sieciowa bańka i doczekał się krytyki jako forma tworzenia iluzji, a co za tym idzie dezinformacji.

Algorytm z 2017 roku opisany przez Williamsa koncentrował się na przykuwaniu uwagi. Tak samo działa system rekomendowania na YouTube. Redaktor Zoë Schlanger dostrzegł problem w zakresie dezinformacji po spojrzeniu na wiadomości z Google News. System ten spowodował, że pożary puszczy amazońskiej były w sierpniu 2019 wypierane przez opisy czytnika książek Amazon Fire. Jest to precedens i zarazem ostrzeżenie. W największym pożarze lasów tropikalnych w historii zdjęcia NASA ukazały dym widoczny z kosmosu.

Działania Facebook są oficjalnie odpowiedzią na ten problem, bo w miejsce obecnych rozwiązań zaserwują bliższe ludziom informacje. Problemem nie jest kto stworzy oprogramowanie do tego. Jest to akcent poboczny, lecz w przypadku FaceApp krytycy wskazywali, że stworzenie go przez rosyjską firmę Wireless Lab z Saint Petersburga budzi kontrowersję odnośnie bezpieczeństwa danych na platformie.

Tym razem firma stawia za swój cel dostosowanie zakładki z wiadomościami z pomijaniem automatycznego sortowania i nadawania pozycji w rankingach popularności. “Bliższe ludziom treści” to nic innego, jak ludzie decydujący, co inni ujrzą. Świat jaki będą mieli do dyspozycji z mediów wytyczą New York Times, Washington Post i Wall Street Journal. Z nimi Facebook zawarł partnerstwo odnośnie pokazywania pełnych treści artykułów na platformie. Firma ukrywa przed odbiorcami jakimi kryteriami będzie się kierowała. Zespół wybranych przez Facebook redaktorów określi, co będzie “tematem dnia” i jaki wieści z sieci będą uznane za godne uwagi jako tak zwane “gorące tematy”.

Senator John Kyl w swym raporcie wykazał, że Facebook w styczniu 2018 pod hasłem uwypuklenia na platformie treści od rodziny oraz znajomych treści konserwatywne uległy zredukowani na korzyść źródeł lewicowych. Sprawa sądowa Reduty Dobrego Imienia ukazuje, że problem ten dotyczy już Polski. Usuwanie treści-przynęt (po angielsku clickbait) było jednym ze środków dalszego cenzurowania treści. Sprawdzanie faktów i walka z fałszywymi treściami (fake news) spowodowały, ż Factcheck.org, Associates Press, Snopes, czy PolitiFact zdecydowały, co jest dopuszczalne na Facebook. Posługiwanie się terminem “mowa nienawiści” stało się metodą oznaczania wiadomości spoza klucza. Wsparciem służyły tutaj lewicowe organizacje jak Southern Poverty Law Center.

Tym samym ostatnie posunięcie Facebook jest dalszym krokiem w kierunku zaciśnięcia kontroli nad treściami. W 2018 roku przed Kongresem Stanów Zjednoczonych Mark Zuckerberg tłumaczył się, że “tylko stworzyliśmy sztuczną inteligencję do oznaczania określonej zawartości”. Pro Publica wskazała, że platforma umożliwiała między innymi wykupywanie reklam w osoby nienawidzące Żydów. Badacz technologii Taina Bucher wskazała, że w przypadku algorytmów filtrowania treści stosuje się “alibi wiedzy”. Maszyny uznaje się za niezależne i pozbawione oceniania. Jednak do wytrenowania sztucznej inteligencji potrzebny jest człowiek dostarczający pierwsze, początkowe treści. Socjolog Linsey McGoey wskazała, że istnieje u szefów tak zwana “strategiczna ignorancja”. Określiła ją jako wygodę braku wiedzy o czymś. Innymi słowy użycie słowa, że szczegóły techniczne są poza zasięgiem decydenta umożliwiają skrywanie planu sortowania treści.

Działania na terenie Polski między innymi w związku z Marszem Niepodległości są dowodem, że za Facebook nie kryje się obojętność polityczna oraz ideologiczna, a tylko infrastruktura dostarczania i przesyłania treści. Mark Zuckerberg w swych wypowiedziach dał już parokrotnie nieraz dowód, że mierzy dalej niż tylko dostarczanie usług.

Jacek Skrzypacz