Facebook kreuje emocje użytkowników

0
0
0
/

Portal już analizuje, co napisali. Ustala, co będą myśleli. Wkrótce zbada uczucia użytkowników za pomocą kamery internetowej i zarobi jeszcze na tym pieniądze.

W amerykańskim urzędzie patentowym United States Patent and Trademark Office pod numerem US20150242679 Facebook zarejestrował odczytywanie emocji z obrazów. Wedle założenia detekcja uczuć opiera się na pobieraniu obrazu z kamery internetowej, bądź umieszczonej w telefonie komórkowym. Obraz jest przekazywany do pamięci urządzenia. Stamtąd jest analizowany przez interfejs aplikacji (API), aby następnie trafić do innych programów współdzielących informacje. Później dane lądują na serwerach.

Informacja o emocji jest przyporządkowana do typu danych. Następnie tak zapisane uczucia są filtrem określającym, co Facebook wyświetli użytkownikowi. Następuje tutaj ustalenie w czasie rzeczywistym związku między zawartością (treścią) przekazu, a emocjami, jakie mu towarzyszyły. System zakłada kalibrację czytania ludzi tzn. ustawiania do konkretnej osoby, jak ma być rozpoznawana np. mimika ich twarzy. Wedle patentu "zainteresowania użytkownika mogą być określone w oparciu o jego bieżący stan emocjonalny". Analizowane przy tym informacje obejmują m. in. zdjęcia, nagrania video oraz dźwiękowe, gry, reklamy. Patent także zakłada "jakakolwiek zawartość cyfrowa dostępna na urządzeniu może być użyta". Wśród systemów operacyjnych wykorzystywanych tutaj przez Facebook dokument określa iOS, Apple OS X, Microsoft Windows, Android, Google Chrome OS, Microsoft Windows Phone z określeniem, że na tym katalog platform się nie kończy.

Założenia Facebooka określają, że treści mogą być wymieniane pomiędzy różnymi programami, czyli zebrane w jednej aplikacji informacje o emocjach mogą być przekazane dalej m. in. do innych urządzeń. Wśród początkowych emocji do rozpoznania są m. in. uśmiech, radość, humor, rozczarowanie, ekscytacja, zaskoczenie, smutek, zazdrość, znudzenie, ból, czy złość. Informacje te mogą być przekazywane m. in. za pomocą interfejsu kart zbliżeniowych (NIC), czy połączeń bezprzewodowych.

Choć ta wizja rodem z "Roku 1984" Georga Orwella brzmi jak fikcja Facebook w listopadzie 2016 kupił FacioMetrics, o czym poinformował redaktor Josh Constine z Tech Crunch. Nabyta firma opracowała aplikacje IntraFace do badania siedmiu emocji na ludzkich twarzach. Po zakupie Facebook wycofał program ze sprzedaży na stronach z aplikacjami (dziś nazywanych "sklepami"). Firma w tym samym czasie zapowiedziała opracowanie m. in. sterowania platformą za pomocą gestów. Innymi słowy kryje się za tym nie tylko rozpoznawanie emocji, ale i postawy czy ruchów ciała.

Wśród patentów zdobytych przez Facebook jest m. in. dodawanie emocji w oparciu o sposób wprowadzania tekstu, czyli określenie, co ktoś czuje po tym jak (a nie co!) pisze.

18 maja 2017 na światło dzienne wypłynęło automatyczne dodawanie emotikonów w oparciu o wygląd twarzy. Było to dwa tygodnie po tym, jak redaktor Global News Marilisa Racco oskarżyła Facebook o wykorzystywanie samotnych i znajdujących się w depresji nastolatków do sprzedaży reklam.

Podstawą ku takim działaniom są m. in. badania na Uniwersytecie Stanforda takich osób jak Rochard Socher, Alex Perelygin, Jean Wu, czy innych znanych jako naturalne przetwarzanie języka. Za tą nazwą kryje się np. określenie co ktoś myśli w oparciu o słowa jakich używa (np. jaki dobór przymiotników sugeruje orientację polityczną). Naturalne przetwarzanie języka (bywa mylone z programowaniem neurolingwistycznym NLP, a to są dwie różne sprawy) łączy się z uczeniem maszynowym, co w połączeniu z używaniem serwerów do analiz danych owocuje wyciąganiem chrakterystyk tłumu i jednostek np. trendów społecznych.

Redaktor Darren Davidson z The Australian Business Review opisał wewnętrzny i poufny raport Facebook przygotowany przez jego australijskich szefów Davida Fernandeza i Andy'ego Sinna. Platforma w czasie rzeczywistym określa w oparciu o interakcje z innymi, czy aktywność internetową podejmują osoby smutne i w depresji. Psychologia emocji mówi jasno, że są tacy użytkownicy Facebook są bardziej podatni na sugestie. Tym sposobem czternastolatkowie są poddawani w Australii formowaniu za pomocą reklam. Nic jednak nie stoi na przeszkodzie, aby ta sama metoda znalazła użytek w kwestii prezentacji idei, czy ustawiania światopoglądu odbiorcy do założeń nadawcy (co znów jest motywem przewodnim teorii komunikacji Nowej Lewicy). Davidson wskazał, że w Australii banki kupują od Facebooka dane, aby ustalić, jak myślą szesnastolatkowie.

Raport Fernandeza i Sinna określa m. in. okresy aktywności - emocje uczestnictwa są przekazywane na początku tygodnia, "poniedziałek-czwartek jest odnośnie budowania pewności siebie; weekend jest dla przekazywania osiągnięć". Za tym idą wytyczne, że np. sprzedaż wzrasta przy okazji samozadowolenia i przekonaniu, że użytkownik Facebook "wygląda dobrze". Badania te łączą się z rozpoznawaniem obrazów na Instagramie i np. określaniem, jak ludzie ukazują czas posiłku.

Zdaniem badaczki rynku reklamowego Digital Marketing Experts Lisy Montenegro Facebook tymi działaniami chce spowolnienia ucieczki młodych osób na Snapchat. Działania te wspierają lata analiz. Na łamach Procedding of the National Academy of Sciences of United States of America 22 lipca 2014 Adam Kramer z Core Data Science Team w ramach struktur korporacji Facebook, a także Jamier Guillory i Jeffrey Hancock z Uniwersytetu Cornell opublikowali tekst "Experimental evidence of massive-scale emotional contagion through social networks". Stwierdzili w nim, że "wyniki wskazują, że emocje ukazywane przez innych na Facebooku wpływają na nasze własne emocje", a to w praktyce jak ustalili badacze "ekspozycja na emocjonalną zawartość prowadzi ludzi do zmiany ich zachowań w publikacji treści [oryg. posting]". Ukazują, że Facebook może kreować zachowania poza siecią.

Redaktor Robinson Meyer zauważył, że przez określenie co się pojawia w ramach wiadomości na Facebook (np. tzw. wiadomości na czasie - trending news) oddziałuje na to, co użytkownicy opublikują na platformie. Innymi słowy walka z "fake news" na Facebook jest modelowaniem ludzi. Wedle profesora z Uniwersytetu Kalifornijskiego Martiego Hearsta skuteczność analizy emocji w 2014 roku sięgała 70-80%. Mowa tu o wykorzystaniu samego tekstu, a patenty firmy w 2017 roku sięgają już dalej.

Na łamach Forbes redaktor Curtis Silver zauważył odnośnie do Facebooka: "Ty musisz zgodzić się na używanie twojej kamery, ale prawdopodobnie to już zrobiłeś abyś mógł robić i dodawać zdjęcia do wiadomości i postów. Będzie tu osobna opcja, aby zezwolić Facebookowi na analizę twojej twarzy? Jeśli to nie budzi trochę obaw o prywatność. To jest jedna rzecz, jeśli świadomie robisz autoportret [oryg. selfie] i dodajesz do wiadomości, inną rzeczą jest kiedy Facebook skanuje twoją twarz przez kamerę kiedy pragniesz wysłać niejasny tekst bez podtekstu".

Treść patentów ukazuje, że Facebook pomija ochronę prywatności. Diagramy logiczne, czyli rysunki ilustrujące proces działania, pomijają czynienie danych anonimowymi. W terminologii Orwella Facebook przeistacza się tu w Wielkiego Brata.

Wedle zapewnień Davida Fernandeza i Andy'ego Sinna analizy zachowań użytkowników w kontekście uczuć będą na Facebook wstrzymane. Brak jednak danych potwierdzających ich stanowisko. W pierwszym kwartale 2017 firma Marka Zuckerberga miała 1,94 miliarda użytkowników, czyli potencjalnych źródeł danych. Przy takim zasobie informacji pojawiają się możliwości kierunkowania reklamy na niespotykaną wcześniej skalę, łącznie z modelowaniem zachowań nie tylko konsumenckich, lecz i politycznych. Przedstawiciel firmy Alex Schultz dowodzi, że modelowanie światopoglądu następuje. Na czerwiec 2017 zapowiada aktywność 76 tys. grup na rzecz gender. Tworzą one dwunastomilionową społeczność na rzecz poparcia homoseksualizmu, transgender, a mają zasięg globalny. Schultz szacuje, że półtora miliona osób weźmie udział w zdarzeniach na Facebook, czyli manifestacji poparcia dla LGBTQ. Środkami do tego są m. in. "tęczowa ramka profilu", "reakcja z dumą" - składanie sobie życzeń "happy pride" (w wolnym tłumaczeniu "szczęśliwego gender"), "rozjaśnienie zdjęć" - dodawanie symbolu tęczy gender, zbierania funduszy na propagowanie płci kulturowej, uruchomienie hashtag na Instagram #KindComments.

Używane na Facebook mechanizmy analityczne pozwalają firmie na odkrywanie, czy ich miesięczna kampania promocji gender odnosi skutek. Dane te są aktualizowane na bieżąco, co pozwala na dostosowanie przekazu, aby wpływał na coraz większe grono osób. Wedle swych założeń, co ujawniają m. in. patenty, korporacja Zuckerberga będzie analizowała jeszcze więcej informacji o swych użytkownikach niż do tej pory.

Jacek Skrzypacz

Źródło: prawy.pl

Sonda

Wczytywanie sondy...

Polecane

Wczytywanie komentarzy...
Przejdź na stronę główną