Rozmowa
Przez osiem godzin dziennie każdy moderator treści musi obejrzeć i ocenić 25 000 obrazków ((kadr z filmu 'Czyściciele internetu'/mat. promocyjne))
Przez osiem godzin dziennie każdy moderator treści musi obejrzeć i ocenić 25 000 obrazków ((kadr z filmu 'Czyściciele internetu'/mat. promocyjne))

Za kontrolę treści, jakie pojawiają się na Facebooku, Twitterze czy YouTube, są odpowiedzialne nie tyle korporacje z Doliny Krzemowej, ile pracownicy firm z siedzibą na Filipinach. Jak się o tym dowiedzieliście?

W 2013 roku na Facebooku pojawiło się wideo rejestrujące przemoc kobiety wobec dziecka. Nim zniknęło z sieci, udostępniono je 60 000 razy. Mnie i Moritza zainteresowała nie tyle prędkość, z jaką docierało do coraz szerszego grona odbiorców, ile fakt, że równie szybko zostało usunięte. Z pytaniem o to, jaki algorytm za to odpowiada i jak często się myli, zwróciliśmy się do Sary T. Roberts, badaczki sieci społecznościowych z Uniwersytetu Kalifornijskiego w Los Angeles. Szybko wyprowadziła nas z błędu, sugerując, że za moderowanie treści w internecie odpowiadają nie maszyny, ale ludzie zatrudnieni w krajach Globalnego Południa. Roberts już wtedy przypuszczała, że stolicą moderatorów treści jest Manila, ale korporacje z Doliny Krzemowej nie były skłonne tej informacji potwierdzić.

Na początku prowadziliśmy nasze śledztwo z Berlina. Godzinami przeglądaliśmy strony z ofertami pracy w Manili. Szybko jednak zorientowaliśmy się, że w ten sposób do niczego nie dojedziemy. Tamtejsze firmy nie afiszują się z tego typu ogłoszeniami. Proponują zatrudnienie na stanowisku analityka danych. Sami zainteresowani, zgłaszając się, nie wiedzą, co będą robić. 

A na czym polega ich praca?

Przez osiem godzin dziennie każdy moderator treści musi obejrzeć i ocenić 25 000 obrazków. Na jeden poświęca niewiele ponad sekundę. Materiały zawierają na przykład pornografię dziecięcą, akty terrorystyczne, egzekucje i wszelkiego rodzaju przemoc. Wyobraź sobie, że dzień w dzień nie oglądasz nic innego.

Stolicą moderatorów treści jest Manila (kadr z filmu 'Czyściciele internetu'/mat. promoycjne)

O jak dużej grupie pracowników mówimy?

Trudno precyzyjnie określić, ile osób pracuje w tym biznesie. Podczas przesłuchań Collin Stretch z Facebooka, a potem Mark Zuckerberg mówili o 10 000 osób. Nie wiemy jednak, czy brali pod uwagę ludzi zatrudnionych tylko u siebie, czy także w firmach zewnętrznych. W końcu ci drudzy nie są pracownikami Facebooka, a ich związki z korporacją pozostają tajemnicą. Ale jeśli w ciągu każdej minuty na Facebooku publikowanych jest 450 000 postów, to możemy oszacować, że moderatorów treści musi być znacznie więcej. Niektórzy badacze mówią nawet o 100 000 Filipińczyków pracujących dla różnych korporacji z Doliny Krzemowej.

Oni weryfikują wszystko, co publikujemy, czy tylko treści przez kogoś zgłoszone?

Nie wszystko. Treści, które muszą ocenić, trafiają do nich za pośrednictwem dwóch kanałów. Pierwszym są algorytmy - te potrafią na obrazie czy filmie rozpoznać kształt ludzkich genitaliów, nagie ciało, krew. Oflagowany przez maszynę materiał zostaje poddany ocenie moderatora. On go usuwa bądź ignoruje sugestie algorytmu. Drugą drogą są zgłoszenia użytkowników. Jeśli na Facebooku czy YouTube trafisz na treść, która twoim zdaniem narusza dobro społeczności i ją zgłosisz, to z dużym prawdopodobieństwem zobaczy ją na ekranie komputera ktoś w Manili. Ta osoba nie ma pojęcia o kontekście kulturowym, w jakim tkwisz, podobnie jak ty nie masz pojęcia o jej sytuacji.

W waszym filmie jest genialna scena, w której moderatorka z Manili ocenia obraz przedstawiający nagiego Donalda Trumpa z bardzo małym penisem. To sztuka, której autorką jest młoda amerykańska malarka. Moderatorka rozumie polityczną groteskę i krytyczny wymiar tej pracy, doskonale interpretuje kontekst, w jakim powstała, mimo to decyduje się ją usunąć. Dlaczego?

Ta scena nie tylko jest zabawna, ale też dość dobrze ilustruje pewien paradoks. Owszem, moderatorka właściwie odczytuje intencje autorki obrazu, ale jej stosunek do osoby prezydenta jest diametralnie odmienny niż mój czy twój. Na Filipinach krytyka prezydenta Rodrigo Duterte  podlega ograniczeniu. Ludzie zwyczajnie boją się mówić, co o nim myślą, bo wiedzą, do czego jest zdolny aparat władzy. Podczas kampanii Duterte obiecywał, że będzie walczył z problemem uzależnienia młodych ludzi od narkotyków. Teraz realizuje ten plan, dokonując zbiorowych mordów. Na Filipinach publikacja nagiego wizerunku Duterte z małym penisem nie tylko nie należy do arsenału politycznej groteski, ale może być bardzo groźna w skutkach.

Wbrew temu, co wmawiają nam korporacje z Doliny Krzemowej, procedury usuwania treści nie są obiektywne, ale zależą od doświadczeń i wiedzy konkretnej osoby, która podejmuje decyzję. O błąd nietrudno, gdy dzielą nas język i tysiące kilometrów.

Procedury usuwania treści nie są obiektywne - zależą od doświadczeń i wiedzy konkretnej osoby (kadr z filmu 'Czyściciele internetu'/mat. promocyjne)

Czy do pracy moderatora poszukiwani są ludzie z określonymi predyspozycjami, wykształceniem, odpornością psychiczną?

Nie. Na Filipinach, a szczególnie w Manili, jest bardzo duży odsetek bezrobotnych młodych ludzi. Dla wielu jedynym dostępnym zajęciem jest segregacja śmieci za najniższą stawkę. Młodzi odczuwają ogromną presję, by nie wylądować na bruku, a praca na 20. piętrze czystego wieżowca to marzenie. Rekrutacja często przebiega tak, że firmy wysyłają swoich ludzi na ulicę. Ci wyszukują młode osoby i proponują im posadę. Wybrańcy muszą przejść egzamin z obsługi komputera, myszki, pisania na klawiaturze. Wymagania nie są wysokie. Kiedy ktoś udowodni, że radzi sobie z technologią, zostaje wysłany na kilkudniowe szkolenie. Poznaje zasady, wedle których będzie podejmował decyzje o usunięciu bądź akceptacji danego materiału. Dopiero podczas warsztatów rekrutowani dowiadują się, że zamiast analitykami danych staną się specjalistami od pornografii dziecięcej. Facebook czy Google daje przyszłym moderatorom specjalne kilkusetstronicowe podręczniki, których uczą się na pamięć - nie mogą mieć dokumentu pod ręką, bo firmy boją się wycieków do prasy. Wyobraź sobie, że w ciągu trzech dni musisz przyswoić wiedzę o 37 różnych grupach terrorystycznych osadzonych w różnych kontekstach kulturowych, wykorzystujących odmienną symbolikę i hasła. Nie jest dziwne, że wielu ich komunikatów nikt nie wychwyci.

Czy firmy zapewniają moderatorom jakąkolwiek pomoc psychologiczną?

A jak myślisz? Korporacje z Doliny Krzemowej między innymi po to delegują moderowanie treści na pracowników firm zewnętrznych w Manili, by nie martwić się o warunki, w jakich ci pracują. Opieka psychologiczna oznacza wydanie pieniędzy, a chodzi o to, by było tanio.

Wskaźnik samobójstw wśród moderatorów treści musi być znacznie wyższy niż w innych profesjach. Nie dysponuję wprawdzie żadnymi statystykami, ale podczas naszego śledztwa okazało się, że właściwie każdy z naszych rozmówców, a było ich kilkudziesięciu, zna kogoś, kto odebrał sobie życie, pracując jako moderator.

W filmie przywołujemy przypadek chłopaka zatrudnionego w specjalnej grupie weryfikującej wyłącznie nagrania samobójców. Osiem godzin dziennie patrzył, jak ktoś targa się na swoje życie. Niedługo przed śmiercią poprosił swojego szefa o przeniesienie do innego zespołu, ale w tej profesji możesz się co najwyżej zwolnić. Po jego śmierci menedżerowie firmy rozesłali do pracowników maile, że tragedia nie miała nic wspólnego z charakterem jego pracy, była wynikiem sytuacji rodzinnej i problemów psychicznych.

Wskaźnik samobójstw wśród moderatorów treści jest znacznie wyższy niż w innych profesjach (kadr z filmu 'Czyściciele internetu'/mat. promocyjne)

Czy dobrze rozumiem, że moderatorzy treści mają swoje specjalizacje, na przykład samobójstwa albo pornografia dziecięca?

Nie do końca. Większość pracowników w Manili ogląda wszystko. Jeśli ktoś nie jest w stanie podjąć decyzji samodzielnie, bo na przykład nie rozumie języka komunikatu, przesyła materiał do grup, które zajmują się daną tematyką, na przykład terroryzmem. Dotarliśmy do chłopaka wyspecjalizowanego w egzekucjach. Naoglądał się ich tyle, że beznamiętnie opowiadał nam, jakich narzędzi używają przedstawiciele tzw. Państwa Islamskiego, obcinając ludziom głowy i jaki kształt przybierają rany.

Grupy weryfikujące pracę innych działają nie tylko w Manili, ale też w Warszawie czy Berlinie. Ci ludzie są zatrudnieni przez Facebooka, a nie firmę zewnętrzną. Co ciekawe, nasi rozmówcy podkreślali, że boją się wysyłać zbyt wiele materiałów do ponownej weryfikacji, bo to mogłoby sugerować ich zbędność. Wolą więc sami podejmować decyzje, nawet gdy nie są pewni swoich sądów, bądź nie rozumieją kontekstu przesłanego obrazu.

To ryzykowna strategia. Zwłaszcza że w miesiącu mogą popełnić tylko trzy błędy. Jeśli omyłek jest więcej, moderatora czeka zwolnienie.

Jedynie 3 proc. jego pracy podlega rutynowemu sprawdzeniu przez kogoś, kto znajduje się na wyższym stanowisku. Prawdopodobieństwo, że błąd zostanie wykryty, nie jest więc zbyt wysokie.

Czy to jest dobrze płatna praca?

Na pewno w Warszawie czy Berlinie stawki moderatorów są osiem razy wyższe niż w Manili. Niemniej jednak pensja na Filipinach relatywnie też nie jest zła, wynosi około 300 $ na miesiąc i najczęściej żyją z niej całe rodziny.

Pensja moderatora na Filipinach wynosi około 300 $ na miesiąc (kadr z filmu 'Czyściciele internetu'/mat. promocyjne)

Skoro firmy w Manili tak dbają o dyskrecję, jak wam udało się do nich dotrzeć?

Zajęło nam to ponad rok, bo naprawdę dobrze się maskują. Do tego każdy z pracowników podpisuje klauzulę poufności. Nie dość, że opowiadanie o charakterze pracy grozi zwolnieniem, to jeszcze jest obłożone karami. Pracownicy godzą się na prześwietlanie ich prywatnych kont i maili. Wszystko po to, by skutecznie odstraszyć ich od rozmów z kimś takim jak my. Menedżerowie jednej z firm, gdy zorientowali się, że węszymy wokół ich działalności, rozesłali nasze zdjęcia do swoich pracowników z informacją, że jeśli będą z nami rozmawiać, stracą pracę. Dlatego przekonanie kogokolwiek do opowiedzenia o tym, co robi, trwało tak długo. Oni musieli nam zaufać, a my musieliśmy być pewni, że będziemy w stanie ich uchronić.

Dlaczego zdecydowali się z wami porozmawiać?

Bo chcieli opowiedzieć swoje historie. Ich profesja to jeden z najważniejszych zawodów w erze cyfrowej. Zdziwiło nas, że zamiast narzekać na warunki pracy, eksploatację emocjonalną, oni powtarzali, że są dumni z tego, co robią. Jeden z bohaterów prosił, byśmy wyobrazili sobie, jak wyglądałby internet, gdyby na dwie godziny porzucił stanowisko pracy. Zobaczylibyście rzeczy, na które nigdy nie chcielibyście patrzeć. Ja was przed tym chronię - przekonywał. I to jest prawda. Gdy moderator usunie wideo z pornografią dziecięcą, kilka tygodni później dostaje informację zwrotną, że udało się złapać osobę, która nagranie umieściła w sieci. Przychodzi szef i mówi: to dzięki tobie na drugim końcu świata złapano przestępcę. Właśnie ta narracja, zgodnie z którą twoja praca - nawet jeśli jest ekstremalnie wyczerpująca - ma głęboki sens, pozwala im przetrwać. Ale i tak średni czas pracy w firmach moderujących treść to jedynie pół roku.

Zobacz wideo

Dlaczego akurat Filipiny stały się największym ośrodkiem moderowania treści na świecie?

Powodów jest kilka. Najbardziej oczywiste są relatywnie niskie płace oraz niewielka dbałość o warunki pracy i przygotowanie psychiczne pracowników. Ale są i inne przyczyny. Zdobyliśmy wideo promocyjne nagrane przez filipińską firmę zajmującą się moderowaniem treści w sieci. Jego wydźwięk był dość szokujący i obrzydliwy: Filipiny ze względu na kolonialną przeszłość to najlepsze miejsce do prania brudów zachodniego świata. Kilkaset lat rządów Hiszpanów, a potem Amerykanów sprawiło, że dzielimy wspólne wartości - przekonywali twórcy materiału. Innymi słowy, oni doskonale zdają sobie sprawę, że delegowanie moderowania treści na ich kraj to nowa forma kolonializmu. Korporacjom z Doliny Krzemowej z pewnością przypadła do gustu także sytuacja polityczna na Filipinach. Jednym z głównych haseł wyborczych Rodriga Duterte było oczyszczanie społeczeństwa z brudów, to znaczy bezdomnych, uzależnionych od narkotyków oraz kryminalistów. Niemal każdego dnia uzbrojone szwadrony prezydenta wychodzą na ulice Manili, żeby dokonywać egzekucji. Moderowanie treści jest częścią szerszej ideologii, w której zamiast rozwiązywać problemy, usuwa się je. Co więcej, ze względu na hiszpańskie dziedzictwo kolonizacyjne aż 90 proc. społeczeństwa to praktykujący katolicy. Dla wielu moderatorów ich praca jest niemal religijnym posłannictwem, dzięki któremu oczyszczają świat z grzechów.

Facebook i Google nie przyznają się otwarcie, że do moderowania treści zatrudniają pracowników z Filipin (kadr z filmu 'Czyściciele internetu'/mat. promocyjne)

Ale właściwie dlaczego Facebook czy Google usiłują ukryć fakt, że do moderowania treści wynajmują firmy zewnętrzne z Filipin? O ich pracy można by przecież zbudować PR-ową opowieść, że Dolina Krzemowa chroni nas przed złem świata wirtualnego, szkoląc stutysięczną armię moderatorów?

Moderatorzy z Manili są skuteczni w sytuacjach oczywistych, jak nagrania pornografii dziecięcej czy wideo przedstawiające dekapitację więźnia tzw. Państwa Islamskiego, ale w okolicznościach mniej klarownych, zanurzonych w kontekście kulturowym, popełniają błędy. Zresztą każdy z nas by je popełniał. Czasem jednak te błędy mają znacznie poważniejsze konsekwencje niż usunięcie obrazu Trumpa, o którym wspominałem wcześniej.

Na przykład?

Słowo "kala" w języku birmańskim ma ten sam wydźwięk, co "czarnuch" ("nigger" - przyp. aut.) w Stanach. Jest skrajnie obraźliwe w stosunku do muzułmańskiej mniejszości Rohingja zamieszkującej Mjanmę [Birmę - przyp. aut.]. Właśnie to słowo w postach publikowanych na Facebooku podżegało społeczeństwo do przemocy. Nie znamy dokładnej liczby ofiar pogromu, ale z szacunków wynika, że może to być nawet kilkadziesiąt tysięcy osób. Gdyby Facebook zatrudnił moderatorów znających tamtejszy kontekst kulturowy, którzy sprawnie usuwaliby posty nawołujące do mordu, być może do tragedii w ogóle by nie doszło, a z pewnością nie osiągnęłaby ona takiej skali.

Facebook i inne media społecznościowe lubią przedstawiać się jako neutralne narzędzia technologiczne służące komunikacji. To bzdura. Sposób, w jaki Facebook został zaprojektowany, sprzyja nowemu rodzajowi cenzury. Algorytmy wyświetleń zaprogramowane są tak, by promować treść popularną wśród użytkowników. Ta często, zamiast na faktach, opiera się na przekazie emocjonalnym i czyimś prywatnym poglądzie. Popularność napędza reklamodawców i koło się zamyka: rządzą opinie - nie informacje, a rzetelne dziennikarstwo zwyczajnie nie ma szans z fake newsami.

Czy jest jakieś wyjście z tej sytuacji?

Mark Zuckerberg unika rzeczywistej konfrontacji z problemem. A czas przyznać, że technologie takie jak Facebook, Google czy Twitter nie są neutralne. Te media są niczym najbardziej wpływowi redaktorzy prowadzący. Dlatego uważam, że moderatorami treści powinni być dziennikarze z całego świata. Wyobraź sobie, że Facebook zatrudnia 50 000 dziennikarzy (śmiech). Tymczasem odpowiedzią Zuckerberga na aferę Cambridge Analytica jest algorytm wyświetlający użytkownikom jeszcze więcej postów od znajomych i rodziny. Tylko że Facebook dawno temu przestał być platformą do publikowania zdjęć z wakacji i śmiesznych kotków.

Ale wciąż jest doskonałym narzędziem do działalności aktywistycznej, organizowania protestów, zbierania podpisów.

Jasne, tylko pamiętajmy, żeby umieszczać te działania w szerszej perspektywie. Jakieś 10 lat temu Facebook pomagał organizować się tureckiej opozycji, stając się platformą krytyki władzy. Kiedy jednak władza zorientowała się, z jak potężną siłą ma do czynienia, zamknęła dostęp do Facebooka. Dla Zuckerberga był to poważny cios: w jeden dzień stracił kilkadziesiąt milionów odbiorców reklam. Poszedł więc na układ z władzą - dostęp do treści krytykujących turecki rząd został zablokowany na terenie kraju.

Reżyserowie dokumentu 'Czyściciele internetu' - Hans Block (z lewej) i Moritz Riesewieck (z prawej) (mat. promocyjne)

Wygląda na to, że "redaktorem prowadzącym" współczesnych mediów jest nie tyle Facebook, ile reklamodawcy. Jakie scenariusze rozwoju mediów społecznościowych przewidujesz?

W wersji optymistycznej - afery pokroju Cambridge Analytica obudzą w ludziach czujność i zmuszą do walki o nasze cyfrowe prawa. Wyobraź sobie, że pewnego dnia wszyscy użytkownicy Facebooka zrzucają się po 2 dolary i wykupują go z rąk prywatnych. Platforma staje się dobrem wspólnym. Nie mówię, że taka sytuacja nie rodziłaby kolejnych problemów, ale dawałaby jakąś nadzieję. Poza tym myślę, że powinniśmy walczyć o coś takiego jak Cyfrowa Organizacja Narodów Zjednoczonych, która zrzeszałaby przedstawicieli wszystkich krajów, dbając o bezpieczeństwo i prawa człowieka w internecie.

Scenariusz negatywny urzeczywistnił się już w Mjanmie, gdzie Facebook daje obywatelom dostęp do swojej platformy, dostarczając im darmowy internet. W efekcie Facebook staje się internetem. Już dziś korporacje z Doliny Krzemowej walczą o to, by tylko jedna z nich mogła świadczyć wszystkie możliwe usługi. Była platformą społecznościową, telewizją, supermarketem, portalem randkowym i biblioteką. Wielkim centrum handlowym, do którego wchodzisz i spędzasz tam całą wieczność, bo żadna alternatywa nie istnieje.

*Film był pokazywany podczas ostatniej edycji Festiwalu Millenium Docs Against Gravity. Można go też zobaczyć w TR Warszawa 18 czerwca o godz. 20. Więcej TUTAJ >>>

CHCESZ DOSTAWAĆ WIĘCEJ DARMOWYCH REPORTAŻY, POGŁĘBIONYCH WYWIADÓW, CIEKAWYCH SYLWETEK - POLUB NAS NA FACEBOOKU

Hans Block. Reżyser filmowy. Ukończył Akademię Sztuk Dramatycznych w Berlinie. Od 2007 roku współpracuje z Moritzem Riesewieckiem jako Laokoon. Dokument "Czyściciele internetu" to ich debiut.

Magda Roszkowska. Dziennikarka i redaktorka. Przez wiele lat związana z Fundacją Nowej Kultury Bęc Zmiana, gdzie współprowadziła magazyn kulturalny "Notes na 6 tygodni".