Aż 95 procent nastolatków zetknęło się z cyberprzemocą

Aż 95 procent nastolatków zetknęło się z cyberprzemocą (fot. Shutterstock)

wywiad gazeta.pl

Antidotum na hejterów. Czy internetowi samuraje to sposób na ludzką podłość?

Polacy mieszkający w Wielkiej Brytanii - obarczani winą za spowolnienie gospodarki, niesprawiedliwe otrzymywanie przywilejów socjalnych, kradzieże, rozboje - są grupą wyjątkowo narażoną na ataki w sieci. Falę hejtu płynącą na rodaków ma powstrzymać polska firma Samurai Labs. Niedawno dołączyła jako partner technologiczny do programu "Hate After Brexit". Jego celem jest stworzenie systemu do eliminowania hejtu i cyberprzemocy w mediach społecznościowych.

"13-letnia Wiktoria z Giżycka popełniła samobójstwo przez nienawistne komentarze zostawiane pod jej adresem na internetowych forach. Jej kolega również targnął się na swoje życie z powodu internetowego hejtu" - tego typu informacje pojawiają się w mediach zbyt często. Masz pomysł na to, jak ustrzec dzieci przed negatywnymi skutkami życia w globalnej sieci?

Michał Wroczyński, współzałożyciel i prezes Samurai Labs: Niestety nie. Ale wiemy, co zrobić, by poniżające czy atakujące komentarze do nich nie docierały, a nawet jak ograniczyć zjawisko przemocy w sieci.

Wyobraźmy sobie taką sytuację: na internetowym forum dla rówieśników jedna dziewczyna jest gnębiona, wytyka się jej nadwagę, niemodne ubrania, nazywa kujonem. Po pewnym czasie pojawiają się jeszcze insynuacje na temat jej seksualności, wreszcie groźba gwałtu. Rodzice niczego nie wiedzą, nauczyciele również. Dziewczyna jest sama. Jak można jej pomóc?

M.W.: Przede wszystkim nie dopuścić do tego, by te komentarze do niej dotarły, bo jeśli je przeczyta, to krzywda zostanie już wyrządzona. Media społecznościowe, fora, czaty i różne inne miejsca, w których ludzie rozmawiają, mają swoich moderatorów odpowiedzialnych za weryfikowanie treści, usuwanie opinii godzących w czyjeś dobro, obraźliwych czy agresywnych. I kiedyś to wystarczało. Teraz, przy lawinowo rosnącej liczbie internautów, przy przeniesieniu życia do świata wirtualnego, to już za mało.

Komentarze są widoczne przez długie godziny, co umożliwia oprawcom nakręcanie spirali nienawiści. A ludzki moderator z założenia działa dopiero "po fakcie", czyli po ukazaniu się postu, bo inaczej musielibyśmy czekać z publikacją każdego komentarza na jego akceptację.

Do tego dochodzi fakt, że według badań zaledwie ok. 20 proc. ofiar cybernękania zgłasza je komukolwiek. Dlatego wierzymy, że najważniejsza jest natychmiastowa reakcja.

Według badań zaledwie ok. 20 proc. ofiar cybernękania zgłasza je komukolwiek (fot. Shutterstock)
Według badań zaledwie ok. 20 proc. ofiar cybernękania zgłasza je komukolwiek (fot. Shutterstock)

Jak sprawić, by nienawistny komentarz lub groźba nie dotarły do odbiorcy?

Gniewosz Leliwa, współzałożyciel Samurai Labs i dyrektor ds. badań nad sztuczną inteligencją: Ucząc sztuczną inteligencję wychwytywania niebezpiecznych treści i podejmowania działań mających na celu ograniczanie przemocy, w tym blokowanie wiadomości lub użytkowników. Nasze rozwiązania tworzymy w oparciu o tak zwaną "trzecią falę" sztucznej inteligencji, która łączy uczenie maszynowe z wnioskowaniem na podstawie wiedzy eksperckiej i językowej.

Uczymy SI, w jaki sposób ludzie używają języka, dzięki czemu "rozumie" ona kontekst i logikę wypowiedzi, a nie tylko pojedyncze słowa. Systemy wcześniejszej generacji zawodzą w tej materii, bo ignorują kontekst i skupiają się na konkretnych słowach lub wyrażeniach, takich jak na przykład wulgaryzmy. A przecież użycie jakiegoś obraźliwego słowa, np. "dziwka", wcale nie musi być jednoznaczne z próbą obrażenia drugiej osoby.

Na przykład niezbyt ładne, ale niekoniecznie obraźliwe powiedzenie: "życie jest dziwką"?

G.L.: Właśnie. Dzięki głębokiemu rozumieniu języka nasza sztuczna inteligencja nie tylko odróżni neutralne powiedzenie "życie jest dziwką" od obraźliwego "jesteś dziwką", ale również prawidłowo rozpozna szerszy kontekst w wypowiedzi "nigdy w życiu nie powiedziałbym, że jesteś dziwką".

Czyli stworzona przez was SI odróżnia groźbę "zabiję cię" od sformułowania "zabiłaś mnie tym"?

M.W.: Tak, ale na tym nie koniec. Przede wszystkim po rozpoznaniu treści system odpowiednio reaguje, np. upomina osobę, która wysłała obraźliwy wpis.

Upomina?

M.W.: Do konwersacji wprowadzany jest wirtualny samuraj, taki "anioł stróż", który wysyła do atakującej osoby na przykład taki komunikat: "Hej, na naszym forum staramy się nie obrażać ludzi. Pamiętaj, że po drugiej stronie monitora też siedzi prawdziwy człowiek".

To działa?

G.L.: Tak, i to zaskakująco dobrze. Z naszych danych wynika, że ponad 80 proc. upomnianych w taki sposób użytkowników jednego z największych amerykańskich forów Reddit przestaje stosować przemoc i atakować innych.

A jeśli komunikat nie przynosi efektów?

M.W.: Możemy zablokować post lub użytkownika. Niestety, czasem to jedyne wyjście. Ale nasze możliwości nie kończą się na tym. Załóżmy, że użytkownik brnie w przemoc słowną i łagodne upomnienia nie działają. Możemy wtedy stworzyć dowolną liczbę  sztucznych użytkowników danego forum, którzy wezmą w obronę atakowaną osobę i pokażą, że napastnik jest odosobniony w swojej opinii. Takie działanie dodatkowo mobilizuje prawdziwych użytkowników, którzy widzą, że są świadkami przemocy, lecz nie reagują choćby z lęku, że na "polu bitwy" z hejterem zostaną sami i staną się kolejną ofiarą. Ale mając obstawę w postaci naszych samurajów, odważniej przeciwstawiają się agresji słownej.

fot. Shutterstock
fot. Shutterstock

Z danych przedstawionych w raporcie Global Dignity z 2016 roku wynika, że aż 95 proc. młodych ludzi, również całkiem małych dzieci z pierwszych klas szkoły podstawowej, zetknęło się ze zjawiskiem hejtu w Internecie. 43 proc. młodzieży w wieku od 12 do 14 lat doświadczyło przejawów internetowej agresji, a 20 proc. samo hejtowało innych. Te liczby przytłaczają.

M.W.: Wyobraź sobie, że dane FBI wskazują, że w każdej chwili, niezależnie od godziny dnia czy nocy, w sieci przebywa przynajmniej 750 tys. aktywnych "drapieżców". To musi zostać rozwiązane, i to technologia musi stać się antidotum na problemy, które eskalowały wraz z jej rozwojem.

Pamiętam dość dobrze czasy, gdy hejterskie komentarze zdarzały się wyjątkowo rzadko i były źle przyjmowane przez internautów. Wówczas byliśmy jeszcze przyzwyczajeni do rozmów, do wyrażania swojej opinii twarzą w twarz, pod własnym nazwiskiem. Anonimowość, jaką daje Internet, była jeszcze słabo znana. Ale to się zmieniło i ta sama anonimowość połączona z błędnym przekonaniem, że wolność słowa pozwala mówić wszystko bez ponoszenia konsekwencji, zaczęła nas odczłowieczać. Właśnie odczłowieczanie jest tutaj wyrażeniem kluczowym.

G.L.: Teraz stykamy się z odczłowieczaniem w związku z brexitem. Różne grupy narodowe, w tym ponad milion przebywających na Wyspach Polaków, narażone są na ataki. Są obarczani winą za spowolnienie gospodarki, zarzuca się im odebranie miejsc pracy, niesprawiedliwe otrzymywanie przywilejów socjalnych, kradzieże, rozboje, gwałty. Są łatwym celem, bo stanowią mniejszość, przez co są słabsi.

Polakom w Wielkiej Brytanii również zamierzacie zapewnić pomocnego samuraja?

G.L.: Kilka miesięcy temu dołączyliśmy jako partner technologiczny do programu "Hate After Brexit" opracowywanego przez HateLab - globalny hub zajmujący się badaniem i monitorowaniem hejtu i przemocy z nienawiści działający przy Uniwersytecie w Cardiff i współpracujący z brytyjską Narodową Radą Szefów Policji (NPCC). W ramach naszej współpracy powstaje system, który w czasie rzeczywistym będzie monitorował media społecznościowe w poszukiwaniu hejtu. Dzięki temu powstanie interaktywna mapa, która pozwoli na dużo skuteczniejszą niż dotychczas walkę z mową nienawiści i przestępstwami z niej zrodzonymi.

Obecnie pretekstem do hejtu na Polaków stał się brexit (fot. Shutterstock)
Obecnie pretekstem do hejtu na Polaków stał się brexit (fot. Shutterstock)

M.W.: Wyobraź sobie, że policja jest w posiadaniu nieustannie aktualizującej się mapy internetowych ataków na imigrantów z Polski. Wie, z jakiej okolicy pochodzą hejterzy, w jaki sposób formułują swój przekaz. Można wówczas działać prewencyjnie - wysłać dodatkowy patrol policji, zorganizować z lokalnymi władzami jakieś wydarzenie jednoczące społeczność. A jeśli mimo wszystko dojdzie do aktu agresji czy wandalizmu - łatwiej będzie namierzyć sprawców.

Ale na tym nie koniec. Taka sztuczna inteligencja może nie tylko monitorować hejt i cyberprzemoc, ale może również zostać uczestnikiem dyskusji i prostować krzywdzące opinie, przekłamania i stereotypy.

W jaki sposób? Jak można zmienić opinię anonimowego hejtera, który domaga się natychmiastowego wyrzucenia poza granice UK wszystkich Polaków, bo ci kradną rodowitym Anglikom pracę?

M.W.: Zacznijmy od tego, jakie miejsca głównie monitorujemy pod kątem ataków na polską mniejszość w Wielkiej Brytanii. Są to głównie Twitter, Reddit oraz komentarze pod filmami na YouTube. Zwykle komentarze nie dotyczą bezpośrednio jednej, konkretnej osoby, ale odnoszą się do całej społeczności.

Pamiętasz, kiedy omawialiśmy przykład atakowanej przez rówieśników dziewczyny, mówiłem, że jesteśmy w stanie tworzyć wirtualne awatary systemu, które działając jak prawdziwi członkowie danego forum, biorą w obronę ofiarę i negują zachowanie napastnika? W tym wypadku działamy analogicznie, czyli tworzymy awatary systemu SI, które używając sprawdzonych danych, pokazują fałsz zawarty w komentarzu.

Ale do hejtera nie trafiają racjonalne komentarze. Niezależnie od tego jak mocne argumenty będziesz miał na udowodnienie, że białe jest białe, to on będzie twierdził, że jest czarne i już.

M.W.: Tutaj w szranki z hejterem nie staje człowiek, tylko wydajny system SI, który ma dostęp do ogromnej bazy danych i może poradzić sobie z opornym przeciwnikiem.

Powiedzmy, że ktoś napisał właśnie: "Polacy odbierają nam pracę, Polacy do domów!". Do akcji wkracza wtedy system SI, który może na przykład odpowiedzieć, że faktycznie w ostatnim czasie wielu Polaków osiedliło się w UK, ale przed falą emigracji z Polski dane dziedziny przemysłu borykały się z nieustannym brakiem pracowników i że dzięki imigrantom sytuacja się poprawiła. Albo używając statystyk, może też zanegować opinię o tym, że Polacy to złodzieje. Nawet jeśli opiniodawca nie zmieni zdania, to odpowiedź na jego komentarz przeczytają inni, a następnym razem być może sami zareagują.

Ważną kwestią jest również pokazanie, że nienawistna opinia nie dotyczy jakiejś wyimaginowanej, szerokiej i trudnej do określenia grupy, lecz konkretnych ludzi. To nieco paradoksalne, ale używamy sztucznej inteligencji, by pokazać, że po drugiej stronie komputera też jest człowiek z krwi i kości, człowiek, który może cierpieć, a nawet być zdruzgotany tak bezmyślnie wyrażoną przez kogoś opinią, że jest na przykład złodziejem.

Michał Wroczyński i Gniewosz Leliwa z Samurai Labs (mat. prasowe)
Michał Wroczyński i Gniewosz Leliwa z Samurai Labs (mat. prasowe)

Sztuczna inteligencja ochroni nas przed ludzką podłością?

M.W.: Mówi się, że kłamstwo powtórzone tysiąc razy staje się prawdą. Przeraża mnie to, co kryje się za tym powiedzeniem. Internet, który miał dać nam dostęp do całej wiedzy świata i pozwolić komunikować się z każdym i zawsze, doprowadził również do rozrostu przemocy na niebywałą skalę. I w tym nowym - na poły rzeczywistym, na poły wirtualnym - świecie my tworzymy samurajów, którzy mają strzec słabszych przed zapędami silniejszych.

Ewelina Zambrzycka-Kościelnicka. Dziennikarka i redaktorka zajmująca się głównie tematyką popularnonaukową. Związana m.in z Życiem Warszawy i Weekend.Gazeta.pl oraz z Magazynem Wirtualnej Polski.

Polub Weekend Gazeta.pl na Facebooku

Komentarze (63)
Zaloguj się
  • antykonformista

    Oceniono 16 razy 14

    Zacne jest, chronić słabych (dzieci, mniejszości) za pomocą Sztucznej Inteligencji.
    Bardzo podoba mi się ten pomysł. Jednakże mam wrażenie, że skończy się na celach komercyjnych, czyli gdy Pan Wpływowy zapłaci (lub zaoferuje inne profity), dostanie nie tylko blokadę komentarzy (tak jak obecnie się to dzieje), ale również "dowolną liczbę sztucznych użytkowników danego forum", piejących peany na cześć Pana Wpływowego, jego krewnego, lub znajomego.
    Dzieciaków to nie obroni. Raz, że one nie używają forów, tylko grup zamkniętych na Fejsie i Snapie. Dwa, że kiszą się we własnym sosie, nawet jak się SI włamie do ich grup, wygeneruje fejkowe wizerunki i nazwiska, to dzieciaki ich nie rozpoznają, więc albo się ich wystraszą, albo (w sytuacji gdy już będą znać tę możliwość), po prostu oleją to, co piszą fejki i jeszcze niezłą bekę będą z tego mieć.

    Pan Wpływowy: to jest prawdziwy target i potencjał! Prawda?

  • lelontm2

    Oceniono 14 razy 14

    >>>Możemy wtedy stworzyć dowolną liczbę sztucznych użytkowników danego forum, którzy wezmą w obronę atakowaną osobę i pokażą, że napastnik jest odosobniony w swojej opinii.<<<

    A to już trochę przerażające. Bo skoro można tworzyć opinie pozytywne to można i w drugą stronę. Można tworzyć fake newsy, można wpływać na wybory i dziesiątki innych rzeczy.

  • boo-boo

    Oceniono 10 razy 8

    Przede wszystkim dzieci się uczy tego, że głupie komentarze na własny temat się olewa i że nie strzela się głupich komentarzy na temat innych. To podstawa do uniknięcia problemu. Każdy ma tylko jedno życie i prawo żeby przeżyć je bez bycia krzywdzonym i bez krzywdzenia innych.

  • Andrzej Buda

    Oceniono 8 razy 8

    Orwell miał rację? Na szczęście sztuczna inteligencja nie rozumie ironii, dlatego politykom ten projekt rodem z Orwella się nie uda :)

  • r1234_76

    Oceniono 14 razy 8

    Widzę oczami wyobraźni, jak taka armia samurajów po prostu zniszczy ludzi głoszących poglądy niewygodne. Nawet nie przez hejt czy obrażanie, choć taki wariant jest oczywiście możliwy. Wystarczy, że tacy sztuczni użytkownicy zademonstrują, że taka niewygodna osoba jest samotna ze swoimi poglądami, i niewielu ją popiera.

    W ten sposób po jakimś czasie ludzie przestaną publikować niewygodne poglądy z powodu utraty chęci do działania.

  • tuz2013

    Oceniono 7 razy 7

    Bardzo ciekawe i daje nadzieję na przyszłość, ale uwaga bo te same metody SI stosuje się i do generowania hejtów! Zapytajcie się towarzyszy ze wschodu którzy to już dawno stosują ....

  • udet1124

    Oceniono 23 razy 7

    Polacy są łatwym celem bo nie obowiązuje nas poprawność polityczna. Jak Anglik coś powie negatywnego na Afrykańczyka, Hindusa lub wyznawcę islamu to jest rasizm. Po białym europejczyku można "jechać" do woli. Dodatkowo tamte społeczności są zintegrowane i mają stowarzyszenia/ radnych ktorzy ich bronią.

  • niepisaty_wyksztalciuch

    Oceniono 9 razy 5

    Dla wielu polskich emigrantów to być może dobra lekcja. Niech przez chwilę poczują się jak geje w Polsce. Nie chcę generalizować, ale niestety wielu z nich to prymitywne rasistowskie i homofobiczne buractwo, któremu - dziwnym zrządzeniem losu - na Zachodzie, w liberalnej Anglii, odpłacono tą samą monetą. Ale buractwo ma wyjście. Może wrócić do pisowskiej Polski, dokąd jest jej mentalnie najbliżej i gdzie władza zapłaci im za głosy w najbliższych wyborach

  • szczureks

    Oceniono 13 razy 5

    Brytyjscy pisowcy sa takimi samymi debilami jak polscy pisowscy
    Z jedna roznica
    Polscy pisowcy oskarzaja jeszcze obcokrajowcow o przynoszenie zarazy

Aby ocenić zaloguj się lub zarejestrujX