Facebook: Mamy 15 tysięcy moderatorów treści na całym świecie

Tak zapewnia Siobhan Cummiskey, dyrektorka ds. treści w firmie Meta, do niedawna Facebook. Ale Cummiskey w rozmowie z SW+ nie zdradza, ilu z tych pracowników posługuje się językiem polskim ani innymi językami niż angielski. Za to zapewnia, że jej firma czeka na unijne regulacje wielkich platform cyfrowych szykowane w Komisji Europejskiej.

08.12.2021 08.44
Facebook: Mamy 15 tysięcy moderatorów treści na całym świecie

Pozostające bez kontroli algorytmy, rozlewająca się dezinformacja, coraz większa monopolizacja kolejnych rynków czy żerowanie na ludzkich słabościach i monetyzowanie lęków użytkowników. To tylko niektóre zarzuty, które stawia się największym platformom cyfrowym, będącym pod coraz poważniejszą krytyką.

Po zeznaniach sygnalistki Frances Haugen, która dostarczyła dowodów na to, że jej były pracodawca, czyli Facebook, wiedział o wielu negatywnych skutkach swojego modelu biznesowego, masowo zaczęło się mówić o konieczności wprowadzenia regulacji. Sama Haugen zasugerowała stworzenie regulatora platform i zmianę sposobu wyświetlania wiadomości z opartego na algorytmach na chronologiczny. Unijni urzędnicy szykują zaś reformę rynku cyfrowego i moderacji treści w sieci, które zawierają się w pakietach DMA (Digital Markets Act) i DSA (Digital Services Act). W projektach znajdują się m.in. zapisy zakazujące targetowania reklam, czyli ukierunkowania ich pod konkretnego adresata ze względu na wskazane cechy, takie jak wiek, płeć, miejsce zamieszkania itd.

Jednak problemy ma nie tylko Meta i Zuckerberg. Inne, wielkie platformy cyfrowe również budzą konsternację tempem swojego wzrostu, ale przede wszystkim tym, jak silną, czasem wręcz monopolistyczną pozycję zdobyli na kolejnych rynkach i do czego jej używają.

Dlatego w magazynie SW+ zaczęliśmy cykl wywiadów o tym, jak uzdrowić świat cyfrowych platform, by był faktycznie bezpieczny dla ich użytkowników. Zaczęliśmy go rozmową z Niną Jankowicz, ekspertką ds. dezinformacji, autorką książki „How to Lose the Information War” o tym, że Facebook musi zacząć inwestować także w rynki nieanglojęzyczne.

Dziś pytamy samego Facebooka (czy raczej Meta, bo tak firma oficjalnie nazywa się od kilku tygodni), jak reaguje na nadciągające regulacje i zmasowaną krytykę. W imieniu firmy z SW+ rozmawia Siobhan Cummiskey, dyrektorka ds. treści na obszar EMEA i zapewnia, że Meta... czeka na regulacje.

Mowa nienawiści to dziś ok. 0,03 proc. wszystkich treści na Facebooku

Jestem świadoma, że Facebook może się teraz czuć jak między młotem a kowadłem. Z jednej strony nie brakuje oskarżeń o to, że stosuje cenzurę. Z drugiej panuje powszechne przekonanie, że Facebook i inne platformy cyfrowe mają obowiązek chronienia użytkowników przed szkodliwymi treściami – jako że wciąż możemy je na tych serwisach oglądać. Może byłoby to szansą dla Facebooka? Może wręcz cieszylibyście się, gdyby wreszcie pojawia się instytucja, regulator, który zdefiniuje jasne reguły, jak obchodzić się z takimi szkodliwymi treściami?

Siobhan Cummiskey*: To bardzo ważne, abyśmy mieli regulacje dotyczące treści w internecie. W Meta faktycznie uważamy, że prywatne firmy nie powinny same podejmować tylu decyzji, które wpływają na naszą demokrację. Dlatego cieszą nas takie działania, jak europejskie prace nad Digital Service Act, czyli aktu prawnego, który podkreśla transparentność i odpowiedzialność dużych firm technologicznych.

Witamy tego typu regulacje z otwartymi ramionami, ale także sami dalej pracujemy nad tymi tematami. Podejmujemy każdego dnia trudne decyzje – szukając równowagi między wolnością słowa a bezpieczeństwem użytkowników. Dlatego nie możemy czekać na regulacje, musimy podejmować akcje, zanim one nadejdą. Ale ta transparentność i odpowiedzialność, o których mowa w DSA, są dla nas bardzo ważne. Dlatego jesteśmy liderem, jeśli chodzi o przejrzystość postępowania.

Kilka tygodni temu opublikowaliśmy nasz jedenasty raport o egzekwowaniu Standardów Społeczności, w którym piszemy o rozpowszechnianiu szkodliwych treści na naszej platformie. To sprawa, o której wiele firm technologicznych wciąż nie mówi otwarcie. W ciągu ostatnich trzech kwartałów ograniczyliśmy szerzenie mowy nienawiści na naszej platformie o ponad 50 proc. Dziś tego typu treści to ok. 0,03 proc. wszystkich treści. Można oczywiście powiedzieć, że tymi raportami oceniamy pracę domową, którą sami sobie zadaliśmy. Więc poprosiliśmy EY o przeprowadzenie niezależnego audytu naszego raportu. Chcemy, aby niezależny podmiot sprawdził, co robimy i ustalił, jaki postęp notujemy. Wyniki powinny być w ciągu kilku miesięcy.

Co jeszcze, w sensie praktycznym, Facebook planuje robić, aby być bezpieczniejszym miejscem dla użytkowników, a przy tym rzeczywiście bardziej transparentnym?

Bezustannie inwestujemy w bezpieczeństwo. Pracuję w Meta już od 9 lat i obserwuję, jak z roku na roku inwestujemy w nie coraz więcej i osiągamy coraz większy postęp. Tylko w tym roku wydamy 5 miliardów dolarów na kwestie związane z bezpieczeństwem. To więcej niż jakakolwiek inna firma technologiczna – nawet jeśli porównamy to do skali innych podmiotów. Mamy 40 tys. pracowników odpowiadających za bezpieczeństwo na naszych platformach. Kilka lat temu było to 10 tys. osób. Zwiększyliśmy te zasoby czterokrotnie w ciągu ostatnich 4-5 lat. Dzięki tym inwestycjom notujemy progres w zakresie bezpieczeństwa naszych platform, co widać we wspomnianym raporcie.

To duże inwestycje. Jednak jak wynika z „Facebook Files” 87 proc. budżetu Facebooka przeznaczonego na walkę z dezinformacją jest skierowane na rynki anglojęzyczne, innym poświęca się zdecydowanie mniej uwagi. Czy to się zmieni?

Większość dezinformujących treści, które usuwamy, pochodzi spoza Stanów Zjednoczonych. Mocno inwestujemy także w inne, nieanglojęzyczne rynki. Obecnie wspieramy ok. 70 języków. Tylko w ostatnim roku dodaliśmy ich 12. Od początku pandemii podjęliśmy działanie wobec ponad 20 milionów postów dezinformujących na temat COVID-19 i w tym przypadku widzimy, że większość z nich nie pochodzi z USA. Ta liczba – 87 proc. – jest zatem wyjęta z kontekstu i została źle zrozumiana.

W takim razie ilu moderatorów treści jest zatrudnionych przez Facebooka na całym świecie?

Mamy 20 biur na świecie, i jak wspomniałam wcześniej, w sumie 40 tys. osób pracuje w nich nad bezpieczeństwem naszych platform, z czego 15 tys. osób zajmuje się moderacją treści.

Fot. shutterstock.com/Autor: Clara Murcia
Fot. shutterstock.com/Autor: Clara Murcia

Ilu z tych 15 tysięcy moderatorów skupia się na rynkach anglojęzycznych?

Zatrudniamy moderatorów w oparciu o ich wiedzę językową i kulturową. Aby przeglądając treści, brali pod uwagę językowe niuanse. Zależy nam na ludziach, którzy pochodzą z danego kraju, są native speakerami, rozumieją slang, kontekst i niuans. Ale mamy także osoby, które zajmują się treściami bez znajomości języka. To m.in. takie treści, jak nagość czy konkretne rodzaje spamu, gdzie nie musisz znać języka, aby ocenić, czy treść jest szkodliwa. Pracują dla nas również inżynierowie, którzy zajmują się proaktywną technologią wykrywania – ta działa oczywiście również w Polsce. Oni również nie muszą posiadać wiedzy językowej, aby pracować nad takimi narzędziami.

Nasi pracownicy zajmują się tymi wszystkimi obszarami bezpieczeństwa i moderacji. Niektórzy z nich oceniają szczególne treści, które wymagają językowej wiedzy. Takim przykładem może być mowa nienawiści, gdzie trzeba znać kontekst, slang czy konkretne obelgi. Ale wielu może oceniać kontent pochodzący z różnych państw bez znajomości lokalnego języka.

Mamy zatem te 15 tys. osób, które zajmują się wyłącznie ocenianiem treści, ale także dużą grupę osób, które je wspierają. Staramy się, by każdy rynek był obsadzony zgodnie z potrzebami i liczbą zgłoszeń, jakie z niego otrzymujemy.

Ale nie podała mi pani liczby moderatorów zajmujących się rynkami anglojęzycznymi…

Nie mam takiej liczby, ponieważ nie organizujemy zespołów wyłącznie na podstawie języka. Tam, gdzie wymagana jest znajomość języka, mamy ludzi na miejscu, także jeśli chodzi o język polski.

Tu pewnie również nie poda mi pani liczby polskojęzycznych moderatorów?

Nie, ale mogę zapewnić, że mamy dużą grupę osób zajmujących się treściami pochodzącymi z Polski.

Czy istnieją jakieś nowe metody walki z dezinformacją? Mam na myśli chociażby te związane z blockchainem, śledzącym oryginalne pochodzenie wpisu lub zdjęć czy innowacyjne sposoby wykorzystywania sztucznej inteligencji. Rozwijacie takie metody?

Bez przerwy rozwijamy nowe technologie w walce z dezinformacją. Nie mogę podzielić się konkretnymi informacjami dotyczących blockchaina, ale mogę powiedzieć, że jeśli chodzi o dezinformację, nasze podejście wygląda następująco – usuwać, ograniczać, informować.

Usuwamy wszelkie treści, które mogą powodować szkody w realnym świecie. Ograniczamy dystrybucję kontentu, który może być fałszywy. Dlatego pracujemy z 80 fact-checkingowymi, lokalnymi instytucjami z całego świata, m.in. z Demagogiem i AFP w Polsce. Instytucje te posługują się 60 różnymi językami.

Poczyniliśmy też duże inwestycje, aby dotrzeć do użytkowników z wiarygodnymi informacjami nt. COVID-19. Łącznie zobaczyło je ponad 2 miliardy ludzi. Mamy także funkcjonalności w naszej aplikacji, które są bardzo efektywne w powstrzymywaniu użytkowników od dzielenia się potencjalnie fałszywymi treściami. Przykładowo: gdy użytkownik będzie chciał podzielić się artykułem na temat pandemii, zostanie zapytany, czy jest pewien, że to prawdziwa informacja. Jesteśmy w stanie także stwierdzić, czy użytkownik przeczytał dany artykuł, a jeśli tego nie zrobił, zapytamy, czy na pewno chce go w takim razie udostępnić.

Wciąż myślimy też o sposobach na to, by za pomocą samej aplikacji użytkownicy mogli np. zobaczyć, jak stary jest artykuł, zanim spróbują go udostępnić. Bo przecież data publikacji często ma kluczowe znaczenie w kwestiach dezinformacji.

Pytam o te nowe metody także z powodu kursu w stronę metawersum. Skoro jesteście tak przekonani do budowy własnego metawersum, to jestem ciekawa, czy macie nowe pomysły, jak radzić sobie z problemem mowy nienawiści czy dezinformacji w tej nowej erze web 3.0? Wiem, że to wczesny etap jego budowy, ale czy macie wyobrażenie, jak to może wyglądać w przyszłości?

Fot. shutterstock.com/Autor: Iv-olga
Fot. Iv-olga / Shutterstock.com

Jesteśmy entuzjastami metawersum. Postrzegamy je jako szansę na jednoczenie ludzi w sposób, jakiego do tej pory nie było. To szansa na wprowadzenie innowacji w takich obszarach, jak praca, edukacja czy zdrowie. Ale oczywiście podkreślamy, że kluczowe jest to, aby przy tworzeniu metawersum zapewnić bezpieczeństwo i ochronę prywatności. Chcemy wspólnie z innymi firmami, które biorą udział w budowie metawersum, stworzyć odpowiedzialną przestrzeń. Dlatego w związku z tym tworzymy w Europie 10 tys. miejsc pracy. W tym wszystkim, co jest tu takie nowe i ekscytujące, przyświeca nam idea „żadnych niespodzianek”. Dlatego właśnie tak wcześnie zaczynamy dyskusję na temat metawersum, jeszcze zanim cokolwiek uruchomiliśmy. Wśród ważnych sposobów na zachowanie bezpieczeństwa użytkowników metawersum z pewnością znajdą się takie, jak blokowanie czy wyciszanie innych użytkowników, czyli narzędzia, które już znamy.

To przyszłość, ale wróćmy na chwilę do teraźniejszych problemów. Wspomniała pani wcześniej DSA i DMA, które wciąż znajdują się w stosunkowo wczesnej fazie rozwoju. Unię Europejską czeka jeszcze wiele pracy nad nimi. Czy widzi pani w tych projektach jakieś rozwiązania, które mogą być dla Facebooka trudne do wdrożenia, ponieważ są zbyt niebezpieczne lub zbyt szerokie?

Jeśli mówimy o regulacjach dotyczących internetu, zależy nam na takich, które zachowają internet otwartym i dostępnym dla wszystkich, dopuszczają innowacje i konkurencyjność, dadzą ludziom kontrolę nad własnymi danymi. To elementy, jakie chcielibyśmy widzieć w nowych regulacjach. Dlatego w pełni wspieramy potrzebę przejrzystości i odpowiedzialności, jaką podkreśla się w DSA. Kluczowe jest uzyskanie pewności, że ludzie widzą możliwie najbardziej transparentne działania dużych firm technologicznych. I zarazem, że te firmy odpowiadają za swoje działania. Jesteśmy za regulacjami tego typu, szczególnie na poziomie Unii Europejskiej. 

W czasie, gdy w Unii Europejskiej trwają prace nad DSA i DMA, wiele państw myśli nad własnymi regulacjami dotyczącymi platform cyfrowych. W Polsce też są takie podejścia. Zapewne ta mnogość różnych pomysłów prawnych budzi obawy w Facebooku?

To jeden z powodów, dla których wspieramy regulacje na poziomie Unii Europejskiej. Internet jest globalny w swojej naturze, więc regulacje europejskie, szersze i uniwersalne są bardziej naturalne. To bardzo ważne, abyśmy mieli w Europie zharmonizowaną strukturę, w ramach której możemy się poruszać. To pozwoli na większą zgodność i da państwom możliwość wpływu na to, jak te reguły wyglądają, abyśmy mogli operować w ich ramach tak efektywnie, jak to możliwe.

Zapytam raz jeszcze – jakie konkretne rozwiązania, pomysły w regulacjach uważacie za najważniejsze dla Meta, aby firma mogła działać efektywnie?

To, co widzimy w DSA jako korzystne, to fakt, że nie skupia się na pojedynczych treściach, tylko całościowo odnosi się do kwestii bezpieczeństwa. To jest bardzo ważne dla nas. Bo jeśli skupimy się na pojedynczych treściach, będzie to – jak mówimy po angielsku – taka gra whac-a-mole, gdzie bez końca uderza się w kolejne wyskakujące z dziury zwierzaki. Podobnie można walczyć z kolejnymi pojawiającymi się bez końca niebezpiecznymi treściami.

DSA zaś patrzy na systemy bezpieczeństwa i ochrony jak na całość i zadaje pytania: czy firma odpowiednio raportuje? Jakie notuje postępy w walce ze szkodliwym kontentem? Czy w ogóle odnotowuje postęp? Czy użytkownicy są w stanie pociągnąć ją do odpowiedzialności? Czy mają miejsce audyty? To holistyczne podejście do bezpieczeństwa, które naszym zdaniem będzie najbardziej efektywne w przypadku regulacji dotyczących Big Techów.

Myślę, że to szansa dla wszystkich, aby poprzez regulacje spojrzeć na kwestie transparentności i bezpieczeństwa w nowy, zharmonizowany sposób. W ten sposób naszym zdaniem zrodzi się więcej zaufania i odpowiedzialności po obu stronach.

Fot. shutterstock.com/Autor: Nok Lek
Fot. Nok Lek / Shutterstock.com

Pojawia się argument, że Facebook nie naprawi sam siebie. Czyli, jak rozumiem, zgadzacie się, że potrzebujecie przewodnictwa i zewnętrznej kontroli?

Z mojego doświadczenia dziewięciu lat pracy w Meta wynika, że bezustannie inwestujemy i poprawiamy się w obszarach bezpieczeństwa i ochrony użytkowników. W tej kwestii zawsze prezentowaliśmy podejście oparte na współpracy i od lat współpracujemy z ekspertami od takich tematów, jak samobójstwa, mowa nienawiści czy terroryzm. Zatrudniamy także wielu ekspertów. Ja sama w przeszłości zajmowałam się jako prawniczka prawami człowieka, nasza wiceprezeska była prokuratorką, mamy specjalistów od takich tematów, jak bezpieczeństwo dzieci, kobiet czy różnego rodzaju mniejszości. Bez przerwy konsultujemy się z ekspertami zewnętrznymi, zatrudniamy własnych oraz tworzymy wewnątrz naszych struktur specjalne eksperckie jednostki.

I tak, chcemy też pracować z legislatorami. Postrzegamy regulację jako podstawową potrzebę. Więc tak: zgadzamy się, że wielkie korporacje nie powinny same podejmować takich wielkich, poważnych decyzji, które dotyczą wartości podstawowych dla demokracji. Dlatego z zadowoleniem przyjmujemy regulacje – chcą ich nasi użytkownicy, chcą ich firmy technologiczne oraz chcą politycy.

* Siobhan Cummiskey – dyrektorka ds. zarządzania treścią, EMEA, Meta (dawniej Facebook)

Zdjęcie tytułowe Eliseu Geisler/Shutterstock.com