Stres a psychické problémy. "Mazače" nevhodných příspěvků na Facebooku jejich práce ničí

Adéla Očenášková Adéla Očenášková
21. 2. 2017 10:41
Jak vypadá práce těch, kteří mažou dětskou pornografii a nenávistné komentáře na Facebooku? Psychické problémy, nízký plat i nejasná pravidla, shodují se zaměstnanci, kteří rozhodují o nevhodnosti příspěvků na nejslavnější sociální síti. Denně se jim pod ruku dostane až 2000 "postů".
Ilustrační foto.
Ilustrační foto. | Foto: Reuters

Berlín - Mažou dětskou pornografii, nenávistné komentáře i falešné zprávy z nejpoužívanější sociální sítě na světě. Jako "kontrola" nevhodného obsahu na Facebooku v Berlíně za zavřenými dveřmi pracuje na 600 lidí.

Jednotlivé "facebookové týmy" v německé metropoli dohlížejí na příspěvky nejen v němčině, ale například i v arabštině, turečtině, italštině či francouzštině. Jejich členové přitom pocházejí z celého světa, kromě Německa třeba ze Švédska, Turecka nebo i Sýrie.

Německému deníku Süddeutsche Zeitung Magazin se na konci loňského roku podařilo proniknout mezi současné i bývalé zaměstnance berlínských "mazačů", jejichž práce pro internetový gigant je přísně střežená a ví se o ní jen velmi málo. 

Všichni se shodují v jednom - práce je to psychicky velmi náročná a stresová. Někteří z oslovených lidí dokonce přiznali vážné psychické potíže kvůli množství ohavných příspěvků, kterými se během pracovní doby probírají. "Viděl jsem věci, které ve mně vyvolaly vážné pochybnosti o víře v lidskost. Věci jako násilí a bestialitu," vylíčil jeden z pracovníků serveru Süddeutsche Zeitung Magazin.

Zaměstnavatel navíc podle informací média nezprostředkovává odbornou pomoc psychologa. A ta je podle mnohých naprosto nezbytná. 

"Vím, že někdo tu práci dělat musí. Ale měli by to být lidé, které na to předem důkladně připraví a kterým je poskytnuta pomoc, když ji potřebují," je přesvědčený jeden ze zaměstnanců.

Dva tisíce příspěvků denně

Pracovníci musí často zkontrolovat až 2000 příspěvků denně. Na rozhodnutí, zda některý smazat - například video - přitom mají jen několik málo vteřin. Plat zaměstnanců na nejnižším stupni, kteří se starají například o falešné facebookové profily, je jen nepatrně vyšší než minimální mzda.

"Od té doby, co jsem viděla dětská pornografická videa, jsem začala přemýšlet nad tím, že bych klidně mohla být jeptiškou. Už ani nemám myšlenky na sex a se svým partnerem jsem neměla styk už více než rok. Vždy, když se mě dotkl, začala jsem se celá třást," citoval server zpověď jedné ze zaměstnankyň.

Jiný pracovník se zase svěřil s drsnou historkou, kdy jako nevhodnou označil fotografii, která vyobrazovala popraveného muže. Vedení mu ale následně sdělilo, že fotografie neporušuje komunitní pravidla Facebooku. Ta totiž nahlížejí na trest smrti jako na legitimní politický nástroj.

V celém Německu Facebook používá okolo 28 milionů lidí, na celém světě pak asi 1,8 miliardy osob.

Sebepoškozování Facebooku nevadí

Většina oslovených pracovníků spatřuje problém v tom, že Facebook zcela jasně nestanovuje, jaký typ příspěvků může na sociální síti zůstat a jaký musí být okamžitě smazán. Pravidla se navíc podle vyzpovídaných zaměstnanců příliš často mění.

Když se ale americký zpravodajský server CNN ptal společností jako Facebook nebo Instagram na moderátory příspěvků, firmy odmítly odpovědět. Facebook nekomentuje ani pravidla a mechanismy, jež uplatňuje při rozhodování o nevhodnosti příspěvků.

Zaměstnanci ale zmíněný "tajný klíč" pochopitelně znají.

Sama společnost odmítla potvrdit, zdali se dokumenty zveřejněné deníkem Süddeutsche Zeitung Magazin zakládají na pravdě. Podle Facebooku zůstává ale prioritou ochrana uživatelů. "Facebook není místem pro šíření nenávistných komentářů, rasismu nebo vyzdvihování násilí. Obsah, který se na Facebooku objeví, vyhodnocujeme velmi pečlivě," sdělil mluvčí společnosti pro server The Verge po zveřejnění zprávy, jaké mechanismy pro mazání nevhodných příspěvků používá.

Obrázek sám o sobě nevadí

Jak ve stručnosti vypadá algoritmus, který internetový gigant používá?

Obecně podle Süddeutsche Zeitung Magazin platí to, že obrázek jako takový nevadí. O jeho nevhodnosti lze debatovat až v případě, že ho doprovází nějaký popisek.

Příklad? Pokud na Facebook pověsíte fotografii, kde se sebepoškozujete, bez popisku, zůstane bez povšimnutí. Jakmile ji ale doprovodíte nějakým textem či snad budete nabádat ostatní, aby sebepoškozování také zkusili, dost možná může být fotografie označena za nevhodnou.

Do kategorií, které Facebook kontroluje, spadají například genderová identita, sexuální orientace, národnostní původ, společenský status, vzhled či politická příslušnost.

V případě, že jde o slovní útok na dvě takovéto "chráněné" skupiny, příspěvek musí být odstraněn (například věta "Irské ženy jsou hloupé" - útok na národnost a pohlaví). Když jde ale o kombinaci "chráněné" a "nechráněné" skupiny, výsledkem je, že uživatel žádná pravidla neporušil (například "Irské teenagerky jsou hloupé", kdy slovo "teenagerky" nepatří do chráněné skupiny).

Zvláštní skupinu pak představují uprchlíci. Například komentáře, které nazývají uprchlíky "špinavými zloději" nebo "havětí", jsou povolené. Zatímco uprchlíka Facebook povoluje nazvat "špinavým", při použití podstatného jména "uprchlík je špína" už příspěvek podle prosincových informací německého deníku maže. Mizí také označení, která o běžencích mluví jako o "teroristech, vrazích nebo pachatelích sexuálního násilí".

Tým v Berlíně kontroluje a maže nevhodný obsah od roku 2015, kdy tím Facebook pověřil firmu Arvato - dceřinou společnost německého mediálního konglomerátu Bertelsmann.

Odhady o počtu lidí, kteří na světě kontrolují a "moderují" dění na Facebooku, se liší. Server WhoIsHostingThis například v roce 2015 hovořil celosvětově jen o 800 až 1000 osobách, z nichž mnoho pracuje v rámci tzv. outsourcingu například v Indii a na Filipínách a vydělávají si údajně i méně než jeden dolar za hodinu.

Německo také postupně spouští nová opatření, která mají zabránit šíření nevhodných příspěvků a falešných zpráv. Uživatelé budou mít možnost nepravdivé zprávy označovat snadněji než nyní a zpochybněná fakta následně prověří týmy expertů včetně televize ABC News nebo agentury Associated Press.

Každý člověk má určitou představu, co je přijatelné a co chce ukázat, u Facebooku probíhá to stejné jako v klasických médiích, říká Daniel Dočekal. | Video: Martin Veselovský
 

Právě se děje

Další zprávy