Personuppgiftspolicy

Vi vill informera dig om vår policy som beskriver hur vi behandlar personuppgifter och cookies.

Läs mer

Hon bestämmer vad du får lägga upp på Facebook

Facebook har varit i blåsväder flera gånger för saker som fått eller inte fått publiceras. Monika Bickert är Facebooks policychef och ansvarig för hur användarreglerna ska tillämpas. Foto: Alex Ljungdahl

Hur kunde Facebook stoppa bilden på "Den lille havfrue"-statyn? Eller på den napalmskadade lilla flickan som blev offer för Vietnamkriget?

Monika Bickert är ansvarig för vad 1,7 miljarder användare världen runt får publicera på sociala medier-plattformen.

Jag träffade henne för att fråga om vad Facebook lärt om den senaste tidens kritik - och vad vi användare kan lära oss?

Facebook har 1,7 miljarder användare och alla tycker vi förstås olika om vad som är rimligt att lägga upp där. Många av oss i Sverige har inga problem med bilder ammande mammor eller till och med nakna barn, andra anser att sådana fotografier strider mot deras kulturella värderingar eller att det till och med är barnpornografi. Facebook drar, numera, gränsen vid könsdelar; det är okej att visa sitt ammande bröst, men inte sin bröstvårta. Typ.

 

När Facebook, för första gången, förbjöd specifikt innehåll - så kallad hämndporr - var det nog få som protesterade. Men varför fick "drag queens" i San Francisco starta konton med falska namn - sina scenpersonaliteter - men inte andra användare som kanske var hotade i diktaturer? Och hur kan det komma sig att en sida Putin-kritiska inlägg i Ryssland stoppades, men inte sidor som bara kopierade den första? Var det inte bara löjligt av Facebook att ta bort bilder "Den lille havfrue"-statyn i Köpenhamn? Och så vidare.

 

Stoppad. Bilder på den danska statyn ”Den lille havfrue” stoppades av Facebook – med hänvisning till reglerna om nakenhet. Beslutet möttes av starka reaktioner i Danmark, här är det tidningen Ekstrabladets artikel om händelsen.

Gång på gång samma sak. När Gefle Dagblad skrev om gratis mammografi och illustrerade med en genrebild på ett kvinnobröst som undersöktes, togs posten bort och lokaltidningens alla administratörer av GD-kontot spärrades. Dagens Nyheter, Svenska Dagbladet, journalisten Jack Werner och många andra har granskat vad Facebook egentligen tillåter att spridas och uppmärksammat att exempelvis det här om ett kvinnligt statsråd accepterades:

 

"Hård kampanj!!! Hon ska få en hård kula i nacken den satans piss horan!"

 

Det var också okej att skriva:

"Jag kommer att uppvigla våldtäkt och misshandel emot [namnet på politikern].... Döda horan!!!"

 

Det är ju knappast troligt att Facebooks ledning och aktieägare anser att "zigenare är av naturen tjuvaktiga", så frågan är varför sådana uppenbart främlingsfientliga kommentarer inte rensas bort när de väl anmäls?

 

"Facebook måste helt enkelt ta ett större ansvar", skrev jag i den här krönikan förra veckan, efter kritiken mot att sociala medier-jätten hade avpublicerat den norske författaren Tom Egelands post med AP-fotografen Nick Uts historiska bild från Vietnamkriget 1972 på den napalmskadade flickan Kim Phuc.

 

Det var naturligtvis ett vansinnigt beslut, och Facebook tillstod i ett senare uttalande att bilden ju är "ikonisk", men dessförinnan hann Aftenpostens chefredaktör Espen Egil Hansen skriva ett öppet brev till Facebooks grundare Mark Zuckerberg som blev till en världsnyhet. Och Norges statsminister Erna Solberg, som i solidaritet med yttrandefriheten lade ut samma bild på sitt privata konto och också fick den borttagen, slog fast att "Facebook redigerar vår gemensamma historia".

 

Nu sitter jag och diskuterar med Monika Bickert. Hon är toppjuristen från Harvard Law School, som under elva år var assisterande statsåklagare i Washington och Chicago och där utredde grova brott. Men hon var också jurist på den amerikanska ambassaden i Bangkok, Thailand, och där specialiserad på utnyttjande av små barn. Nog borde hon, av alla toppchefer inom Facebook, ha kunnat se skillnad på den dokumentära bild av Vietnamkrigets fasor som Facebook stoppade och på all den barnporr som förstås ingen normalt funtad användare vill ha i sitt flöde?

 

Men vi börjar inte där. Monika Bickert och jag talar först om Expressen, om att Expressen med 30-talet olika konton är det svenska mediebolag som har störst räckvidd och engagemang på Facebook och vad det egentligen betyder? Jag, som följer den ofta onyanserade debatten i Sverige om hur traditionella medier bör eller inte bör förhålla sig till Facebook, är nyfiken på hur hon tänker kring känsligt innehåll?

 

Monika Bickert, som varit på Facebook sedan 2012, konstaterar:

– När jag började på det här jobbet tillät vi halshuggningsvideor. Jag var ganska ny och det var en avrättningsfilm som delades, och folk hörde av sig: "Varför tillåter ni detta?". Mina medarbetare jobbar i sju olika länder, men det är inte som är experter - det är våra användare som är experter.

 

– Det finns plats för påträngande hemska bilder på Facebook. Titta på krigsområden - folk kan förstå vad som sker där, om de får se det. Men vi tar bort halshuggningsfilmer och en del annat numera, och ibland har vi en varningsskylt eller begränsar så att bara vuxna kan titta. Detta här har vi utvecklat, för att vi lyssnat på våra användare.

Grunden för Facebooks hela hållning, ofta upprepad av Mark Zuckerberg, är det som Monika Bickert också hävdar:

- Vi är ett teknikbolag.

 

Men tror du att det kommer att vara möjligt att fortsätta att kalla sig för "teknikbolag", när - tror jag - de allra flesta nog ser på Facebook som ett "mediebolag"? Ni fattar ju redaktionella beslut när ni väljer att ta bort eller behålla bilder.

Stoppad. Den klassiska bilden från Vietnamkriget stoppades av Facebook. Först efter protester från Dagbladets chefredaktör Espen Egil Hansen och Norges statsminister Erna Solberg uttalat sig, backade Facebook. Foto: Nick Ut / AP TT NYHETSBYRÅN

 

– Om du vill ha ett community som Facebook, så måste du ha vissa regler om vad som inte kan få delas för att det ska bli säkert. Men igen, som ett exempel: om du har kvinnor i ett land där de redan nervösa för att vara på nätet och om huruvida det är säkert för dem, då måste vi ha regler. Det är inte redaktionella överväganden, det är ett sätt att - transparent - säga till våra användare: "Detta är vad du kan förvänta dig på Facebook, här är våra regler."

 

Beslutet om Vietnambilden var ett redaktionellt beslut. Varför inte bara tillstå att ni är ett mediebolag - ni säljer ju reklam, ni tar bort visst innehåll och behåller annat... finns det en vändpunkt där Facebook erkänner att "okej, vi är i mediebranschen"?

 

– Vi skapar inte innehåll. Det är inte vårt jobb att prata till användarna via Facebook. Ta nyhetsflödet. Om du klickar på många poster från, säg, ett särskilt mediebolag så kommer du att få se flera sådana. Men då kommer detta utav dina egna beslut.

 

Med fler än 1,2 miljoner anmälningar per dag - per dag! - mot innehåll på plattformen, tvingas Facebook hantera enorma mängder klagomål. Policychefen påminner om att det inte bara handlar om att radera det som framstår som olämpligt, den som granskar anmälan måste försöka förstå kontexten. Kanske citerar du eller jag något kränkande just för att kritisera det som omnämns? Kanske korrigerar vi ett felaktigt återgivande av en bok eller politiskt tal?

 

Kunskapen om granskningsprocessen är inte särskilt stor hos användarna, vilket säkert leder till missförstånd - som myten om att ett innehåll som anmälts tillräckligt många gånger minsann kommer att försvinna med automatik. Monika Bickert ler åt påståenden om att man, liksom, skulle kunna "rösta bort" innehåll. Så fungerar det dock inte.

 

Men vad vet vi egentligen? Gång på gång frågar jag om de svensktalande moderatorerna bor och arbetar här i Sverige, vilket ju skulle öka deras förståelse för den svenska debattkontexten om hot och hat och hets, men det får jag inte veta. "Det svarar du inte på", konstaterar jag till slut.

 

– Det största missförståndet är att vi inte bryr oss. Jag får frågor från användarna och ser rapportering i nyhetsmedier på temat: "Varför bryr sig inte Facebook?". Men jag kan försäkra att vi bryr oss. Jag har det här jobbet för att vi bryr oss. Men vi står inför praktiska utmaningar: svåra övervägningar och dessutom omfattningen av alla frågeställningar. Men vi blir hela tiden bättre.

 

Stoppad. Gefle Dagblads artikel om gratis mammografi stoppades då den illustrerats med en bild på en mammografiundersökning där ett bröst syntes. Facebook spärrade också alla administratörer av Gefle Dagblads konto.

– Folk tror att vi har robotar och algoritmer som på något magiskt sätt implementerar våra användarregler, men det är riktiga människor runt om i världen som granskar innehållet som anmäls till oss. Och vi vill att folk ska rapportera. Vi har sett till att allt innehåll på Facebook - en bild, en kommentar, en profil, en hel grupp - kan anmälas. Och när det anmäls, så granskar vi. Men när du har riktiga människor som fattar egna beslut, så kommer det också att göras misstag.

 

Jo, det är jag själv allt för medveten om i mitt eget yrke...

 

– Så vi kommer att ha tillfällen då vi fattar felaktiga beslut. Men gör vi fel, så rättar vi till. Vi vill ha feedback. Viktigast för oss är att det är säkert för våra användare.

Med över 30 miljoner anmälda inlägg per månad och dessutom tiotusentals förfrågningar från myndigheter som vill veta vem som står bakom konton som brottsutreds, tar det förstås sin tid att försöka bringa ordning. Det vet alla, även - i sammanhanget små - svenska mediebolag som själva stängt ner sina artikelkommentarsfunktioner eller kraftigt begränsat tillgången till dessa, på grund av att det är så svårt att redaktöra allt näthat där.

 

Vad har ni lärt er av den senaste Vietnambildsdebatten? Borde ni ha reagerat snabbare? Undervärderade ni frågan? Denna bild har ju tagits bort förr, skillnaden nu var bara att en tidning och en regeringschef engagerade sig.

 

– Vi försöker alltid bli snabbare på att agera. Min önskan är alltid att om vi gör fel, så kan vi rätta oss direkt. Ibland tar det ett tag att känna till det. Som exempel: när du bestämmer dig för att en bild bryter, eller inte bryter, mot användarreglerna så måste du också säkerställa att när folk därefter laddar upp samma bild så måste vårt beslut bli detsamma. Och det tar en stund att säkerställa detta. Så en del handlar om att upptäcka att vi gjort fel, och en del om att korrigera oss.

 

På en global plattform, där europeiska användare har "vänner" i genomsnitt i 50 olika länder, försöker Facebook etablera gemensamma användarregler som ska utgöra en sorts lägstanivå som alla kan acceptera. Men är det ens möjligt? Jag är tveksam, och undrar om inte Facebook med sina ekonomiska, tekniska och personella resurser ändå borde kunna tillämpa mer nationella eller till och med lokala principer?

 

Nu är kanske inte de kulturella skillnaderna världen över som störst mellan just USA och Sverige, som Monika Bickert och jag kommer ifrån, men Facebook är ju ändå från ett land där många tycker att det är fel att kvinnor får göra abort men rätt att staten får avrätta sina egna medborgare. Jag älskar mycket med USA, men Mark Zuckerberg skapade Facebook i ett land där vuxna människor i en västerländsk demokrati vill gå runt beväpnade med revolvrar på gator och torg för att "skydda sig". Så: nog finns det utrymme för missförstånd, och om Facebooks användarvillkor blir till världens gemensamma tryckfrihetsförordning är det inte konstigt att det blir problem med att få förståelse för den överallt...

 

– Vi har ett världsomspännande community och måste ha regler som fungerar för alla användare. Och det kan vara svårt, för folk ser olika på saker på olika ställen i världen. Vi ska vara ett ställe där människor kan kommunicera med varandra, och man ska känna att det är ett säkert ställe. Att lära sig att bli en ansvarstagande digital medborgare är samma sak som att lära sig att uppträda korrekt i världen utanför nätet, säger Monika Bickert.

 

– De allra flesta som använder Facebook följer reglerna. De kommunicerar med sin familj och sina vänner och delar innehåll som de tycker om. Det är bara några få som bryter mot reglerna.