Tracking Global Online Censorship
Vi spårar hur innehållsmoderering påverkar yttrandefriheten i hela världen.

Innehållsmoderering: Vad är det?

content moderation info graphic

Innehållsmoderering innebär att man applicerar en uppsättning med förbestämda regler på innehåll som skapats av användare för att avgöra om innehållet är tillåtet eller inte. Alla plattformar och tjänsteleverantörer på internet modererar innehåll efter olika typer av regler. Reglerna är oftast en kombination av juridiska åtaganden och andra standarder som tillämpas för att främja en viss typ av community eller innehåll. Dokumenten som fastställer vilka regler som gäller för användare kallas oftast för användarvillkor och community-riktlinjer/-standarder. 

Hur flaggas innehåll för borttagning eller andra åtgärder?

Det finns huvudsakligen fyra sätt som används för att flagga innehåll för borttagning: Användarrapportering, regeringsförfrågningar, automatiserad flaggning och DMCA-förfrågningar. 

I det första fallet anmäler användare innehåll för att det bryter mot användarvillkoren eller community-riktlinjerna för den specifika tjänsten, och anmälan skickas då vidare till granskning. Användare får ofta svara på olika frågor som bidrar till att avgöra vilken regel de tror att innehållet bryter mot.

Den andra typen, regeringsförfrågningar, handlar om att regeringar skickar in borttagningsförfrågningar direkt till företag om att innehåll ska plockas bort. Regeringar kan skicka in juridiska eller brottsbekämpande förfrågningar till företaget. Ibland gör de detta via officiella kanaler (såsom när ett krav skickas in via domstol) och dessa förfrågningar granskas därefter internt för att kontrollera att de är giltiga enligt lag. Ibland granskar också företag regeringsförfrågningar om att ta bort innehåll för att se om de stämmer överens med företagets användarvillkor eller community-riktlinjer. Detta fenomen kallas ibland för ”borttagningsförfrågningar enligt plattformspolicy” eller ”frivillig regeringborttagning”. Vissa regeringar anlitar också personer vars arbetsuppgift är att använda rapporteringsfunktioner för användare för att ta bort innehåll. Plattformar är olika transparenta kring hur många direktförfrågningar de får från regeringar och hur många av dessa förfrågningar som godkänns.

Den tredje typen är automatiserad borttagning. Många företag använder automatisering för att flagga innehåll som senare granskas av en människa. Vissa använder även algoritmer för maskininlärning för att upptäcka och ta bort innehåll innan det ens publiceras. Den senare varianten används allt mer för att t.ex. ta bort innehåll kopplat till extremism. Innehåll som bryter mot upphovsrättslagar flaggas också rutinmässigt av ContentID.

Användare kan också skicka in en anmälan enligt Digital Millennium Copyright Act (DMCA) om de äger upphovsrätten till innehåll som har laddats upp av någon annan, eller om de representerar upphovsrättsägaren, och uppladdningen är olaglig. 

När innehållet har flaggats går det oftast vidare till granskning. Detta gäller eventuellt inte för innehåll som flaggats för upphovsrättsbrott.

När en granskningsprocess inleds för att utvärdera om det finns ett legitimt skäl till att ta ner innehåll som har flaggats för brott mot användarvillkoren eller community-riktlinjerna så finns det två metoder som brukar användas: granskning av en faktisk person och automatiserad granskning. Mänsklig granskning utgörs oftast av någon form av betalt arbete där personer går igenom en kö med tilldelat material och manuellt avgör om innehåller faktiskt bryter mot community-standarder eller lagar, och därav behöver plockas bort. Automatiserade granskningsprocesser är algoritmiska mekanismer som kontrollerar innehåll mot en databas av känt ”dåligt” innehåll och letar efter likheter med det innehållet. Ibland omfattar de automatiserade granskningarna en känsloanalys där algoritmen försöker avgöra innehållets emotionella tonfall. Eftersom både automatiserade och mänskliga granskningar kan leda till fel så utförs ofta flera granskningsomgångar där man kombinerar de två metoderna.

Vad händer med innehåll som bryter mot reglerna?

När innehåll har flaggats och granskats så är det dags att fatta ett beslut om hur man ska gå vidare. Om det fastställs att innehållet bryter mot användarvillkoren eller community-standarderna så tas det oftast bort från plattformen. Användaren som skapade innehållet får oftast ett meddelande om att innehållet har plockats bort. Fler åtgärder kan vidtas beroende på hur allvarlig överträdelsen är eller hur många gånger användaren har skapat opassande innehåll, såsom tillfällig avstängning av kontot eller avstängning på obestämd tid.

Om innehållet följer reglerna som anges i användarvillkoren och community-riktlinjerna så plockas det inte bort från plattformen. Det är sedan upp till plattformen att bestämma om innehållet ska märkas som ”immunt” mot framtida granskningar från plattformen (för att spara tid eller pengar).

Vissa företag använder också en form av innehållsmoderering som ligger mellan ”tillåt” och ”ta bort”. Dessa metoder är oftast dolda och användare får inte nödvändigtvis meddelanden om att åtgärder har vidtagits. De yttrar sig på flera olika sätt, men det kan t.ex. handla om att innehåll som flaggats av en användare helt enkelt inte visas för den specifika användaren längre. Demonetarisering av innehåll är ett annat känt exempel. Det innebär att en användare kan fortsätta lägga upp innehåll, men de kan inte visa annonser i innehållet. Det finns inte några tydliga riktlinjer för hur demonetariseringsprocessen fungerar, och det har gett upphov till diverse konspirationsteorier om att algoritmen döljer eller framhäver vissa typer av innehåll som ett sätt att kontrollera befolkningen.

Användarvillkor och community-riktlinjer

Tidigare nämnde vi att användarvillkoren beskriver vilka ansvar som användaren godkänner för att få delta i plattformen. Villkoren presenteras för användaren när kontot registreras. Användarvillkoren kompletteras ofta av community-riktlinjer eller -standarder. Riktlinjerna presenterar reglerna i ett mer läsvänligt format, men de innehåller också andra regler som, utöver plattformens åtagande att följa lagstiftning, begränsar andra beteenden som är lagliga.

Exempel: vissa typer av innehåll är direkt olagliga och har därför nolltolerans, såsom barnpornografi. Allt som faller inom någon av dessa kategorier plockas bort direkt och medför ibland straffåtgärder.

Annat innehåll, som t.ex. hatiska uttalanden, extremism, nakenbilder eller pornografi, är inte nödvändigtvis olagligt men de förbjuds ofta av plattformens community-riktlinjer. Vissa av dessa kategorier kan vara olagliga i vissa jurisdiktioner medan andra återspeglar företagets egna värderingar eller vedertagna normer. Plattformarna siktar ofta brett i sina begränsande åtgärder och tar bort allt innehåll som kan kräva ytterligare resurser att kategorisera.

Besök våra överklagningsguider om du vill veta mer om hur du överklagar att ditt innehåll har tagits bort.