Section 230 och andra lagar för innehållsmoderering i världen

Introduktion

I takt med att internet har vuxit och företagen som är värd för (och modererar) användarinnehåll har blivit allt fler och spridit sig över hela världen, så blir det svårare att hålla koll på de olika ramverken och policyerna som företagen applicerar på innehållsmoderering. De skiljer sig ofta åt mellan olika företag och länder.
 
I USA formas mellanhänders policyval för yttranden – alltså sociala medieplattformar och andra webbplatser som är värd för användargenererat innehåll (User Generated Content, UGC) – efter tre lagar: det första tillägget i USA:s grundlag; 47 U.S.C. §230 (mer känd som Section 230); och Digital Millenium Copyright Act (DMCA).

Det första tillägget och Section 230

Det första tillägget skyddar plattformarnas rättighet att vara värd för yttranden, eller att inte vara det, utan ingripande från regeringen, med vissa undantag för några former av olagliga yttranden, som t.ex. barnpornografi. Regeringen kan med andra ord inte påverka en plattforms innehållspolicyer. 

Med det sagt så såg det annorlunda ut under internets tidigare år. Värdföretagen kunde då få allvarliga hot från privata aktörer som ville hålla dem ansvariga för innehåll som kunde bryta mot andra lagar, såsom förtalslagar. Under den perioden kunde förlikningskostnader sätta stopp för många nya tjänster innan de ens kom igång. Och ironiskt nog så kunde tjänster som aktivt modererade användargenererat innehåll vara mer utsatta för risker än de som inte modererade alls.
 
Section 230, som antogs som lag 1996, minskade den risken markant. Den skyddar i princip en mellanhand från ansvar för användargenererat innehåll och ger ytterligare skydd för att säkerställa att moderering från mellanhanden inte leder till ansvar.
 
Section 230 innehåller två viktiga statusar relaterat till innehållsmoderering och censur. Den första, (c)1, säger att ”Ingen leverantör eller användare av en interaktiv datortjänst ska behandlas som en utgivare eller yttrare av någon information som tillhandahålls av en annan tillhandahållare av informationsinnehåll”. Det innebär i princip att även om du är juridiskt ansvarig för vad du säger online så är det bara personerna som gör yttrandet som är ansvariga för vad de säger om du står värd för eller delar andra personers yttranden. Under Section 230 är det endast personen som gör olagliga yttranden online som är ansvarig för yttrandet, inte webbplatsen de lade upp yttrandet på, appen de delade yttrandet via, eller någon annan tredje part. Detta gäller oavsett om webbvärden är en stor plattform som Facebook eller om det är din personliga webbplats eller blogg.
 
Det finns dock vissa begränsningar – Section 230 skyddar inte mellanhänder från ansvar enligt federala brottslagar, och den skyddar inte mellanhänder från federala anspråk på immateriell egendom.
Section 230 gör det alltså möjligt för webbplatser och tjänster att vara värd för användargenererade yttranden och innehåll, och för användare att dela sina idéer – utan att de behöver skapa en egen individuell webbplats eller tjänst som skulle ha betydligt sämre räckvidd. Sedan den antogs 1996 har lagen bidragit till att skapa det internet-ekosystem som vi har idag där betydligt fler personer har tillgång till innehåll som andra skapar, än vad de hade haft utan lagen. Det är en av anledningarna till att vi har blomstrande communities online där användare kan kommentera och interagera med varandra utan att behöva vänta i flera timmar, eller till och med dagar, på att en moderator eller algoritm ska granska varje inlägg.
 
Section 230 bidrar också till att kontroversiellt, potentiellt problematiskt eller ”skadligt” innehåll inte övercensureras. Det är en kategori som ofta förändras över tid, kan präglas av politiska svängningar och påverkas av vilka åsikter man har. Censur på plattformar är ett allvarligt problem, men utan Section 230 kanske plattformar känner större påtryckningar att ta bort allt som kan uppfattas som kontroversiellt på grund av rädsla för indirekt ansvar. Detta skulle onekligen skada utsatta grupper vars röster marginaliseras i högre utsträckningar än andras. Censur har historiskt sett förstärkt befintliga obalanser i samhället – ibland avsiktligt och ibland indirekt. Resultatet har blivit att plattformar mer sannolikt censurerar oppositionella röster och utsatta personer.
 
Kort och gott: om du bryter mot lagen online så är det tack vare Section 230 du som bär ansvaret, inte webbplatsen, appen eller forumet där du sagt något olagligt. Detta gäller också om du vidarebefordrar ett mejl eller retweetar en tweet. Du skyddas av Section 230 om det senare visar sig att materialet är olagligt. Att dela innehåll och idéer är en av grundpelarna på internet. Det är en funktion som funnits i allt från Bulletin Board Services på 80-talet, Internet Relay Chats på 90-talet, forumen på 2000-talet och de sociala medieplattformarna vi använder idag. Section 230 skyddar samtliga av dessa mellanhandstjänster (och många fler). Även om Section 230 inte implementerades förrän 1996 så skapades den delvis för att skydda tjänsterna som fanns redan då – och de många andra tjänster som har kommit efter dem.

DMCA

Majoriteten av yttranden som tas bort beror på påstådda brott mot upphovsrätten, och de utförs enligt rutinerna som anges i Digital Millennium Copyright Act (DMCA).  
 
DMCA innehåller två huvudavsnitt. Bestämmelserna ”mot kringgående” (avsnitt 1201 et seq. i Copyright Act) förbjuder kringgång av åtkomstkontroller och tekniska skyddsåtgärder. Bestämmelserna om ”safe harbor” (avsnitt 512) skyddar tjänsteleverantörer som uppfyller särskilda villkor från ekonomiska skador för upphovsrättsbrott som orsakas av deras användare och andra tredje parter.
 
För att omfattas av skyddet måste tjänsteleverantörer följa villkoren som anges i avsnitt 512, inklusive rutinerna för ”anmälan och borttagning” som ger upphovsrättsinnehavare en snabb och enkel metod för att inaktivera åtkomst till material som eventuellt bryter mot upphovsrätten. Avsnitt 512 innehåller bestämmelser som ger användare rätt att bestrida felaktiga borttagningar. Utan dessa skydd skulle risken för potentiella upphovsrättsbrott förhindra många webbmellanhänder från att tillhandahålla värdtjänster och överföring av användargenererat innehåll. Därför har safe harbors, även om de inte är helt perfekta, varit avgörande för internets tillväxt som motor för innovation och yttrandefrihet. Med det sagt så missbrukas ofta DMCA för att ta bort lagligt innehåll.

Lagar i andra länder

Med tanke på hur många stora plattformar som har sin bas i USA så är det helt avgörande att man förstår det första tillägget och Section 230 om man vill förstå modereringspolicyer och förfaranden. Men vi kan inte blunda för hur innehållsmoderering påverkas av lagar i andra länder. Av Facebooks 2,79 miljarder globala användare (från februari 2021) befinner sig endast 228 miljoner i USA.

En stor majoritet av globala internetanvändare omfattas av modereringsramverk som grundats på strikta lokala lagar, även när företagen de använder har sina huvudkontor i USA. I andra länder spelar regeringar ofta en betydligt större, och farligare, roll vid fastställandet av policyer för innehållsmoderering.

Tysklands bristfälliga lag NetzDG som antogs 2018 kräver t.ex. att stora sociala medieplattformar snabbt ska ta bort ”olagligt innehåll” som definieras av över 20 olika brottskoder.  Den omfattande lagen tvingar moderatorer som potentiellt har en väldigt begränsad förståelse av innehållets kontext att fatta snabba beslut, annars riskerar företagen att få höga böter. Lagen kräver också att sociala medieplattformar med över två miljoner användare utser en lokal representant som ska fungera som en kontaktperson för brottsbekämpande myndigheter. Hen ska också ta emot borttagningsförfrågningar från offentliga myndigheter för innehåll på plattformen. Den kräver också att dessa företag tar bort eller inaktiverar innehåll som ser ut att vara ”uppenbart olagligt” inom 24 timmar från att de blivit varse om innehållet. Human Rights Watch har kritiserat lagen för att inskränka på Tysklands åtagande till yttrandefrihet.

Venezuela, Australien, Ryssland, Indien, Kenya, Filippinerna och Malaysia har följt sina egna lagar eller tagit fram lagförslag som liknar exemplet från Tyskland. Ett lagförslag i Indonesien skulle tvinga sociala medieplattformar, appar och andra tjänsteleverantörer online att acceptera lokal lagstiftning över sina egna rutiner och policyer för innehåll och användardata. Etiopiens strikta Computer Crime Proclamation och Hate Speech and Disinformation Prevention and Suppression Proclamation of 2020 kräver att plattformar poliserar innehåll genom att ge dem 24 timmar att ta bort desinformation eller hatiska uttalanden. Mauritius föreslog nyligen en lag som låter regeringen snappa upp trafik till sociala medieplattformar.
 
Listan är tyvärr lång: Singapore, inspirerade av Tysklands NetzDG, antog i maj 2019 Protection from Online Falsehoods and Manipulation Bill. Den gör att regeringen kan beordra plattformar att korrigera eller inaktivera innehåll, och de plattformar som inte följer förfrågningarna får höga böter som straff. En lag som nyligen antogs i Turkiet går långt bortom NetzDG eftersom den även omfattar nyhetssidor och inte bara sociala medieplattformar. I kombination med enorma böter och hot om att blockera åtkomst till webbplatser gör lagen också det möjligt för den turkiska regeringen att radera innehåll som är oliktänkande, kritiskt eller upproriskt.
 
Detta är bara en kort översikt över det juridiska landskapet inom innehållsmoderering. Besök avsnitt ”Spåra ett problem” på webbplatsen om du vill veta mer.