Tracking Global Online Censorship
تتبّع تأثير الإشراف على المحتوى على حرية التعبير في جميع أنحاء العالم

الإشراف على المحتوى: ما هو؟

content moderation info graphic

يتمثّل الإشراف على المحتوى في تطبيق مجموعة من القواعد المحدّدة مسبقاً على المحتوى الذي يُنشِئه المستخدم/ة، من أجل تحديد ما إذا كان هذا المحتوى مسموحاً به أم لا. تقوم جميع المنصّات ومزوّدي خدمات الإنترنت بإدارة عملية الإِشراف على المحتوى وفقاً لعدد من القواعد المختلفة التي تدمج عادةً بين الالتزامات القانونية ومعايير أخرى تضعها الشركات بهدف محاولة حماية مجتمعات معيّنة أو محتوى معيّن. أمّا المستندات التي يمكن للمستخدم/ة الاطّلاع فيها على هذه القواعد، فغالباً ما تُسمّى باتّفاقيات "شروط الخدمة" (Terms of Service) و"إرشادات المجتمع" (Community Guidelines) أو "معايير المجتمع" (Community Standards).

كيف يُحدّد المحتوى تمهيداً لإزالته أو اتّخاذ إجراءات أخرى بشأنه؟

ثمّة أربع طرق رئيسية لتحديد المحتوى تمهيداً لإزالته: الإبلاغ عن المحتوى من قبل المستخدمين/ات، والطلبات الحكومية، وتمييز المحتوى آلياً، والطلبات وفقاً لـ"قانون الألفية الجديدة لحقوق نشر المواد الرقمية" (DMCA).

في الحالة الأولى، يبلِّغ المستخدم/ة عن محتوى ما على أنّه ينتهك "شروط الخدمة" أو "إرشادات المجتمع" على منصّة معينة، ثمّ يُرسَل هذا البلاغ إلى الجهة المختصّة لكي تراجعه. وفي هذه الحالة، غالباً ما يحتاج المستخدم/ة إلى الإجابة عن سلسلة من الأسئلة للمساعدة في تحديد القاعدة التي يعتقد أنّ المحتوى انتهكها.

وفي الحالة الثانية، أي الطلبات الحكومية، فهي تعني إرسال الحكومات طلبات إزالة المحتوى إلى الشركات مباشرةً. يمكن للحكومات أن تتقدّم بطلبات قضائية أو طلبات لإنفاذ القانون عبر قنوات رسمية (أمر قضائي صادر عن سلطة قضائية مختصّة)، ثمّ تراجع الشركات هذه الطلبات امتثالاً للقانون. وفي أحيان أخرى،  تعمد الشركات من تلقاء نفسها إلى مراجعة الطلبات الحكومية لإزالة المحتوى بموجب "شروط الخدمة" أو "إرشادات المجتمع" الخاصّة بها، وهي ظاهرة يُشار إليها في بعض الأحيان باسم "طلبات إزالة المحتوى وفقاً لسياسات المنصّة" (platform policy takedown requests) أو باسم "إزالة المحتوى طوعياً بناءً على الطلبات الحكومية" (voluntary government takedowns). من ناحية أخرى، تلجأ بعض الحكومات إلى توظيف أشخاص من أجل استغلال خاصية الإبلاغ المتاحة للمستخدمين/ات، في محاولةٍ منها لإزالة المحتوى المستهدَف. وفيما يتعلّق بالشفافية بشأن الطلبات الحكومية، تتفاوت درجة شفافية المنصّات حول طلبات الإزالة التي تتلقّاها من الحكومات مباشرةً وكذلك حول عدد الطلبات التي التزمت بها لإزالة المحتوى.

بالنسبة إلى النوع الثالث من الإشراف على المحتوى، أي إزالة المحتوى آلياً، يلجأ الكثير من الشركات إلى استخدام الأتمتة من أجل تمييز المحتوى آلياً لكي تجري مراجعته لاحقاً من قبل موظّف بشري. بالإضافة إلى ذلك، يستخدم بعض الشركات خوارزميات التعلّم الآلي من أجل تحديد المحتوى وإزالته حتّى قبل نشره، وهي طريقة يزداد استخدامها في حالات مثل تحديد المحتوى المتطرّف آلياً وإزالته. أمّا المحتوى الخاضع للقيود المتعلّقة بحقوق النشر، فهو عادةً ما يُميّز باستخدام تقنية "هوية المحتوى" (Content ID).

في الحالة الأخيرة المتعلّقة بحقوق النشر، يمكن للمستخدمين/ات، أو وكيل صاحب/ة حقوق النشر، الإبلاغ عن المحتوى بموجب ""قانون الألفية الجديدة لحقوق طبع ونشر المواد الرقمية" (DMCA) في حال كانوا يمتلكون حقوق النشر للمحتوى الذي رفَعَه شخص آخر وكان تحميل هذا المحتوى غير قانوني.

يخضع المحتوى الذي يجري تمييزه في مختلف الحالات للمراجعة في العادة، وهو ما قد لا ينطبق بالضرورة على المحتوى الذي يبلّغ عنه بأنّه ينتهك حقوق النشر.

وبعد انطلاق عملية المراجعة للتحقّ من وجود سبب شرعي لإزالة المحتوى الذي جرى تمييزه على أنّه ينتهك "شروط الاستخدام" أو "إرشادات المجتمع"، تتّبع المنصّات طريقتين شائعتين، وهما: المراجعة من قبل شخص حقيقي، والمراجعة الآلية.

في العادة، تكون المراجعة التي يجريها شخص حقيقي نوعاً من العمالة المأجورة، بحيث يطّلع مديرو/ات المحتوى على القوائم التي تضمّ المحتوى المبلّغ عنه من أجل تحديد ما إذا كان المحتوى قد انتهك فعلاً "معايير المجتمع" أو أيّاً من القواعد القانونية، وبالتالي اختيار إزالته أو إبقائه. أمّا عمليات المراجعة الآلية، فتقوم على فحص الخوارزميات للمحتوى في قواعد بيانات مخصّصة للمحتوى "السيئ" وتبحث عن أوجه التشابه فيها. وفي بعض الأحيان، تحاول هذه الخوارزميات تحليل المشاعر بحيث تسعى إلى تحديد الشعور أو المزاج في المحتوى. ونظراً إلى أنّ كلّاً من المراجعة البشرية والآلية قد يكونان عرضة للخطأ، قد تراجع المنصّات المحتوى وفقاً للطريقتين البشرية والآلية في الوقت نفسه.

ماذا يحدث للمحتوى الذي ينتهك القواعد؟

بعد الإبلاغ عن المحتوى ومراجعته، يأتي وقت اتّخاذ القرار بشأنه. ففي حال تقرّر أنّ المحتوى ينتهك "شروط الاستخدام" أو "إرشادات المجتمع"، غالباً ما يُزال من المنصّة، في وقتٍ ترسل الأخيرة نوعاً من الإشعار إلى المستخدم/ة تبلغه/ا فيه باتّخاذ إجراء بحقّ محتواه/ا من أجل إزالته. وقد تلجأ المنصّات إلى اتّخاذ إجراءات عقابية إضافية بناءً على خطورة الانتهاك أو عدد المرّات التي نشر فيها المستخدم/ة محتوى غير لائق، مثل تعليق الحساب مؤقتاً أو حظره إلى أجل غير مسمّى.

أمّا في حال رأت المنصّة أنّ المحتوى لا يخالف "شروط الاستخدام" أو "إرشادات المجتمع"، فهي تسمح ببقائه، في حين يبقى قرار "تحصين" المحتوى ضدّ المزيد من المراجعات (من أجل توفير الوقت والمال) بيد المنصّة نفسها.

من جهة ثانية، يعمد بعض الشركات إلى تطبيق أشكال من الإشراف على المحتوى تقع في منطقة رمادية بين "السماح بالمحتوى" و"إزالته"، في حين تُبقي على سرّية هذه الإجراءات في أغلب الأحيان إلى حدّ أنّها قد لا ترسل إلى المستخدم/ة إشعاراً يناسب الحالة. تطبّق الشركات هذه الإجراءات بطرق مختلفة، مثل إخفاء المحتوى الذي أَبلَغ عنه مستخدم/ة ما وعدم إظهاره له/ا؛ أو مثل منع المستخدم/ة من تحقيق دخلٍ من المحتوى، بحيث يُسمح له/ا بمواصلة النشر ومنعه/ا في الوقت نفسه من الترويج للمحتوى باستخدام الإعلانات المدفوعة. ومع ذلك، فإنّ هذا الخيار "الوسطي" الذي لا يخرج بنتيجة محدّدة لمراجعة المحتوى، قد يؤدّي إلى تعزيز نظريات المؤامرة حول القوى الخارقة للخوارزمية التي تقمع أو تعزّز أنواعاً معيّنة من المحتوى باعتبارها رقابة ملطَّفة.

"شروط الاستخدام" مقابل "إرشادات المجتمع"

كما ذكرنا سابقاً، يحدّد مستند "شروط الاستخدام" الواجبات والمسؤوليات الملقاة على عاتق المستخدم/ة عند استخدام المنصّة. يُعرَض هذا المستند على المستخدم/ة عند إنشاء الحساب، ثمّ يُتبَع بمستند "إرشادات المجتمع" أو "معايير المجتمع" الذي يستعرض  القواعد بطريقة أبسط وأسهل للقراءة، ولكنّه غالباً ما يقدّم قواعد أخرى تقيّد بعض السلوك القانوني بسبب محاولة المنصّة للالتزام بالقانون.

على سبيل المثال، تُعتبر بعض أنواع المحتوى غير قانونية بالكامل، ولا يجري التسامح معها بتاتاً، مثل مواد الاعتداء الجنسي على الأطفال. وكلّ شيء يندرج بوضوح ضمن إحدى هذه الفئات يكون قابلاً للإزالة وقد يُعرّض صاحبه/ا إلى إجراءات عقابية أحياناً.

أمّا المحتوى الآخر، مثل خطاب الكراهية، والتطرّف، والعريّ، والمواد الإباحية، لا يُعتبر بالضرورة غير قانوني، ولكنّه يُحظر في أغلب الأحيان بموجب "إرشادات المجتمع" الخاصّة بالمنصّة. قد تصنّف هذه الأنواع من المحتوى على أنّها غير قانونية في بعض الولايات القضائية، في حين قد يعكس بعض الإجراءات الأخرى قيم الشركة والتزامها بالأعراف المقبولة. ومع ذلك، غالباً ما تستخدم المنصّات عبارات فضفاضة لوصف الإجراءات التقييدية وإزالة أيّ محتوى قد يتطلّب تصنيفه المزيد من الموارد.

للمزيد من المعلومات حول الطعن بقرارات إزالة المحتوى، زوروا دليل الطعن بقرارات إزالة المحتوى الخاصّ بنا.