فيسبوك عاجزة عن حل مشاكل خطاب الكراهية باستخدام الأتمتة

الصورة: موريزيو بيشي/ ويكيميديا كومونز.
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

كيف من المفترض أن يتحدث الناس معاً على الإنترنت؟ بالنسبة لفيسبوك، يعتبر هذا السؤال عملياتياً بقدر ما هو فلسفي.

في الأسبوع الماضي، أعلنت فيسبوك وصول عدد مستخدميها إلى مليارين، أي تقريباً 27% من عدد سكان العالم البالغ 7.5 مليار. وفي منشور ضمن مدونة “الأسئلة الصعبة” على فيسبوك، قدمت الشركة نظرة إلى المنطق الداخلي لتعاملها مع خطاب الكراهية، وذلك قبل يوم واحد من نشر مجموعة بروبوبليكا الإخبارية لقصة حول ما يبدو أنه تطبيق لهذه المعايير بشكل يوحي بالنفاق. وبأخذها بعين الاعتبار، يبدو أن محاولة فيسبوك لتنظيم الخطاب تبدو مستحيلة.

ليست اللغة بالأمر السهل. حيث أن الذكاء الاصطناعي المدرب على اللغة البشرية، على سبيل المثال، سيكرر نفس تحيزات المستخدمين فقط بتفحص كيفية استخدام الكلمات بالنسبة لبعضها. ويمكن لنفس الكلمة، في نفس الجملة، أن تعني أشياء مختلفة وفقاً لهوية المستخدم، وهوية الشخص الذي يوجه له الخطاب، وحتى أسلوب الحوار. وهذا حتى بدون أن نأخذ بعين الاعتبار التعاريف المتعددة لكل كلمة.

يكتب ريتشارد آلن، نائب الرئيس في فيسبوك للسياسات العلنية في أوروبا والشرق الأوسط وأفريقيا: “ماذا تعني عبارة: أحرقوا الأعلام، لا المخنثين؟ قد تبدو عبارة مستفزة ظاهرياً، ولكن هل يجب أن تصنف كخطاب كراهية؟ على سبيل المثال، أهي هجوم على الشواذ، أو محاولة لإعادة صياغة المصطلح؟ أهي محاولة لاستثارة الاحتجاجات بحرق الأعلام. أو، إذا كان المتكلم أو المستمعون من بريطانيا، أهي محاولة لتشجيع الناس على ترك تدخين السجائر؟ (حيث أنه تستخدم نفس الكلمة الشائعة للسجائر والمخنثين). حتى نحدد ما إذا كان هذا خطاب كراهية، نحتاج لسياق أكثر”.

بعد التواصل مع ناطق باسم فيسبوك للتعليق على الموضوع، أكد الناطق أن المنشور على المدونة لا يمثل أية سياسة جديدة، بل هو ببساطة نظرة شفافة إلى منطق تعامل فيسبوك مع خطاب الكراهية.

تقول كيت كلونيك، زميلة مقيمة في مشروع المعلومات المجتمعية في جامعة يال: “يريد الناس حذف أشياء محددة، ويريدون أن يمارسوا حق التعبير عن النفس. ويرغبون بوجود فلتر مثالي لإزالة الأشياء التي تنتمي إلى خطاب الكراهية أو العنصرية أو التحيز الجنسي أو التي تنطوي على إهانات بالغة”.

من الأسباب الأخرى التي قد تدعو فيسبوك إلى توضيح طريقتها للتعامل مع خطاب الكراهية هي تسريب مجموعة من الوثائق الداخلية إلى صحيفة الجارديان، ما دفع لدوره آخرين إلى التبليغ عن توجيهات فيسبوك عما يجب إزالته أو تركه.

أوردت بروبوبليكا: “وفقاً لإحدى الوثائق، يمكن وصف المهاجرين بالقذرين، ولكن لا يمكن تسميتهم بالقذارات. أي أنه لا يمكن ربطهم بالقذارات أو الداء (إذا كانت المقارنة بصيغة الاسم)، كما تقول الوثيقة”.

تدرس كلونيك كيف تدير فيسبوك المستخدمين، وعلى الرغم من أن الأساليب التي عرضت في المدونة ليست بالجديدة، فإن الشفافية بحذ ذاتها جديدة. تقول كلونيك: “لم يعد حدوث هذا سراً. أصبح من المعلوم أن صوتك وتعابيرك يتم تعديلها من خلف الكواليس”. بالنسبة لكلونيك، فإن البدء بالكشف عما يحدث في الداخل يدل على أن فيسبوك تحاول استباق الانتقادات حول اختيارها لكيفية تعديل الخطاب.

غير أنه لا يوجد ما يدل على أن فيسبوك مضطرة لتنظيم الخطاب بشكل يفوق ما هو مطلوب منها وفق القوانين النافذة في البلدان التي تعمل فيها، كما تفعل حالياً. تتعلق عدة أمثلة في منشور الأسئلة الصعبة بالسياق: هل الشخص يحاول إعادة صياغة مصطلح مسيء سابقاً، أم أنها نكتة بين الأصدقاء، أو هجوم من غريب على عضو من مجموعة محمية؟ ولكن ماذا سيحدث إذا حولت الحرب فجأة أحد المصطلحات من مصطلح يستخدم بشكل عادي إلى شيء يعبر عن خطاب كراهية؟

من الأمثلة الواردة في المدونة، كيفية معالجة فيسبوك لكلمة “موسكال”، وهي كلمة أوكرانية عامية تدل على الروس، وكلمة “خوخول”، وهي كلمة روسية عامية تدل على الأوكرانيين. عندما اندلع نزاع بين روسيا وأوكرانيا في 2014، بدأ الناس في كلا البلدين بالتبليغ عن استخدام هاتين الكلمتين كخطاب كراهية. واستجابة لهذا، يقول آلن: “أجرينا مراجعة داخلية، واستنتجنا أنهم كانوا محقين. فبدأنا بإزالة كلا الكلمتين، وهو قرار لم يلاق شعبية لدى الجانبين في البداية، لأنه بدا متشدداً للغاية، ولكنه بدا ضرورياً في سياق النزاع القائم”.

من إحدى ميزات التبليغات في المواقع هي إمكانية التبليغ عن الأشخاص الذين لا تتفق معهم ببساطة، وذلك للطلب من الموقع أن يحذف كلام هؤلاء الخصوم الإيديولوجيين. ومع تحول المصطلحات الاعتيادية إلى مصطلحات مسيئة في خضم الحرب، يبدو أن فيسبوك اختارت محاولة أن تتدخل لتهدئة التوترات، وذلك بحذف المنشورات الحاوية على الكلمات المسيئة.

تقول جيليان يورك، مديرة حرية التعبير الدولية في منظمة الجبهة الإلكترونية: “أعتقد أن هذا المثال كان مثيراً للاهتمام، لأنه يعبر بوضوح عن أن القرار لاقى رفضاً من كلا الجانبين. وهو تقييم يعود إلى المعايير بشكل أساسي، حيث أن فيسبوك لم تتخذ هذا القرار لأن الناس كانوا يقتلون بعضهم بسبب هذا التعبير، واتخذ هذا القرار لحمايتها من المسائلة، بل أن فيسبوك قررت أن هذا الخيار الأفضل للجميع على الرغم من معارضة كلا الجانبين”.

على الرغم من أن فيسبوك، في المحصلة، هي من تحدد السياسات لما يجب حذفه وتركه، فإن هذا العمل يقوم به بشر، وكما في حالة مراقبة فيسبوك للفيديو، فإن هذا العمل سيبقى خاضعاً للإشراف البشري المباشر في المستقبل المنظور.

تقول كلونيك: “يعتقد الناس أنه من السهل أتمتة هذا الأمر، وأعتقد شخصياً أن هذا المنشور يوضح مدى صعوبة تحقيق هذا الآن، ومدى بعدنا عن تحقيق هذه الأتمتة. هناك عمليات تقييم بشرية صعبة، ولن نستطيع جعلها آلية قبل سنوات عديدة. ويمكن أن نرى السبب في هذه الأمثلة التي أوردها ريتشارد آلن في منشوره”.

مرة أخرى، تضع فيسبوك القواعد والمعايير للخطاب لحوالي ربع سكان العالم، وهو أمر لم تقترب منه أو تتجاوزه سوى بضعة حكومات على مر التاريخ (من الاستثناءات النادرة، بلاد فارس القديمة). ونظراً لضخامة هذه المهمة، فإنه من المهم أن نتفحص معايير هذا العمل، وليس فقط طريقة أدائه.

تقول يورك: “بأخذ المقياس بعين الاعتبار، فإن مراقبة وتنظيم المحتوى لملياري شخص أمر مستحيل. إذاً لماذا تختار فيسبوك أن تكون أكثر تشدداً من القانون؟ لماذا تحاول فيسبوك أن تلعب دور منظم العالم؟”: