فيسبوك تعيّن 3000 مراقب محتوى جديد لأداء عمل لا يستطيع الذكاء الاصطناعي أداءه

3 دقائق
لافتة الدخول للمقر الرئيسي لشركة فيسبوك المقر الرئيسي لفيسبوك ويكيميديا كومونز، لا توجد حقوق نشر

أعلن مارك زوكربيرغ أن فيسبوك ستعين 3,000 شخص للعمل في فريق العمليات المجتمعية، والذي يقوم بتفحص الصور، والفيديوهات، والمنشورات التي تتعرض للتبليغ. وسينضم هؤلاء العاملون الجدد إلى الفريق الأصلي المكون من 4,500 شخص، وذلك في محاولة للتخفيف من أثر الأحداث المشابهة لمقتل روبرت غودوين. إنه استثمار كبير ومهم لفيسبوك، ولكنه يثير سؤالاً هاماً: أليس من الممكن أتمتة هذا العمل؟

إن مقدار هذا العمل كبير للغاية: حيث تعتمد فيسبوك على عدد من الأشخاص يفوق ما في غرف الأخبار في نيويورك تايمز ومجلة وول ستريت وصحيفة الواشنطن بوست معاً. لم تصرح فيسبوك هذه المرة عما إذا كان العاملون الجدد موظفين أو متعاقدين، وما إذا كانوا سيعملون ضمن الولايات المتحدة أو في الخارج. (أتشعر بالفضول حول ماهية هذا العمل؟ يمكنك أن تقرأ مادة صحفية معمقة لأدريان تشين حول مراقبة المحتوى من 2014، أو يمكنك البحث عن بعض الفيديوهات التي تتحدث عن هذا الموضوع).

كتب زوكربيرغ المدير التنفيذي لفيسبوك قائلاً: "سيساعدنا هؤلاء المراقبون أيضاً على تحسين قدرتنا على حذف الأشياء التي لا نسمح بوجودها على فيسبوك، مثل التحريض على الكراهية أو استغلال الأطفال. وسنستمر بالعمل مع مجموعات العمل الأهلي المحلية والسلطات الأمنية المستعدة دائماً لتقديم المساعدة لأي شخص عند الضرورة، إما لأنه على وشك إيذاء نفسه أو إذا كان معرضاً للخطر من قبل شخص آخر". (مع التأكيد على الناحية الثانية).

الدافع غير المعلن لهذا الإجراء هو مقتل روبرت غودوين في 16 أبريل في كليفلاند. ووفقاً لجدول زمني من فيسبوك، قام رجل في الساعة 2:09 بتوقيت الساحل الشرقي للولايات المتحدة يوم 16 أبريل بتحميل مقطع فيديو يصرح فيه عن نيته بارتكاب جريمة قتل. وبعد دقيقتين، قام الرجل بتحميل فيديو يظهر فيه وهو يطلق النار على غودوين. وبعد هذا بفترة قصيرة، ظهر المشتبه به في بث حي على فيسبوك لمدة خمس دقائق. تم التبليغ عن فيديو الجريمة الساعة 4 ظهراً، وبحلول الساعة 4:22 تم تعطيل حساب المستخدم وحجب فيديوهاته عن العموم. أي أن الفاصل الزمني ما بين المنشور الأول وتعطيل الحساب أكثر من ساعتين بقليل، غير أن الانتشار الواسع لفيسبوك، وفظاعة الجريمة، جعلا الخبر يتنشر على المستوى الوطني.

يوجد جزء من المحتوى يقوم موقع فيسبوك بإزالته فورياً عند التحميل. حيث تستخدم الشركة أنظمة مؤتمتة لكشف الصور العارية والإباحية التي تمت إزالتها سابقاً عند تحميلها لمرة ثانية. كما تستخدم الشبكة الاجتماعية أيضاً فوتو دي إن أي، وهي أداة تقوم بمقارنة الصور مع قاعدة بيانات تتضمن العلامات المميزة لصور استغلال الأطفال، حتى يمكن حجب هذه الصور والتبليغ عنها إلى السلطات القانونية المختصة. وفي كلا الحالتين، تقوم العملية المؤتمتة على المقارنة مع أشياء معروفة مسبقاً.

تنحصر مهمة معظم العمليات المؤتمتة بمساعدة مراقبي المحتوى البشريين. إذا تم التبليغ عن محتوى ما لألف مرة، تميز هذه الأدوات التكرار في التبليغ بحيث لا تفحص بشرياً إلا مرة واحدة. تقوم أدوات أخرى بتوجيه الصور، والمنشورات، والفيديوهات إلى المراقبين ذوي اختصاصات محددة. على سبيل المثال، يمكن لمراقب يتكلم العربية أن يتفحص محتوى مشبوهاً من مجموعة متطرفة في سوريا قد تكون انتهكت شروط الخدمة من فيسبوك.

على الرغم من هذا، فإن الكلمة الأولى والأخيرة هي للقدرة البشرية على الحكم على المحتوى من خلال فهم السياق. ولتحديد ما إذا كان المحتوى يتضمن كراهية أو تعدياً، تعتمد فيسبوك على أشخاص حقيقيين. وفي حالة البث المباشر، يوجد فريق خاص لمراقبة التبليغات حول البث المباشر، بحيث تقوم المجموعة تلقائياً بمراقبة أي فيديو مباشر يصل إلى مستوى محدد وغير معلن من الانتشار والشعبية.

هناك مجال واحد تعطي فيه فيسبوك للذكاء الاصطناعي دوراً أكثر أهمية. ففي مارس، أطلقت الشبكة أداة بالذكاء الاصطناعي لمنع الانتحار، بحيث تقوم بتحديد المنشورات التي تبدو كأنها قد تشير إلى أفكار انتحارية. ويورد موقع بازفيد أن هذا الذكاء الاصطناعي قادر على مسح المنشورات والتعليقات بحثاً عن تشابهات مع منشورات سابقة تطلبت التدخل. وفي بعض الحالات النادرة، سيقوم الذكاء الاصطناعي بإنذار المراقبين مباشرة، ولكن في أغلب الأحيان، سيعرض للمستخدمين أدوات لمنع الانتحار مثل رقم هاتف مخصص للمساعدة. إضافة إلى هذا، يزيد الذكاء الاصطناعي من بروز زر التبليغ عن الإيذاء الذاتي لدى أصدقاء الشخص المعني، ما يزيد من احتمال أن يقوموا بالتبليغ عن الفيديو لمراقبي فيسبوك البشريين. (رفضت الشركة التعليق على سجل حادثة غودوين).

من المرجح أن البديل الأفضل للمراقبة البشرية هو الحذف الاستباقي. تقول كيت كلونيك، زميلة مقيمة في مشروع مجتمع المعلومات في جامعة يال: "هل نرغب فعلاً بزيادة الحذف على فيسبوك؟ عندما نضع نظاماً صارماً للغاية موضع العمل، فمن المحتمل أن المشرفين عليه ليسوا مدربين بشكل صحيح، وأنه سيكون هناك الكثير من التقييمات الخاطئة، وزيادة كبيرة في الحذف."

يركز عمل كلونيك على فيسبوك وغيره من المنصات بوصفها أنظمة تتحكم بالتعبير على الإنترنت. يجب على فيسبوك أن تتخذ خيارات فاعلة حول كيفية تنظيم ما يمكن نشره وما يمكن الإبقاء عليه، كما تقول كلونيك، ولا يوجد خوارزمية سحرية يمكن أن تحول هذا الموضوع من مشكلة تعبير إلى مسألة تقنية بحتة.

تقول كلونيك: "لن نحصل على ذكاء اصطناعي قادر على اتخاذ قرار بخصوص هذه المشاكل المعقدة قبل سنوات. إنها ليست مجرد مسألة تعرف على الصور وحسب. بل هي مسألة تعرف على الصور، اتخاذ قرار وتصنيف، وهي معضلات إدراكية معقدة، ولم نقترب حتى من تحقيقها آلياً بشكل موثوق".

إن مسألة التعرف على الصور شهيرة للغاية في مجال برمجة الحواسيب لدرجة أنها أصبحت أشبه بالأمثولة. ففي عام 1966، اقترح سيمور بابيرت في إم آي تي ما ظنه مشروعاً صيفياً بسيطاً: تدريب حاسوب على التعرف على الأشياء. وبدلاً من إنهائه في فترة الصيف، تحول موضوع تدريب الحواسيب على التعرف على الأشياء إلى مهمة جسيمة، لم تنته حتى اليوم، وتخصص شركات مثل غوغل وفيسبوك الكثير من الجهد والمال للبحث عن حلول لها. تقول كلونيك: "بالنسبة للمستقبل المنظور، ليست هذه مشكلة ذكاء اصطناعي، ولا يمكن حلها بالذكاء الاصطناعي".

المحتوى محمي