اعترافاً بأن غالبية المستخدمين يترددون في الإعلان عن سماتهم الحساسة؛ مثل الجنس ولون البشرة، طوّر باحثون في جامعة ولاية بنسلفانيا الأميركية لعلوم وتكنولوجيا المعلومات إطاراً جديداً يأخذ السمات الحساسة لدى المستخدمين بعين الاعتبار، لمساعدة شبكات التواصل الاجتماعي على تقديم توصيات ومقترحات عادلة بعيداً عن التحيّز، وتمّ تقديم النموذج في المؤتمر الدولي الافتراضي لـACM حول البحث على الويب واستخراج البيانات.
التحيّز لدى الآلة
هل تساءلت يوماً كيف تقدم شبكات التواصل الاجتماعي؛ مثل فيسبوك ولينكد إن وغيرهما، توصيات بشأن الأشخاص الذين يجب عليك صداقتهم، أو الصفحات التي يجب عليك متابعتها؟ توجد خلف الكواليس نماذج التعلم الآلي التي تصنف العُقد بناءً على البيانات التي تحتويها حول المستخدمين؛ مثل مستوى التعليم أو الموقع أو الانتماء السياسي. تستخدم النماذج بعد ذلك هذه التصنيفات للتوصية بالأشخاص والصفحات لكل مستخدم، ولكن هناك تحيزٌ كبيرٌ في التوصيات التي قدمتها هذه النماذج، لأنها تعتمد على السمات الحساسة للمستخدم؛ مثل الجنس أو لون البشرة.
على سبيل المثال، تتيح أدوات الإعلان التفصيلية المضمنة في العديد من منصات وسائل التواصل الاجتماعي لدعاة التضليل، استغلال التحيز الآلي؛ من خلال تخصيص الرسائل للأشخاص الذين يميلون بالفعل إلى تصديقها، كما أنه إذا نقر المستخدم غالباً على روابط من مصدر إخباري معين على منصة فيسبوك على سبيل المثال، فسيميل فيسبوك إلى عرض المزيد من محتوى هذا الموقع لهذا الشخص؛ هذا ما يسمى بـ«تأثير فقاعة التصفية»، وقد يؤدي إلى عزل الأشخاص عن وجهات نظر متنوعة؛ مما يعزز التحيز.
تُظهر الأبحاث أن منصات الوسائط الاجتماعية تعرّض المستخدمين لمجموعة مصادر أقل تنوعاً من مواقع الوسائط غير الاجتماعية؛ مثل ويكيبيديا، وهذا على مستوى النظام الأساسي بأكمله، وليس على مستوى مستخدم واحد أو مجموعة معينة من المستخدمين. من المكونات المهمة الأخرى لوسائل التواصل الاجتماعي هي شيوع المعلومات على المنصة وفقاً لما يحصل على أكبر عدد من النقرات؛ فالخوارزمية المصممة للترويج للمحتوى الشائع، قد تؤثر سلباً على الجودة الإجمالية للمعلومات على النظام الأساسي؛ مما يغذي التحيّز المعرفي الموجود بالفعل، ويزيد من انتشار الأمر الشائع بغض النظر عن جودته أو صحته.
كل هذه التحيزات الخوارزمية يمكن التلاعب بها بواسطة برامج الروبوت الاجتماعية، وبرامج الكمبيوتر التي تتفاعل مع البشر من خلال حسابات وسائل التواصل الاجتماعي. معظم الروبوتات الاجتماعية؛ مثل حساب «ساعة بيج بن» على تويتر، غير ضارة، لكن مع ذلك، يخفي بعضها طبيعته الحقيقية، ويُستخدم للنوايا الخبيثة.
نموذج آلي جديد غير متحيّز
لقد تم الإبلاغ على نطاق واسع عن أن الناس يميلون إلى بناء علاقات مع أولئك الذين يتشاركون نفس السمات الحساسة؛ مثل الأعمار والمناطق. هناك بعض نماذج التعلم الآلي الحالية التي تهدف إلى القضاء على التحيز، ولكنها تتطلب إدخال السمات الحساسة للأشخاص لجعلها عادلةً ودقيقة. مع ذلك، يقترح الباحثون تطبيق نموذج آخر؛ أسموه «FairGNN»، بناءً على البيانات الأخرى المُدخلة، عوضاً السمات الحساسة القليلة جداً الموجودة؛ والتي يمكن أن تكون كافية بدورها لإعطاء تنبؤات عادلة تجاه السمات الحساسة؛ مثل جنسك ولون بشرتك.
قام الباحثون بتدريب نموذجهم باستخدام مجموعتين من البيانات الواقعية؛ ملفات تعريف المستخدمين على «Pokec»؛ وهي شبكة اجتماعية شهيرة في سلوفاكيا، على غرار فيسبوك وتويتر، ومجموعة بيانات لما يقرب من 400 لاعب كرة سلة في الدوري الأميركي للمحترفين. في مجموعة بيانات «Pokec»، تعاملوا مع المنطقة التي ينتمي إليها كل مستخدم كسمة حساسة، وقاموا بتعيين مهمة التصنيف للتنبؤ بمجال عمل المستخدمين، أما في بيانات الدوري الأميركي للمحترفين، حددوا اللاعبين على أنهم لاعبون في الولايات المتحدة أو خارجها، مستخدمين الموقع كسمة حساسة مع مهمة التصنيف للتنبؤ بما إذا كان راتب كل لاعب فوق المتوسط.
ثم استخدموا نفس مجموعات البيانات لاختبار نموذجهم بأساليب أخرى متطورة من أجل التصنيف العادل؛ إذ قاموا أولاً بتقييم نموذجهم من حيث الإنصاف وأداء التصنيف. بعد ذلك، أجروا دراساتٍ تزيل مكونات معينة من النموذج تباعاً؛ ذلك لاختبار أهمية كل مكون للنظام العام، بهدف تعزيز النموذج بشكل أكبر وتحديد الأولويات، ثم قاموا باختبار ما إذا كان النموذج فعالاً عند توفير كميات مختلفة من السمات الحساسة في المجموعة المختبرة.
وتُظهر التجربة أن أداء التصنيف لم ينخفض، كما تمكّن الباحثون من جعل النموذج أكثر عدلاً فيما يتعلق بالإنصاف، ويمكن أن يكون لإطار العمل هذا تأثيراً على حالات استخدام أخرى في العالم الحقيقي؛ فقد تكون النتائج التي توصل الباحثون إليها مفيدةً في الطلبات؛ مثل تصنيف المتقدمين للوظائف، أو الكشف عن الجرائم، أو في طلبات القروض المالية؛ وهي مجالات لا مكان للتحيز فيها، لذلك يجب تقديم تنبؤات دقيقة مع الحفاظ على الإنصاف.