دعا معهد «AI Now»، وهو مركز أبحاث متعدد التخصصات يدرس الآثار الاجتماعية للذكاء الاصطناعي، في تقريره السنوي الأخير إلى حظر التكنولوجيا المُصممة للتعرّف على عواطف الناس في حالاتٍ معينة. وتحديداً تقنية التعرّف على العواطف، حيث يقول الباحثون أنه لا ينبغي استخدامها لاتخاذ قراراتٍ تؤثّر على حياة الناس والفرص المُتاحة أمامهم، مثل قرارات التوظيف أو تقييم الألم، لأنها ليست دقيقة بما فيه الكفاية ويمكن أن تؤدي إلى قراراتٍ متحيزة. إذاً، ما هي هذه التكنولوجيا التي تُستخدم ويتم الترويج لها حالياً، ولماذا تثير القلق؟
تطور تكنولوجيا التعرّف على الوجه
لعقدٍ من الزمن على الأقل، عَمل الباحثون بنشاطٍ على خوارزميات التعرّف على الوجوه لتتمكّن من تحديد عواطف البشر ومكنوناتهم الداخلية بالتزامن مع تطوير مؤشراتٍ دلاليةٍ أخرى. في الحقيقة، تعود البدايات الأولى لاستخدام هذه التقنية إلى عام 2003، وقد كان باستطاعة الكمبيوتر فهم المشاعر البشرية حتّى قبل ذلك بزمنٍ طويل، بينما تعتمد التقنية الأخيرة على تقنيات "تركيز البيانات" المعروفة باسم "التعلّم الآلي"، وهي خوارزمياتٌ تقوم بمعالجة البيانات من أجل "تعلّم" كيفية اتخاذ القرارات، ويمكنها أن تكون ذا دقّةٍ عالية في تقنيات الكشف عن الأثر.
تحدّي قراءة العواطف
يحاول الباحثون دائماً تطوير تقنياتٍ جديدة اعتماداً على ما أُنجز وما اُكتشف سابقاً. وتُعتبر قراءة العواطف أمراً جذّاباً لأننا كبشرٍ نتقن هذا الأمر نسبياً حتى في سنٍّ مبكرة، ومع ذلك، فإن قيام الكمبيوتر بأداء مثل هذه المهارات البشرية لا يزال يمثّل تحدّياً صعباً. وبالرغم من إمكانية القيام ببعض الأشياء المميزة فيما يتعلّق بالصور، مثل التلاعب بها لتبدو وكأنّ فناناً مشهوراً رسمها بالألوان الزيتية، وحتّى إنشاء صورٍ لوجوه واقعية غير موجودة، ناهيك عن تقنيات التزييف العميق، إلا أنّ القدرة على استقراء خصائصَ مثل عواطف البشر من صورةٍ حقيقة كان محطّ اهتمام الباحثين دائماً.
تُعدّ قراءة العواطف أمراً صعباً نظراً لأنها تميل للاعتماد على السياق الذي تحدث فيه. على سبيل المثال، عندما يركز شخصٌ ما على شيءٍ قد يبدو أنه يفكر ببساطة. لقد قطع التعرّف على العواطف من خلال الوجوه شوطاً طويلاً باستخدام التعلّم الآلي، لكن تحديد الحالة العاطفية للشخص بناءً على النظر إلى وجه الشخص، يفتقد إلى معلوماتٍ وأسسٍ علميةٍ أساسية. فالتعبير عن العواطف لا يتم فقط من خلال تعابير وجه الشخص وحسب، بل من خلال أين كانوا وماذا يفعلون أيضاً؟ ومن الصعب إدخال هذه البيانات السياقية في خوارزميات التعلّم الآلي الحديثة. ولمعالجة هذه المشكلة، هناك جهودٌ محمومة لتضمين السياقات المختلفة التي يمكن أن تلعب دوراً في عواطف الناس في خوارزميات الذكاء الاصطناعي، لكن ليس فقط من أجل كشف العواطف وحسب، بل لاستخدامها في مختلف المجالات الأخرى.
قراءة عواطف الموظفين
يلقي التقرير الصادر عن معهد «AI Now» الضوء على بعض الطرق التي يُطبّق فيها الذكاء الاصطناعي على المتقدمين للوظائف لتقييم إنتاجيته المحتملة، وحتى أثناء المقابلة. حيث يجري العمل حالياً بهذه التقنية أثناء مقابلات التوظيف بالفعل، خصوصاً بالنسبة للباحثين عن عملٍ عن بعد. فإذا حصل المدراء على معلوماتٍ تتعلّق بعواطف طالبي العمل أثناء المقابلة واستخدموها لتقييمهم، فإن اتخاذ القرارات فيما يتعلق بمسائل العمل الأخرى، مثل الزيادة أو الترقيات أو المهام، قد تتأثر بهذه المعلومات. ولكن هناك العديد من الطرق الأخرى التي يمكن أن تُستخدم فيها هذه التكنولوجيا.
لماذا القلق؟
تشوب هذه الأنواع من الأنظمة العديد من العيوب دائماً في مطابقة الأنماط الخاصّة بها، والتي قد تؤدي إلى تفاقم التمييز على أساس العرق والجنس وعدم العدالة والشفافية، أو ما يُرمز لها اختصاراً بـ «FATE». على سبيل المثال، وجدت إحدى الدراسات أن خوارزميات التعرف على الوجه؛ صنّفت وجوه الأشخاص السود على أنها أكثر غضباً من الوجوه البيضاء، حتى عندما كانوا يبتسمون.
تعالج العديد من المجموعات البحثية هذه المشكلة، ولكن يبدو واضحاً أنه في هذه المرحلة لا يمكن حلّ المشكلة على المستوى التكنولوجي مطلقاً. حيث سيتطلب حلّ هذه المشكلات جهداً مستمراً ومتضافراً من جانب أولئك الذين يستخدمون التكنولوجيا؛ ليكونوا على دراية بهذه القضايا لمعالجتها. كما يذكر تقرير معهد «AI Now» أنه بالرغم من الزيادة في محتوى أخلاقيات الذكاء الاصطناعي، نادراً ما تركّز مبادئ وأخلاقيات الذكاء الاصطناعي على كيفية تحقيقها، وإيضاح ما إذا كانت فعّالةً أم لا. ويلاحظ التقرير أن مبادئ أخلاقيات الذكاء الاصطناعى هذه تتجاهل إلى حدٍّ كبير أسئلةً حول كيفية تنفيذها، وأين يمكن تطبيقها، ومن سيضعها موضع التنفيذ. في الواقع، ينبغي أن يكون الجميع على دراية بأنواع التحيزات، ونقاط الضعف الموجودة في هذه الأنظمة، التي قد تكون على غرار تحيزاتنا الخاصة وتحيزات الآخرين.
المشكلة في حظر التكنولوجيا الشامل
في الواقع، تثير متطلبات زيادة الدقّة والسهولة في استخدام مثل هذه التكنولوجيات مشاكل أخرى تتجاوز المشكلات الأخلاقية. هناك أيضاً مجموعة من الشواغل العامة المتعلقة بالخصوصية المتصلة بالتكنولوجيا، وتمتد من انتشار الكاميرات التي تستخدمها الشرطة في مراقبة الناس؛ إلى إمكانية جعل البيانات الشخصية الحساسة مجهولةَ المصدر.
مع هذه المخاوف الأخلاقية والخصوصية، قد يكون رد الفعل الطبيعي هو الدعوة إلى فرض حظر على هذه التقنيات. بالتأكيد، يبدو أن تطبيق الذكاء الاصطناعي على نتائج مقابلات التوظيف، أو استخدامه في إصدار الأحكام الجنائية أمرٌ خطير إذا كانت الأنظمة تشوبها التحيزات، أو لا يمكن الاعتماد عليها. ومع ذلك، هناك تطبيقاتٌ مفيدة لهذه التقنيات. على سبيل المثال، قد تساعد في كشف العلامات المبكّرة لاستعداد الشباب للانتحار، وبالتالي منعهم من ذلك، وأيضاً، اكتشاف السائقين الذين يقودون مركباتهم في حالةٍ من السُّكر. ولذلك دعا بعض الباحثين والمهتمين إلى التريّث قليلاً في فرض حظرٍ شاملٍ على التقنيات ذات الصلة بالذكاء الاصطناعي.
الجمع بين الذكاء الاصطناعي والحكم الإنساني
بلا شكٍّ، يحتاج مصممو التكنولوجيا والمجتمع ككل إلى النظر بعناية في كيفية تحليل المعلومات، التي تُزوّد بها أنظمة الذكاء الاصطناعي لاستخدامها في عملية صنع القرار. حيث يمكن لهذه الأنظمة أن تعطي نتائج غير صحيحة تماماً، مثل أي شكلٍ آخر من أشكال الذكاء، كما لا تزال هناك أيضاً تحدياتٌ تقنية كبيرة في قراءة العواطف، خاصةً أخذ السيّاق بعين الاعتبار لاستنتاج العواطف.
إذا كان الأشخاص يعتمدون على نظامٍ غير دقيق في اتخاذ القرارات، فإن مستخدمي هذا النظام سيكونون في موقفٍ لا يُحسدون عليه. ومن المعروف أيضاً أن البشر باتوا يميلون أكثر للثقّة بهذه الأنظمة أكثر من ثقتهم بالأدلّة المادية الأخرى. في ضوء ذلك، نحن كمجتمعٍ بحاجة إلى النظر بعناية في نزاهة هذه الأنظمة ،ومساءلتها وشفافيتها وأخلاقياتها أثناء التصميم والتطبيق، مع إبقاء صنع القرار النهائي دائماً بيد الإنسان.