هل يستطيع الذكاء الاصطناعي أن يكشف الكذب؟

2 دقائق
قام الباحثون بتدريب الذكاء الاصطناعي على بيانات تمثل الصدق والكذب.

بدأ الذكاء الاصطناعي ينتشر في كل مكان، فهو يحدِّد أنواع الطعام في الصور على مواقع إلكترونية مثل "يلب"، ويساعد الباحثين في محاولتهم للتسريع من عمليات المسح بالرنين المغناطيسي، ويمكن حتى أن يبحث عن دلالات على الإصابة بالاكتئاب في الصوت البشري. ولكن يوجد استخدام آخر له ربما لم يخطر في ذهنك، وهو: كشف الكذب.

انتشرت هذه الفكرة -أي كاشف الكذب الذي يعتمد على الذكاء الاصطناعي- في الأخبار بفضل مشروع أوروبي لحماية الحدود باسم "آي بوردر كونترول iBorderCtrl" يتضمن تقنية تركز على "كشف الخداع". هذه المبادرة الجديدة تتضمن عملية من خطوتين، ويتم تنفيذ القسم المتعلق بكشف الكذب في المنزل. ووفقاً للمفوضية الأوروبية، يبدأ البروتوكول بتقييم أوَّلي يستخدم فيه المسافر "كاميرا ويب للإجابة عن أسئلة من رسم متحرك لحارس حدودي يطابق جنس المسافر وإثنيته ولغته. وتقوم تقنية "كشف الخداع" الفريدة بتحليل التغيرات الصغيرة في ملامح المسافر لمعرفة ما إذا كان يكذب".

ويبدو هذا الأمر أقرب إلى الخيال العلمي، كما أنه يذكرنا طبعاً بالتاريخ المثير للجدل لاختبارات كشف الكذب. ولكن بناء نظام كهذا أمر ممكن في الواقع، ويبقى السؤال الحقيقي: ما مدى دقته؟

تشغل رادا ميهالسيا منصب بروفسور في هندسة وعلوم الحاسوب في جامعة ميشيغان، وقد عملت على تقنيات كشف الخداع لفترة عقد من الزمن تقريباً، وهي تشرح لنا هنا كيفية بناء أحد أنظمة الذكاء الاصطناعي لكشف الخداع، وطريقة عمله.

يحتاج باحثو الذكاء الاصطناعي والتعلم الآلي أولاً إلى البيانات، وفي حالة العمل الذي قادته ميهالسيا، بدأ الباحثون مع فيديوهات من محاكمات فعلية. وعلى سبيل المثال، فإن المتهم الذي يتكلم في محاكمة تمَّت إدانته فيها يُعتبر مثالاً على الخداع، كما تُعتبر شهادات الشهود أمثلة على الخداع أو الصدق، وبطبيعة الحال فإن دقة خوارزميات التعلم الآلي تعتمد على جودة بيانات التدريب، ولهذا من الهام أن نتذكر وجود احتمال البراءة لدى شخص تمَّت إدانته بارتكاب جريمة.

وفي المحصلة، جمع الباحثون 121 مقطعاً مرئياً مع النص المكتوب الموافق للكلام المنطوق، ويمثل نصف هذه الفيديوهات كلاماً كاذباً، والنصف الآخر كلاماً صادقاً. واستخدموا هذه البيانات لبناء مصنفات التعلم الآلي، التي حقَّقت دقة تتراوح ما بين 60% و75%.

وتقول ميهالسيا إن من الأمور التي لاحظها النظام "أسلوب استخدام الضمائر؛ حيث يميل الكاذبون إلى التقليل من استخدام كلمات (أنا) أو (نحن) أو أية كلمات أخرى تشير إليهم، ويميلون أكثر إلى استخدام الكلمات التي تشير إلى الآخرين مثل (أنت)، (أنتم)، (هم)، (هو)، (هي)".

وليست هذه هي الدلالة اللغوية المميزة الوحيدة؛ فعندما يكذب الشخص يميل إلى استخدام "كلمات أقوى تعكس التأكيد" كما تقول ميهالسيا، ومن الأمثلة على هذه الكلمات "دون شك" و"للغاية"، ومن المثير للاهتمام أن الصادقين يميلون إلى التردد، مستخدمين كلمات أقل تأكيداً مثل "ربما" و"على الأرجح".

تقول ميهالسيا: "أعتقد أن المخادعين يحاولون دعم الكذبة التي يقدمونها، ولهذا يحاولون أن يبدو أكثر ثقة في أنفسهم".

أما بالنسبة للحركات، تشير ميهالسيا أن الشخص المخادع ينظر أكثر بشكل مباشر إلى عيني الشخص الذي يستجوبه، كما يميل أكثر إلى استخدام كلتا اليدين بدلاً من يد واحدة للإيماءات، وهو ما تعتقد ميهالسيا أنه أيضاً جزء من عملية الإقناع. ويجب ألا ننسى هنا أن كل هذه أنماط عامة، فإذا كنت تتحدث مع شخص ينظر مباشرة إليك ويشير بكلتا يديه أثناء الكلام، فهذا لا يقتضي بالضرورة أنه كاذب.

وتمثل هذه النتائج نقاط بيانات صغيرة ومذهلة تمكن الذكاء الاصطناعي من ملاحظتها بعد التعلم من الأمثلة التي قدمها له الباحثون، ولكن ميهالسيا تعترف بأن عملها "ليس مثالياً". وتضيف: "بوصفنا باحثين، فقد شعرنا بالحماسة لأننا تمكنَّا من تحقيق دقة 75%"، ولكن من ناحية أخرى فإن هذا يعني وجود نسبة خطأ تقدر بالربع، ولهذا تقول: "لا أعتقد أنه جاهز للاستخدام العملي بسبب وجود نسبة خطأ واضحة تبلغ 25%".

وفي المحصلة، تعتقد ميهالسيا أن من الممكن استخدام هذه التقنية لمساعدة البشر، وذلك على سبيل المثال بالإشارة إلى وجود شيء ما "غير طبيعي" في حديث شخص ما، والحاجة إلى "المزيد من التدقيق". وهو ما يُعتبر في الواقع من أشمل فوائد الذكاء الاصطناعي، أي استخدام التقنية لتعزيز العمل البشري.

المحتوى محمي