أظهر فريق دولي من الباحثين؛ بما في ذلك علماء من مركز البشر والآلات في معهد ماكس بلانك الألماني للتنمية البشرية، وباستخدام الحسابات النظرية، أنه سيكون من المستحيل التحكم في آليات الذكاء الاصطناعي فائقة الذكاء في المستقبل. وذلك في دراسةٍ نُشرت في دورية «ذا جورنال أوف آرتيفيشال إنتيليجنس ريسيرش».
لنفترض أن شخصاً ما كان عليه برمجة نظام ذكاء اصطناعي بذكاء أعلى من ذكاء البشر لكي يستطيع التعلم بشكل مستقل، فقد يتمكّن من الوصول إلى جميع بيانات البشرية بمجرد اتصاله بالإنترنت. ويمكن أن يحل محل جميع البرامج الموجودة ويتحكم في جميع الأجهزة عبر الإنترنت في جميع أنحاء العالم. هل سينتج عن هذا المدينة الفاضلة أم الواقع المرير؟ هل سيعالج الذكاء الاصطناعي السرطان ويحقق السلام العالمي ويمنع حدوث كوارث مناخية؟ أم أنه سيدمر البشرية ويستولي على الأرض؟
يبدوا تحكّم الآلة فائقة الذكاء وكأنه فكرةً من الخيال العلمي، ولكن هناك بالفعل آلات تؤدي مهاماً مهمة معينة بشكل مستقل دون أن يفهم المبرمجون تماماً كيف تعلمتها. ولذلك فإن السؤال المطروح هو ما إذا كان من الممكن أن يصبح الأمر في مرحلة ما خطيراً وغير قابل للسيطرة.
توصّل الباحثون إلى فكرتين رئيسيتين حول كيفية التحكم في الذكاء الاصطناعي الخارق؛ أولاهما تكمن بتحجيم قدرات الذكاء الاصطناعي الفائق. على سبيل المثال، من خلال عزله عن الإنترنت وجميع الأجهزة التقنية الأخرى، بحيث لا يكون له اتصال بالعالم الخارجي . لكن هذا الخيار سيجعل الذكاء الاصطناعي الفائق أقل قوة بشكل ملحوظ، مما يعني قدرةً أقل على الإجابة على أسئلة العلوم الإنسانية، وبالتالي أقل قدرةً على مساعدة البشر.
من جهة أخرى، يمكن أن يُحدّد دافع الذكاء الاصطناعي منذ البداية أن يكون لمتابعة الأهداف التي تخدم مصالح البشرية فقط، وذلك، على سبيل المثال، من خلال برمجة المبادئ الأخلاقية فيه. ومع ذلك، أظهر الباحثون أيضاً أن هذه الأفكار وغيرها من الأفكار المعاصرة والتاريخية للتحكم في الذكاء الاصطناعي الفائق لها حدودها وليست بهذه البساطة.
صمّم الفريق في دراستهم خوارزمية احتواء نظرية تضمن أن الذكاء الاصطناعي الخارق لا يمكن أن يؤذي الناس تحت أي ظرف من الظروف، وذلك من خلال محاكاة سلوك الذكاء الاصطناعي أولاً وإيقافه إذا اعتُبر ضاراً. لكن التحليل الدقيق في النموذج الحالي للحوسبة يُظهر أنه من غير الممكن بناء مثل هذه الخوارزمية حالياً.
لأنه إذا ما تمّ النظر إليها كمشكلة برمجية تتّبع القواعد الأساسية من علوم الكمبيوتر النظرية، يتّضح أن الخوارزمية التي تطلب من الذكاء الاصطناعي عدم تدمير العالم يمكن أن توقف عملياتها عن غير قصد. وإذا حدث هذا، فلن تعرف ما إذا كانت خوارزمية الاحتواء تلك لا زالت تتعرّف إلى التهديد، أو أنها توقفت لاحتواء الذكاء الاصطناعي المُهدِّد. وهذا في الواقع يجعل خوارزمية الاحتواء غير قابلة للاستخدام.
بناءً على هذه الحسابات، فإن مشكلة الاحتواء غير قابلة للحل، أي أنه لا توجد خوارزمية واحدة يمكنها إيجاد حل لتحديد ما إذا كان الذكاء الاصطناعي سيؤدي إلى ضرر للعالم. علاوةً على ذلك، أوضح الباحثون أننا قد لا نعرف بالضبط متى وصلت الآلات إلى الذكاء الفائق، لأن تقرير ما إذا كانت الآلة تتمتّع بذكاءٍ يفوق ذكاء البشر هو مشكلة تضاهي مشكلة الاحتواء بحد ذاتها.