خلاف مارك زوكربيرج وإيلون ماسك يعيد طرح قضية “الروبوت القاتل”

4 دقائق
قضية مصيرية تستحق هذه الضجة

في عام 1984 كان الناس على موعد مع جيش جرار من الروبوتات الواعية المالكة لزمام أمرها والمدججة بالسلاح، والتي تعتبر أي إنسان "تهديد أمني". وقد وضع هذا الجيش نصب عينيه القضاء على الجنس البشري، أما المكان الذي دارت فيه هذه الحرب فهو استديوهات هوليوود التي دارت فيها كاميرا المخرج جيمس كاميرون لتصوير فيلم ترميناتور Terminator (المدمّر).

كل متابع للعلم يعرف أن قصص وأفلام الخيال العلمي هي سيناريوهات من المستقبل. لن نقول أن هذا السيناريو التشاؤمي الذي أخرجه كاميرون قد أصبح قيد التحقق، لكن يمكننا القول دون مواربة أن إرهاصاته الأولى قد بدأت بالظهور. فقبل يومين وتحديداً في 25 يوليو حصلت مشادة كلامية بين قطبين من أهم أقطاب التكنولوجيا في العالم، إيلون ماسك صاحب شركات سبيس إكس وبورينج وتسلا، ومارك زوكربيرج مؤسس ومالك فايسبوك حول الذكاء الاصطناعي.

قبل فترة قصيرة وجه ماسك رسالة للحكومة الأميركية ينبه فيها من مخاطر تطور الروبوتات والذكاء الاصطناعي دون حسيب أو رقيب، مما قد يجعل من البشر مواطنين درجة ثانية، ويعرضهم للخطر في حال تم تسليح هذه الروبوتات. ورداً على مخاوف ماسك نشر زوكربيرج على فيسبوك مقطع فيديو يتحدث فيه عن أن تصريحات ماسك غير مسؤولة، فما كان من الأخير إلا أن أجاب بأن صاحب شركة فيسبوك لديه فهم محدود لهذه القضية.

أما في الوسط العلمي فقد تمت استضافة العالم الأميركي الكبير ميشيو كاكو على قناة سي إن إن وذلك لسؤاله عن رأيه بالقضية المطروحة. وكان رأي كاكو أن ماسك وزوكربيرج على حق، فعلى المدى القصير أو لنقل العقود القليلة القادمة لا ينبغي لنا أن نقلق من سيطرة محتملة للروبوتات وبالتالي يبدو زوكربيرج محقاً، أما على المدى الطويل فقد تصبح الروبوتات واعية لقدراتها وبالتالي قد تصبح مؤذية، وبحسب كاكو لن يمتلك الروبوت ذكاء يضاهي ذكاء القرد قبل نهاية القرن. لكن هذا لا يعني أنه ليس علينا أن نقلق من بعض الروبوتات التي بدأت تطور لمآرب غير إنسانية.

في الواقع فإن المشادة التي حصلت بين رائدي الأعمال قد أعادت طرح قضية "الروبوت القاتل" والتي تتمثل بكل بساطة بإمكانية إيجاد روبوت قادر على إيذاء البشر بقرار الشخصي دون الرجوع لأي أحد. مع العلم أن متابعي الشؤون العسكرية يعلمون أن الذكاء الاصطناعي لم يغب يوماً عن مختبرات صناعة وتطوير الأسلحة.

آلة مسلحة

يتمثل ذكاء الأسلحة التي يتم تصنيعها في شركات السلاح الكبيرة بالقدرة على رصد وتحديد الهدف المعادي، لكن الكلمة الأخيرة تبقى للضابط المسؤول الذي سيأمر الآلة بضرب الهدف. لكن علم الذكاء الاصطناعي يعتبر هذه المرحلة هي المرحلة ما قبل الأخيرة ويعتبر هذا السلاح نصف آلي، حيث أن الآلة يجب أن تكون قادرة على اتخاذ القرار بنفسها دون الرجوع لأي كان. هذه المرحلة هي التي يخشى الوصول إليها وذلك لأسباب عدة:

  • بداية لا تعتبر الآلة القابلة للتعلم هي الخيار المفضل في المعارك، حيث أن هذا التعلم سيكون عن طريق إزهاق بعض الأرواح قبل الوصول للخبرة المطلوبة، أي أن تقنية المحاولة والتصحيح ليست ذات جدوى في الميدان. خاصة إذا علمنا أن هذه الآلة قادرة على إصابة الهدف بمقتل وبدقة عالية جداً ما أن يتم تعريفه على أنه "تهديد أمني".
  • وكما في أي مجال علمي، لن يبقى الذكاء الاصطناعي بأيدي البشر ذوي الضمائر الصاحية، بل ستعمل أطراف أخرى على برمجة روبوتات تمتلك معايير مغايرة تماماً لاتخاذ القرار بإنهاء حياة الأشخاص، وقد تختلط هذه الروبوتات مع الروبوتات الأخرى وتبدأ بتنفيذ مخططات مبرمجيها الإجرامية.
  • وحتى في ظل غياب النوايا الإجرامية، فإن الآلات ليست معصومة عن الخطأ، فقد نشهد حدوث حالات وفاة نتيجة خطأ برمجي أو تشغيلي حصل مع أحد الروبوتات المسلحة. يذكر أن حادثة وفاة حصلت سنة 2016 عندما فشلت سيارة تسلا ذاتية القيادة بالتعرف على جرار كهربائي كان يعبر أمامها فاصطدمت به وتوفي الراكب الذي كان قد اعتمد على قيادتها الحكيمة.

رغم كل تلك التخوفات فإن التجارب الفعلية قد بدأت على الأرض سواءً كانت معلنة أو مخفية. فقد أعلنت وزارة الدفاع الروسية أنها بصدد تطوير روبوت مزود بمسدسين وقادر على التعرف على الأهداف واتخاذ قرار إطلاق النار، ليعود وزير الدفاع ويصرح منتصف أبريل الماضي بأن الروبوت قد تم تصنيعه إلا أن خوارزمية اتخاذ القرار لا زالت قيد التطوير. أما شركة كلاشنيكوف لتصنيع الأسلحة فقد صرحت العام الحالي بأنها ستصنع روبوت مزود بمسدس من عيار 7.62 ملم مزود بكاميرا وبشبكة عصبية تتيح له القدرة على تحديد الهدف واتخاذ قرار بشأنه (إطلاق أو عدم إطلاق النار).

حلول مقترحة

عند الحديث عن حلول مطروحة لهذه القضية سنقع أمام عقليتين متناقضتين، الأولى هي العقلية العلمية الرزينة التي ترى التريث وانتظار الوصول إلى خوارزمية محكمة غير قابلة للاختراق ولارتكاب الأخطاء قبل أي توظيف لهذه الآلات في العالم الواقعي. أما العقلية الثانية فهي العقلية العسكرية التي قد لا ترى بالتأني السلامة بل ترى فيه فرصة للطرف الآخر لتحقيق مآربه.

حالياً تتمثل الحلول بإيجاد بنية تحتية تشريعية قادرة على التعامل مع هذا النوع من القضايا، والتي من شأنها تحديد من سيطور هذه الروبوتات، كيف وأين سيتم هذا الأمر وما هو الغرض منه. وإجمالاً لا يمكن الحديث عن حلول تكنولوجية قبل صدور القوانين التي ستحدد الأطر التي يتم فيها العمل على تطوير الذكاء الاصطناعي، قبل أن ننتقل لمرحلة سن القوانين المتعلقة بتشغيل وتوظيف الروبوتات. وحيث أننا بدأنا حديثنا بالخيال العلمي يجدر بنا العودة إلى سنة 1942 عندما كان الذكاء الاصطناعي علماً حديث الولادة، حيث وضع الكاتب الأميركي اسحق أزيموف القوانين الثلاثة التي يجدر بالروبوتات اتباعها، وذلك إن دل على شيء إنما يدل على أن الوعي بضرورة وجود البنية التحتية قد رافق الذكاء الاصطناعي مذ كان بالمهد.

رغم أن البعض يرى أنه من السابق لأوانه القلق من الروبوتات المسلحة، حيث أن للذكاء الاصطناعي خطر آخر يتمثل بتجريده للبشر من وظائفهم وأعمالهم (قدّر مركز أبحاث الاقتصاد وإدارة الأعمال في جامعة بال ستيت أن عدد الوظائف المتعلقة بالصناعة في أميركا والتي اختفت بين عامي 2000 و 2010 قد بلغ 5.6 مليون وأن التكنولوجيا مسؤولة عن 85% منها) فإن هذا لا يعني زوال الخطر الذي قد يظهر عاجلاً أم آجلاً نتيجة أبحاث تتم بالخفاء أو بشكل غير مدروس. بالنهاية يمكننا القول أن الروبوت قد يصبح صديق وخادم مخلص للإنسان، لكننا لسنا متأكدين بعد من أنه سيكون حامي الحمى والمدافع عن البشر.

المحتوى محمي