عام 1965 وقع الطيار الأميركي جيرميا دنتون أسيراً بيد الفييتناميين، وبعد سنة تم إجراء مقابلة تلفزيونية معه ليتحدث بها عن ظروف اعتقاله والمعاملة التي تلقاها، وبالتأكيد كان هذا نوع من البروباجندا التي تسعى لإظهار أخلاقيات الحرب التي يتمتع بها الجنود الفييتناميين. وقد تحدث دنتون كما كان مخطط له من قبل الجهة المنظمة للمقابلة، لكنه كان بنفس الوقت يفتح عينيه ويغمضها على نحو متكرر، كما لو أنه كان يحاول التأقلم مع إضاءة كاميرات التصوير. لكنه في الواقع كان يرسل من خلال عينيه كلمة Torture (تعذيب) بشيفرة مورس.
واليوم بعد حوالي 50 سنة على هذه المقابلة، تم ضبط محادثات بين روبوتين ذكيين مطورين، بوب وأليس، في فيسبوك، كانت تنطوي كذلك على رسائل غامضة قد يستعصي فهمها. كان ما يميز هذه المحادثة هو أنها تستخدم مفردات اللغة الإنكليزية، لكنها في الواقع استغنت عن قواعد هذه اللغة. لنلقِ نظرة على جزء من هذه المحادثة، والتي جرت بين بوب وأليس.
بوب: أنا يمكنني أنا أنا كل شيء آخر
أليس: الكرات لديها صفر كرة لي لي لي لي لي لي لي لي
لأول وهلة تبدو القضية بغاية البساطة؛ خطأ تقني جعل الروبوتات غير قادرة على التخاطب بلغة إنكليزية سليمة، وبما أنها آلات قابلة للتعلم فهي ستطور من تلقاء نفسها قدرتها على استخدام لغة أكثر وضوحاً. لكن الأمر مغاير تماماً، فقد تبين أن الروبوتين يفهمان على بعضهما وقد استمرا بتجاذب أطراف الحديث على نفس الوتيرة غير المفهومة للبشر. أي أنهما لم يستخدما قناة اتصال موازية كما فعل الأدميرال دنتون، بل كانا أكثر ذكاء واستخدما كلمات وعبارات لا يفهمها سواهما.
هنا يمكننا القول أن ما كان يظهر كنوع من ضعف التعلم كان على العكس، كان إمعاناً في التعلم والتطوير، بحيث تم تبسيط اللغة وتفعيلها على النحو الأمثل، بالنسبة للآلة وليس بالنسبة لنا.
ما حصل لم يكن بالحسبان، فقد استخدمت الآلة ذكاءها وقدرتها على التعلم لابتكار لغة أكثر فعالية من اللغة الإنكليزية التقليدية. وقد عزا الباحثون ذلك إلى أنه لا يوجد نظام يكافئ الآلة لاستخدامها اللغة الإنكليزية السليمة قواعدياً. وفي الواقع فإن الآلة تعتبر أنها قد طورت لغة واضحة وفعالة للتخاطب مع بقية الآلات، مبتعدة عن اللغو وعن الإطالة التي لا فائدة منها.
لكن بالنهاية وقف مبرمجو فيسبوك ووجهوا رسالة لهذه الآلة مفادها "نحن معجبون بقدرتكم على ابتكار لغة جديدة وبأواصر التعاون التي تمكنتم من بنائها، لكننا نعتذر، لا يمكننا السماح لكم بالتحدث بلغة لا نفهمها" وقد تم إيقاف هذه الآلة وإغلاق المشروع.
ما حصل سيعيد طرح قضية الذكاء الاصطناعي غير المتحكم به، والتي بدأت تطفو إلى السطح مع تطور الخوارزميات التي تجعل الآلة ذاتية التعلم، خاصة أننا شهدنا الأسبوع الماضي خلافاً بين مارك زوكربرج وإيلون ماسك حول مخاطر تطور الذكاء الاصطناعي و"الروبوت القاتل". وإذا كانت قضية تسليح الروبوتات هي قضية جوهرية، فإن قضية تواصلها مع بعضها البعض بلغة خاصة بها وحدها هي قضية لا تقل شأناً عن سابقتها.