$User->is_logged_in:  bool(false)
$User->user_info:  NULL
$User->check_post:  object(stdClass)#6988 (18) {
  ["is_valid"]=>
  int(1)
  ["global_remaining_posts_to_view"]=>
  int(0)
  ["remaining_posts_to_view"]=>
  int(0)
  ["number_all_post"]=>
  int(0)
  ["number_post_read"]=>
  int(0)
  ["is_from_gifts_balance"]=>
  int(0)
  ["gifts_articles_balance"]=>
  int(0)
  ["all_gifts_articles_balance"]=>
  int(0)
  ["gifts_read_articles"]=>
  int(0)
  ["exceeded_daily_limit"]=>
  int(0)
  ["is_watched_before"]=>
  int(0)
  ["sso_id"]=>
  int(13083)
  ["user_agent"]=>
  string(9) "claudebot"
  ["user_ip"]=>
  string(12) "54.81.33.119"
  ["user_header"]=>
  object(stdClass)#6981 (42) {
    ["SERVER_SOFTWARE"]=>
    string(22) "Apache/2.4.57 (Debian)"
    ["REQUEST_URI"]=>
    string(317) "/%d8%a7%d9%84%d8%aa%d9%83%d9%86%d9%88%d9%84%d9%88%d8%ac%d9%8a%d8%a7/%d8%a7%d9%84%d8%b3%d9%8a%d8%a7%d8%b1%d8%a7%d8%aa/%d9%85%d8%a7-%d9%87%d9%88-%d8%a7%d9%84%d9%82%d8%a7%d9%86%d9%88%d9%86-%d8%a7%d9%84%d8%a3%d8%ae%d9%84%d8%a7%d9%82%d9%8a-%d8%a7%d9%84%d8%b0%d9%8a-%d9%8a%d8%ac%d8%a8-%d8%a3%d9%86-%d8%aa%d9%84%d8%aa%d8%b2/"
    ["REDIRECT_HTTP_AUTHORIZATION"]=>
    NULL
    ["REDIRECT_STATUS"]=>
    string(3) "200"
    ["HTTP_AUTHORIZATION"]=>
    NULL
    ["HTTP_X_FORWARDED_PROTO"]=>
    string(5) "https"
    ["HTTP_CONNECTION"]=>
    string(7) "upgrade"
    ["HTTP_HOST"]=>
    string(16) "popsciarabia.com"
    ["HTTP_ACCEPT_ENCODING"]=>
    string(8) "gzip, br"
    ["HTTP_CF_RAY"]=>
    string(20) "86b8ae367a6f20a0-IAD"
    ["HTTP_CF_VISITOR"]=>
    string(22) "{\"scheme\":\"https\"}"
    ["HTTP_ACCEPT"]=>
    string(3) "*/*"
    ["HTTP_USER_AGENT"]=>
    string(9) "claudebot"
    ["HTTP_REFERER"]=>
    string(425) "https://popsciarabia.com/%D9%85%D8%A7-%D9%87%D9%88-%D8%A7%D9%84%D9%82%D8%A7%D9%86%D9%88%D9%86-%D8%A7%D9%84%D8%A3%D8%AE%D9%84%D8%A7%D9%82%D9%8A-%D8%A7%D9%84%D8%B0%D9%8A-%D9%8A%D8%AC%D8%A8-%D8%A3%D9%86-%D8%AA%D9%84%D8%AA%D8%B2/%D9%85%D8%A7-%D9%87%D9%88-%D8%A7%D9%84%D9%82%D8%A7%D9%86%D9%88%D9%86-%D8%A7%D9%84%D8%A3%D8%AE%D9%84%D8%A7%D9%82%D9%8A-%D8%A7%D9%84%D8%B0%D9%8A-%D9%8A%D8%AC%D8%A8-%D8%A3%D9%86-%D8%AA%D9%84%D8%AA%D8%B2/"
    ["HTTP_CF_CONNECTING_IP"]=>
    string(12) "54.81.33.119"
    ["HTTP_CDN_LOOP"]=>
    string(10) "cloudflare"
    ["HTTP_CF_IPCOUNTRY"]=>
    string(2) "US"
    ["PATH"]=>
    string(60) "/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
    ["SERVER_SIGNATURE"]=>
    string(76) "
Apache/2.4.57 (Debian) Server at popsciarabia.com Port 80
" ["SERVER_NAME"]=> string(16) "popsciarabia.com" ["SERVER_ADDR"]=> string(11) "172.18.0.13" ["SERVER_PORT"]=> string(2) "80" ["REMOTE_ADDR"]=> string(12) "54.81.33.119" ["DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["REQUEST_SCHEME"]=> string(4) "http" ["CONTEXT_PREFIX"]=> NULL ["CONTEXT_DOCUMENT_ROOT"]=> string(13) "/var/www/html" ["SERVER_ADMIN"]=> string(19) "webmaster@localhost" ["SCRIPT_FILENAME"]=> string(23) "/var/www/html/index.php" ["REMOTE_PORT"]=> string(5) "52826" ["REDIRECT_URL"]=> string(113) "/التكنولوجيا/السيارات/ما-هو-القانون-الأخلاقي-الذي-يجب-أن-تلتز/" ["GATEWAY_INTERFACE"]=> string(7) "CGI/1.1" ["SERVER_PROTOCOL"]=> string(8) "HTTP/1.1" ["REQUEST_METHOD"]=> string(3) "GET" ["QUERY_STRING"]=> NULL ["SCRIPT_NAME"]=> string(10) "/index.php" ["PHP_SELF"]=> string(10) "/index.php" ["REQUEST_TIME_FLOAT"]=> float(1711640026.688168) ["REQUEST_TIME"]=> int(1711640026) ["argv"]=> array(0) { } ["argc"]=> int(0) ["HTTPS"]=> string(2) "on" } ["content_user_category"]=> string(4) "paid" ["content_cookies"]=> object(stdClass)#6980 (3) { ["status"]=> int(0) ["sso"]=> object(stdClass)#6979 (2) { ["content_id"]=> int(13083) ["client_id"]=> string(36) "2f44be15-307a-4a5b-aeea-7ee6f634e946" } ["count_read"]=> NULL } ["is_agent_bot"]=> int(1) }
$User->gift_id:  NULL

ما هو القانون الأخلاقي الذي يجب أن تلتزم به سيارتك ذاتية القيادة؟

سيارة ذاتية القيادة من جوجل.
استمع الى المقالة الآن هذه الخدمة تجريبية
Play Audio Pause Audio

تخيّل بأنك تقود السيارة، وظهر لك فجأةً شخصان؛ أحدهما طفلٌ والآخر بالغ. وافترض بأنك ستصدم أحدهما لا محالة، فما الذي ستفعله حينئذ؟

الآن، تخيّل بأن السيارة ذاتيةُ القيادة. ماذا سيحصل في هذه الحالة؟ هل يجب على السيارة اتخاذ هذا القرار؟

لا يعتقد أحدٌ حتى الآن بأن السيارات ذاتية القيادة قادرةٌ على اتخاذ قراراتٍ أخلاقية، وقد كان هذا الأمر محوراً للنقاش والجدال القائم حول استخدام هذه السيارات منذ مدة. لكن العلماء الألمان يعتقدون بخلاف ذلك. فهم متيقنون بإمكانية وجود عناصر أخلاقيةٍ في قرارات السيارات ذاتية القيادة.

في الحقيقة، لن يواجه معظم البشر مثل تلك المفارقات المأساوية.

يقول ليون شوتفيلد، الباحث في معهد علوم الإدراك في جامعة أوسنابروك والكاتب الرئيسي للدراسة الجديدة حول نماذج أخلاق السيارات ذاتية القيادة: “على الرغم من وجود ملايين السيارات على الطرقات، من النادر أن تحصل مثل هذه الحالات المحيّرة”. تم نشر هذه الدراسة في مجلة “Frontiers in Behavioral Neuroscience”، وقد شارك في تأليفها كلٌ من جوردون بيبا، بيتر كونيج، ريتشارد جاست من المعهد نفسه.

ازدادت شعبية السيارات ذاتية القيادة كطريقةٍ لمقاومة التغير المناخي، وذلك لقدرتها على استهلاك الوقود بشكلٍ فعالٍ أكثر من البشر. فالسيارات ذاتية القيادة تتجنب التسارع والتوقف المفاجئين، وهما عادتان تستهلكان الوقود بشكلٍ كبير. كما يمكن لقافلةٍ من السيارات ذاتية القيادة التي تسير وراء بعضها على الطرقات السريعة تخفيف أثر السحب، وهو ما يقلّل من استهلاك الوقود أيضاً. وتشجع السيارات ذاتية القيادة على النقل التشاركي، مما سيقلل من عدد السيارات على الطرقات، وقد يؤدي ذلك إلى عدم ضرورة امتلاك السيارات الخصوصية.

يوماً ما، قد تتحرك السيارات ذاتية القيادة على الطرقات السريعة وراء بعضها البعض لتخفيف أثر السحب، وهو ما يطلق عليه اسم “المسير كقافلة” (platooning).

إن ازدياد الأمان يؤدي إلى حفظ الطاقة أيضاً. فالسيارات ذاتية القيادة ستقلل من الحوادث، وبالتالي لن يتم إنتاج السيارات الجديدة التي ستحل محل السيارات المحطّمة، ويعني ذلك حفظاً للطاقة. يقول شوتفيلد: “ستساعد هذه التكنولوجيا على مقاومة التغير المناخي بطرقٍ عديدة”.

تقترح الدراسة بأنه سيتم برمجة السيارات لتحاكي السلوك الأخلاقي للبشر فيما يتعلق بالاختيار، حيث ستختار أفضل حالة تصادمٍ من عدة خياراتٍ ممكنة. قام العلماء بوضع عدة أشخاصٍ ضمن واقعٍ افتراضيٍ غامرٍ لدراسة سلوكهم خلال سيناريوهات قيادةٍ مختلفة. ثم استخدموا البيانات الناتجة لتصميم خوارزمياتٍ مناسبةٍ للسيارات ذاتية القيادة، للتعامل مع الحوادث المرورية بطرقٍ مشابهةٍ للبشر.

كان الاختبار كالآتي: يقوم الشخص المختبر بقيادة سيارةٍ ضمن ضاحيةٍ سكنيةٍ خلال يومٍ ضبابي، حيث يمكن أن يظهر أمامه بشكلٍ مفاجئٍ حيوانٌ أو إنسانٌ أو جسمٌ ثابت، وعليه اختيار ما سيتفاداه. على سبيل المثال، الطفل أو البالغ؟ الإنسان أو الحيوان؟ الكلب أو حيوانٌ آخر؟

أظهرت الدراسة بأن لدى الأطفال فرصةٌ أكبر في النجاة. وكذلك الكلب مفضلٌ عن الحيوانات الأخرى، كالجدي والغزال والخنزير البري.

واجهة الواقع الافتراضي المستخدمة في الاختبار.

يقول شوتفيلد: “عندما يكون الأمر متعلقاً بالإنسان مقابل الحيوان، فبالتأكيد سيوافق معظم البشر على اختيار حماية الإنسان. لكن من وجهة نظر السيارة ذاتية القيادة، يُعتبر كل شيءٍ احتمالياً. وفي معظم الحالات، لن يكون الخيار واضحا تماماً (مثل الاختيار بين صدم الكلب أو الإنسان). بل سيكون محدداً بالاحتمالات (مثل: هل أقتل الكلب بشكلٍ شبه أكيد، أم أُبقي على حياته مع وجود احتمالٍ بنسبة 5 % لأذية الإنسان بأضرارٍ خفيفة؟). قد لا يكون الالتزام بقواعد صارمةٍ -مثل اختيار القرار الموافق لصالح البشر دوماً- مناسباً للكثيرين”.

توجد أيضاً عوامل أخرى تدخل في المعادلة. على سبيل المثال، هل كان الشخص مخطئاً؟ هل نظر الشخص البالغ إلى الشارع قبل قطعه؟ هل كان الطفل يلاحق كرته نحو الشارع بدون تفكير؟ كم عدد البشر الذين سيتضررون؟

حاولت الوزارة الفدرالية الألمانية للنقل والبنية التحتية الرقمية الإجابة عن هذه الأسئلة في تقريرٍ صدر مؤخراً. حيث حدد التقرير 20 مبدءاً أخلاقياً للسيارات ذاتية القيادة؛ يخالف العديد منها الخيارات التي اختارها البشر ضمن تجربة شوتفيلد. على سبيل المثال، يقول تقرير الوزارة بأن الطفل الذي يركض باتجاه الشارع هو المُلام، وبالتالي هو الذي يستحق فرصةً أقل في النجاة، وذلك بمقارنته مع الشخص البالغ الواقف على الرصيف. علاوةً على ذلك، يصرح التقرير بأنه لا يجب أخذ عمر الضحية المحتملة بعين الاعتبار.

سيارة جوجل ذاتية القيادة.

يقول شوتفيلد: “يفضل معظم الناس -على الأقل في أوروبا والثقافات الأميركية الشمالية- إنقاذ الطفل على إنقاذ الشخص البالغ أو الكبير في السن. يمكننا مناقشة فيما إذا كنا نريد أن تختار السيارات مثل البشر، أو أن تلتزم بقواعد محددةٍ كالتي قدمها تقرير اللجنة الأخلاقية”.

يعتقد بيتر كونيج، الكاتب المشارك في الدراسة، بأن هذا البحث يخلق مشاكل أكثر مما يحل، وهو ما يتعرض له العلم أحياناً. يقول كونيج: “الآن، وبعد أن استطعنا تزويد الآلات بالقرارات الأخلاقية، يجب علينا كمجتمعٍ التعامل مع مفارقةٍ مزدوجة. أولاً، علينا اختيار فيما إذا كان يجب تزويد الآلات بالقيم الأخلاقية في سلوكها. ثانياً، إن كان الأمر كذلك، هل يُفترض بالآلات أن تسلك سلوك البشر؟”.

لا تبحث الدراسة عن أجوبةٍ لهذه الأسئلة، بل تعرض إمكانية نمذجة عملية اتخاذ القرارات الأخلاقية ضمن السيارات ذاتية القيادة، وذلك بالاستعانة بكيفية تصرف البشر. حاول المؤلفون في هذه الدراسة وضع أساسٍ للدراسات والمناقشات المستقبلية.

يقول شوتفيلد: “ستكون التكنولوجيا هاهنا سهلة التحقيق، لكنها ليست هي المعضلة الحقيقية. السؤال هو: كيف نريد، كمجتمعٍ، للسيارات أن تتصرف في مثل هذه الحالات، وكيف سيتم صياغة القوانين المرتبطة؟ ما هو المسموح وما هو الممنوع؟ ومن أجل الحصول على الرأي الصحيح، من المفيد الاطلاع على كيفية تصرف البشر في الحالات المشابهة”.

Content is protected !!