لماذا لا يجب ان تنفذ الروبوتات كل أوامرنا؟

هل عليك دوماً أن تفعل ما يقوله لك الآخرون؟ بالطبع لا، والكل يعرف ذلك. إذن، هل سوف تطيع روبوتات المستقبل أوامرنا دائماً؟ ستعتقد للوهلة الأولى بأن الإجابة هي نعم، لأنهم ببساطة عبارة عن آلات، وهم تم تصميمهم على إطاعة الأوامر. فكر للحظة بكل الأوقات التي لم تستمع فيها لأوامر الآخرين، ثم تخيل بأن روبوت يقف مكانك في تلك الحالات.

تأمل الحالات التالية:
● روبوت لرعاية العجائز، يتم أمره من قبل مالكه كثير النسيان بتنظيف الملابس، سوف ينفذ حتى إذا كانت خرجت للتو من آلة الغسيل
● طفل صغير يأمر روبوت الرعاية اليومية برمي الكرة خارج النافذة
● طالب يأمر الروبوت الخاص بتعليمه بإنجاز وظائفه المدرسية كلها
● روبوت منزلي يؤمر من قبل صاحبه المشغول؛ بالتخلص من وعاء القمامة مع وجود الملاعق والسكاكين بداخله

يوجد الكثير من الحالات التي يتلقى فيها الروبوت أوامراً يمكن أن تؤدي إلى نتائج غير مرغوبة، لكن ليست كل الحالات تحمد عقباها، حتى لو بدت الأوامر كذلك في البداية.

تخيل بأن روبوت سيارةٍ أُعطي أمراً بالرجوع للخلف مع وجود كلبٍ نائمٍ على الممر وراءه، أو أن روبوت مساعداً في المطبخ أُعطي أمراً بالتقدم نحو الطاهي وهو يحمل سكيناً. إن مثل تلك الأوامر بسيطةٌ، لكنّ عواقبها وخيمة.

كيف نستطيع نحن البشر أن نتجنب النتائج المؤذية لطاعة الروبوت العمياء؟ لو كان الالتفاف حول الكلب النائم مستحيلاً، فيجب على السيارة الروبوت رفضَ أمر الرجوع. وبالمثل، لو كان تجنب طعن الطاهي غير ممكنٍ، فيجب على روبوت المطبخ التوقف، أو عدم حمل السكينة أصلاً. في كلتا الحالتين يجب على الآلة ذاتية التحكم أن تكتشف الخطر المحتمل لفعلها، وأن تستجيب له إما بتجنب الخطر أو بعدم تنفيذ الأمر المسبّب له. كيف يمكننا تعليم الروبوت متى يرفض الأمر ويقول ’ لا‘؟

كيف تستطيع الروبوتات معرفة ما سوف يجرى مستقبلا؟

يقوم العلماء في المختبر بتطوير بعد أوامر التحكم التي تجعل الروبوتات تعارض بعض القرارات الخاصة بالإنسان. ستحدد هذه الأنظمة فيما إذا كان الروبوت سيطيع الأوامر أو سيرفضها بسبب خرقها لأحد المبادئ الأخلاقية المبرمجة فيه.

إن تعليم الروبوت كيف ومتى ولماذا يرفض الأوامر هو امر سهل القول، وصعب الفعل. إذ إن تحديد ماهية الأذى أو المشاكل الناتجة عن فعلٍ ما هو أكثر من مسألة النظر إلى النتائج المباشرة. على سبيل المثال إن الكرة المرمية إلى خارج النافذة قد لا تسبب الأذى فيما إذا وقعت في الباحة الخلفية، لكنها قد تصل إلى أحد الشوارع المكتظة مسببةً انحراف أحد السيارات وتحطمها وبالطبع تختلف النتائج باختلاف السياق.

من الصعب على روبوتات اليوم تحديد ما إذا كان رمي الكرة أمراً صحيحاً، في حال اللعب مع طفل أو خاطئاً في حال رميها من النافذة أو في القمامة. والأمر أصعب بكثيرٍ فيما إذا كان الطفل يريد خداع الروبوت، وأمَرَه برمي الكرة إليه ليتجنبها الطفل وتخرج من النافذة.

كيفية شرح القوانين والأخلاقيات إلى الروبوتات

إن فهم تلك المخاطر يتطلب الكثير من المعرفة السابقة، مثل معرفة بأن اللعب بالكرة أمام نافذةٍ مفتوحةٍ قد يؤدي إلى خروجها منها. إن ذلك الفهم لا يتطلب من الروبوت أن يتوقع النتائج المباشرة فحسب، بل عليه أن يتنبأ بنوايا الإنسان الذي يعطي الأوامر.

لمعالجة تعقيدات الأوامر البشرية صادقةً كانت أم لا، يحتاج الروبوت إلى التفكير في عواقب الأفعال، ومقارنة نتائجها مع المبادئ والأخلاق الاجتماعية، لمعرفة ما هو مسموح منها وما هو غير ذلك. كما رأينا في الأعلى يمتلك الروبوت قاعدةً تقول: “إذا أمرت بشيء يسبب الأذى، يمكنك ان لا تنفذ الأمر”. إن عملية الربط بين الأوامر والصلاحيات يسمح بوضوح للروبوت بالتفكير في جميع النتائج الممكنة للأمر، ثم اختيار قبول الأمر من عدمه.

عموماً، يجب على الروبوت عدم القيام بالأفعال المحظورة، وكذلك الأفعال المباحة غير المرغوبة. وبالتالي، تحتاج الروبوتات إلى طريقة لتمثيل القوانين ومبادئ الأخلاق وحتى آداب السلوك، من أجل تحديد فيما إذا كانت الأوامر أو حتى الأفعال مؤديةً إلى انتهاك تلك المبادئ والقوانين.

بينما تحتاج برامجنا إلى الكثير من أجل تحقيق ما نريده في الأمثلة السابقة، تحقّق أنظمتنا الحالية أحد أهم النقاط، وهي: “يجب على الروبوت أن يتمكن من مخالفة الأوامر من أجل أن يطيعها”.

اضف تعليق

تعليقات الفيسبوك