فلسفة تصميم الأخلاق في خوارزميات الآلة للأنظمة المستقلة!

Dr.Alrence Halibas

  • دكتوراه في إدارة التكنولوجيا
  • خبرة +٧ سنوات في مجال تعلم الآلة وتحليل بيانات الآلة
  • مساعد بروفيسور - قسم علوم الحاسب بكلية الخليج في مسقط


 للإستماع إلى المقالة إضغط على الرابط أدناه :

فلسفة تصميم الأخلاق في خوارزميات الأنظمة المستقلة.mp3


تُعد الطائرات بدون طيار ( الدرون ) من التطبيقات التي تستخدم الخوارزميات لتحديد إجرائات عملها ، وأصبح العالم الآن يتجه إلى تقييم أدائها بممارسة الشفافية في تصميم البيانات والخوارزمات المُستخدمة مراعاةً للمصلحة العامة ، فبالتي فإن إستخدام الدرون قد آثار مؤخراً قضايا السلامة والأخلاق التي تُعرض سلامة العامة للخطر! فيرفض المجتمع ونظام الدول بشكلٍ عام أي تطبيق لا تتضمن فيه أي إعتبارات تحفظ حقوق سلامة الغير! ومن المفترض أن يكون هنالك نظام هندسي لتصميم تلك الخوارزميات المتعلقة بتكنولوجيا الذكاء الإصطناعي يراعي الآثار التي قد تُضر بالسلامة العامة داخل المُدن وداخل الأودية الصناعية ، فهنالك بالفعل حاجة إلى تطبيق الأبعاد الأخلاقية للتكنولوجيا للوصول إلى تصرفات جيدة وفقاً لتوقعات المجتمع ، فيجب أن يكون هناك تقارب في علوم الكمبيوتر والفلسفة حتى نتمكن من تحديد بوضوح ما هو صحيح من الناحية الأخلاقية ، ثم وأن لنا سؤال أريد أن أفرضه هنا وهو : ” إذا كانت طائرات الدرون مُستقلة وتعتمد نظاماً أخلاقياً من شأنه أن يقيد التصرفات ويراعي القيم الإنسانية ، فما هي إعتبارات التصميم الأخلاقي التي ينبغي علينا إتباعها؟! “.  أجرينا دراسة تحاول الإجابة على هذا السؤال وتوصلنا إلى أسئلة أُخرى مثل ما هي النظريات الأخلاقية الرئيسية ذات الصلة بتصميم الآلات؟ وما هي التحديات التي سنواجهها عندما يتم تطبيق تجنب الإصطدام بعوامل الدفاع عن النفس في المجالات العسكرية؟.. فتوصلنا بعد ذلك إلى :

أولاً : المنفعة - مقابل - مبادئ علم الأخلاق : مذهب المنفعة : هو نهج يقوم على العقل لمعرفة الصواب والخطأ من خلال التركيز على النتائج المتصورة لتحديد الإجراء المناسب ومنطقها إختيار يُنتج أقصى قدر من السعادة للجميع ويعد ذلك هو الخيار الأكثر أخلاقية ، فيكون العامل أخلاقيًا عندما يزن عواقب كل إختيار ويختار الخيار الذي ينتج أكبر قدر من الإرتياح والرضا عن الأغلبية . مذهب علم الأخلاق ( المستند إلى قواعد الثقافة لدى المنطقة أو الدولة ) : يؤدي هذا المبدأ إلى عواقب غير مرغوب فيها ولا علاقة لها بالسعادة الشخصية أو الجماعية ولا يفسر ويحلل مقدار النتيجة ، وهذا المبدأ يتبع منهج - Deontic - لأخلاقيات الماكينات لأن قواعده قابلة للحساب ،  ويعُرف - Deontic -  بأنه منطق في مجال الفلسفة التي تتبع الإلتزام وأخذ الإذن وفقاً لمعايير وتوقعات معينة عند المُشغل أو المُتحكم .

ثانياً : نظام فردي - مقابل - أنظمة متعددة : يوجد توجه نحو ربط أنظمة تشغيل الطائرات بدون طيار بأنظمة خارجية كشريك ثالث بين المشغل والطائرة ، على أن تكون مهمة هذا الشريك الثالث تحليل البيانات من قِبل خوارزميات يتم تثبيتها على عقل الآلة التي ترصد هذه البيانات مما يتيح خلال حصول هذا الشريك على البيانات الوصول إلى نتائج أكثر دقة ثم يتم تقيمها عن طريق الأفراد ، وهذا قد يطرح تحديات في المعايير المتعارضة وبالتالي يؤدي إلى عدم اليقين في عملية صنع القرار، فلدى المجتمعات آراء أخلاقية مختلفة ونظام أخلاقي مختلف! فليس الإختيار الإجتماعي للأخلاقيات في الذكاء الاصطناعى خيارًا جيدًا لأن المجتمع قد لا تكون له رؤية أخلاقية مشتركة واحدة فحسب ، بل أصبح من الصعب تحديد أي نظام أخلاقي قويم من الناحية الأخلاقية لينبغي برمجته في الآلة . لذلك ينبغي التنسيق بين سلوكيات الأفراد والآلة ، لأن البشر قد يقومون ببرمجة أخلاقيات قد تكون منحازة إلى شيء ربما تؤدي به إلى نتائج سلبية .

ثالثاً : المعرفة - مقابل - أساليب التعلم الآلي : يمكن بناء سلوك الجهاز دون الحاجة إلى منحنى تعليمي للآلة ، لا يتم فيه إستخدام نمذجة من بيئة حقيقية التي قد ربما تكون صعبة عند إستخدامها في صنع قرارات في سيناريو محدد زمنياً ، لأنه لا يتوفر حتى الآن تدريب آلي داخل نمذجة إفتراضية يحاكي جميع سيناريوهات العالم الحقيقي ، وبالتالي تصبح كفاءة النتيجة موضع تساؤل! فتُعد السلامة هو التحدي الأول لهذه التكنولوجيا ولذلك يجب تحسين تقنية تجنب العوائق في الطائرات بدون طيار لتكون مستقلة وتُستخدم في بيئات غير متوقعة وصعبة . أخيراً ، عند إمعان النظر في الأنظمة المستقلة العسكرية فإن الطائرات بدون طيار تستطيع حمل أسلحة متقدمة جداً ، وحتى الآن لا توجد بيانات موثوقة تحدد خسائر غارات الطائرات بدون طيار في عمليات مكافحة الإرهاب ومكافحة التمرد ، ولا يوجد ضمان في تحديد نتيجة النتائج ، فيشيع إستخدام المنفعة كإطار أخلاقي أكثر فاعلية بين الجيوش لتبرير الحرب والتحقق من صحة الأعمال العسكرية ، وعندها لا يُراعى حقوق الإنسان والمبادئ الأساسية ، ويمكننا التلخيص من ذلك أن إستخدام الأسلحة على ظهر الطائرات بدون طيار العسكرية بإستخدام التحكم البشري يُعد حتى الآن خيارًا جيدًا ، ولكن من المحتمل أن يتعرض لأخطاء بشرية ومع ذلك فإن هذا سيفرض المساءلة أمام القادة الحقيقين .