• الخميس. نوفمبر 9th, 2023

علماء التكنولوجيا يحذرون من الـ “روبوت القاتل”

أغسطس 24, 2017

قبل ما يقارب السنتين حذر عالم الفيزياء الشهير ستيفن هوكينغ من أن الذكاء الاصطناعي يمكن ان يكون أسوأ شيء يحدث للبشرية من أي وقت مضى. وقدم هوكينغ نبوءته المخيفة خلال حفل افتتاح مركز «Leverhulme» لمستقبل الذكاء «CFI» والذي تم إنشاؤه لمراقبة الآثار المترتبة على التطور السريع للذكاء الاصطناعي.
وبعد مدة من المراقبة حث ما يزيد على 100 من خبراء أجهزة الروبوت منظمة الأمم المتحدة على اتخاذ خطوات تقضي بمنع تطوير «الروبوت القاتل». وحذر خبراء الذكاء الصناعي، من بينهم الملياردير إيلون ماسك، في خطاب مرسل إلى المنظمة من «ثورة ثالثة في الحروب». وفقا لـ»بي بي سي».
وقال الخطاب إن تكنولوجيا «الفتك ذاتية التحكم « بمثابة «صندوق للويلات»، مضيفا أن الوقت هو محور السيطرة على الأمر. ودعا نحو 116 خبيرا إلى فرض حظر على استخدام الذكاء الصناعي في قطاع التحكم بالأسلحة.
وأضافوا : «يمكن أن يمثل ذلك سلاحا يستخدم في شن الإرهاب أو استخدامه بمعرفة مستبدين وإرهابيين ضد سكان أبرياء، أو اختراقه لتنفيذ أشياء بطريقة غير مرغوب فيها».
وتحتوي رسالة الخبراء على نبرة تحذير ملحة تقول : «ليس لدينا وقت طويل لاتخاذ إجراء». وأضافت الرسالة :»بمجرد فتح صندوق الويلات هذا، سيكون من الصعب إغلاقه».
ودعا الخبراء إلى إضافة ما وصفوه بتكنولوجيا «الخطأ الأخلاقي» إلى قائمة الأسلحة المحظورة بموجب اتفاقية الأمم المتحدة لحظر أسلحة تقليدية معينة.
وشارك في الدعوة مؤسس شركة «تيسلا» المشارك ومديرها التنفيذي إيلون ماسك، وخبير التكنولوجيا مصطفى سليمان، مؤسس موقع «ديب مايند» المشارك التابع لشركة غوغل.
وكان من المقرر اجتماع مجموعة أممية معنية بالأسلحة ذاتية التحكم يوم الإثنين، غير أن الاجتماع تأجل إلى نوفمبر/تشرين الثاني. وكانت لجان تابعة للأمم المتحدة قد ناقشت من قبل حظرا محتملا لتطوير تكنولوجيا «الروبوت القاتل».
وكان أكثر من ألف خبير تكنولوجي وعالم وباحث قد كتبوا في عام 2015 خطابا حذروا فيه من مخاطر الأسلحة ذاتية التحكم. وكان من بين الموقعين على خطاب 2015 العالم ستيفين هوكينغ، والمؤسس المشارك لشركة أبل ستيف وزنياك.
ويعد الروبوت القاتل سلاحا ذاتي التحكم يمكنه اختيار أهدافه بدون تدخل بشري. وهو غير موجودة في الوقت الراهن غير أن التقدم التكنولوجي في هذا المجال قد يجعله وشيك الظهور في عالم الواقع.
ويعتقد أولئك المؤيدون لفكرة الروبوت القاتل أن قوانين الحرب الراهنة قد تكون كافية لمواجهة أي مشكلة قد تظهر في حالة تطويرها، واحتجوا بضرورة فرض وقف اختياري مؤقت، دون اتخاذ خطوة الحظر الصريح. في حين يعتقد المعارضون أن الروبوت القاتل بمثابة تهديد للإنسانية وينبغي حظر أي «وظيفة قتل» ذاتية التحكم.