حذر علماء وخبراء اسلحة من نتائج خطيرة جدا ستنتج عن استخدام روبوتات في ميادين المعركة قد تجول وتصول لتقتل الناس حسب مشيئتها.
وقالت انجيلا كين الممثلة السامية للامم المتحدة لشؤون نزع السلاح بين 2012-2015 إن العالم كان بطيئا في اتخاذ اجراءات استباقية لحماية البشرية من التكنولوجيا الفتاكة واضافت متحدثة في نقاش في دافوس "وربما يكون الاوان قد فات الآن". وأضافت "هناك بلدان عديدة وممثلون كثيرون في المجموعة الدولية لا يدركون تماما ماذا يعني ذلك، لكن هذا التطور مقتصر على عدد قليل من الدول المتقدمة فقط".
وقال علماء إن استخدام اسلحة مستقلة يمثل مرحلة جديدة في مسار الحروب وهو أمر يتميز بخطورة كبيرة. ونقلت صحيفة ذا لوكال عن ستيوارت راسل بروفسور علوم الكومبيوتر في جامعة كاليفورنيا، بيركلي، قوله "لا نتحدث هنا عن طائرات مسيرة يقوم شخص من البشر بالتحكم بها، بل نتحدث عن اسلحة مستقلة، وهذا يعني انه لا يوجد أحد يتحكم بها، وهي اسلحة تستخدم الذكاء الصناعي".
وتابع راسل متحدثا أمام المنتدى الاقتصادي في دافوس "يتعلق الامر هنا بالتحديد بأسلحة يمكنها تحديد مواقع أهداف ومهاجمتها دون تدخل بشري". وقال راسل ايضا إنه لم يتوقع على الاطلاق أن يأتي يوم يحارب فيه اشخاص آليون مكان البشر ثم يقولون في النهاية "حسنا، انت المنتصر، خذ كل نسائنا".
وكان حوالي الف من كبار العلماء والمختصين بالتكنولوجيا بينهم عالم الفيزياء البريطاني الشهير ستيفن هوكنغ قد قالوا في رسالة مفتوحة في تموز (يوليو) الماضي إن تطوير اسلحة لها درجة عالية من الاستقلالية على صعيد اتخاذ القرار أمر ممكن التحقيق في غضون سنوات وليس في غضون عقود. ثم دعوا الى فرض حظر على هذا النوع من الاسلحة التي لا تخضع لارادة بشر وحذروا من اعتماد العالم على اسلحة ذات ذكاء صناعي ومن سباق تسلح في هذا المجال وما يمكن ان يحدث لو سقطت مثل هذه الاسلحة في ايادي متطرفين.
وتساءل راسل "السؤال هو، هل يمكن لهذه الآلات ان تحترم قواعد الحرب؟"
من جانبه حذر آلان وينفيلد استاذ الهندسة الكهربائية في جامعة ويست اوف انغلاند، من مخاطر جمة قد تنجم عن الغاء وجود البشر في عملية اتخاذ القرارات في ميادين المعارك ثم نبه الى احتمال تصرف الآلة بطريقة غير متوقعة.
تــابــــع كــل الأخــبـــــار.
إشترك بقناتنا على واتساب
Follow: Lebanon Debate News