حذّر خبراء مكافحة التطرف في الأمم المتحدة، خلال جلسة لمجلس الأمن، من أنّ تنظيم "داعش" بدأ يوظف تقنيات متطورة، من بينها الذكاء الاصطناعي ووسائل التواصل الاجتماعي، ما يشكل تحدياً جديداً أمام المجتمع الدولي.
ودعت المنظمة الأممية إلى إيجاد حلول مبتكرة لمواجهة هذا التهديد، في ظلّ استخدام الجماعات المسلحة للتكنولوجيا في مجالات التجنيد والتمويل والدعاية.
وفي هذا السياق، قال أحمد الشيخ، نائب رئيس مجلس الإعلام الرقمي في نقابة الصحافيين البريطانية والباحث في الذكاء الاصطناعي، في مقابلة مع "سكاي نيوز عربية"، إنّ "المستوى الأول من المواجهة يرتبط بالشركات الكبرى التي تضع سياسات صارمة لمنع إنتاج محتوى يحض على العنف أو التطرف عبر أدواتها مثل (جيميناي) أو (تشات جي بي تي). لكن المشكلة أنّ هناك شركات أخرى أكثر تساهلاً، ما يتيح للمسلحين إنتاج نصوص وشخصيات افتراضية يمكن أن تواصل التحريض إلى الأبد".
وأوضح الشيخ أنّ تقنيات "التزييف العميق" باتت تمثل خطراً متزايداً، مشيراً إلى أنّه يمكن إنتاج شخصية لشخص متوفى معروف بالتحريض ليظل حياً افتراضياً يواصل خطبه وفتاواه. وأضاف أنّ "هذا الأسلوب قد ينطلي على المتلقي، خصوصاً الضعيف أو الباحث عما يدغدغ مشاعره، حيث يتم خلط السم بالعسل لإقناعه".
وأشار إلى أنّ المخاطر تتضاعف في بعض الدول الأفريقية التي تشهد انتشاراً واسعاً للتكنولوجيا مقابل تدنٍ في مستويات التعليم، قائلاً: "في أفريقيا، التعليم منخفض مقارنة بأوروبا، لكن استخدام الهواتف المحمولة والإنترنت مرتفع جداً، ما يجعلها أرضاً خصبة لرسائل الجماعات المسلحة إذا غابت التوعية".
وحول وضع ضوابط لاستخدام الذكاء الاصطناعي، أوضح أنّ هناك مستويين من الرقابة: "الأول يمكن تطبيقه على الشركات الكبرى عبر القوانين الدولية والمحلية، أما الثاني فيتعلق بالشركات الصغيرة والمغمورة التي يصعب إخضاعها لأي قوانين". وشدد على أنّ المسؤولية مشتركة، "بين منتج الرسالة التحريضية، والأداة التقنية المستخدمة، والمنصة الناشرة"، لكن تطبيق هذه المسؤوليات يختلف بين الدول.
كما لفت الشيخ إلى مسألة انحياز الخوارزميات، قائلاً: "المعايير تختلف من دولة إلى أخرى، ففي بعض الحالات يُحذف المحتوى فوراً، بينما يتم التساهل مع محتوى مشابه في أماكن أخرى".
وكشف أنه جرب شخصياً بعض التطبيقات، فبينما رفض "تشات جي بي تي" الرد على طلبه حول كيفية صنع قنبلة، قدّمت تطبيقات أخرى إجابات متساهلة بل ومساعدة، ما يمثل خطراً مضاعفاً. وأكد أنّ بعض الجماعات المسلحة استفادت فعلاً من الذكاء الاصطناعي التوليدي في نشر رسائلها بلغات متعددة للوصول إلى جماهير جديدة، قائلاً: "بدل أن يعتمد تنظيم داعش على مترجمين، بات يستخدم الذكاء الاصطناعي لإيصال رسائله بلغات محلية مثل الفلبينية أو الرواندية".
واعتبر أنّ الذكاء الاصطناعي أصبح أداة مزدوجة الاستخدام، قائلاً: "كما كان المسلحون سابقاً يستخدمون الهواتف أو الرسائل، باتوا الآن يوظفون الذكاء الاصطناعي. لذلك لابد من قيود صارمة تحول دون وصولهم إلى هذه الأدوات".
وبالتوازي مع هذه التحذيرات، أظهر استطلاع للرأي أجرته "سكاي نيوز عربية" عبر منصاتها أنّ 79% من المشاركين يؤيدون فرض ضوابط على الذكاء الاصطناعي، مقابل 21% عارضوا الفكرة. وهو ما يعكس مخاوف متزايدة من أن تتحول الابتكارات التكنولوجية من أداة لخدمة الإنسان إلى وسيلة بيد الجماعات المسلحة لتوسيع دائرة العنف.