اقليمي ودولي

العربية
الثلاثاء 16 كانون الأول 2025 - 11:41 العربية
العربية

تحذيرات استخباراتية… مخاوف من استخدام داعش للذكاء الاصطناعي

تحذيرات استخباراتية… مخاوف من استخدام داعش للذكاء الاصطناعي

حذّر خبراء في الأمن القومي ومسؤولون في وكالات الاستخبارات من أن الذكاء الاصطناعي مرشّح لأن يتحول إلى أداة فعّالة بيد الجماعات المتطرفة، سواء في تجنيد عناصر جدد، أو إنتاج صور ومقاطع مفبركة عالية الواقعية، أو تطوير قدراتها في الهجمات الإلكترونية.


وفي هذا الإطار، دعا منشور نُشر الشهر الماضي على موقع إلكتروني موال لتنظيم داعش أنصار التنظيم إلى إدماج الذكاء الاصطناعي في أنشطتهم. وكتب صاحب المنشور باللغة الإنجليزية: "من أفضل مزايا الذكاء الاصطناعي سهولة استخدامه"، مضيفًا: "تخشى بعض وكالات الاستخبارات من مساهمة الذكاء الاصطناعي في عمليات التجنيد… فلنحوّل كابوسهم إلى حقيقة".


ويُشار إلى أن تنظيم داعش، الذي سبق أن سيطر على مساحات واسعة في العراق وسوريا، ويعمل اليوم ضمن تحالف لا مركزي لجماعات مسلحة ذات أيديولوجية عنيفة، كان قد أدرك منذ سنوات أهمية وسائل التواصل الاجتماعي كأداة للتجنيد ونشر المعلومات المضللة. وبحسب خبراء في الأمن القومي، فإن لجوء التنظيم إلى اختبار تقنيات الذكاء الاصطناعي لا يُعد أمرًا مفاجئًا.


وبالنسبة للجماعات المتطرفة غير المنظمة وذات الإمكانات المحدودة، يتيح الذكاء الاصطناعي إمكان بث دعاية كاذبة أو مقاطع فيديو مفبركة على نطاق واسع، ما يوسّع دائرة تأثيرها وانتشارها.


وفي هذا السياق، قال جون لاليبيرت، الباحث السابق في الثغرات الأمنية لدى وكالة الأمن القومي والرئيس التنفيذي الحالي لشركة "كلير فيكتور" المتخصصة في الأمن السيبراني: "بالنسبة لأي خصم، يجعل الذكاء الاصطناعي الأمور أسهل، إذ يمكن حتى لجماعات صغيرة ذات موارد محدودة إحداث تأثير ملموس".


وبحسب الخبراء، بدأت الجماعات المسلحة باستخدام تقنيات الذكاء الاصطناعي فور إتاحة برامج مثل "تشات جي بي تي" على نطاق واسع، قبل أن يتوسع استخدامها لاحقًا ليشمل أدوات الذكاء الاصطناعي التوليدي لإنتاج صور ومقاطع فيديو واقعية.


وعند دمج هذا المحتوى الزائف مع خوارزميات منصات التواصل الاجتماعي، يصبح قادرًا على استقطاب عناصر جديدة، وتضليل الخصوم أو ترهيبهم، ونشر الدعاية على نطاق غير مسبوق مقارنة بالسنوات الماضية.


وقال ماركوس فولر، العميل السابق في وكالة الاستخبارات المركزية الأميركية (سي آي إيه) والرئيس التنفيذي لشركة "دارك تريس فيدرال" المتخصصة في الأمن السيبراني والمتعاونة مع الحكومة الاتحادية، إن هذه الجماعات لا تزال متأخرة عن دول مثل الصين وروسيا وإيران، واصفًا الاستخدامات الأكثر تعقيدًا للذكاء الاصطناعي بأنها "طموحة".


إلا أنه شدد في الوقت نفسه على أن المخاطر كبيرة إلى حد لا يمكن تجاهله، مرجّحًا أن تتفاقم مع انتشار أدوات ذكاء اصطناعي منخفضة الكلفة وعالية الكفاءة.


وأشار فولر إلى أن قراصنة الإنترنت يستخدمون بالفعل تقنيات الصوت والفيديو الاصطناعي في حملات التصيد الاحتيالي، عبر انتحال صفة مسؤولين كبار في قطاع الأعمال أو الحكومات لاختراق شبكات حساسة. كما يمكن استغلال الذكاء الاصطناعي في كتابة شيفرات خبيثة أو أتمتة أجزاء من الهجمات الإلكترونية.


ويُعد الاحتمال الأكثر إثارة للقلق، وفق الخبراء، لجوء الجماعات المسلحة إلى الذكاء الاصطناعي للمساعدة في تطوير أسلحة بيولوجية أو كيمياوية، بهدف تعويض نقص الخبرات التقنية لديها.


وأوضح فولر أن "تنظيم داعش انضم إلى تويتر في وقت مبكر، ونجح في توظيف وسائل التواصل الاجتماعي لصالحه… وهم يبحثون دائمًا عن الخطوة التالية لإضافتها إلى ترسانتهم".


وفي مواجهة هذه المخاطر، قدّم مشرّعون أميركيون عدة مقترحات، مؤكدين الحاجة الملحّة إلى التحرك. وقال السيناتور مارك وارنر عن ولاية فرجينيا، وهو من أبرز الديمقراطيين في لجنة الاستخبارات في مجلس الشيوخ، إن على الولايات المتحدة تسهيل تبادل المعلومات بين مطوري تقنيات الذكاء الاصطناعي بشأن كيفية استغلال منتجاتهم من قبل جهات خبيثة، سواء كانت جماعات متطرفة أو قراصنة إلكترونيين أو جواسيس أجانب.


وخلال جلسة استماع عُقدت مؤخرًا في مجلس النواب حول التهديدات المتطرفة، تبيّن أن تنظيمي داعش والقاعدة نظّما ورش عمل تدريبية لمساعدة أتباعهما على تعلّم استخدام تقنيات الذكاء الاصطناعي.


كما ينص تشريع أقرّه مجلس النواب الأميركي الشهر الماضي على إلزام مسؤولي الأمن الداخلي بإجراء تقييم سنوي لمخاطر الذكاء الاصطناعي التي تشكلها هذه الجماعات.

تــابــــع كــل الأخــبـــــار.

إشترك بقناتنا على واتساب

WhatsApp

علـى مـدار الساعـة

arrowالـــمــــزيــــــــــد

الأكثر قراءة