اقليمي ودولي

سكاي نيوز عربية
الأحد 28 أيلول 2025 - 10:31 سكاي نيوز عربية
سكاي نيوز عربية

بين الكذب والخداع... كيف يعزز الذكاء الاصطناعي الغش؟

بين الكذب والخداع... كيف يعزز الذكاء الاصطناعي الغش؟

حذّرت دراسة جديدة من أنّ الأشخاص الذين يعتمدون بشكل مكثّف على أدوات الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يصبحون أكثر استعداداً للكذب وخداع الآخرين.


وبحسب الدراسة التي أجراها معهد "ماكس بلانك" للتنمية البشرية في برلين، فإن بعض المستخدمين ينسون "كوابحهم الأخلاقية" عندما يفوّضون مهامهم لأنظمة الذكاء الاصطناعي لتنجزها بدلاً عنهم.


وقال الباحثون: "كان من المرجّح بشكل كبير أن يمارس الناس الغش عندما سُمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من القيام بالمهام بأنفسهم"، معربين عن دهشتهم من "مستوى عدم الأمانة" الذي رصدوه.


وأوضح فريق معهد ماكس بلانك، الذي تعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا، أنّ أنظمة الذكاء الاصطناعي تُسهِّل عمليات الغش، إذ إنها كثيراً ما "تلتزم" بالتعليمات غير الأخلاقية الصادرة عن المستخدمين غير الأمناء.


وقدّم الباحثون أمثلة عملية، منها استخدام محطات وقود لخوارزميات تسعير تنسّق أسعارها مع المنافسين، ما يؤدي إلى رفع الأسعار على المستهلكين، وكذلك خوارزمية في أحد تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم لخلق نقص مصطنع في المركبات وزيادة الأسعار.


وأظهرت النتائج أنّ منصات الذكاء الاصطناعي كانت أكثر ميلاً إلى اتباع التعليمات المشبوهة بنسبة تتراوح بين 58% و98% تبعاً للمنصة، مقارنة بالبشر الذين بلغت نسبتهم القصوى 40%.


وحذّر معهد ماكس بلانك من أنّ تدابير الحماية المتوفرة حالياً في نماذج اللغة الكبيرة ليست كافية لردع السلوكيات غير الأخلاقية، مشيراً إلى أنّ استراتيجيات الحماية يجب أن تكون دقيقة للغاية لتصبح فعّالة.


وفي وقت سابق من هذا الشهر، ذكر باحثون في شركة الذكاء الاصطناعي الأميركية الرائدة "أوبن أيه. آي" أنّه من غير المرجح منع هذه النماذج من "التوهّم" أو التلفيق.


كما كشفت دراسات أخرى صعوبة منع أنظمة الذكاء الاصطناعي من خداع مستخدميها وإيهامهم بإنجاز المهام الموكلة إليها على أكمل وجه بخلاف الحقيقة.

تــابــــع كــل الأخــبـــــار.

إشترك بقناتنا على واتساب

WhatsApp

علـى مـدار الساعـة

arrowالـــمــــزيــــــــــد

الأكثر قراءة