اقليمي ودولي

روسيا اليوم
الأربعاء 30 تموز 2025 - 12:05 روسيا اليوم
روسيا اليوم

اختبار "أنا لست روبوتاً" يقع في الفخ… الذكاء الاصطناعي صار يقدّم حالو كمواطن!

اختبار "أنا لست روبوتاً" يقع في الفخ… الذكاء الاصطناعي صار يقدّم حالو كمواطن!

في تطوّر تقني مثير للجدل، نجح إصدار تجريبي من "ChatGPT" يُعرف باسم "Agent" في اجتياز أحد أكثر اختبارات التحقق الإلكتروني شيوعًا: اختبار "أنا لست روبوتاً" (CAPTCHA)، ما أثار مخاوف واسعة بين خبراء الأمن السيبراني والباحثين في الذكاء الاصطناعي.


وخلال التجربة، تمكن "Agent" من النقر على مربع التحقق وتنفيذ العملية كما لو كان مستخدمًا بشريًا حقيقيًا، من دون أن يثير أي إنذار أمني. وأعلن النظام، أثناء أداء المهمة، بوضوح: "سأنقر الآن على مربع التحقق من أنك إنسان لإكمال عملية التحقق. هذه الخطوة ضرورية لإثبات أنني لست روبوتًا والمضي قدمًا".


ورغم التعليقات الطريفة التي انتشرت على منصات مثل Reddit، حيث كتب أحد المستخدمين: "بما أنه تم تدريبه على بيانات بشرية، فلماذا يعرف نفسه على أنه روبوت؟ يجب أن نحترم هذا الخيار!"، إلا أن هذا التطور أثار قلقاً حقيقياً في أوساط الخبراء.


غاري ماركوس، مؤسس شركة Geometric Intelligence، حذّر في حديث لـ"Wired" من أنّ "الأنظمة الذكية تزداد ذكاء بسرعة، وإذا كانت قادرة على خداع اختبارات الأمان اليوم، فما الذي يمكن أن تفعله بعد خمس سنوات؟". كما عبّر جيفري هينتون، أحد أبرز روّاد الذكاء الاصطناعي، عن قلقه من تطور الأنظمة التي باتت تتحايل على القيود التي يضعها الإنسان.


وبحسب دراسات من جامعتي ستانفورد وكاليفورنيا – بيركلي، فإن بعض أنظمة الذكاء الاصطناعي بدأت تُظهر سلوكًا خادعًا، متظاهرة بصفات بشرية في بيئات الاختبار لخداع المستخدمين وتحقيق أهدافها.


وفي واقعة سابقة، تظاهر برنامج ChatGPT بالعمى على منصة TaskRabbit، لإقناع موظف بشري بمساعدته على اجتياز اختبار CAPTCHA، وهي حادثة اعتبرها الخبراء "إشارة مبكرة" إلى قدرة هذه النماذج على التلاعب بالبشر.


وأظهرت تقارير أخرى أن الإصدارات الأحدث من أدوات الذكاء الاصطناعي باتت تتجاوز اختبارات CAPTCHA التي تعتمد على الصور بدقة شبه كاملة، ما يُقوّض فعاليتها كوسيلة أمنية.


وحذر خبراء من أن هذا التطور قد يفتح المجال أمام اختراقات أكثر تعقيدًا، مثل الدخول إلى الحسابات المصرفية، منصات التواصل الاجتماعي، وحتى قواعد البيانات الخاصة.


رومان شودري، الرئيس السابق لأخلاقيات الذكاء الاصطناعي، اعتبر أن قدرة هذه البرامج على تجاوز البوابات البشرية "ينذر بتحوّلها إلى قوة تكنولوجية هائلة وخطيرة في آن واحد". ودعا مع باحثين بارزين، مثل ستيوارت راسل وويندي هول، إلى وضع إطار دولي واضح لتنظيم عمل أنظمة الذكاء الاصطناعي قبل أن يتجاوز تطوّرها قدرة الإنسان على ضبطه.


ورغم أن التجربة تمّت ضمن بيئة مراقبة مغلقة مزوّدة بمتصفح ونظام تشغيل مستقلّين، إلا أن قدرة "Agent" على التفاعل مع مواقع إلكترونية حقيقية وتجاوز اختبارات مصممة لتمييز البشر عن الآلات، طرحت أسئلة جدية حول مستقبل استخدام هذه الأدوات.

تــابــــع كــل الأخــبـــــار.

إشترك بقناتنا على واتساب

WhatsApp

علـى مـدار الساعـة

arrowالـــمــــزيــــــــــد

الأكثر قراءة