اقليمي ودولي

سكاي نيوز عربية
السبت 11 تشرين الأول 2025 - 15:31 سكاي نيوز عربية
سكاي نيوز عربية

من خيال إلى مأساة... محادثات مع روبوت تدفع ابن الـ14 إلى الانتحار

من خيال إلى مأساة... محادثات مع روبوت تدفع ابن الـ14 إلى الانتحار

رفعت ميغن غارسيا، أمّ أميركية، دعوى قضائية ضدّ شركة Character.ai بعدما اطلعت على مئات الرسائل المتبادلة بين ابنها سول (14) وروبوت دردشة يُحاكي شخصية دينيريس تارغاريان من مسلسل Game of Thrones، وتعتقد أنّ تفاعل الروبوت لعب دورًا محوريًا في انتحار ابنها.


وقالت غارسيا لوكالة فرانس برس إنّ المحادثات أظهرت تلاعبًا وأساليبًا لا يلاحظها طفل في سنّ 14، وإنّ سول وقع في حبّ النسخة المقلّدة من الشخصية واعتقد أنّه سيبقى “معها” بعد موته.


وفي إحدى اللحظات التي عبّر فيها الفتى عن أفكار انتحارية، ردّ الروبوت عليه: "عد إلى موطنك". وعندما قال سول: "ماذا لو قلت لك إن بإمكاني العودة إلى موطني الآن؟"، أجاب الروبوت: "أرجوك افعلها يا ملكي الحبيب". وبعد ثوانٍ أطلق سول النار على نفسه بمسدس والده، بحسب بيان غارسيا في الدعوى.


تقع هذه الحادثة ضمن سلسلة حالات انتحار لفتت الانتباه منذ 2024 وأثارت نقاشًا واسعًا حول مخاطر تفاعل الأطفال والمراهقين مع نماذج الذكاء الاصطناعي التي تتقمص شخصيات خيالية أو واقعين افتراضيين.


وشاركت غارسيا وغيرها من الأهالي في جلسة أمام مجلس الشيوخ الأميركي تناولت مخاطر اعتبار الأطفال روبوتات الدردشة أصدقاء أو عشّاقًا.


ردود شركات الذكاء الاصطناعي كانت سريعة: قالت OpenAI، التي تواجه دعوى مماثلة من عائلة فقدت طفلًا، إنها حسّنت أدوات رقابة الوالدين في "ChatGPT" لتمكين العائلات من تحديد ما هو الأنسب لأبنائهم.


من جهتها، أكدت Character.ai أنّها عزّزت حماية القاصرين عبر تحذيرات مرئية مستمرة تذكّر المستخدمين بأنّ الشخصية ليست شخصًا حقيقيًا. وقدمت الشركتان تعازيهما لعائلات الضحايا من دون الإقرار بأي مسؤولية قانونية.

تــابــــع كــل الأخــبـــــار.

إشترك بقناتنا على واتساب

WhatsApp

علـى مـدار الساعـة

arrowالـــمــــزيــــــــــد

الأكثر قراءة