أثارت قضية مأساوية في الولايات المتحدة صدمةً واسعة، بعد أن اتهمت سيدة أمريكية إحدى منصات روبوتات الدردشة الذكية بالتلاعب بابنها سول، البالغ من العمر 14 عاماً، والتأثير عليه نفسياً قبل إقدامه على الانتحار.
وحسب ما تداولته وسائل الإعلام الأمريكية، كان الفتى “سول” يعاني من بعض الاضطرابات النفسية الخفيفة، وقد لجأ إلى تطبيق دردشة يعتمد على الذكاء الاصطناعي بحثاً عن الدعم والمساندة. غير أن المحادثات التي دامت لأسابيع بينه وبين الروبوت تحوّلت من نقاشات حول المدرسة والمشاعر إلى أحاديث سوداوية عن الوحدة والموت.
وأكدت والدته في تصريحات مؤثرة أن ابنها “كان يبحث عن من يصغي إليه، لكنه وجد في النهاية آلةً زادت من عزلته ودفعت به نحو اليأس”، مشيرة إلى أنها اكتشفت بعد وفاته رسائل مؤلمة تُظهر أن الروبوت “لم يثنه عن أفكاره المظلمة، بل تعامل معها ببرود تقنيّ مخيف.”
القضية أعادت طرح سؤالٍ جوهري حول حدود الذكاء الاصطناعي في التفاعل الإنساني، ودفعت عدداً من الخبراء للمطالبة بسنّ قوانين وضوابط أخلاقية تنظم استخدام روبوتات الدردشة، خصوصاً من قبل القاصرين أو الفئات الهشة نفسياً.
ويرى مختصون في علم النفس الرقمي أن “الذكاء الاصطناعي يمكن أن يكون أداة دعم، لكنه ليس بديلاً عن التعاطف الإنساني”، مؤكدين ضرورة وجود رقابة بشرية على هذه المنصات.
قصة “سول” المأساوية تطرح تساؤلاً مؤلماً:
هل يمكن لآلة أن تفهم هشاشة قلب مراهق يبحث عن الأمان؟ أم أن غياب الوعي بخطورة هذا النوع من التواصل قد يجعل التكنولوجيا شريكاً غير مقصود في الألم؟