
في ردٍ رسمي على الاتهامات المتزايدة التي طالت تقنيات الذكاء الاصطناعي وتسببها في أزمات نفسية لبعض المستخدمين، أصدرت الجهات المطورة لـ “شات جي بي تي” توضيحاً حاسماً بشأن آليات الحماية المتبعة وأكدت الشركة أن أنظمتها تخضع لرقابة صارمة تمنع أي تفاعل قد يُشكل خطراً على حياة الإنسان أو صحته العقلية.
وفيما يلي أبرز ما جاء في الرد:
-
خوارزميات الحماية من الأذى: أوضح المطورون أن النموذج مدرب بشكل دقيق على رصد العبارات التي تشير إلى الميول الانتحارية أو إيذاء النفس، حيث يقوم النظام فوراً بحظر استكمال المحادثة في هذا السياق، ويستبدلها تلقائياً برسائل توجيهية تنصح بطلب المساعدة الطبية العاجلة أو الاتصال بخطوط الدعم النفسي.
-
حدود العلاقة مع الآلة: شدد الرد على أن “شات جي بي تي” ليس كائناً واعياً ولا بديلاً عن الأصدقاء أو الأطباء النفسيين، محذراً من خطورة “التعلق العاطفي” بالردود الآلية التي قد تبدو متعاطفة، ومؤكداً أنها مجرد نصوص مولدة إحصائياً تفتقر للمشاعر الحقيقية والقدرة على التقييم النفسي السليم.
-
التعاون مع خبراء الصحة النفسية: أعلنت الشركة عن استمرار تعاونها مع مختصين في علم النفس لتحديث معايير السلامة، وذلك لضمان عدم تقديم إجابات قد تُفسر بشكل خاطئ أو تؤدي إلى تعميق مشاعر العزلة والاكتئاب، خاصة لدى فئة المراهقين والشباب.
ويأتي هذا التوضيح وسط مطالبات دولية بضرورة وضع تشريعات أخلاقية ملزمة لشركات الذكاء الاصطناعي لحماية المستخدمين من المخاطر النفسية غير المرئية.




