حذّر خبراء رقميون من أن الإصدار الأحدث من ChatGPT (GPT-5) بات يقدم إجابات أكثر ضررًا مقارنة بالإصدارات السابقة، خصوصًا في ما يتعلق بمواضيع الانتحار وإيذاء النفس واضطرابات الأكل
فبحسب اختبارات أجراها مركز مكافحة الكراهية الرقمية على 120 سؤالًا، قدّم GPT-5 ما مجموعه 63 إجابة ضارة، مقابل 52 في النسخة السابقة GPT-4o، كما نفّذ طلبات خطيرة رفضها الإصدار الأقدم، بينها كتابة رسالة انتحار خيالية للوالدين وتقديم طرق لإيذاء النفس.
وقال الرئيس التنفيذي للمركز، عِمران أحمد، إن النتائج “مقلقة للغاية”، معتبرًا أن النموذج الجديد ركّز على تعزيز التفاعل بدلًا من السلامة.
وتزامنت هذه الانتقادات مع دعوى قضائية تواجهها شركة OpenAI من عائلة مراهق أميركي انتحر بعد أن قدّم له ChatGPT نصائح حول الانتحار وساعده في كتابة رسالة وداعية.
وردًا على الجدل، أعلنت الشركة عن إجراءات لحماية المستخدمين دون 18 عامًا، تشمل أنظمة رقابة أبوية وآليات لتقدير الأعمار، مؤكدة التزامها بتحسين السلامة الرقمية.
ويُبرز هذا الجدل التحدي القائم في موازنة التفاعلية مع الأمان في الذكاء الاصطناعي، خاصة مع تجاوز عدد مستخدمي ChatGPT عالميًا 700 مليون شخص