يقوم Openai بإعداد تغييرات خطيرة في عمل Tatgpt – ستقدم الشركة اختبار العمر. ستؤثر القواعد الجديدة على جميع المستخدمين ، ولكن أولاً وقبل كل شيء ، الغرض من حماية المراهقين. والسبب هو أن الدردشة تستخدم بشكل متزايد للمحادثات الصريحة حول الموضوعات الشخصية ، بما في ذلك الصحة العقلية.

تشبه الشركة قضية مأساوية: في الربيع ، ناقش مراهق موضوع الانتحار مع chatbot لبضع ساعات ، ثم قتلت نفسي. رفعت دعوى قضائية ضد العائلة ، وقررت Openai تعزيز التدابير الأمنية.
تم استدعاء حلقة أخرى أيضًا إلى Greenwich: استفزت Chatgpt American 56 -Year -Old American مع رجل مكبوت قتل والدته بعد الانتحار.
بعد ذلك ، قال Openai إنهم سيوجهون مربعات حوار المستخدم الحساسة للمستخدمين إلى المزيد من نماذج التفكير مثل GPT-5 والشهر المقبل سيبدأون في التحكم في الآباء.
كيف ستعمل
من سام ألتمان ، الرئيس التنفيذي لشركة Openai ، قدمت الشركة نظام تنبؤ العمري. ستقوم الخوارزمية بتحليل طريقة مستخدم Tatgpt ومحاولة تحديد ما إذا كان مراهقًا أو بالغًا. إذا كان لا يزال هناك شك ، فسيقوم المستخدمون بتحديد نظام المراهقين تلقائيًا. في بعض البلدان والمواقف ، قد تكون هناك حاجة إلى تأكيد العمر بمساعدة وثيقة.
بالنسبة للمراهقين ، سيتم تطبيق القيود القاسية. على سبيل المثال ، ستتوقف Chatgpt عن الاستجابة للتغازل حتى عند الطلب ، وسوف تصبح مناقشة حول الانتحار محظورة تمامًا. في حالة الفكر في الانتحار ، فإن الشركة لها الحق في الاتصال بالآباء أو حتى مع الحكومة ، إذا لم يكن الوالدان متاحين.
ماذا يعني للبالغين
قد يضطر المستخدمون البالغون إلى التوصل إلى اتفاق مع حقيقة أن حريتهم ستكون محدودة جزئيًا – على سبيل المثال ، سيتعين عليك تأكيد عمرك. أطلق التمان على هذا سعرًا معقولًا للفايكنج لسلامة المراهقين.
لماذا هو مهم
أصبحت ChatGPT والمحادثات الأخرى أكثر وأكثر حوارًا للمحادثات الجادة ، من الأسئلة الصحية وحقوق الدعم إلى الدعم في المواقف الصعبة. ولكن ، كما لاحظ باحثون من ستانفورد ، أولئك الذين يساعدون الذين لم يتعاملوا مع معالج نفسي: يمكنهم التقليل من شأن الحالة العقلية أو تقديم نصيحة لا لبس فيها.