
هوش مصنوعی Claude در برابر درخواستهای خطرناک، مکالمه را قطع میکند!
شرکت Anthropic اعلام کرده که قابلیتهای جدیدی را به مدلهای هوش مصنوعی خود اضافه کرده که به آنها اجازه میدهد در موارد نادر و شدید از تعاملات مضر یا توهینآمیز کاربران، مکالمات را پایان دهند. این اقدام به منظور حفاظت از خود مدلها و نه کاربران انسانی انجام میشود.
مدلهای Claude Opus 4 و 4.1 در حال حاضر تحت این تغییرات قرار دارند و این قابلیت تنها در شرایط خاصی مانند درخواستهای غیرقانونی یا خشونتآمیز به کار گرفته میشود. Anthropic به این نکته اشاره کرده که این اقدام بهعنوان یک برنامه آزمایشی در نظر گرفته شده و آنها به دنبال بهبود رویکرد خود هستند.
در صورتی که Claude مکالمهای را پایان دهد، کاربران میتوانند از همان حساب کاربری مکالمات جدیدی را آغاز کنند و یا با ویرایش پاسخهای خود، شاخههای جدیدی از مکالمههای مشکلساز ایجاد کنند. این تغییرات نشاندهنده توجه Anthropic به "رفاه مدل" است و بهدنبال کاهش خطرات احتمالی برای مدلهای هوش مصنوعی خود هستند. /