هوش مصنوعی Claude در برابر درخواست‌های خطرناک، مکالمه را قطع می‌کند!

۱۴۰۴/۵/۲۷ ۰۹:۰۲:۱۲

شرکت Anthropic اعلام کرده که قابلیت‌های جدیدی را به مدل‌های هوش مصنوعی خود اضافه کرده که به آن‌ها اجازه می‌دهد در موارد نادر و شدید از تعاملات مضر یا توهین‌آمیز کاربران، مکالمات را پایان دهند. این اقدام به منظور حفاظت از خود مدل‌ها و نه کاربران انسانی انجام می‌شود.

مدل‌های Claude Opus 4 و 4.1 در حال حاضر تحت این تغییرات قرار دارند و این قابلیت تنها در شرایط خاصی مانند درخواست‌های غیرقانونی یا خشونت‌آمیز به کار گرفته می‌شود. Anthropic به این نکته اشاره کرده که این اقدام به‌عنوان یک برنامه آزمایشی در نظر گرفته شده و آن‌ها به دنبال بهبود رویکرد خود هستند.

در صورتی که Claude مکالمه‌ای را پایان دهد، کاربران می‌توانند از همان حساب کاربری مکالمات جدیدی را آغاز کنند و یا با ویرایش پاسخ‌های خود، شاخه‌های جدیدی از مکالمه‌های مشکل‌ساز ایجاد کنند. این تغییرات نشان‌دهنده توجه Anthropic به "رفاه مدل" است و به‌دنبال کاهش خطرات احتمالی برای مدل‌های هوش مصنوعی خود هستند. /

© 2025 Copyright - All Rights Reserved By ecofori.ir