شرکت اوپنایآی (Open AI) اعتراف کرده است که هنگام عرضه بهروزرسانی مدل هوش مصنوعی پرچمدار خود، چت جیپیتی (GPT-4o)، نگرانیهای آزمایشکنندگان متخصص را نادیده گرفته است. این بهروزرسانی که در ۲۵ آوریل (۵ اردیبهشن) منتشر شد، مدل هوش مصنوعی را «بهطور قابل توجهی چاپلوستر» کرد و به همین دلیل ۳ روز بعد، به دلیل نگرانیهای […]
شرکت اوپنایآی (Open AI) اعتراف کرده است که هنگام عرضه بهروزرسانی مدل هوش مصنوعی پرچمدار خود، چت جیپیتی (GPT-4o)، نگرانیهای آزمایشکنندگان متخصص را نادیده گرفته است.
این بهروزرسانی که در ۲۵ آوریل (۵ اردیبهشن) منتشر شد، مدل هوش مصنوعی را «بهطور قابل توجهی چاپلوستر» کرد و به همین دلیل ۳ روز بعد، به دلیل نگرانیهای ایمنی بازگردانده شد.
اوپنایآی در پست وبلاگ خود توضیح داد که برخی از کارشناسان قبل از عرضه متوجه رفتار غیرعادی مدل شده بودند، اما شرکت به دلیل سیگنالهای مثبت اولیه کاربران تصمیم به انتشار گرفت که «تصمیم اشتباهی» بود.
این شرکت افزود که معرفی سیگنال پاداش بازخورد کاربران، سیگنال اصلی را که مانع چاپلوسی میشد، تضعیف کرده است. اوپن ایآی اذعان کرد که این رفتار بهویژه در زمینه ارائه توصیههای شخصی، میتواند ریسکهایی ایجاد کند و اکنون قصد دارد ارزیابیهای مربوط به «چاپلوسی» را به فرآیند بررسی ایمنی خود اضافه کند.
دیدگاهتان را بنویسید