موضوعات داغ: # قیمت مصالح ساختمانی # ارزش دلاری بورس # پاپ فرانسیس # رئیس سازمان بورس اوراق بهادار # ارزش معاملات بورس # پیش بینی بازارها # افت بورس # چین
«تجارت‌نیوز» گزارش می‌دهد:

کاهش تعهدات ایمنی OpenAI در عصر رقابت

OpenAI با تغییر در چارچوب آمادگی خود، ممکن است الزامات ایمنی را کاهش و به فشارهای رقابتی پاسخ دهد.

به گزارش تجارت نیوز، OpenAI در جدیدترین به‌روزرسانی خود در چارچوب آمادگی‌ای که به‌ منظور ارزیابی ایمنی مدل‌های هوش مصنوعی و تعیین تدابیر لازم در طول توسعه و استقرار استفاده می‌شود، تغییراتی اعمال کرده است. در این به‌روزرسانی، OpenAI اعلام کرده که ممکن است در صورت انتشار یک سیستم «پرخطر» از سوی یک آزمایشگاه رقیب، الزامات ایمنی خود را «تنظیم» کند. این تغییر نشان‌دهنده فشارهای فزاینده رقابتی بر توسعه‌دهندگان تجاری هوش مصنوعی برای انتشار سریع مدل‌هاست.

انتقادها از کاهش استانداردها

OpenAI به‌ دلیل تسریع در فرایند انتشار مدل‌ها و کاهش استانداردهای ایمنی به نفع این سرعت هدف انتقاد قرار گرفته است. این شرکت همچنین متهم به عدم ارائه گزارش‌های به‌موقع درباره آزمایش‌های ایمنی شده است. هفته گذشته، ۱۲ کارمند سابق OpenAI در پرونده ایلان ماسک علیه این شرکت، اعلام کردند که اگر OpenAI به بازسازی شرکتی خود ادامه دهد، ممکن است تشویق شود تا بیشتر در مورد ایمنی کوتاه بیاید.

واکنش OpenAI به انتقادها

OpenAI در تلاش برای پیشگیری از انتقادات بیشتر، اعلام کرده است این تغییرات در سیاست‌ها به‌راحتی صورت نمی‌گیرد و تدابیر حفاظتی خود را در سطحی «بیشتر محافظتی» نگه می‌دارد. در یک پست وبلاگی که سه‌شنبه بعدازظهر منتشر شد، OpenAI نوشت: «اگر توسعه‌دهنده دیگری یک سیستم پرخطر منتشر کند بدون تدابیر مشابه، ممکن است الزامات خود را تنظیم کنیم. اما ابتدا باید به‌طور دقیق تأیید کنیم که منظره خطر واقعاً تغییر کرده است، به‌صورت عمومی اعلام کنیم در حال تنظیم یک تغییر هستیم و ارزیابی کنیم که این تغییر به‌طور معناداری خطر آسیب شدید را افزایش نمی‌دهد و همچنان تدابیر حفاظتی را در سطحی بیشتر محافظتی نگه‌ داریم.»

استفاده از ارزیابی‌های خودکار

چارچوب آمادگی به‌روزرسانی‌شده همچنین نشان می‌دهد که OpenAI به‌طور فزاینده‌ای به ارزیابی‌های خودکار متکی شده است تا توسعه محصول را تسریع کند. این شرکت می‌گوید که اگرچه آزمایش‌های انسانی را به‌طور کامل رها نکرده است، اما «یک مجموعه در حال رشد از ارزیابی‌های خودکار» را توسعه داده است که به‌ گفته این شرکت می‌تواند با «سرعت بالاتر انتشار» هماهنگ باشد.

تضاد با گزارش‌های مالی

با این حال، برخی از گزارش‌ها با این ادعاها تناقض دارند. طبق اطلاعات Financial Times، اوپی ای‌آی به تست‌کنندگان کمتر از یک هفته زمان داده است تا بررسی‌های ایمنی را برای یک مدل عمده آینده انجام دهند که این زمان نسبت به نسخه‌های قبلی فشرده‌تر است. منابع این نشریه همچنین ادعا کرده‌اند که بسیاری از آزمایش‌های ایمنی OpenAI اکنون روی نسخه‌های اولیه مدل‌ها انجام می‌شود و نه نسخه‌هایی که به‌ طور عمومی منتشر شده‌اند.

نپذیرفتن کاهش ایمنی

OpenAI در بیانیه‌های خود، ایده کاهش ایمنی را رد کرده است. این شرکت به‌وضوح بیان کرده است که سیستم‌های تحت پوشش که به قابلیت «بالا» می‌رسند، باید تدابیر حفاظتی داشته باشند که به‌ طور کافی خطر آسیب شدید مرتبط را قبل از استقرار کاهش دهند. همچنین سیستم‌هایی که به قابلیت «بحرانی» می‌رسند، نیاز به تدابیر حفاظتی دارند که به‌طور کافی خطرات مرتبط را در طول توسعه کاهش دهند.

تغییرات جدید، نخستین تغییرات OpenAI در چارچوب آمادگی از سال 2023 به شمار می‌رود و نشان‌دهنده نیاز این شرکت به پاسخگویی به فشارهای رقابتی و همچنین حفظ ایمنی در مدل‌های هوش مصنوعی است.

نظرات
آخرین اخبار
پربازدیدترین اخبار

وب‌گردی