به گزارش تجارت نیوز، OpenAI در جدیدترین بهروزرسانی خود در چارچوب آمادگیای که به منظور ارزیابی ایمنی مدلهای هوش مصنوعی و تعیین تدابیر لازم در طول توسعه و استقرار استفاده میشود، تغییراتی اعمال کرده است. در این بهروزرسانی، OpenAI اعلام کرده که ممکن است در صورت انتشار یک سیستم «پرخطر» از سوی یک آزمایشگاه رقیب، الزامات ایمنی خود را «تنظیم» کند. این تغییر نشاندهنده فشارهای فزاینده رقابتی بر توسعهدهندگان تجاری هوش مصنوعی برای انتشار سریع مدلهاست.
انتقادها از کاهش استانداردها
OpenAI به دلیل تسریع در فرایند انتشار مدلها و کاهش استانداردهای ایمنی به نفع این سرعت هدف انتقاد قرار گرفته است. این شرکت همچنین متهم به عدم ارائه گزارشهای بهموقع درباره آزمایشهای ایمنی شده است. هفته گذشته، ۱۲ کارمند سابق OpenAI در پرونده ایلان ماسک علیه این شرکت، اعلام کردند که اگر OpenAI به بازسازی شرکتی خود ادامه دهد، ممکن است تشویق شود تا بیشتر در مورد ایمنی کوتاه بیاید.
واکنش OpenAI به انتقادها
OpenAI در تلاش برای پیشگیری از انتقادات بیشتر، اعلام کرده است این تغییرات در سیاستها بهراحتی صورت نمیگیرد و تدابیر حفاظتی خود را در سطحی «بیشتر محافظتی» نگه میدارد. در یک پست وبلاگی که سهشنبه بعدازظهر منتشر شد، OpenAI نوشت: «اگر توسعهدهنده دیگری یک سیستم پرخطر منتشر کند بدون تدابیر مشابه، ممکن است الزامات خود را تنظیم کنیم. اما ابتدا باید بهطور دقیق تأیید کنیم که منظره خطر واقعاً تغییر کرده است، بهصورت عمومی اعلام کنیم در حال تنظیم یک تغییر هستیم و ارزیابی کنیم که این تغییر بهطور معناداری خطر آسیب شدید را افزایش نمیدهد و همچنان تدابیر حفاظتی را در سطحی بیشتر محافظتی نگه داریم.»
استفاده از ارزیابیهای خودکار
چارچوب آمادگی بهروزرسانیشده همچنین نشان میدهد که OpenAI بهطور فزایندهای به ارزیابیهای خودکار متکی شده است تا توسعه محصول را تسریع کند. این شرکت میگوید که اگرچه آزمایشهای انسانی را بهطور کامل رها نکرده است، اما «یک مجموعه در حال رشد از ارزیابیهای خودکار» را توسعه داده است که به گفته این شرکت میتواند با «سرعت بالاتر انتشار» هماهنگ باشد.
تضاد با گزارشهای مالی
با این حال، برخی از گزارشها با این ادعاها تناقض دارند. طبق اطلاعات Financial Times، اوپی ایآی به تستکنندگان کمتر از یک هفته زمان داده است تا بررسیهای ایمنی را برای یک مدل عمده آینده انجام دهند که این زمان نسبت به نسخههای قبلی فشردهتر است. منابع این نشریه همچنین ادعا کردهاند که بسیاری از آزمایشهای ایمنی OpenAI اکنون روی نسخههای اولیه مدلها انجام میشود و نه نسخههایی که به طور عمومی منتشر شدهاند.
نپذیرفتن کاهش ایمنی
OpenAI در بیانیههای خود، ایده کاهش ایمنی را رد کرده است. این شرکت بهوضوح بیان کرده است که سیستمهای تحت پوشش که به قابلیت «بالا» میرسند، باید تدابیر حفاظتی داشته باشند که به طور کافی خطر آسیب شدید مرتبط را قبل از استقرار کاهش دهند. همچنین سیستمهایی که به قابلیت «بحرانی» میرسند، نیاز به تدابیر حفاظتی دارند که بهطور کافی خطرات مرتبط را در طول توسعه کاهش دهند.
تغییرات جدید، نخستین تغییرات OpenAI در چارچوب آمادگی از سال 2023 به شمار میرود و نشاندهنده نیاز این شرکت به پاسخگویی به فشارهای رقابتی و همچنین حفظ ایمنی در مدلهای هوش مصنوعی است.