«تجارتنیوز» گزارش میدهد:
هوش مصنوعی ایمنتر میشود؟ / تصمیم جدید OpenAI برای حفاظت از کاربران
با ایجاد این هیأت ایمنی مستقل، OpenAI رویکردی مشابه هیأت نظارت متا را در پیش گرفته است که برخی از تصمیمات سیاست محتوای متا را بررسی کرده و میتواند احکامی صادر کند که متا ملزم به پیروی از آنها باشد. هیچ یک از اعضای هیأت نظارت در هیأت مدیره متا حضور ندارند.
OpenAI اعلام کرد کمیته ایمنی و امنیت خود را به یک «کمیته نظارت مستقل» تبدیل کرده است. این کمیته جدید دارای اختیارات لازم برای به تعویق انداختن راهاندازی مدلها بهخاطر نگرانیهای ایمنی خواهد بود. این تصمیم پس از بررسی ۹۰ روزهای از فرآیندها و تدابیر ایمنی و امنیتی OpenAI گرفته شد.
کمیته نظارت مستقل به ریاست زیکو کولتر و با عضویت آدام دنجلو، پل ناکاسونه و نیکول سلینگه مان تشکیل شده است. این کمیته از سوی مدیریت شرکت درباره ارزیابیهای ایمنی برای راهاندازی مدلهای اصلی توجیه میشود و همراه با کل هیأت مدیره، نظارت بر راهاندازی مدلها را انجام خواهد داد. کمیته نظارت مستقل اختیار به تعویق انداختن راهاندازی مدلها را تا برطرف شدن نگرانیهای ایمنی، دارد.
بهبود امنیت هوش مصنوعی با هیأت ایمنی OpenAI
هیأت مدیره OpenAI نشر اطلاعات دورهای در مورد مسائل ایمنی و امنیت را نیز از این کمیته دریافت خواهد کرد. از آنجایی که اعضای کمیته ایمنی OpenAI فراتر از اعضای هیأت مدیره خود شرکت هستند، بنابراین ساختار و میزان استقلال این کمیته هنوز مشخص نیست.
با ایجاد این هیأت ایمنی مستقل، OpenAI رویکردی مشابه هیأت نظارت متا را در پیش گرفته است که برخی از تصمیمات سیاست محتوای متا را بررسی کرده و میتواند احکامی صادر کند که متا ملزم به پیروی از آنها باشد. هیچ یک از اعضای هیأت نظارت در هیأت مدیره متا حضور ندارند.
بررسیهای کمیته ایمنی و امنیت OpenAI به فرصتهای اضافی برای همکاری با صنعت هوش مصنوعی و دیگر صنایع و تبادل اطلاعات برای تقویت ایمنی صنعت AI منجر میشود. همچنین، این شرکت به دنبال راههای بیشتری برای به اشتراکگذاری و توضیح کارهای ایمنیاش و فرصتهای بیشتری برای آزمایش مستقل سیستمهایش است.
این تغییرات نشاندهنده تعهد OpenAI به ایمنی و امنیت در توسعه هوش مصنوعی است. با توجه به پیشرفتهای سریع در این حوزه، ایجاد کمیته نظارت مستقلی میتواند به کاهش نگرانیهای عمومی و افزایش اعتماد به فناوریهای جدید کمک کند. این کمیته با بررسی دقیق و مستقل مدلها، مطمئن میشود هیچ مدل جدیدی بدون ارزیابی کامل ایمنی و امنیتی راهاندازی نمیشود.
مسئولیت ما، تامین امنیت مدلهای OpenAI است
زیکو کولتر رئیس این کمیته در این باره گفت: «ما مفتخریم که مسئولیت نظارت بر ایمنی و امنیت مدلهای OpenAI را بر عهده داریم. هدف ما اطمینان از این است که تمامی مدلها به طور کامل ارزیابی شده و هیچ خطری برای کاربران و جامعه ایجاد نمیکند.»
آدام دنجلو، یکی از اعضای کمیته ایمنی و امنیت، توضیح داد: «این کمیته به ما اجازه میدهد با دقت بیشتری به مسائل ایمنی بپردازیم و از راهاندازی مدلهایی که ممکن است خطراتی به همراه داشته باشد، جلوگیری کنیم. ما به همکاری با سایر اعضای این صنعت برای بهبود استانداردهای ایمنی ادامه خواهیم داد.»
این تغییرات باعث میشود OpenAI با سایر شرکتها و سازمانها در زمینه ایمنی هوش مصنوعی همکاری و از تجربیات و دانش آنها بهرهبرداری کند. این همکاریها میتواند منجر به بهبود استانداردهای ایمنی در صنعت هوش مصنوعی و حمایت از توسعه مدلهای ایمنتر و قابل اعتمادتر شود.
راهاندازی کمیته نظارت مستقل نشاندهنده تعهد OpenAI به ایجاد یک محیط امن و قابل اعتماد برای توسعه و استفاده از هوش مصنوعی است. این کمیته با بررسی دقیق و مستقل مدلها، اطمینان حاصل میکند که تمامی آنها به طور کامل ارزیابی میشوند و هیچ خطری برای کاربران و جامعه ایجاد نمیکند. این اقدام میتواند به کاهش نگرانیهای عمومی و افزایش اعتماد به فناوریهای جدید بینجامد و از توسعه مدلهای ایمنتر و قابل اعتمادتر حمایت کند.
اخبار حوزه استارتاپ و فناوری اطلاعات را در صفحه استارتاپ تجارتنیوز بخوانید.
نظرات