فونیکس - هدر اخبار
کد مطلب: ۹۳۵۷۹۶

«تجارت‌نیوز» گزارش می‌دهد:

هوش مصنوعی ایمن‌تر می‌شود؟ / تصمیم جدید OpenAI برای حفاظت از کاربران

هوش مصنوعی ایمن‌تر می‌شود؟ / تصمیم جدید OpenAI برای حفاظت از کاربران

با ایجاد این هیأت ایمنی مستقل، OpenAI رویکردی مشابه هیأت نظارت متا را در پیش گرفته است که برخی از تصمیمات سیاست محتوای متا را بررسی کرده و می‌تواند احکامی صادر کند که متا ملزم به پیروی از آنها باشد. هیچ یک از اعضای هیأت نظارت در هیأت مدیره متا حضور ندارند.

به گزارش تجارت نیوز،

OpenAI اعلام کرد کمیته ایمنی و امنیت خود را به یک «کمیته نظارت مستقل» تبدیل کرده است. این کمیته جدید دارای اختیارات لازم برای به تعویق‌ انداختن راه‌اندازی مدل‌ها به‌خاطر نگرانی‌های ایمنی خواهد بود. این تصمیم پس از بررسی ۹۰ روزه‌ای از فرآیندها و تدابیر ایمنی و امنیتی OpenAI گرفته شد.

کمیته نظارت مستقل به ریاست زیکو کولتر و با عضویت آدام دنجلو، پل ناکاسونه و نیکول سلینگه مان تشکیل شده است. این کمیته از سوی مدیریت شرکت درباره ارزیابی‌های ایمنی برای راه‌اندازی مدل‌های اصلی توجیه می‌شود و همراه با کل هیأت مدیره، نظارت بر راه‌اندازی مدل‌ها را انجام خواهد داد. کمیته نظارت مستقل اختیار به تعویق‌ انداختن راه‌اندازی مدل‌ها را تا برطرف شدن نگرانی‌های ایمنی، دارد.

بهبود امنیت هوش مصنوعی با هیأت ایمنی OpenAI

هیأت مدیره OpenAI نشر اطلاعات دوره‌ای در مورد مسائل ایمنی و امنیت را نیز از این کمیته دریافت خواهد کرد. از آنجایی که اعضای کمیته ایمنی OpenAI فراتر از اعضای هیأت مدیره خود شرکت هستند، بنابراین ساختار و میزان استقلال این کمیته هنوز مشخص نیست.

با ایجاد این هیأت ایمنی مستقل، OpenAI رویکردی مشابه هیأت نظارت متا را در پیش گرفته است که برخی از تصمیمات سیاست محتوای متا را بررسی کرده و می‌تواند احکامی صادر کند که متا ملزم به پیروی از آنها باشد. هیچ یک از اعضای هیأت نظارت در هیأت مدیره متا حضور ندارند.

بررسی‌های کمیته ایمنی و امنیت OpenAI به فرصت‌های اضافی برای همکاری با صنعت هوش مصنوعی و دیگر صنایع و تبادل اطلاعات برای تقویت ایمنی صنعت AI منجر می‌شود. همچنین، این شرکت به دنبال راه‌های بیشتری برای به اشتراک‌گذاری و توضیح کارهای ایمنی‌اش و فرصت‌های بیشتری برای آزمایش مستقل سیستم‌هایش است.

این تغییرات نشان‌دهنده تعهد OpenAI به ایمنی و امنیت در توسعه هوش مصنوعی است. با توجه به پیشرفت‌های سریع در این حوزه، ایجاد کمیته نظارت مستقلی می‌تواند به کاهش نگرانی‌های عمومی و افزایش اعتماد به فناوری‌های جدید کمک کند. این کمیته با بررسی دقیق و مستقل مدل‌ها، مطمئن می‌شود هیچ مدل جدیدی بدون ارزیابی کامل ایمنی و امنیتی راه‌اندازی نمی‌شود.

مسئولیت ما، تامین امنیت مدل‌های OpenAI است

زیکو کولتر رئیس این کمیته در این باره گفت: «ما مفتخریم که مسئولیت نظارت بر ایمنی و امنیت مدل‌های OpenAI را بر عهده داریم. هدف ما اطمینان از این است که تمامی مدل‌ها به طور کامل ارزیابی شده و هیچ خطری برای کاربران و جامعه ایجاد نمی‌کند.»

آدام دنجلو، یکی از اعضای کمیته ایمنی و امنیت، توضیح داد: «این کمیته به ما اجازه می‌دهد با دقت بیشتری به مسائل ایمنی بپردازیم و از راه‌اندازی مدل‌هایی که ممکن است خطراتی به همراه داشته باشد، جلوگیری کنیم. ما به همکاری با سایر اعضای این صنعت برای بهبود استانداردهای ایمنی ادامه خواهیم داد.»

این تغییرات باعث می‌شود OpenAI با سایر شرکت‌ها و سازمان‌ها در زمینه ایمنی هوش مصنوعی همکاری و از تجربیات و دانش آنها بهره‌برداری کند. این همکاری‌ها می‌تواند منجر به بهبود استانداردهای ایمنی در صنعت هوش مصنوعی و حمایت از توسعه مدل‌های ایمن‌تر و قابل اعتمادتر شود.

راه‌اندازی کمیته نظارت مستقل نشان‌دهنده تعهد OpenAI به ایجاد یک محیط امن و قابل اعتماد برای توسعه و استفاده از هوش مصنوعی است. این کمیته با بررسی دقیق و مستقل مدل‌ها، اطمینان حاصل می‌کند که تمامی آنها به طور کامل ارزیابی می‌شوند و هیچ خطری برای کاربران و جامعه ایجاد نمی‌کند. این اقدام می‌تواند به کاهش نگرانی‌های عمومی و افزایش اعتماد به فناوری‌های جدید بینجامد و از توسعه مدل‌های ایمن‌تر و قابل اعتمادتر حمایت کند.

اخبار حوزه استارتاپ و فناوری اطلاعات را در صفحه استارتاپ تجارت‌نیوز بخوانید.

نظرات

مخاطب گرامی توجه فرمایید:
نظرات حاوی الفاظ نامناسب، تهمت و افترا منتشر نخواهد شد.