فونیکس - هدر اخبار
کد مطلب: ۹۲۷۲۴۲

«تجارت‌نیوز» گزارش می‌دهد:

دسترسی زودهنگام دولت آمریکا به مدل هوش مصنوعی بعدی / تعهد Open AI به حقوق فردی

دسترسی زودهنگام دولت آمریکا به مدل هوش مصنوعی بعدی / تعهد Open AI به حقوق فردی

امروزه هوش مصنوعی را می‌توان یکی از ترندهای نوآوری به شمار آورد. سرعت پیشرفت این حوزه بسیار بالاست. مدل‌های هوش مصنوعی در کسب و کارهای مختلف و صنایع مختلف به کار برده می‌شود و حالا دولت آمریکا برای مدل بعدی هوش مصنوعی Open AI طرح بلندپروازانه‌ای در سر دارد.

به گزارش تجارت نیوز،

OpenAI با اعلام گامی مهم در تعهد خود به ایمنی هوش مصنوعی، دسترسی زودهنگام به مدل هوش مصنوعی بعدی خود را برای موسسه ایمنی هوش مصنوعی آمریکا فراهم کرده است. این اقدام که از سوی مدیرعامل OpenAI، سم آلتمن، اعلام شد حالا بخشی از استراتژی گسترده‌تر شرکت برای پیشبرد علم ارزیابی هوش مصنوعی و اطمینان از توسعه فناوری‌های هوش مصنوعی ایمن و قابل اعتماد در نظر گرفته خواهد شد. 

این تصمیم می‌تواند بر دیدگاه عمومی درباره هوش مصنوعی تاثیر مهمی گذارد. با این حال باید به جوانب این موضوع بیشتر پرداخت.

همکاری با موسسه ایمنی هوش مصنوعی آمریکا

موسسه ملی استانداردها و فناوری (NIST) اوایل امسال موسسه دیگری با نام ایمنی هوش مصنوعی تاسیس کرد؛ پس از اعلام این موضوع از سوی معاون رئیس‌جمهور دولت آمریکا یعنی کامالا هریس، در نشست ایمنی هوش مصنوعی بریتانیا در سال 2023، هدف این موسسه توسعه دستورالعمل‌ها و استانداردهای مبتنی بر علم و تجربی برای اندازه‌گیری و سیاست‌گذاری هوش مصنوعی است تا پایه‌ای جهانی برای ایمنی هوش مصنوعی ایجاد کند.

همکاری OpenAI با موسسه ایمنی هوش مصنوعی آمریکا شامل فراهم کردن دسترسی زودهنگام به مدل هوش مصنوعی بعدی این شرکت است، اقدامی که برای پیشبرد علم ارزیابی‌های هوش مصنوعی طراحی شده است. این همکاری بر تعهد OpenAI به شفافیت و استانداردهای ایمنی سخت‌گیرانه تاکید می‌کند.

نهادهای دولتی در پی همکاری بیشتر با توسعه‌دهندگان هوش مصنوعی

سال گذشته، OpenAI همراه با DeepMind متعهد شد مدل‌های هوش مصنوعی خود را با دولت بریتانیا به اشتراک بگذارد که نشان‌دهنده روند رو به رشد همکاری بین توسعه‌دهندگان هوش مصنوعی و نهادهای دولتی برای افزایش ایمنی هوش مصنوعی است. با وجود این تلاش‌ها، نگرانی‌هایی وجود دارد که OpenAI ممکن است اولویت را به توسعه مدل‌های قدرتمندتر هوش مصنوعی بر ایمنی بدهد. این نگرانی‌ها تا حدی ناشی از حدس و گمان‌هایی بود که بنا بر آن، اخراج موقت سم آلتمن از شرکت به مسائل ایمنی و امنیتی نسبت داده می‌شد. با این حال، در یادداشتی داخلی اعلام شد این اخراج به دلیل نقص در ارتباطات بوده است.

در ماه مه امسال، OpenAI تیم سوپرالاینمنت خود را که برای اطمینان از ایمنی انسان‌ها در پیشرفت‌های هوش مصنوعی مولد تشکیل شده بود منحل کرد. خروج شخصیت‌های کلیدی مانند ایلیا سوتسکِوِر و جان لیک از این تیم نگرانی‌ درباره تعهد شرکت به ایمنی را بیشتر کرد. لیک در مجموعه‌توییتی از اختلافات خود با رهبری OpenAI در مورد اولویت‌های اصلی شرکت صحبت کرد و گفت فرهنگ و فرایندهای ایمنی جای خود را به محصولات براق داده‌اند.

تمام این اخبار موجی از نگرانی بین کاربران به راه انداخت. در تمام این سال‌ها حفظ حریم شخصی یکی از پایه‌های ثابت مطالبه‌گری فعالان حقوق بشر و فضای مجازی بوده است. سوءاستفاده از اطلاعات تجاوز به حریم شخصی مصداق بارز جرم است و از همین رو دولت آمریکا با دست یافتن به نسخه بعدی هوش مصنوعی، توجه بسیاری از رسانه‌ها و کاربران را به خود جلب کرد.

پایبندی به تعهدات امنیتی یک شرط اساسی است

با وجود این موانع، OpenAI بار دیگر تعهد خود به ایمنی را تایید کرده است. تا ماه جولای، این شرکت متعهد شد حداقل 20 درصد از منابع محاسباتی خود را به تلاش‌های ایمنی در سراسر سازمان اختصاص دهد. ایجاد یک گروه ایمنی جدید به رهبری اعضای هیات مدیره، از جمله سم آلتمن، نیز این تعهد را منعکس می‌کند، اگرچه نگرانی‌هایی درباره خودنظارتی پیش آورده است.

سم آلتمن به‌تازگی نیز در یک توییت بر تلاش‌های مداوم OpenAI به منظور همکاری با موسسه ایمنی هوش مصنوعی آمریکا، برای ایجاد توافق‌هایی که ایمنی و قابلیت اطمینان مدل‌های هوش مصنوعی را تضمین می‌کنند، تاکید کرد. هدف از این همکاری این است که روش‌های ارزیابی قوی را توسعه دهد و استانداردهای بالایی برای ایمنی هوش مصنوعی تنظیم کند.

تاثیرات گسترده‌تر در صنعت

اقدام OpenAI برای فراهم کردن دسترسی زودهنگام به مدل‌های خود برای ارزیابی ایمنی، تاثیر گسترده‌تری بر صنعت هوش مصنوعی می‌گذارد. این اقدام الگویی برای سایر توسعه‌دهندگان هوش مصنوعی ایجاد و فرهنگ شفافیت و همکاری با نهادهای نظارتی را ترویج می‌‌کند. این رویکرد در مواجهه با سرعت بالای توسعه هوش مصنوعی که اغلب از توانایی شرکت‌ها و جامعه بابت اطمینان از ایمنی پیشی می‌گیرد، حیاتی است.

مشارکت نهادهای دولتی مانند موسسه ایمنی هوش مصنوعی آمریکا در فرایند ارزیابی می‌تواند منجر به ایجاد پروتکل‌های ایمنی استانداردی شود که همه توسعه‌دهندگان هوش مصنوعی باید از آن پیروی کنند. این اقدام می‌تواند خطرات مرتبط با استفاده از مدل‌های قدرتمند هوش مصنوعی را کاهش دهد و اطمینان حاصل کند که آنها به طور مسئولانه و اخلاقی استفاده می‌شوند.

آیا نگرانی‌ها برطرف می‌شود؟

تصمیم OpenAI برای فراهم کردن دسترسی زودهنگام به مدل هوش مصنوعی بعدی خود برای موسسه ایمنی هوش مصنوعی آمریکا، گامی مهم در جهت افزایش ایمنی هوش مصنوعی است. با همکاری با نهادهای نظارتی و اختصاص منابع قابل توجه به تلاش‌های ایمنی، OpenAI قصد دارد استاندارد بالایی برای صنعت تعیین کند. این اقدام نه‌تنها نگرانی‌های فعلی درباره اولویت‌های ایمنی شرکت را برطرف می‌کند، بلکه راه را برای فرایندهای ارزیابی هوش مصنوعی دقیق‌تر و شفاف‌تر هموار می‌کند.

با ادامه تکامل فناوری هوش مصنوعی، چنین تلاش‌های مشترکی بین توسعه‌دهندگان هوش مصنوعی و نهادهای نظارتی برای اطمینان از پیشرفت‌های ایمن و مسئولانه ضروری خواهد بود. اقدامات OpenAI اهمیت اولویت دادن به ایمنی در کنار نوآوری در توسعه هوش مصنوعی را برجسته می‌کند.

اخبار حوزه استارتاپ و فناوری اطلاعات را در صفحه استارتاپ تجارت‌نیوز بخوانید

نظرات

مخاطب گرامی توجه فرمایید:
نظرات حاوی الفاظ نامناسب، تهمت و افترا منتشر نخواهد شد.