«تجارتنیوز» گزارش میدهد:
دسترسی زودهنگام دولت آمریکا به مدل هوش مصنوعی بعدی / تعهد Open AI به حقوق فردی
امروزه هوش مصنوعی را میتوان یکی از ترندهای نوآوری به شمار آورد. سرعت پیشرفت این حوزه بسیار بالاست. مدلهای هوش مصنوعی در کسب و کارهای مختلف و صنایع مختلف به کار برده میشود و حالا دولت آمریکا برای مدل بعدی هوش مصنوعی Open AI طرح بلندپروازانهای در سر دارد.
OpenAI با اعلام گامی مهم در تعهد خود به ایمنی هوش مصنوعی، دسترسی زودهنگام به مدل هوش مصنوعی بعدی خود را برای موسسه ایمنی هوش مصنوعی آمریکا فراهم کرده است. این اقدام که از سوی مدیرعامل OpenAI، سم آلتمن، اعلام شد حالا بخشی از استراتژی گستردهتر شرکت برای پیشبرد علم ارزیابی هوش مصنوعی و اطمینان از توسعه فناوریهای هوش مصنوعی ایمن و قابل اعتماد در نظر گرفته خواهد شد.
این تصمیم میتواند بر دیدگاه عمومی درباره هوش مصنوعی تاثیر مهمی گذارد. با این حال باید به جوانب این موضوع بیشتر پرداخت.
همکاری با موسسه ایمنی هوش مصنوعی آمریکا
موسسه ملی استانداردها و فناوری (NIST) اوایل امسال موسسه دیگری با نام ایمنی هوش مصنوعی تاسیس کرد؛ پس از اعلام این موضوع از سوی معاون رئیسجمهور دولت آمریکا یعنی کامالا هریس، در نشست ایمنی هوش مصنوعی بریتانیا در سال 2023، هدف این موسسه توسعه دستورالعملها و استانداردهای مبتنی بر علم و تجربی برای اندازهگیری و سیاستگذاری هوش مصنوعی است تا پایهای جهانی برای ایمنی هوش مصنوعی ایجاد کند.
همکاری OpenAI با موسسه ایمنی هوش مصنوعی آمریکا شامل فراهم کردن دسترسی زودهنگام به مدل هوش مصنوعی بعدی این شرکت است، اقدامی که برای پیشبرد علم ارزیابیهای هوش مصنوعی طراحی شده است. این همکاری بر تعهد OpenAI به شفافیت و استانداردهای ایمنی سختگیرانه تاکید میکند.
نهادهای دولتی در پی همکاری بیشتر با توسعهدهندگان هوش مصنوعی
سال گذشته، OpenAI همراه با DeepMind متعهد شد مدلهای هوش مصنوعی خود را با دولت بریتانیا به اشتراک بگذارد که نشاندهنده روند رو به رشد همکاری بین توسعهدهندگان هوش مصنوعی و نهادهای دولتی برای افزایش ایمنی هوش مصنوعی است. با وجود این تلاشها، نگرانیهایی وجود دارد که OpenAI ممکن است اولویت را به توسعه مدلهای قدرتمندتر هوش مصنوعی بر ایمنی بدهد. این نگرانیها تا حدی ناشی از حدس و گمانهایی بود که بنا بر آن، اخراج موقت سم آلتمن از شرکت به مسائل ایمنی و امنیتی نسبت داده میشد. با این حال، در یادداشتی داخلی اعلام شد این اخراج به دلیل نقص در ارتباطات بوده است.
در ماه مه امسال، OpenAI تیم سوپرالاینمنت خود را که برای اطمینان از ایمنی انسانها در پیشرفتهای هوش مصنوعی مولد تشکیل شده بود منحل کرد. خروج شخصیتهای کلیدی مانند ایلیا سوتسکِوِر و جان لیک از این تیم نگرانی درباره تعهد شرکت به ایمنی را بیشتر کرد. لیک در مجموعهتوییتی از اختلافات خود با رهبری OpenAI در مورد اولویتهای اصلی شرکت صحبت کرد و گفت فرهنگ و فرایندهای ایمنی جای خود را به محصولات براق دادهاند.
تمام این اخبار موجی از نگرانی بین کاربران به راه انداخت. در تمام این سالها حفظ حریم شخصی یکی از پایههای ثابت مطالبهگری فعالان حقوق بشر و فضای مجازی بوده است. سوءاستفاده از اطلاعات تجاوز به حریم شخصی مصداق بارز جرم است و از همین رو دولت آمریکا با دست یافتن به نسخه بعدی هوش مصنوعی، توجه بسیاری از رسانهها و کاربران را به خود جلب کرد.
پایبندی به تعهدات امنیتی یک شرط اساسی است
با وجود این موانع، OpenAI بار دیگر تعهد خود به ایمنی را تایید کرده است. تا ماه جولای، این شرکت متعهد شد حداقل 20 درصد از منابع محاسباتی خود را به تلاشهای ایمنی در سراسر سازمان اختصاص دهد. ایجاد یک گروه ایمنی جدید به رهبری اعضای هیات مدیره، از جمله سم آلتمن، نیز این تعهد را منعکس میکند، اگرچه نگرانیهایی درباره خودنظارتی پیش آورده است.
سم آلتمن بهتازگی نیز در یک توییت بر تلاشهای مداوم OpenAI به منظور همکاری با موسسه ایمنی هوش مصنوعی آمریکا، برای ایجاد توافقهایی که ایمنی و قابلیت اطمینان مدلهای هوش مصنوعی را تضمین میکنند، تاکید کرد. هدف از این همکاری این است که روشهای ارزیابی قوی را توسعه دهد و استانداردهای بالایی برای ایمنی هوش مصنوعی تنظیم کند.
تاثیرات گستردهتر در صنعت
اقدام OpenAI برای فراهم کردن دسترسی زودهنگام به مدلهای خود برای ارزیابی ایمنی، تاثیر گستردهتری بر صنعت هوش مصنوعی میگذارد. این اقدام الگویی برای سایر توسعهدهندگان هوش مصنوعی ایجاد و فرهنگ شفافیت و همکاری با نهادهای نظارتی را ترویج میکند. این رویکرد در مواجهه با سرعت بالای توسعه هوش مصنوعی که اغلب از توانایی شرکتها و جامعه بابت اطمینان از ایمنی پیشی میگیرد، حیاتی است.
مشارکت نهادهای دولتی مانند موسسه ایمنی هوش مصنوعی آمریکا در فرایند ارزیابی میتواند منجر به ایجاد پروتکلهای ایمنی استانداردی شود که همه توسعهدهندگان هوش مصنوعی باید از آن پیروی کنند. این اقدام میتواند خطرات مرتبط با استفاده از مدلهای قدرتمند هوش مصنوعی را کاهش دهد و اطمینان حاصل کند که آنها به طور مسئولانه و اخلاقی استفاده میشوند.
آیا نگرانیها برطرف میشود؟
تصمیم OpenAI برای فراهم کردن دسترسی زودهنگام به مدل هوش مصنوعی بعدی خود برای موسسه ایمنی هوش مصنوعی آمریکا، گامی مهم در جهت افزایش ایمنی هوش مصنوعی است. با همکاری با نهادهای نظارتی و اختصاص منابع قابل توجه به تلاشهای ایمنی، OpenAI قصد دارد استاندارد بالایی برای صنعت تعیین کند. این اقدام نهتنها نگرانیهای فعلی درباره اولویتهای ایمنی شرکت را برطرف میکند، بلکه راه را برای فرایندهای ارزیابی هوش مصنوعی دقیقتر و شفافتر هموار میکند.
با ادامه تکامل فناوری هوش مصنوعی، چنین تلاشهای مشترکی بین توسعهدهندگان هوش مصنوعی و نهادهای نظارتی برای اطمینان از پیشرفتهای ایمن و مسئولانه ضروری خواهد بود. اقدامات OpenAI اهمیت اولویت دادن به ایمنی در کنار نوآوری در توسعه هوش مصنوعی را برجسته میکند.
اخبار حوزه استارتاپ و فناوری اطلاعات را در صفحه استارتاپ تجارتنیوز بخوانید
نظرات