کد مطلب: ۹۵۰۱۷۱

«تجارت‌نیوز» گزارش می‌دهد:

حمایت OpenAI از پژوهش‌های اخلاقی هوش مصنوعی

حمایت OpenAI از پژوهش‌های اخلاقی هوش مصنوعی

OpenAI با حمایت از پژوهش دانشگاه دوک، به دنبال توسعه الگوریتم‌هایی برای پیش‌بینی قضاوت‌های اخلاقی انسان در تصمیم‌گیری‌های پیچیده است.

به گزارش تجارت نیوز،

OpenAI، پیشگام در نوآوری‌های هوش مصنوعی، پروژه‌ای جاه‌طلبانه را برای پیشرفت در حوزه اخلاق هوش مصنوعی آغاز کرده است. این سازمان از تحقیقات دانشگاهی برای طراحی الگوریتم‌هایی که قادر به پیش‌بینی قضاوت‌های اخلاقی انسان باشند حمایت می‌کند.

بر اساس اطلاعات ارائه‌شده در یک پرونده مالیاتی، بازوی غیرانتفاعی OpenAI از طرح تحقیقاتی «اخلاق هوش مصنوعی» حمایت مالی می‌کند. این پروژه به رهبری محققان دانشگاه دوک، با هدف درک بهتر چالش‌های تصمیم‌گیری اخلاقی هوش مصنوعی طراحی شده است.

OpenAI بودجه‌ای سه‌ساله به ارزش یک میلیون دلار را تا سال 2025 برای این تحقیق تامین کرده است. این بودجه به کار گروهی از استادان دانشگاه دوک، از جمله پروفسور والتر سینوت-آرمسترانگ، پژوهشگر اخلاق عملی و جانا بورگ، یکی از همکاران این پروژه اختصاص یافته است.

بررسی اخلاق در هوش مصنوعی

سینوت-آرمسترانگ و بورگ در سال‌های اخیر در حوزه تقاطع هوش مصنوعی و اخلاق فعالیت کرده‌اند. آنها با همکاری یکدیگر کتابی در مورد پتانسیل هوش مصنوعی به‌ عنوان "جی‌پی‌اس اخلاقی" برای هدایت تصمیم‌گیری انسانی تالیف کرده‌اند.

تلاش‌های این تیم شامل طراحی الگوریتم‌هایی برای هم‌راستا کردن تصمیم‌های اخلاقی، از جمله تخصیص عادلانه اهدای کلیه و تحقیقاتی درباره ترجیح افراد به تصمیم‌گیری اخلاقی به وسیله هوش مصنوعی بوده است.

این پروژه جدید با حمایت مالی OpenAI، به دنبال توسعه الگوریتم‌هایی است که بتوانند قضاوت‌های اخلاقی انسان را پیش‌بینی کنند. بر اساس یک بیانیه مطبوعاتی، تمرکز این تحقیق روی موقعیت‌هایی است که ویژگی‌های اخلاقی در آنها با یکدیگر در تضاد قرار دارند، به‌ویژه در حوزه‌هایی مانند پزشکی، حقوق و تجارت.

چالش‌های اخلاق در هوش مصنوعی

تلاش برای ایجاد سیستم‌های هوش مصنوعی اخلاقی با پیچیدگی‌های زیادی همراه است. اخلاق انسانی که هزاران سال موضوع بحث فیلسوفان بوده، به‌راحتی قابل دسته‌بندی یا توافق همگانی نیست.

مدل‌های یادگیری ماشین که به تجزیه‌وتحلیل آماری داده‌های بزرگ متکی هستند، نمی‌توانند پیچیدگی‌های استدلال، احساسات، و تنوع فرهنگی مرتبط با اخلاق انسانی را به‌درستی درک کنند.

برای مثال، ابزار اخلاقی Ask Delphi که از سوی موسسه آلن در سال 2021 ساخته شد، نشان داد سیستم‌های کنونی در مواجهه با مسائل اخلاقی ساده عملکرد قابل‌ قبولی دارند، اما در مواجهه با تغییرات کوچک در نحوه بیان سوال‌ها دچار سردرگمی می‌شوند. در مواردی، حتی تصمیماتی کاملاً غیرانسانی مانند خفه‌ کردن نوزادان را تایید می‌کرد.

مدل‌های هوش مصنوعی اغلب بر اساس داده‌هایی که عمدتاً از اینترنت جمع‌آوری می‌شوند، آموزش می‌بینند. این داده‌ها معمولاً بازتاب‌دهنده ارزش‌های جوامع غربی، تحصیل‌کرده و صنعتی هستند و ممکن است چارچوب‌های اخلاقی سایر فرهنگ‌ها و جوامع را نادیده بگیرند.

استانداردهای بالا و مسیر دشوار

OpenAI و همکارانش با چالش‌های بزرگی در مقابله با محدودیت‌های هوش مصنوعی و ماهیت ذهنی اخلاق روبه‌رو هستند.

نظریه‌های اخلاقی مانند کانتیسم که بر قوانین مطلق اخلاقی تاکید دارد و فایده‌گرایی که بر بیشترین خیر برای بیشترین تعداد متمرکز است، رویکردهای متفاوتی به اخلاق دارند. هیچ‌یک از این نظریه‌ها توافق جهانی کسب نکرده‌اند که این امر کدگذاری اخلاق در هوش مصنوعی را دشوار می‌کند.

برای پیش‌بینی قابل‌ اطمینان قضاوت‌های اخلاقی انسانی، هوش مصنوعی باید تنوع فرهنگی، ارزش‌های ذهنی و قرن‌ها بحث فلسفی را در نظر بگیرد. اینکه چنین الگوریتمی امکان‌پذیر باشد یا نه، همچنان سوالی باز است.

گامی به سوی آینده

با وجود این موانع، ابتکار OpenAI گامی مهم در جهت درک چگونگی کمک هوش مصنوعی به تصمیم‌گیری‌های اخلاقی انسان‌ها محسوب می‌شود.

با حمایت از پروژه‌هایی مانند «اخلاق هوش مصنوعی»، OpenAI قصد دارد اخلاق را به شکل عمیق‌تری در توسعه هوش مصنوعی ادغام کند تا فناوری‌های آینده بازتاب‌دهنده طیف گسترده‌ای از ارزش‌های انسانی باشند.

نتایج این تحقیقات می‌تواند تاثیرات عمیقی در حوزه‌هایی مانند مراقبت‌های بهداشتی و سیستم‌های حقوقی داشته باشد و نحوه تصمیم‌گیری هوش مصنوعی در زمینه‌های حساس اخلاقی را شکل دهد. با این حال، تحقق این چشم‌انداز نیازمند غلبه بر چالش‌های فنی، فلسفی و اجتماعی فراوانی است.

نظرات

مخاطب گرامی توجه فرمایید:
نظرات حاوی الفاظ نامناسب، تهمت و افترا منتشر نخواهد شد.