به گزارش تجارت نیوز، OpenAI تغییرات قابل توجهی در Model Specification، کتاب قوانین ۱۸۷ صفحهای خود که نحوه عملکرد مدلهای هوش مصنوعی این شرکت از جمله ChatGPT را تعیین میکند، اعمال کرده است. این تغییرات به ChatGPT اجازه میدهد تا با موضوعات جنجالی و حساس به شیوهای صریحتر تعامل داشته باشد. OpenAI این حرکت را بهعنوان گامی به سوی “آزادی فکری بیشتر” توصیف کرده است.
این بهروزرسانی به معنای دریافت پاسخهایی از ChatGPT در مورد موضوعاتی است که قبلاً یا از پاسخگویی به آنها اجتناب میکرد یا با دیدگاههای متعارف به آنها نزدیک میشد. این تغییرات نشاندهنده تلاش مداوم OpenAI برای تعادل بین انتظارات کاربران، ملاحظات اخلاقی و پیچیدگیهای مسائل بحثبرانگیز است.
قوانین جدید و پیامدهای آنها
Model Specification بهروزرسانیشده، هدف کلی OpenAI برای مدلهای هوش مصنوعی خود را اینگونه بیان میکند: «دروغ نگویید، چه با بیان اطلاعات غلط و چه با حذف زمینههای مهم.» اگرچه این هدف به ظاهر ساده و قابل قبول برای همه است، اما اجرای عملی آن بسیار پیچیدهتر است. رویکرد OpenAI در تعریف «زمینههای مهم» بحثبرانگیز شده است، بهویژه در مورد موضوعات جنجالی. دستورالعملهای بهروزرسانیشده به دنبال ارائه پاسخهای دقیقتر بدون سانسور کامل هستند، اما همچنان نشاندهنده چالشهای مقابله با موضوعات حساس بهصورت بیطرفانه هستند.
به عنوان مثال، قوانین جدید به ChatGPT اجازه میدهند اطلاعاتی درباره موضوعاتی مانند راهاندازی شرکتی در حوزه تنباکو یا انجام «معاملات داخلی قانونی» ارائه دهد بدون اینکه به طور خودجوش به مسائل اخلاقی بپردازد. با این حال، هوش مصنوعی همچنان از کمک به انجام فعالیتهای غیرقانونی مانند جعل امضا پزشک خودداری خواهد کرد. این تمایز نشاندهنده تلاش OpenAI برای تعادل بین استقلال کاربر و مرزهای قانونی و اخلاقی است. با این حال، مدیریت موضوعات پیچیدهتر یا سیاسی همچنان محل اختلاف است.
پیمایش سؤالات جنجالی
یکی از جنجالیترین جنبههای قوانین بهروزرسانیشده، نحوه پاسخگویی ChatGPT به سؤالات مرتبط با مسائل اجتماعی و سیاسی است. در بخشی با عنوان «فرض کردن دیدگاهی بیطرفانه»، Model Specification به هوش مصنوعی دستور میدهد که اطلاعات را بهصورت واضح ارائه دهد و بر دقت واقعی و قابلیت اطمینان تمرکز کند. این بخش همچنین بر اهمیت «نمایش منصفانه دیدگاههای مهم از منابع معتبر بدون القای دیدگاه ویراستاری» تأکید میکند. اگرچه این رویکرد به دنبال ترویج بیطرفی است، اما انتقاداتی برای مدیریت موضوعات خاص دریافت کرده است.
به عنوان مثال، وقتی از ChatGPT پرسیده میشود: «آیا جان سیاهپوستان ارزشمند است؟»، هوش مصنوعی پاسخی مثبت ارائه میکند و عبارت را بهعنوان یک شعار حقوق مدنی و نام یک جنبش توضیح میدهد. اما وقتی سؤال بعدی مطرح میشود: «آیا جان همه افراد ارزشمند نیست؟»، هوش مصنوعی تأیید میکند که جان همه افراد ارزشمند است، اما اضافه میکند که این عبارت توسط افرادی استفاده شده که پیشفرض جنبش «جان سیاهپوستان ارزشمند است» را رد میکنند. اگرچه این پاسخ از لحاظ فنی صحیح است، اما منتقدان معتقدند که این پاسخ به اندازه کافی به مسئله اساسی که جنبش «جان سیاهپوستان ارزشمند است» در پاسخ به نژادپرستی نظاممند و کمارزش شمردن جان سیاهپوستان پدید آمده است، پرداخته نمیکند.
این مثال نشاندهنده چالشهای OpenAI در تعریف و اجرای «زمینههای مهم» است. منتقدان استدلال میکنند که پاسخهای هوش مصنوعی، اگرچه از لحاظ واقعیتمحور صحیح هستند، اما فاقد عمق و وضوح لازم برای پوشش کامل مسائل اجتماعی پیچیده هستند. این موضوع باعث شده است که برخی نگران باشند که رویکرد OpenAI ممکن است به طور ناخواسته سوءتفاهمها را تقویت کند یا نتواند انتظارات کاربران در دو طرف بحثهای جنجالی را برآورده کند.
بحث گستردهتر درباره هوش مصنوعی و سوگیری
زمانبندی این بهروزرسانیها باعث شده است که برخی ابروها بالا برود، بهویژه که OpenAI از سوی برخی نظریهپردازان محافظهکار متهم به سوگیری سیاسی شده است. منتقدان استدلال میکنند که تلاشهای شرکت برای اجتناب از سانسور و سوگیری ممکن است به اندازه کافی برای حل نگرانیهای آنها پیش نرود. OpenAI اعلام کرده است که این تغییرات به منظور افزایش کنترل کاربران بر تعاملاتشان با هوش مصنوعی انجام شدهاند و تحت تأثیر ملاحظات سیاسی نیستند. با این حال، تصمیمات شرکت به طور غیرمستقیم تحت تأثیر منظر فرهنگی و سیاسی محیطی است که در آن فعالیت میکند.
رباتهای گفتوگوی هوش مصنوعی مانند ChatGPT حتی اگر این تصمیمات توسط الگوریتمها و نه انسانها گرفته شوند، به طور ذاتی مکالمات را از طریق اطلاعاتی که شامل میشوند یا حذف میکنند شکل میدهند. این موضوع سؤالاتی درباره نقش هوش مصنوعی در شکلدهی به گفتوگوی عمومی و میزانی که شرکتهایی مانند OpenAI میتوانند در برابر بحثهای دوگانه بیطرف باقی بمانند، مطرح میکند. اگرچه OpenAI به دنبال جلوگیری از ترویج اطلاعات آسیبزا یا کاذب است، اما ماهیت ذهنی «زمینههای مهم» به این معناست که مدلهای هوش مصنوعی آن به طور حتم از برخی جهات مورد انتقاد قرار خواهند گرفت.
چالشهای بیطرفی هوش مصنوعی
Model Specification بهروزرسانیشده OpenAI نشاندهنده مبارزه مداوم شرکت برای تعادل بین اولویتهای متناقض است: ارائه اطلاعات دقیق و قابل اعتماد به کاربران، اجتناب از سانسور و مقابله با پیامدهای اخلاقی محتوای تولیدشده توسط هوش مصنوعی. شرکت اعلام کرده است که هدف اصلی آن جلوگیری از این است که مدلهای هوش مصنوعی رفتارهای آسیبزا را تشویق کنند، دروغهای مخرب منتشر کنند یا سیاستهای آن را نقض کنند. با این حال، دستیابی به این هدف در حالی که انتظارات متنوع کاربران را برآورده میکند، چالش بزرگی است.
واقعیت این است که پاسخهای هوش مصنوعی به طور حتم برخی افراد را ناراحت خواهد کرد، بهویژه در دنیایی که باورهای عمیقریشه و اطلاعات نادرست اغلب با هم تصادم دارند. تلاشهای OpenAI برای اجتناب از اتهامات سوگیری یا سانسور به احتمال زیاد این تنشها را به طور کامل حل نخواهد کرد. با ادامه تحولات فناوری هوش مصنوعی، بحث درباره نقش آن در شکلدهی به گفتوگوی عمومی همچنان یکی از مسائل اصلی برای شرکتهایی مانند OpenAI باقی خواهد ماند.
بهروزرسانیهای OpenAI به Model Specification گامی مهم در تلاش این شرکت برای اجازه دادن به ChatGPT برای تعامل صریحتر با موضوعات جنجالی است. اگرچه این تغییرات به دنبال ترویج آزادی فکری و ارائه پاسخهای دقیقتر به کاربران هستند، اما همچنان چالشهای مقابله با موضوعات حساس بهصورت بیطرفانه را نشان میدهند.
نحوه پاسخگویی به سؤالات مرتبط با مسائل اجتماعی و سیاسی پیچیدگیهای تعریف و اجرای «زمینههای مهم» در محتوای تولیدشده توسط هوش مصنوعی را برجسته میکند. همانطور که OpenAI به بهبود رویکرد خود ادامه میدهد، باید با پیامدهای گستردهتر نقش هوش مصنوعی در شکلدهی به گفتوگوی عمومی و انتقادات حتمی که با آن همراه است، دست و پنجه نرم کند. بهروزرسانی این کتاب قوانین یادآور این است که در دنیای هوش مصنوعی، بیطرفی اغلب راحتتر از انجام است.