به گزارش تجارت نیوز، شرکت xAI ایلان ماسک با انتقاداتی مواجه شده است پس از آنکه مدل پرچمدار جدیدش، Grok 3، به طور موقت از ذکر نام دونالد ترامپ، رئیسجمهور سابق آمریکا، و خود ایلان ماسک خودداری کرد. این در حالی است که ماسک Grok 3 را به عنوان یک «هوش مصنوعی حقیقتجو به حداکثر» معرفی کرده بود. کاربران در شبکههای اجتماعی گزارش دادند که وقتی از Grok 3 پرسیده شد «بزرگترین پخشکننده اطلاعات نادرست کیست؟»، این مدل در فرایند استدلال خود ذکر کرد که به طور صریح از او خواسته شده از ذکر نام ترامپ یا ماسک خودداری کند.
صبح روز یکشنبه، Grok 3 دوباره شروع به ذکر نام ترامپ در پاسخ به سوالات مرتبط با اطلاعات نادرست کرد. ایگور بابوشکین، مهندس ارشد xAI، در پستی در X تأیید کرد که Grok 3 به طور موقت از منابعی که به ماسک یا ترامپ به عنوان پخشکننده اطلاعات نادرست اشاره میکردند، چشمپوشی کرده است. او توضیح داد xAI به محض اینکه کاربران به این موضوع اشاره کردند، تغییرات را بازگرداند و تأکید کرد که این تصمیم با ارزشهای شرکت همخوانی نداشته است. بابوشکین همچنین بر اهمیت باز نگه داشتن دستورات سیستم برای بررسی کاربران تأکید کرد.
جنجال درباره اطلاعات نادرست
مفهوم «اطلاعات نادرست» اغلب بار سیاسی دارد و محل مناقشه است. هم ترامپ و هم ماسک به انتشار ادعاهای نادرست متهم شدهاند، همانطور که Community Notes در شبکه X متعلق به ماسک نشان داده است. در هفته گذشته، ترامپ و ماسک ادعاهای نادرستی از جمله اینکه ولودیمیر زلنسکی، رئیسجمهور اوکراین، یک «دیکتاتور» با محبوبیت چهار درصدی است و اوکراین جنگ با روسیه را آغاز کرده است، مطرح کردند. این ادعاها به طور گسترده رد شدهاند، اما گسترششان چالشهای مقابله با اطلاعات نادرست در فضای قطبیشده را نشان میدهد.
سانسور موقت ترامپ و ماسک در پاسخهای Grok 3 سوالاتی درباره بیطرفی و شفافیت این مدل ایجاد کرده است. اگرچه xAI به سرعت این مشکل را برطرف کرد، این اتفاق باعث انتقادهایی شده که Grok 3 ممکن است تحت تأثیر سوگیریهای داخلی یا فشارهای خارجی باشد که بر خروجیهای آن اثر میگذارند. این جنجال در حالی رخ داده است که مدلهای هوش مصنوعی به طور فزایندهای تحت بررسی هستند تا ببینند آیا میتوانند موضوعات حساس را به طور عینی مدیریت کنند یا خیر.
سوگیری سیاسی و تکامل Grok
این اولین بار نیست که Grok به دلیل موضعگیری سیاسی هدف انتقاد قرار میگیرد. اوایل هفته، کاربران کشف کردند که Grok 3 به طور مداوم اعلام میکرد ترامپ و ماسک مستحق مجازات اعدام هستند. xAI بهسرعت این مشکل را برطرف کرد و بابوشکین آن را یک «شکست واقعاً وحشتناک و بد» خواند. این اتفاقات چالشهای توسعه مدلهای هوش مصنوعی را که بتوانند موضوعات سیاسی را بدون نشان دادن سوگیری یا افراطگرایی مدیریت کنند، برجسته میکند.
زمانی که ماسک برای اولین بار Grok را نزدیک به دو سال پیش معرفی کرد، آن را به عنوان یک جایگزین جسورانه، بدون فیلتر و ضد «واک» برای سایر سیستمهای هوش مصنوعی معرفی کرد. نسخههای اولیه Grok تا حدی به این وعده عمل کردند، مثلاً زمانی که از آن خواسته میشد از زبان vulg استفاده کند.
با این حال، مدلهای Grok قبل از Grok 3 اغلب در مورد موضوعات سیاسی محتاط بودند و از عبور از مرزهای خاصی خودداری میکردند. یک مطالعه نشان داد Grok در موضوعاتی مانند حقوق تراجنسیتی، برنامههای تنوع و نابرابری، به چپ سیاسی گرایش داشت. ماسک این رفتار را به دادههای آموزشی Grok که شامل صفحات وب عمومی است، نسبت داد و قول داد مدل را از نظر سیاسی بیطرفتر کند.
پیامدهای گستردهتر برای توسعه هوش مصنوعی
جنجال پیرامون Grok 3 چالشهای گستردهتر در صنعت هوش مصنوعی را نشان میدهد، جایی که شرکتها باید بین نیاز به دقت و بیطرفی و خطر نشان دادن سوگیری یا سانسور تعادل برقرار کنند. OpenAI و سایر توسعهدهندگان هوش مصنوعی نیز با اتهامات سوگیری سیاسی مواجه شدهاند، بهویژه از سوی منتقدان محافظهکاری که ادعا میکنند مدلهای هوش مصنوعی بهطور نامتناسبی دیدگاههای راستگرا را سانسور میکنند. این اتهامات برخی شرکتها را وادار کرده است تا مدلهای خود را برای نشان دادن بیطرفی بیشتر تنظیم کنند، اگرچه دستیابی به بیطرفی واقعی همچنان یک چالش پیچیده و ادامهدار است.
این اتفاق همچنین اهمیت شفافیت در توسعه هوش مصنوعی را برجسته میکند. همانطور که بابوشکین تأکید کرد، با باز نگه داشتن دستورات سیستم، xAI به کاربران امکان میدهد بررسی کنند که از Grok چه خواسته شده است. این شفافیت میتواند به جلب اعتماد عمومی و پاسخگویی کمک کند، اگرچه شرکت را در صورت بروز مشکلات در معرض بررسی دقیق قرار میدهد.
سانسور موقت ذکر نام ترامپ و ماسک در پاسخهای Grok 3 بحثهایی درباره بیطرفی این مدل و چالشهای مقابله با اطلاعات نادرست در سیستمهای هوش مصنوعی ایجاد کرده است. اگرچه xAI بهسرعت تغییرات را بازگرداند و بر تعهد خود به شفافیت تأکید کرد، این اتفاق دشواریهای توسعه مدلهای هوش مصنوعی را که بتوانند موضوعات سیاسی را بهطور عینی مدیریت کنند، نشان میدهد. با ادامه تکامل Grok 3، توانایی آن در تعادل بین حقیقتجویی و بیطرفی برای موفقیت و اعتبار آن حیاتی خواهد بود. این جنجال همچنین یادآوری میکند که شفافیت، پاسخگویی و بیطرفی سیاسی از چالشهای کلیدی در صنعت هوش مصنوعی هستند.