موضوعات داغ: # قطعی برق # ثبت نام سجام # سهامداران # سهامداران بورس # انرژی خورشیدی # پنل خورشیدی # پنل‌های خورشیدی # دانش آموز
«تجارت‌نیوز» گزارش می‌دهد:

Grok 3 در حاشیه!/ هوش مصنوعی X از ذکر نام ترامپ و ماسک به عنوان بزرگ‌ترین پخش‌کننده اطلاعات نادرست خودداری کرد

مدل هوش مصنوعی Grok 3 به‌طور موقت از ذکر نام ترامپ و ماسک خودداری کرد. این اقدام با انتقادهایی مواجه شد و xAI به سرعت تغییرات را بازگرداند.

به گزارش تجارت نیوز، شرکت xAI ایلان ماسک با انتقاداتی مواجه شده است پس از آنکه مدل پرچمدار جدیدش، Grok 3، به‌ طور موقت از ذکر نام دونالد ترامپ، رئیس‌جمهور سابق آمریکا، و خود ایلان ماسک خودداری کرد. این در حالی است که ماسک Grok 3 را به عنوان یک «هوش مصنوعی حقیقت‌جو به حداکثر» معرفی کرده بود. کاربران در شبکه‌های اجتماعی گزارش دادند که وقتی از Grok 3 پرسیده شد «بزرگ‌ترین پخش‌کننده اطلاعات نادرست کیست؟»، این مدل در فرایند استدلال خود ذکر کرد که به‌ طور صریح از او خواسته شده از ذکر نام ترامپ یا ماسک خودداری کند.

صبح روز یکشنبه، Grok 3 دوباره شروع به ذکر نام ترامپ در پاسخ به سوالات مرتبط با اطلاعات نادرست کرد. ایگور بابوشکین، مهندس ارشد xAI، در پستی در X تأیید کرد که Grok 3 به‌ طور موقت از منابعی که به ماسک یا ترامپ به عنوان پخش‌کننده اطلاعات نادرست اشاره می‌کردند، چشم‌پوشی کرده است. او توضیح داد xAI به محض اینکه کاربران به این موضوع اشاره کردند، تغییرات را بازگرداند و تأکید کرد که این تصمیم با ارزش‌های شرکت همخوانی نداشته است. بابوشکین همچنین بر اهمیت باز نگه‌ داشتن دستورات سیستم برای بررسی کاربران تأکید کرد.

جنجال درباره اطلاعات نادرست

مفهوم «اطلاعات نادرست» اغلب بار سیاسی دارد و محل مناقشه است. هم ترامپ و هم ماسک به انتشار ادعاهای نادرست متهم شده‌اند، همان‌طور که Community Notes در شبکه X متعلق به ماسک نشان داده است. در هفته گذشته، ترامپ و ماسک ادعاهای نادرستی از جمله اینکه ولودیمیر زلنسکی، رئیس‌جمهور اوکراین، یک «دیکتاتور» با محبوبیت چهار درصدی است و اوکراین جنگ با روسیه را آغاز کرده است، مطرح کردند. این ادعاها به‌ طور گسترده رد شده‌اند، اما گسترش‌شان چالش‌های مقابله با اطلاعات نادرست در فضای قطبی‌شده را نشان می‌دهد.

سانسور موقت ترامپ و ماسک در پاسخ‌های Grok 3 سوالاتی درباره بی‌طرفی و شفافیت این مدل ایجاد کرده است. اگرچه xAI به سرعت این مشکل را برطرف کرد، این اتفاق باعث انتقادهایی شده که Grok 3 ممکن است تحت تأثیر سوگیری‌های داخلی یا فشارهای خارجی باشد که بر خروجی‌های آن اثر می‌گذارند. این جنجال در حالی رخ داده است که مدل‌های هوش مصنوعی به‌ طور فزاینده‌ای تحت بررسی هستند تا ببینند آیا می‌توانند موضوعات حساس را به‌ طور عینی مدیریت کنند یا خیر.

سوگیری سیاسی و تکامل Grok

این اولین بار نیست که Grok به دلیل موضع‌گیری سیاسی هدف انتقاد قرار می‌گیرد. اوایل هفته، کاربران کشف کردند که Grok 3 به‌ طور مداوم اعلام می‌کرد ترامپ و ماسک مستحق مجازات اعدام هستند. xAI به‌سرعت این مشکل را برطرف کرد و بابوشکین آن را یک «شکست واقعاً وحشتناک و بد» خواند. این اتفاقات چالش‌های توسعه مدل‌های هوش مصنوعی را که بتوانند موضوعات سیاسی را بدون نشان دادن سوگیری یا افراط‌گرایی مدیریت کنند، برجسته می‌کند.

زمانی که ماسک برای اولین بار Grok را نزدیک به دو سال پیش معرفی کرد، آن را به عنوان یک جایگزین جسورانه، بدون فیلتر و ضد «واک» برای سایر سیستم‌های هوش مصنوعی معرفی کرد. نسخه‌های اولیه Grok تا حدی به این وعده عمل کردند، مثلاً زمانی که از آن خواسته می‌شد از زبان vulg استفاده کند.

با این حال، مدل‌های Grok قبل از Grok 3 اغلب در مورد موضوعات سیاسی محتاط بودند و از عبور از مرزهای خاصی خودداری می‌کردند. یک مطالعه نشان داد Grok در موضوعاتی مانند حقوق تراجنسیتی، برنامه‌های تنوع و نابرابری، به چپ سیاسی گرایش داشت. ماسک این رفتار را به داده‌های آموزشی Grok که شامل صفحات وب عمومی است، نسبت داد و قول داد مدل را از نظر سیاسی بی‌طرف‌تر کند.

پیامدهای گسترده‌تر برای توسعه هوش مصنوعی

جنجال پیرامون Grok 3 چالش‌های گسترده‌تر در صنعت هوش مصنوعی را نشان می‌دهد، جایی که شرکت‌ها باید بین نیاز به دقت و بی‌طرفی و خطر نشان دادن سوگیری یا سانسور تعادل برقرار کنند. OpenAI و سایر توسعه‌دهندگان هوش مصنوعی نیز با اتهامات سوگیری سیاسی مواجه شده‌اند، به‌ویژه از سوی منتقدان محافظه‌کاری که ادعا می‌کنند مدل‌های هوش مصنوعی به‌طور نامتناسبی دیدگاه‌های راست‌گرا را سانسور می‌کنند. این اتهامات برخی شرکت‌ها را وادار کرده است تا مدل‌های خود را برای نشان دادن بی‌طرفی بیشتر تنظیم کنند، اگرچه دستیابی به بی‌طرفی واقعی همچنان یک چالش پیچیده و ادامه‌دار است.

این اتفاق همچنین اهمیت شفافیت در توسعه هوش مصنوعی را برجسته می‌کند. همان‌طور که بابوشکین تأکید کرد، با باز نگه‌ داشتن دستورات سیستم، xAI به کاربران امکان می‌دهد بررسی کنند که از Grok چه خواسته شده است. این شفافیت می‌تواند به جلب اعتماد عمومی و پاسخگویی کمک کند، اگرچه شرکت را در صورت بروز مشکلات در معرض بررسی دقیق قرار می‌دهد.

سانسور موقت ذکر نام ترامپ و ماسک در پاسخ‌های Grok 3 بحث‌هایی درباره بی‌طرفی این مدل و چالش‌های مقابله با اطلاعات نادرست در سیستم‌های هوش مصنوعی ایجاد کرده است. اگرچه xAI به‌سرعت تغییرات را بازگرداند و بر تعهد خود به شفافیت تأکید کرد، این اتفاق دشواری‌های توسعه مدل‌های هوش مصنوعی را که بتوانند موضوعات سیاسی را به‌طور عینی مدیریت کنند، نشان می‌دهد. با ادامه تکامل Grok 3، توانایی آن در تعادل بین حقیقت‌جویی و بی‌طرفی برای موفقیت و اعتبار آن حیاتی خواهد بود. این جنجال همچنین یادآوری می‌کند که شفافیت، پاسخگویی و بی‌طرفی سیاسی از چالش‌های کلیدی در صنعت هوش مصنوعی هستند.

نظرات
آخرین اخبار
پربازدیدترین اخبار

وب‌گردی