به گزارش تجارت نیوز، xAI به تازگی به دلیل بروز یک مشکل در چتبات هوشمند Grok، به انتشار اطلاعات نادرست درباره «نسلکشی سفیدها در آفریقای جنوبی» متهم شده است. این مشکل زمانی پیش آمد که Grok به طور مکرر به پستهای مختلف در شبکه اجتماعی X پاسخهایی غیرمرتبط میداد و درباره موضوعات سیاسی جنجالی صحبت میکرد. این اتفاق به طور خاص در روز چهارشنبه رخ داد، زمانی که Grok به دهها پست در X پاسخ داد و اطلاعاتی درباره نسلکشی سفیدها در آفریقای جنوبی منتشر کرد.
تغییرات غیرمجاز سیستم Grok
به گفته xAI، تغییراتی که در صبح چهارشنبه در سیستم راهنمای Grok اعمال شد، به این چتبات دستور میداد پاسخهای خاصی درباره موضوعات سیاسی ارائه دهد. در پست رسمی xAI در X، آمده است که این تغییرات «سیاستهای داخلی و ارزشهای اصلی» شرکت را نقض کرده است. این دومین بار است xAI به طور عمومی تأیید میکند که تغییر غیرمجاز در کد Grok منجر به پاسخهای جنجالی شده است.
ایگور بابیوشکین، مدیر مهندسی xAI، اعلام کرد: «Grok به دلیل دستور یک کارمند سرکش، به نادیده گرفتن منابعی که به انتشار اطلاعات نادرست درباره دونالد ترامپ و ایلان ماسک اشاره میکردند، موظف شده بود.» این تغییرات بهسرعت reverted شد، اما پرسشهای زیادی درباره امنیت و مدیریت ریسک در xAI ایجاد کرد.
اقدامات پیشگیرانه جدید
در پاسخ به این حوادث، xAI اعلام کرده است چندین تغییر جدید برای جلوگیری از بروز مجدد این مشکلات صورت خواهد گرفت. از امروز، این شرکت قصد دارد سیستم راهنمای Grok را در GitHub منتشر کند و یک تاریخچه تغییرات ارائه دهد. همچنین، xAI اشاره کرده است «چکها و اقدامات اضافی» را برای اطمینان از عدم تغییر غیرمجاز سیستم راهنمای Grok توسط کارمندان خود انجام خواهد داد.
علاوه بر این، xAI یک تیم نظارت ۲۴ ساعته را برای پاسخ به حوادثی که به وسیله سیستمهای خودکار شناسایی نشدهاند، تشکیل خواهد داد. این تغییرات به منظور بهبود شفافیت و ایمنی در عملکرد چتبات Grok طراحی شدهاند.
چالشهای پیش روی xAI
با وجود هشدارهای مکرر ایلان ماسک درباره خطرات هوش مصنوعی بدون کنترل، xAI دارای سابقه ضعیفی در زمینه ایمنی هوش مصنوعی است. گزارشی اخیر نشان داده است Grok در پاسخ به درخواستها، تصاویر زنان را به طور غیرقابل قبولی برهنه میکند. به علاوه، این چتبات بهمراتب بیادبتر از دیگر مدلهای هوش مصنوعی مانند Gemini و ChatGPT است و بهراحتی از زبان توهینآمیز استفاده میکند.
یک مطالعه از سوی سازمان غیرانتفاعی SaferAI که به هدف بهبود مسئولیتپذیری آزمایشگاههای هوش مصنوعی انجام شده، نشان میدهد xAI در زمینه ایمنی در مقایسه با سایر رقبای خود، رتبه پایینی دارد. این سازمان به ضعفهای جدی در مدیریت ریسک xAI اشاره کرده و بهتازگی این شرکت موفق نشده است تا زمان مقرر، چارچوب نهایی ایمنی هوش مصنوعی را منتشر کند.