به گزارش تجارت نیوز، شرکت گوگل اعلام کرد که مدل هوش مصنوعی خود با نام Gemma را بهطور موقت از پلتفرم AI Studio حذف کرده است. این تصمیم پس از آن اتخاذ شد که «مارشا بلکبرن»، سناتور جمهوریخواه ایالت تنسی، گوگل را به انتشار ادعاهای نادرست و افتراآمیز درباره خود متهم کرد. بلکبرن مدعی شد که مدل Gemma مطالب ساختگی و بیاساس درباره اتهامات اخلاقی علیه او تولید کرده است. گوگل در واکنش به شکایت رسمی او اعلام کرد که این مدل از AI Studio حذف میشود، هرچند توسعهدهندگان همچنان میتوانند از طریق API به آن دسترسی داشته باشند.
بلکبرن در نامهای رسمی به «ساندار پیچای»، مدیرعامل گوگل، توضیح داد که در پاسخ به پرسشی درباره سوابقش، مدل Gemma اطلاعات کاملاً ساختگی منتشر کرده است. بهگفته او، این مدل ادعا کرده بود که در جریان کارزار انتخاباتی سال ۱۹۸۷، یک افسر پلیس ایالتی وی را به اعمال فشار برای دریافت داروهای نسخهای و رفتار غیراخلاقی متهم کرده است. بلکبرن تأکید کرد که چنین فردی، چنین رویدادی و هیچگونه گزارش خبری در این باره وجود ندارد. او افزود که حتی سال ذکرشده در پاسخ نیز اشتباه بوده، چرا که کارزار واقعی او در سال ۱۹۹۸ برگزار شده است.
نگرانی از خطاهای مصنوعی و افترا در تولید متن
بلکبرن در نامه خود به موارد مشابه نیز اشاره کرد و یادآور شد که «رابی استارباک»، فعال محافظهکار آمریکایی، شکایتی مشابه علیه گوگل مطرح کرده است. او نیز ادعا کرده بود که مدلهای هوش مصنوعی گوگل، از جمله Gemma، اطلاعات نادرست و آسیبزننده درباره او تولید کردهاند. در جلسه کمیته بازرگانی سنای آمریکا، «مارخام اریکسون»، معاون امور دولتی گوگل، تأیید کرد که «توهمات» یا تولید اطلاعات نادرست از چالشهای شناختهشده در حوزه هوش مصنوعی هستند و گوگل در حال تلاش برای کاهش آنهاست. با این حال، سناتور بلکبرن این توضیح را ناکافی دانست و گفت چنین پاسخهایی را نمیتوان صرفاً خطای فنی قلمداد کرد، بلکه «اقدامی افتراآمیز از سوی مدلی متعلق به گوگل» است.
این رویداد در بستر مناقشات سیاسی گستردهتری درباره «سوگیری در هوش مصنوعی» نیز مطرح شده است. برخی سیاستمداران جمهوریخواه و حامیان دونالد ترامپ شرکتهایی مانند گوگل را متهم میکنند که مدلهای هوش مصنوعی خود را با سوگیریهای لیبرال طراحی کردهاند. ترامپ حتی در سال جاری فرمانی اجرایی برای جلوگیری از استفاده از «هوش مصنوعی بیدار» در سیستمهای دولتی امضا کرده بود.
بلکبرن نیز در نامه خود به گوگل اشاره کرد که بهنظر میرسد الگوی ثابتی از «سوگیری علیه چهرههای محافظهکار» در مدلهای هوش مصنوعی این شرکت وجود دارد. این موضوع بخشی از نگرانی گستردهتر قانونگذاران محافظهکار درباره نحوه نمایش و تفسیر دادهها توسط سیستمهای یادگیری ماشینی است.
واکنش گوگل و تصمیم به حذف Gemma
گوگل پس از بالا گرفتن ماجرا، در بیانیهای رسمی در شبکه اجتماعی X اعلام کرد که مدل Gemma بهطور موقت از پلتفرم AI Studio حذف میشود. شرکت توضیح داد که برخی کاربران غیرتوسعهدهنده از این مدل برای پاسخ به پرسشهای واقعی استفاده کردهاند، در حالی که هدف از طراحی Gemma چنین نبوده است.
گوگل تأکید کرد که Gemma یک مدل سبک و متنباز برای توسعهدهندگان است و هرگز بهعنوان چتبات مصرفی یا موتور پاسخگویی به سؤالات واقعی طراحی نشده است. این پلتفرم صرفاً محیطی برای آزمایش و توسعه ابزارهای هوش مصنوعی است و استفاده عمومی از آن میتواند منجر به نتایج اشتباه یا سوءبرداشت شود.
با این حال، گوگل اعلام کرد که توسعهدهندگان همچنان میتوانند از طریق سرویسهای API به Gemma دسترسی داشته باشند. سخنگوی شرکت گفت: «ما هرگز قصد نداشتیم از این مدل بهعنوان ابزار عمومی پاسخگویی استفاده شود و برای جلوگیری از سوءاستفاده، آن را موقتا حذف کردیم.»
حذف Gemma از AI Studio بار دیگر چالش اصلی شرکتهای فناوری را برجسته میکند: کنترل نحوه استفاده از مدلهای هوش مصنوعی در شرایط واقعی. حتی مدلهایی که برای اهداف توسعه طراحی شدهاند میتوانند بهصورت نادرست استفاده شوند و موجب انتشار اطلاعات کذب، افترا و آسیب به اعتبار افراد شوند.
این رویداد همچنین به مسئله گستردهتری اشاره دارد: چگونگی مدیریت پیامدهای اجتماعی و حقوقی ناشی از تولید متون جعلی توسط مدلهای زبانی. با پیشرفت قابلیتهای تولید متن در هوش مصنوعی، خطر تولید روایتهای نادرست یا ترکیب دادههای پراکنده و اشتباه افزایش یافته است. هرچند شرکتها در حال پیادهسازی مکانیزمهای نظارتی و فیلترینگ هستند، اما رویدادهایی از این دست نشان میدهد که این سامانهها هنوز بینقص نیستند.
تصمیم گوگل برای حذف Gemma نشان میدهد که این شرکت در مواجهه با جنجالهای اخلاقی، احتیاط را بر سرعت و راحتی ترجیح میدهد. با افزایش فشار قانونگذاران و کاربران برای اطمینان از شفافیت و پاسخگویی در هوش مصنوعی، گوگل ناگزیر است مرز میان نوآوری و مسئولیت اجتماعی را دقیقتر ترسیم کند.
در حالی که بحث درباره سوگیری سیاسی و اطلاعات نادرست در مدلهای هوش مصنوعی ادامه دارد، حذف Gemma نشانهای از تمایل گوگل به مدیریت فعالانه بحرانهاست. هرچند شرکت هنوز بهطور رسمی به جزئیات اتهامات بلکبرن پاسخ نداده، اما اقدام سریع آن در محدودسازی دسترسی، نشان میدهد که غولهای فناوری برای جلوگیری از تبعات حقوقی و اخلاقی، ناچارند واکنشی قاطع نشان دهند.