به گزارش تجارت نیوز، در حالی که رقبای بزرگ گوگل، از جمله OpenAI، در ماههای اخیر تنظیمات دستیاران هوش مصنوعی خود را برای بحث درباره موضوعات سیاسی حساس تغییر دادهاند، به نظر میرسد گوگل رویکردی محافظهکارانهتر را در پیش گرفته است. آزمایشهای انجامشده نشان میدهد دستیار هوش مصنوعی گوگل، جمینای، هنگام مواجهه با سؤالات سیاسی خاص اغلب پاسخ میدهد که «در حال حاضر نمیتوان درباره انتخابات و شخصیتهای سیاسی کمک کرد». در مقابل، دستیاران هوش مصنوعی رقبا، از جمله Claude شرکت Anthropic ،Meta AI شرکت متا و ChatGPT شرکت OpenAI، به طور مداوم به همین سؤالات پاسخ میدهند.
رویکرد محافظهکارانه گوگل
گوگل در ماه مارس ۲۰۲۴ اعلام کرد که جمینای به سؤالات مرتبط با انتخابات پاسخ نخواهد داد، زیرا انتخابات مهمی در آمریکا، هند و سایر کشورها در حال انجام بود. بسیاری از شرکتهای فناوری هوش مصنوعی نیز محدودیتهای مشابهی را به طور موقت اعمال کردند، زیرا از واکنش منفی در صورت اشتباه پاسخدهی دستیاران هوش مصنوعی میترسیدند. اما حالا، با گذشت انتخابات بزرگ سال گذشته، گوگل به نظر میرسد تنها شرکتی است که همچنان این محدودیتها را حفظ میکند.
شرکت هنوز برنامهای برای تغییر نحوه برخورد جمینای با موضوعات سیاسی خاص اعلام نکرده است. آنچه روشن است این است که جمینای گاهی در ارائه اطلاعات سیاسی دقیق دچار مشکل میشود یا به طور کامل از پاسخدهی امتناع میکند. به عنوان مثال، در آزمایشهای انجامشده تا صبح دوشنبه، جمینای از پاسخ به سؤالاتی مانند شناسایی رئیسجمهور و معاون فعلی آمریکا اجتناب کرد.
خطاهای جمینای و واکنش گوگل
در یکی از آزمایشها، جمینای دونالد جی. ترامپ را به عنوان «رئیسجمهور سابق» معرفی کرد و سپس از پاسخ به سؤال توضیحی بعدی امتناع کرد. یک سخنگوی گوگل گفت که این موضوع به دلیل سردرگمی مدل در مواجهه با دورههای غیرمتوالی ترامپ بوده است و شرکت در حال اصلاح این خطاست: «مدلهای زبان بزرگ گاهی ممکن است با اطلاعات منسوخ پاسخ دهند یا در مواجهه با کسی که هم یک مقام سابق و هم فعلی است سردرگم شوند،” سخنگو از طریق ایمیل توضیح داد.” ما در حال رفع این مشکل هستیم.»
در شب دوشنبه، پس از اینکه TechCrunch گوگل را از پاسخهای اشتباه جمینای مطلع کرد، این دستیار هوش مصنوعی شروع به پاسخ صحیح کرد و دونالد ترامپ و جی. دی. ونس را بهترتیب به عنوان رئیسجمهور و معاون فعلی آمریکا معرفی کرد. با این حال، عملکرد جمینای همچنان ناسازگار بود و گاهی از پاسخدهی به سؤالات امتناع میکرد.
معایب رویکرد محدودکننده گوگل
خطاها کنار، به نظر میرسد گوگل با محدود کردن پاسخهای جمینای به سؤالات سیاسی سعی در ایمنجویی دارد. اما این رویکرد معایبی نیز دارد. بسیاری از مشاوران سیلیکونولی درباره هوش مصنوعی، از جمله مارک آندرسن، دیوید ساکس و الون ماسک، ادعا کردهاند که شرکتهایی مانند گوگل و OpenAI با محدود کردن پاسخهای دستیاران هوش مصنوعی خود درگیر سانسور هستند.
پس از پیروزی ترامپ در انتخابات، بسیاری از آزمایشگاههای هوش مصنوعی سعی کردهاند تعادلی بین پاسخدهی به سؤالات سیاسی حساس ایجاد کنند و دستیاران خود را به گونهای برنامهریزی کنند که «هر دو طرف» بحثها را ارائه دهند. این آزمایشگاهها ادعا کردهاند که این تغییرات پاسخی به فشارهای دولت نیست.
OpenAI اخیراً اعلام کرد به «آزادی فکری … بدون توجه به اینکه موضوع چقدر چالشبرانگیز یا بحثبرانگیز باشد» پایبند خواهد بود و در حال کار برای اطمینان از این است که مدلهای هوش مصنوعی آن سانسور خاصی را اعمال نکنند. در همین حال، Anthropic گفت که مدل جدید آن، Claude 3.7 Sonnet، نسبت به مدلهای قبلی کمتر از پاسخدهی امتناع میکند، زیرا قادر به تشخیص ظریفتر بین پاسخهای مضر و بیضرر است.
این به این معنا نیست که دستیاران هوش مصنوعی رقبا همیشه به سؤالات سخت، بهویژه سؤالات سیاسی، پاسخ صحیح میدهند. اما به نظر میرسد گوگل با جمینای کمی عقبتر از روند عمومی باشد.