کد مطلب: ۹۴۳۸۲۹

«تجارت نیوز» گزارش می‌دهد:

اتهام نژادپرستی علمی به گوگل، مایکروسافت و پرپلکسی

اتهام نژادپرستی علمی به گوگل، مایکروسافت و پرپلکسی

گوگل، مایکروسافت و پرپلکسی به‌دلیل نمایش اطلاعات نژادپرستانه درباره برتری نژادی در هوش مصنوعی با انتقادات شدید مواجه شده‌اند و نگرانی‌هایی ایجاد کرده‌اند.

به گزارش تجارت نیوز،

پاتریک هرمانسون، محقق سازمان بریتانیایی Hope Not Hate که در زمینه مبارزه با نژادپرستی فعالیت می‌کند، این مسئله را در جریان تحقیقاتی درباره جنبش مجدد نژادپرستی علمی کشف کرد. او به دنبال اطلاعات در مورد یک پایگاه داده بود که ادعا می‌کند نمرات IQ می‌تواند به اثبات برتری نژاد سفید کمک کند. نتیجه جستجوی او به نمایش داده‌هایی منجر شد که این اطلاعات را به عنوان داده‌های معتبر نشان می‌دادند.

مرکز تنوع انسانی (Human Diversity Foundation)، یک سازمان نژادپرستی علمی که توسط میلیاردر فناوری آمریکایی اندرو کنرو تأمین مالی می‌شود، در مرکز تحقیقات هرمانسون قرار دارد. این سازمان در سال 2022 تأسیس شده و جانشین "صندوق پیشگام" است که در سال 1937 توسط همدستان نازی‌ها در ایالات متحده با هدف ترویج "بهبود نژادی" و "واقع‌گرایی نژادی" بنیان‌گذاری شد. هرمانسون زمانی که متوجه شد ابزار جستجوی هوش مصنوعی گوگل اطلاعاتی که او قصد داشت حذف کند را به او نمایش می‌دهد، شوکه شد.

تبلیغ اطلاعات حذف‌شده توسط هوش مصنوعی

در جریان جستجوی ملی IQها، هرمانسون با ابزار هوش مصنوعی گوگل که به‌طور پیش‌فرض فعال است، مواجه شد. این ابزار به او ارقام خاصی را برای کشورهای مختلف نشان داد. به‌عنوان مثال، گوگل IQ متوسط 80 را برای پاکستان و07/45 را برای سیرالئون گزارش داد. هرمانسون متوجه شد که این ارقام مستقیماً از داده‌های ریچارد لین، یک آکادمیسین جنجالی و رئیس سابق صندوق پیشگام، استخراج شده است. کار لین به دلیل روش‌های نادرست و نتایج نژادپرستانه‌اش به‌طور گسترده‌ای رد شده است.

مجله وایرد (WIRED) نیز این یافته‌ها را تأیید کرد و متوجه شد که سایر موتورهای جستجوی هوش مصنوعی مانند کوپایلت، مایکروسافت و پرپلکسی نیز به اطلاعات حذف­شده لین اشاره می‌کنند. این افشاگری‌ها نگرانی‌هایی را در بین کارشناسان برانگیخته است که نگرانند فناوری هوش مصنوعی ناخواسته ایدئولوژی‌های افراطی را از طریق تبلیغ تحقیقات علمی نادرست ترویج کند.

ربکا سیر، مدیر مرکز فرهنگ و تکامل در دانشگاه برونل لندن، تأکید کرد که استفاده از این داده‌های نادرست نه تنها اطلاعات غلط را گسترش می‌دهد، بلکه به دستور کار سیاسی نژادپرستی علمی کمک می‌کند.

ابزارهای جستجوی هوش مصنوعی گوگل که اوایل سال جاری به عنوان بخشی از تغییرات جدید جستجوی این شرکت معرفی شدند، خلاصه‌هایی از نتایج جستجو را بدون نیاز به کلیک روی لینک‌هایی تولید می‌کنند. اما این سیستم همیشه منابع داده‌های خود را به وضوح نشان نمی‌دهد.

 در مورد امتیازات IQ ملی، ابزار هوش مصنوعی گوگل از منابع مشکوکی از جمله پست‌های رسانه‌های اجتماعی و وب‌سایت‌های نامعتبر اطلاعات جمع‌آوری کرده بود. 

مشکلات در سایر موتورهای جستجوی هوش مصنوعی

وایرد در آزمایش موتورهای جستجوی هوش مصنوعی دیگر متوجه مشکلات مشابهی شد. پرپلکسی که به دلیل ایجاد اطلاعات ساختگی مورد انتقاد قرار گرفته به تحقیقات لین در پاسخ به پرسش‌های مربوط به IQ ملی اشاره کرد. کوپایلت و مایکروسافت نیز ارقام IQهایی را ارائه می‌کرد که در نهایت به کارهای لین مربوط می‌شد.

گوگل مشکل را پذیرفت و اعلام کرد که سیستم‌های آن طبق انتظار عمل نمی‌کرده‌اند و مطالب نادرست حذف شده‌اند. این شرکت تأکید کرد که ابزارهای حفاظتی برای جلوگیری از پاسخ‌های بی‌کیفیت دارد و در حال کار بر بهبود محتوای تولید شده توسط هوش مصنوعی است. با این حال، حتی پس از خاموش شدن ابزارهای جستجوی هوش مصنوعی برای برخی پرسش‌ها، موتور جستجوی گوگل همچنان مطالبی را نشان می‌داد که به داده‌های نادرست لین اشاره می‌کرد.

انتقادات نسبت به پایگاه داده‌های بی‌کیفیت

یکی از مسائل اصلی مطرح شده در این جنجال، کیفیت ضعیف مجموعه داده‌های لین است که توسط کارشناسان به شدت مورد انتقاد قرار گرفته است. تخمین‌های لین برای ارقام IQ ها بر اساس نمونه‌های کوچک و غیرنماینده است و اغلب نسبت به کشورهای غیرغربی مغرضانه است. به‌عنوان مثال، برآورد لین برای IQ ملی آنگولا بر اساس تنها 19 نفر و داده‌های او برای اریتره از کودکان یتیم خانه‌ها گرفته شده است.

برای دهه‌ها کار لین توسط افراط‌گرایان راست‌گرا و نژادپرستان سفیدپوست برای توجیه ایدئولوژی‌های نژادپرستانه استفاده شده است. داده‌های نادرست او به نقشه‌ای رنگی تبدیل شده که به‌طور گسترده‌ای در رسانه‌های اجتماعی به اشتراک گذاشته می‌شود و کشورهای آفریقایی را با  IQهای پایین به رنگ قرمز نشان می‌دهد، در حالی که کشورهای غربی به رنگ آبی نمایش داده می‌شوند.

کارشناسانی مانند آدام رادرفورد معتقدند که گسترش ایده‌های لین نه تنها تقصیر سیستم‌های هوش مصنوعی بلکه مقصر دانشگاه‌ها نیز است. تحقیقات لین صدها بار در مقالات دانشگاهی ذکر شده که به کارهای او مشروعیت بخشیده است. رادرفورد معتقد است که پذیرش تحقیقات لین توسط برخی محافل دانشگاهی باعث شده که این افکار به راحتی در سیستم‌های هوش مصنوعی پخش شوند.

با ادامه تغییرات هوش مصنوعی در نحوه دسترسی افراد به اطلاعات، نگرانی‌ها درباره نقش این سیستم‌ها در تبلیغ ایده‌های خطرناک و رد شده افزایش یافته است. جامعه علمی و شرکت‌های فناوری باید مسئولیت اطمینان از جلوگیری از گسترش اطلاعات نادرست و مضر را بر عهده بگیرند، به‌ویژه زمانی که این اطلاعات پتانسیل رادیکال‌سازی افراد و تغذیه ایدئولوژی‌های افراطی را دارند.

نظرات

مخاطب گرامی توجه فرمایید:
نظرات حاوی الفاظ نامناسب، تهمت و افترا منتشر نخواهد شد.