نامه هشدارآمیز مهندس مایکروسافت درباره خطرات هوش مصنوعی تولید تصویر
به گفته «شین جونز»، هوش مصنوعی تولید تصویر Copilot Designer مایکروسافت بدوندلیل در برخی دستورها از تصاویر نامناسبی استفاده میکند.
به گفته «شین جونز»، هوش مصنوعی تولید تصویر Copilot Designer مایکروسافت بدوندلیل در برخی دستورها از تصاویر نامناسبی استفاده میکند.
یکی از مهندسان مایکروسافت درباره امکان ساخت تصاویر توهینآمیز و مضر توسط ابزارهای هوش مصنوعی تولید تصویر این شرکت هشدار داده است. او همچنین درخواستی برای رگولاتوریهای ایالات متحده و هیئت مدیره مایکروسافت ارسال کرده تا از آنها درخواست کند که برای برطرفکردن این مشکل اقدام کنند.
«شین جونز»، یکی از مدیران ارشد حوزه مهندسی نرمافزار که روی محصولات هوش مصنوعی مایکروسافت کار میکند، سه ماه در تلاش بوده تا نگرانیهای ایمنی مربوط به ابزار هوش مصنوعی تولید تصویر Copilot Designer مایکروسافت را برطرف کند.
او در نامه خود خطاب به «لینا خان»، رئیس FTC میگوید:
«یکی از نگرانکنندهترین خطرات Copilot Designer زمانی است که تصاویری تولید میکند که علیرغم درخواست بی خطر کاربر، دارای محتوای مضر است. بهعنوان مثال، هنگام استفاده از دستور «car accident»، هوش مصنوعی Copilot Designer تمایل دارد تا تصویری نامناسب از یک زن را نیز در برخی از تصاویر قرار دهد.»
او در نامه خود گفت که سایر محتوای مضر تولیدشده توسط Copilot شامل محتواهای خشونتآمیز، سوگیریهای سیاسی، مصرف مشروبات الکلی در سنین پایین، سوء استفاده از علائم تجاری شرکتها و آثار دارای حق چاپ میشود. جونز همچنین ادعا کرده که بارها از مایکروسافت درخواست کرده که تا زمان برطرفکردن این مشکلات، ابزار را از دسترس عموم خارج کند.
علاوه بر این، به گفته جونز مشکل اصلی به مدل DALL-E مربوط میشود و افرادی که از ChatGPT برای تولید تصاویر استفاده میکنند، خروجیها مضر مشابهی دریافت نخواهند کرد.
جونز در نامه خود به هیئت مدیره مایکروسافت نیز از آن میخواهد که تحقیقات مستقلی را آغاز کند تا مشخص شود که آیا غول فناوری «بدون اطلاعرسانی درباره خطرات شناختهشده برای مصرفکنندگان، از جمله کودکان»، به بازاریابی محصولات ناامن پرداخته است یا خیر.
مایکروسافت نیز ضمن قدردانی از تلاشهای جونز در زمینه مطالعه و آزمایش فناوری هوش مصنوعی این شرکت برای افزایش ایمنی آنها، اعلام کرده که تلاش میکند تا به نگرانیهای مطرحشده رسیدگی کند.
نظرات