به گزارش تجارت نیوز، متا، غول فناوری، بهزودی ممکن است تحلیلگران انسانی خود را با سیستمهای هوش مصنوعی جایگزین کند. این تغییرات بر اساس مدارک داخلی که بهتازگی از سوی NPR بررسی شدهاند، نشاندهنده تمایل این شرکت به اتوماسیون 90 درصدی وظایف مربوط به ارزیابی ریسک است. متا در گذشته به تحلیلگران انسانی متکی بود تا خطرات بالقوه ناشی از فناوریهای جدید را در پلتفرمهای خود، از جمله بهروزرسانیهای الگوریتم و ویژگیهای ایمنی، بررسی کند. این فرایند تحت عنوان بررسیهای حریم خصوصی و یکپارچگی شناخته میشود.
جایگزینی ریسک با رباتها
به نظر میرسد در آینده نزدیک، ارزیابیهای حیاتی مربوط به ریسک ممکن است به رباتها واگذار شود. این تغییر به متا اجازه میدهد بهجای تحلیلگران انسانی، از هوش مصنوعی برای انجام این وظایف استفاده کند. بر اساس گزارش NPR، با استفاده از این فناوری، تیمهای محصول میتوانند پرسشنامههایی را ارسال و تصمیمات و توصیههای ریسک فوری دریافت کنند. این بدان معناست که مهندسان قدرت تصمیمگیری بیشتری خواهند داشت و میتوانند در زمینههایی مانند ایمنی هوش مصنوعی، ریسکهای جوانان و مدیریت محتوای نادرست و خشونتآمیز، تصمیمات کلیدی بگیرند.
در حالی که این اتوماسیون ممکن است سرعت بهروزرسانی برنامهها و عرضههای توسعهدهندگان را افزایش دهد، منابع داخلی هشدار میدهند که این موضوع میتواند خطرات بیشتری برای میلیاردها کاربر به همراه داشته باشد. یکی از این خطرات، تهدیدات غیرضروری برای حریم خصوصی دادههاست.
نگرانیهای جهانی درباره حقوق بشر
در آوریل گذشته، هیأت نظارت متا تصمیماتی منتشر کرد که همزمان موضع این شرکت را در مورد اجازه دادن به سخنان «بحثبرانگیز» تأیید و از سیاستهای مدیریت محتوای این غول فناوری انتقاد کرد. در این تصمیم آمده است: «با توجه به اینکه این تغییرات به طور جهانی اجرا میشوند، هیأت تأکید میکند که متا باید تأثیرات منفی بر حقوق بشر را که ممکن است ناشی از این تغییرات باشد شناسایی و به آن رسیدگی کند.»
این تصمیمات همچنین شامل ارزیابی این موضوع است که آیا کاهش وابستگی به تشخیص خودکار نقضهای سیاستی میتواند پیامدهای نابرابری در سطح جهانی داشته باشد، بهویژه در کشورهایی که در حال حاضر یا اخیراً با بحرانهای جدی مواجه هستند، مانند درگیریهای مسلحانه.
پایان برنامههای بررسی حقایق انسانی
در همین راستا، متا بهتازگی برنامه بررسی حقایق انسانی خود را متوقف و آن را با یادداشتهای جمعی از جامعه جایگزین کرده است. این تغییر به شرکت اجازه میدهد بیشتر بر الگوریتمهای مدیریت محتوا تکیه کند، تکنولوژی داخلی که بهخوبی شناخته شده است و به طور مداوم در شناسایی و علامتگذاری نادرست اطلاعات نادرست و سایر پستهایی که سیاستهای محتوای تازه بازنگریشده این شرکت را نقض میکنند، دچار خطا میشود.
این تحولات در حالی رخ میدهد که متا بهسرعت به سوی اتوماسیون کامل پیش میرود و تلاش میکند با استفاده از هوش مصنوعی، کارایی خود را افزایش دهد. اما آیا این تغییرات به معنای خطرات بیشتری برای کاربران خواهد بود؟ این سوالی است که در آینده نزدیک پاسخ آن روشن خواهد شد.