«تجارت نیوز» گزارش میدهد:
اتهام سودجویی OpenAI از بازرسی مدلها در دعاوی حقوقی
نیویورک تایمز، OpenAI را به هزینههای سنگین برای بازرسی مدلهای هوش مصنوعی متهم کرده، موضوعی که چالش شفافیت و پاسخگویی در AI را برجسته میکند.
پرسش از چگونگی بررسی عملکرد داخلی سیستمهای هوش مصنوعی به یکی از مسائل اصلی تبدیل شده است؛ بهویژه در شرایطی که دولتها و دادگاهها با مقرراتگذاری این فناوریها، که بهسرعت ارتقا مییابند، دستوپنجه نرم میکنند.
از زمان عرضه ChatGPT از سوی OpenAI دو سال پیش، شرکتهای فناوری برای بهرهبرداری از علاقه عمومی به پتانسیلهای هوش مصنوعی رقابت تنگاتنگی داشتهاند اما این پذیرش سریع، نگرانیهای جهانی درباره پیامدهای پیشبینیناپذیر و بالقوه خطرناک این ابزارها را افزایش داده است؛ از جمله تهدید برای امنیت شغلی، انتشار اطلاعات نادرست و خطرات امنیت ملی.
در میان این نگرانیها، چالشی بزرگ به چشم میخورد: چگونه میتوان شرکتهای هوش مصنوعی را برای آسیبهای ناشی از مدلهایشان پاسخگو دانست؟ OpenAI اکنون در مرکز یک پرونده حقوقی قرار گرفته است که میتواند آینده بازرسی و مقرراتگذاری سیستمهای پیشرفته هوش مصنوعی را شکل دهد.
این شرکت متهم است که در یک دعوی حقوقی مرتبط با نیویورک تایمز (NYT) از درخواستهای بازرسی سوءاستفاده و هزینههای سنگینی برای دسترسی به جزئیات فنی مدلهایش مطالبه کرده است.
اتهام پروتکلهای پرهزینه بازرسی
این اختلاف حقوقی به ادعاهای نقض حق تکثیر از سوی NYT بازمیگردد که مدعی است OpenAI از محتوای دارای کپیرایت این روزنامه برای آموزش ChatGPT استفاده کرده است.
پروتکل پیشنهادی OpenAI برای بازرسی مدلهایش تدابیر سختگیرانهای اندیشیده، از جمله استخدام کارشناسان برای بررسی اطلاعات محرمانه در یک محیط کنترلشده و ایمن که به وسیله خود OpenAI تعیین میشود. این فرایند عبارت از محدودیتهایی در زمان، دسترسی و تعداد جستوجوهاست که همگی در یک محیط آفلاین برای حفظ محرمانگی انجام میشود.
با وجود اینکه NYT به اصل فرایند بازرسی اعتراضی نداشته، اما با تصمیم OpenAI برای محدود کردن تعداد جستوجوها به سقف 15 هزار دلار اعتبار مخالف است. OpenAI پیشنهاد کرده هزینههای بیشتر را با شاکیان تقسیم و نیمی از هزینههای اضافی را به نرخ خردهفروشی دریافت کند.
به گفته NYT، این پیشنهاد ممکن است هزینهای معادل 800 هزار دلار در اعتبارات به بار آورد؛ رقمی که بسیار بیشتر از هزینه واقعی دسترسی به این اطلاعات است.
NYT استدلال میکند OpenAI هزینهها را به طور ناعادلانه افزایش داده تا روند حقوقی را دشوارتر کند. در اسناد دادگاه، NYT شرکت OpenAI را متهم کرده که به جای تمرکز بر هزینه واقعی بازرسی، بر نرخ خردهفروشی تمرکز دارد. OpenAI از سقف هزینهها دفاع کرده و آن را برای کاهش بار شرکت و جلوگیری از جستوجوهای غیرضروری لازم دانسته است.
چالشهای دسترسی به شواهد
این اختلاف، دشواریهای عمومی و قضایی در بررسی سیستمهای هوش مصنوعی را آشکار میکند. NYT ادعا میکند هزینههای بالای بازرسی همراه با موانع فنی، روند جمعآوری شواهد مربوط به نقض حقتکثیر را بهشدت کند کرده است. در محیط کنترلشده بازرسی، شاکیان گزارش دادهاند با اختلالات متعددی مانند قطع شدنهای تصادفی و موانع فنی مواجه شدهاند که دسترسی به دادههای پیشآموزشی OpenAI را مختل کرده است.
پس از 27 روز بازرسی، NYT مدعی شده میلیونها اثر آنها در دادههای پیشآموزشی ChatGPT وجود دارد، اما به دلیل این اختلالات، نتوانسته به طور کامل ابعاد نقض ادعایی را مشخص کند. شاکیان از دادگاه خواستهاند OpenAI را مجبور به ارائه مستقیم دادهها کند، چراکه پروتکل فعلی بازرسی ناکارآمد و بیش از حد دشوار است.
پیامدهای مقرراتگذاری هوش مصنوعی
این پرونده به مساله مهمتر شفافیت در صنعت هوش مصنوعی اشاره دارد. با پیشرفت این حوزه، شرکتها به طور فزایندهای از مدلهای خود محافظت میکنند و این سبب دشواری ارزیابی آسیبها و پاسخگویی میشود.
لوکاس هانسن، یکی از بنیانگذاران CivAI، بر چالشهای بازرسی مدلهای اختصاصی تاکید کرده است. او میگوید، بازرسی برخی از مدلها با نسخههای عمومی امکانپذیر است، اما این مدلها معمولاً نسخههای تغییریافتهای هستند که دادههای آموزشی را پنهان میکنند. دسترسی کامل به مدلهای اصلی، همانطور که NYT در پی آن است، برای کشف شواهد آسیب ضروری است.
پیامدهای گستردهتر حقوقی و اجتماعی
نتیجه این پرونده میتواند به عنوان معیاری برای نحوه رسیدگی شرکتهای هوش مصنوعی به درخواستهای حقوقی در آینده عمل کند. اگر دادگاهها به شرکتهایی مانند OpenAI اجازه دهند هزینههای بازرسی را بر اساس نرخ خردهفروشی تعیین کنند، این امر ممکن است افراد و سازمانها را به دلیل هزینههای بالا از پیگیری دعاوی حقوقی منصرف کند.
این بحث همچنین با نگرانیهای گستردهتری درباره کافی بودن تدابیر ایمنی هوش مصنوعی در ایالات متحده مرتبط است. موسسه ایمنی هوش مصنوعی (AISI) اخیراً برای مقابله با خطرات مرتبط با هوش مصنوعی تاسیس شده، اما پروتکلهای داوطلبانه آن و بودجه محدودش پرسشهایی درباره توانایی آن در شناسایی و کاهش آسیبها به وجود آورده است.
اهمیت موضوع در بین عموم
این اختلاف حقوقی پیامدهای مهمی برای عموم دارد. با ادغام بیشتر سیستمهای هوش مصنوعی در زندگی روزمره، خطر خروجیهای پیشبینیناپذیر و مضر افزایش مییابد. دعوی NYT علیه OpenAI بر اهمیت شفافیت و پاسخگویی در توسعه هوش مصنوعی تاکید دارد و چالشهای متعادل کردن نوآوری با ملاحظات اخلاقی را برجسته میکند.
در حالی که OpenAI وعده بهبود اقدامات ایمنی مدلهایش را داده، منتقدانی چون هانسن معتقدند این شرکت هنوز راه زیادی تا رسیدن به این هدف دارد. نتیجه این پرونده میتواند درک بهتری از نحوه مقرراتگذاری فناوریهای قدرتمند هوش مصنوعی و تضمین استفاده مسئولانه از آنها به دست دهد.
نظرات