تجارتنیوز گزارش میدهد:
هوش مصنوعی چگونه برای انسان خطرناک میشود؟
هر چقدر هم که مضحک به نظر برسد، چهرههای عمومی از بیل گیتس، بنیانگذار مایکروسافت، ایلان ماسک، مدیرعامل اسپیس ایکس و تسلا، و استیون هاوکینگ، فیزیکدان فقید، تا آلن تورینگ، پیشگام کامپیوتر بریتانیایی، نسبت به سرنوشت انسانها در دنیایی که ماشینها از آنها پیشی میگیرند، ابراز نگرانی کردهاند.
به گزارش تجارتنیوز، هوش مصنوعی به قدری سریع در حال حرکت است که حتی دانشمندان نیز به سختی میتوانند به آن ادامه دهند. در سال گذشته، الگوریتمهای یادگیری ماشین شروع به تولید فیلمهای ابتدایی و عکسهای جعلی خیرهکننده کردند.
آنها حتی در حال نوشتن کد نیز هستند. در آینده، مردم احتمالا به سالی که هوش مصنوعی از پردازش اطلاعات به تولید محتوا و همچنین بسیاری از انسانها تغییر داده است، توجه زیادی خواهند کرد.
هوش مصنوعی علیه بشر؟
هر چقدر هم که هذل آمیز و مضحک به نظر برسد، چهرههای عمومی از بیل گیتس، بنیانگذار مایکروسافت، ایلان ماسک، مدیرعامل اسپیس ایکس و تسلا، و استیون هاوکینگ، فیزیکدان فقید، تا آلن تورینگ، پیشگام کامپیوتر بریتانیایی، نسبت به سرنوشت انسانها در دنیایی که ماشینها از آنها پیشی میگیرند، ابراز نگرانی کردهاند. ماسک میگوید هوش مصنوعی میتواند از کلاهکهای هستهای هم خطرناکتر شود.
از این گذشته، انسانها با گونههای کمهوش بهخوبی رفتار نمیکنند، بنابراین چه کسی میتواند بگوید که رایانههایی که همه جا بر روی دادههایی که همه جنبههای رفتار انسان را منعکس میکنند، آموزش دیدهاند.
با این حال، یک خبر خوب وجود دارد. دانشمندان بیشتری به دنبال شفاف سازی و اندازهگیری سیستمهای یادگیری عمیق هستند. این حرکت نباید متوقف شود. از آنجایی که این برنامهها در بازارهای مالی، رسانههای اجتماعی و زنجیرههای تامین نفوذ بیشتری میکنند، شرکتهای فناوری باید ایمنی هوش مصنوعی را بر قابلیت اولویتبندی کنند.
گزارش وضعیت هوش مصنوعی در سال گذشته که سالانه توسط سرمایهگذاران سرمایهگذاری ریسکپذیر لندن، یان هوگارث و ناتان بانایچ تهیه میشود، میگوید در سال گذشته در سراسر آزمایشگاههای بزرگ هوش مصنوعی جهان، تقریباً 100 محقق تمام وقت بر روی ساخت سیستمهای ایمن متمرکز بودند. گزارش آنها برای سال جاری نشان داد که هنوز فقط حدود 300 محقق به طور تمام وقت روی ایمنی هوش مصنوعی کار می کنند.
هوگارث این هفته در گفتگوی توییتر اسپیس در مورد تهدید هوش مصنوعی گفت: «این عدد بسیار پایینی است. نه تنها تعداد کمی از افراد روی همسو کردن این سیستمها کار میکنند، بلکه به نوعی غرب وحشی است.»
هوگارت به این اشاره داشت که چگونه در سال گذشته مجموعهای از ابزارها و تحقیقات هوش مصنوعی توسط گروههای منبع باز تولید شده است که میگویند ماشینهای فوقهوشمند نباید بهطور مخفیانه توسط چند شرکت بزرگ ساخته و کنترل شوند.
به عنوان مثال، سازمان جامعه محور EleutherAI در آگوست سال گذشته نسخه عمومی ابزار قدرتمندی را توسعه داد که میتوانست نظرات و مقالات واقعبینانه را در مورد هر موضوعی بنویسد، این سازمان GPT-Neo نام داشت.
ابزار اصلی، به نام GPT-3، توسط OpenAI، شرکتی که توسط ماسک تأسیس شده و عمدتاً توسط مایکروسافت تأمین مالی میشود، توسعه داده شد که دسترسی محدودی به سیستمهای قدرتمند خود ارائه میدهد.
امسال، چند ماه پس از اینکه OpenAI جامعه هوش مصنوعی را با یک سیستم تولید تصویر انقلابی به نام DALL-E 2 تحت تاثیر قرار داد، یک شرکت منبع باز به نام Stable Diffusion نسخه مخصوص به خود را از این ابزار به صورت رایگان برای عموم منتشر کرد.
یکی از مزایای نرمافزار منبع باز این است که با حضور در فضای باز، تعداد بیشتری از مردم دائما آن را بخاطر ناکارآمدی بررسی میکنند. به همین دلیل است که لینوکس در طول تاریخ یکی از امن ترین سیستم عامل های موجود برای عموم بوده است.
توسعه هوش مصنوعی باید کنترل شده باشد
با این حال، پرتاب کردن سیستمهای هوش مصنوعی قدرتمند در فضای باز نیز خطر سوء استفاده از آنها را افزایش میدهد. اگر هوش مصنوعی به اندازه یک ویروس یا آلودگی هستهای مضر است، شاید منطقی باشد که توسعه آن را متمرکز کنیم. از این گذشته، ویروسها در آزمایشگاههای ایمنی زیستی مورد بررسی قرار میگیرند و اورانیوم در محیطهایی که به دقت محدود شدهاند غنیسازی میشوند.
اگرچه تحقیقات در مورد ویروس ها و انرژی هسته ای توسط مقررات نظارت می شود، و با توجه به اینکه دولت ها از سرعت سریع هوش مصنوعی عقب می افتند، هنوز هیچ دستورالعمل روشنی برای توسعه آن وجود ندارد. هوش مصنوعی با ساخته شدن در فضای باز خطر سوء استفاده را به همراه دارد، اما هیچ کس بر آنچه که در پشت درهای بسته ایجاد می شود نظارت نمی کند.
حداقل در حال حاضر، دیدن توجه در راستای همسویی هوش مصنوعی، دلگرم کننده است، زمینهای رو به رشد که به طراحی سیستمهای هوش مصنوعی «همسو» با اهداف انسانی اشاره دارد.
شرکتهای پیشرو هوش مصنوعی مانند DeepMind و OpenAI از Alphabet دارای تیمهای متعددی هستند که روی همسویی هوش مصنوعی کار میکنند، و بسیاری از محققان از این شرکتها شروع به راهاندازی شرکتهای نوپا خود کردهاند که برخی از آنها بر روی ایمنسازی هوش مصنوعی متمرکز هستند.
اینها شامل Anthropic مستقر در سانفرانسیسکو است که تیم موسس آن OpenAI را ترک کرد و در اوایل امسال 580 میلیون دلار از سرمایه گذاران جمع آوری کرد و Conjecture مستقر در لندن که اخیرا توسط بنیانگذاران Github، Stripe و FTX Trading حمایت شد.
حدس و گمان با این فرض عمل میکند که هوش مصنوعی در پنج سال آینده با هوش انسانی برابری میکند و خط سیر آن فاجعهای برای گونههای انسان به همراه دارد.
کانر لیهی، مدیر عامل Conjecture، در پاسخ به این سوال که چرا ممکن است هوش مصنوعی بخواهد به انسانها آسیب برساند، گفت: تصور کنید انسانها میخواهند برای ساختن یک سد برق آبی، درهای را زیر آب ببرند، و یک مورچه در آن دره وجود دارد. این باعث نمیشود که انسانها از ساختنشان جلوگیری کنند، و لپه مورچهها بهسرعت دچار سیل میشوند.
"هیچ وقت هیچ انسانی حتی به آسیب رساندن به مورچه ها فکر نکرد. آنها فقط انرژی بیشتری می خواستند و این کارآمدترین راه برای رسیدن به این هدف بود.» "به طور مشابه، هوش مصنوعی مستقل برای دستیابی به اهداف خود به انرژی بیشتر، ارتباطات سریع تر و هوش بیشتری نیاز دارند."
نظرات