خبر فوری:

فونیکس - هدر اخبار
کد مطلب: ۷۲۲۲۷۲

تجارت‌نیوز گزارش می‌دهد:

هوش مصنوعی چگونه برای انسان خطرناک می‌شود؟

هوش مصنوعی چگونه برای انسان خطرناک می‌شود؟

هر چقدر هم که مضحک به نظر برسد، چهره‌های عمومی از بیل گیتس، بنیانگذار مایکروسافت، ایلان ماسک، مدیرعامل اسپیس ایکس و تسلا، و استیون هاوکینگ، فیزیکدان فقید، تا آلن تورینگ، پیشگام کامپیوتر بریتانیایی، نسبت به سرنوشت انسان‌ها در دنیایی که ماشین‌ها از آنها پیشی می‌گیرند، ابراز نگرانی کرده‌اند.

به گزارش تجارت‌نیوز، هوش مصنوعی به قدری سریع در حال حرکت است که حتی دانشمندان نیز به سختی می‌توانند به آن ادامه دهند. در سال گذشته، الگوریتم‌های یادگیری ماشین شروع به تولید فیلم‌های ابتدایی و عکس‌های جعلی خیره‌کننده کردند.

آنها حتی در حال نوشتن کد نیز هستند. در آینده، مردم احتمالا به سالی که هوش مصنوعی از پردازش اطلاعات به تولید محتوا و همچنین بسیاری از انسان‌ها تغییر داده است، توجه زیادی خواهند کرد.

هوش مصنوعی علیه بشر؟

هر چقدر هم که هذل آمیز و مضحک به نظر برسد، چهره‌های عمومی از بیل گیتس، بنیانگذار مایکروسافت، ایلان ماسک، مدیرعامل اسپیس ایکس و تسلا، و استیون هاوکینگ، فیزیکدان فقید، تا آلن تورینگ، پیشگام کامپیوتر بریتانیایی، نسبت به سرنوشت انسان‌ها در دنیایی که ماشین‌ها از آنها پیشی می‌گیرند، ابراز نگرانی کرده‌اند. ماسک می‌گوید هوش مصنوعی می‌تواند از کلاهک‌های هسته‌ای هم خطرناک‌تر شود.

از این گذشته، انسان‌ها با گونه‌های کم‌هوش به‌خوبی رفتار نمی‌کنند، بنابراین چه کسی می‌تواند بگوید که رایانه‌هایی که همه جا بر روی داده‌هایی که همه جنبه‌های رفتار انسان را منعکس می‌کنند، آموزش دیده‌اند.

با این حال، یک خبر خوب وجود دارد. دانشمندان بیشتری به دنبال شفاف سازی و اندازه‌گیری سیستم‌های یادگیری عمیق هستند. این حرکت نباید متوقف شود. از آنجایی که این برنامه‌ها در بازارهای مالی، رسانه‌های اجتماعی و زنجیره‌های تامین نفوذ بیشتری می‌کنند، شرکت‌های فناوری باید ایمنی هوش مصنوعی را بر قابلیت اولویت‌بندی کنند.

گزارش وضعیت هوش مصنوعی در سال گذشته که سالانه توسط سرمایه‌گذاران سرمایه‌گذاری ریسک‌پذیر لندن، یان هوگارث و ناتان بانایچ تهیه می‌شود، می‌گوید در سال گذشته در سراسر آزمایشگاه‌های بزرگ هوش مصنوعی جهان، تقریباً 100 محقق تمام وقت بر روی ساخت سیستم‌های ایمن متمرکز بودند. گزارش آنها برای سال جاری نشان داد که هنوز فقط حدود 300 محقق به طور تمام وقت روی ایمنی هوش مصنوعی کار می کنند.

هوگارث این هفته در گفتگوی توییتر اسپیس در مورد تهدید هوش مصنوعی گفت: «این عدد بسیار پایینی است. نه تنها تعداد کمی از افراد روی همسو کردن این سیستم‌ها کار می‌کنند، بلکه به نوعی غرب وحشی است.»

هوگارت به این اشاره داشت که چگونه در سال گذشته مجموعه‌ای از ابزارها و تحقیقات هوش مصنوعی توسط گروه‌های منبع باز تولید شده است که می‌گویند ماشین‌های فوق‌هوشمند نباید به‌طور مخفیانه توسط چند شرکت بزرگ ساخته و کنترل شوند.

به عنوان مثال، سازمان جامعه محور EleutherAI در آگوست سال گذشته نسخه عمومی ابزار قدرتمندی را توسعه داد که می‌توانست نظرات و مقالات واقع‌بینانه را در مورد هر موضوعی بنویسد، این سازمان GPT-Neo نام داشت.

ابزار اصلی، به نام GPT-3، توسط OpenAI، شرکتی که توسط ماسک تأسیس شده و عمدتاً توسط مایکروسافت تأمین مالی می‌شود، توسعه داده شد که دسترسی محدودی به سیستم‌های قدرتمند خود ارائه می‌دهد.

امسال، چند ماه پس از اینکه OpenAI جامعه هوش مصنوعی را با یک سیستم تولید تصویر انقلابی به نام DALL-E 2 تحت تاثیر قرار داد، یک شرکت منبع باز به نام Stable Diffusion نسخه مخصوص به خود را از این ابزار به صورت رایگان برای عموم منتشر کرد.

یکی از مزایای نرم‌افزار منبع باز این است که با حضور در فضای باز، تعداد بیشتری از مردم دائما آن را بخاطر ناکارآمدی بررسی می‌کنند. به همین دلیل است که لینوکس در طول تاریخ یکی از امن ترین سیستم عامل های موجود برای عموم بوده است.

توسعه هوش مصنوعی باید کنترل شده باشد

با این حال، پرتاب کردن سیستم‌های هوش مصنوعی قدرتمند در فضای باز نیز خطر سوء استفاده از آنها را افزایش می‌دهد. اگر هوش مصنوعی به اندازه یک ویروس یا آلودگی هسته‌ای مضر است، شاید منطقی باشد که توسعه آن را متمرکز کنیم. از این گذشته، ویروس‌ها در آزمایشگاه‌های ایمنی زیستی مورد بررسی قرار می‌گیرند و اورانیوم در محیط‌هایی که به دقت محدود شده‌اند غنی‌سازی می‌شوند.

اگرچه تحقیقات در مورد ویروس ها و انرژی هسته ای توسط مقررات نظارت می شود، و با توجه به اینکه دولت ها از سرعت سریع هوش مصنوعی عقب می افتند، هنوز هیچ دستورالعمل روشنی برای توسعه آن وجود ندارد. هوش مصنوعی با ساخته شدن در فضای باز خطر سوء استفاده را به همراه دارد، اما هیچ کس بر آنچه که در پشت درهای بسته ایجاد می شود نظارت نمی کند.

حداقل در حال حاضر، دیدن توجه در راستای همسویی هوش مصنوعی، دلگرم کننده است، زمینه‌ای رو به رشد که به طراحی سیستم‌های هوش مصنوعی «همسو» با اهداف انسانی اشاره دارد.

شرکت‌های پیشرو هوش مصنوعی مانند DeepMind و OpenAI از Alphabet دارای تیم‌های متعددی هستند که روی همسویی هوش مصنوعی کار می‌کنند، و بسیاری از محققان از این شرکت‌ها شروع به راه‌اندازی شرکت‌های نوپا خود کرده‌اند که برخی از آنها بر روی ایمن‌سازی هوش مصنوعی متمرکز هستند.

اینها شامل Anthropic مستقر در سانفرانسیسکو است که تیم موسس آن OpenAI را ترک کرد و در اوایل امسال 580 میلیون دلار از سرمایه گذاران جمع آوری کرد و Conjecture مستقر در لندن که اخیرا توسط بنیانگذاران Github، Stripe و FTX Trading حمایت شد.

حدس و گمان با این فرض عمل می‌کند که هوش مصنوعی در پنج سال آینده با هوش انسانی برابری می‌کند و خط سیر آن فاجعه‌ای برای گونه‌های انسان به همراه دارد.

کانر لیهی، مدیر عامل Conjecture، در پاسخ به این سوال که چرا ممکن است هوش مصنوعی بخواهد به انسان‌ها آسیب برساند، گفت: تصور کنید انسان‌ها می‌خواهند برای ساختن یک سد برق آبی، دره‌ای را زیر آب ببرند، و یک مورچه در آن دره وجود دارد. این باعث نمی‌شود که انسان‌ها از ساختنشان جلوگیری کنند، و لپه مورچه‌ها به‌سرعت دچار سیل می‌شوند.

"هیچ وقت هیچ انسانی حتی به آسیب رساندن به مورچه ها فکر نکرد. آنها فقط انرژی بیشتری می خواستند و این کارآمدترین راه برای رسیدن به این هدف بود.» "به طور مشابه، هوش مصنوعی مستقل برای دستیابی به اهداف خود به انرژی بیشتر، ارتباطات سریع تر و هوش بیشتری نیاز دارند."

نظرات

مخاطب گرامی توجه فرمایید:
نظرات حاوی الفاظ نامناسب، تهمت و افترا منتشر نخواهد شد.

تیترِ یک

آخرین اخبار

پربازدیدترین اخبار