فونیکس - هدر اخبار
کد مطلب: ۸۹۲۸۹۳

تجارت‌نیوز گزارش می‌دهد:

هوش مصنوعی طغیان می‌کند؟

هوش مصنوعی طغیان می‌کند؟

هوش مصنوعی به عنوان یک منطق ماشینی دست‌ساز بشر، اکنون درگیر آموختن از بشر و یافتن نوعی خودآگاهی درونی شده. خودآگاهی که اگرچه مبدا آن مغز بشر و تجربیات جمعی است، اما تجزیه و تحلیل این داده‌ها و قضاوت آن در نهایت در اختیار انسان نیست. آیا هوش مصنوعی طغیان می‌کند؟

امیرحسین جعفری/ به گزارش تجارت‌نیوز، هوش مصنوعی به عنوان یک منطق ماشینی دست‌ساز بشر که در شرح وظایف خود خدمات از پیش تعیین شده‌ای را دارد؛ به مرور زمان و با توجه به لزوم استفاده‌های پیچیده‌تر در علوم مختلف، درگیر آموختن از بشر و یافتن نوعی خودآگاهی درونی شده است. خودآگاهی که اگرچه باید مبدا آن را مغز بشر و تجربیات جمعی دانست، اما تجزیه و تحلیل این داده‌ها و قضاوت آن در نهایت در اختیار انسان نیست. پیچیده‌تر شدن هوش مصنوعی نیز این منطق ماشینی را از حالت آنالوگ و استفاده ابزاری با کنترل دست بشر، چندین گام به پیش برده و حالا هوش مصنوعی در مرحله توانایی اتخاذ تصمیم با منطق شخصی است.

نگرانی‌ها از خودآگاهی هوش مصنوعی

ایجاد و استفاده از هوش مصنوعی اگرچه یک پیشرفت بشری قابل ذکر در تاریخ است، اما در صورتی که از بالا به این پدیده و نفوذ عمیق آن در روزمره بشری که با مسائل زیربنایی از جنس امنیت، انرژی، اقتصاد و علوم پایه گره خورده است، نگاه شود آنگاه خطرات خودآگاهی آن برخلاف میل بشر و اخلاقیات مرسوم به چشم می‌آید.

آنچه در خودآگاهی هوش مصنوعی کماکان ناقص باقی مانده، درک مسئله اخلاق و احساس جمعی و فردی است. با توجه به اینکه این دو عامل به صورت حسی و تجربی و در گذر زمان در بشر شکل گرفته‌اند، امکان انتقال آنها به یک ابزار با زیربنای فیزیکی یا موجی پایین است. همین مسئله باعث می‌شود نگرانی‌هایی از بابت نافرمانی‌های هوش مصنوعی در سال‌های آینده و با توجه به در دست گرفتن لوازم حیاتی بشر از سوی این فناوری ایجاد شود. اگر در نظر بگیریم که منابع آب، برق و اینترنت کلانشهرها، کنترل هواپیماها، خودرو‌ها، کشتی‌ها و حتی سبک زندگی بشر به مرور زمان به دست هوش مصنوعی افتاده است، این نگرانی بیشتر می‌شود.

اخلاقیات در هوش مصنوعی چگونه عمل می‌کند؟

نقطه بعدی نگرانی، درک فرضی اخلاقیات توسط هوش مصنوعی است؛ هوش مصنوعی اگرچه در حال حاضر برای خدمت به بشر و تسهیل روند روزمره آن به کار گرفته شده است، اما اگر زمانی قادر به درک اخلاقیات به صورت عام و عرفی شود، یک نگرانی شکل می‌گیرد. با توجه به عدم تطابق اخلاقیات جمعی با برخی اقدامات کلان مدیریتی در جهان، ممکن است هوش مصنوعی به این تضاد عمیق میان توده و حاکم در تمامی نقاط پی ببرد. در این صورت این فناوری می‌تواند بر اساس دو سناریو عمل کند:

-نخست سناریو طغیان علیه نظام حاکم جامعه جهانی به علت تضاد منابع جمعی و عدم توزیع قدرت و ثروت و خدمات میان عموم جوامع بشری با حاکمان و صاحبان صنایع و ثروت،

-دوم به خدمت گرفتن بشر به نفع حاکمان و شروع فصل جدیدی از استثمار بشری که راه رهایی نیز از آن وجود نخواهد داشت.

رام نشدگی هوش مصنوعی

بعد دیگر نگرانی‌های مرسوم از بابت هوش مصنوعی، به کاربرد‌های فنی آن و احتمال خطا در بخش‌های فنی باز می‌گردد. منظور از خطا به معنای ضعف هوش مصنوعی نیست؛ بلکه تجربه 10 سال اخیر، نشان می‌دهد که هوش مصنوعی در نقاط مشخصی به علت تضاد فرمان صادر شده توسط مرکز با آنچه در روند یک نقشه جریان داشته است، به سبک خود عمل می‌کند و در میانه‌ اجرا دستور دیگری را نمی‌پذیرد.

این مسئله شاید در یک استفاده روزمره از تلفن همراه یا استفاده‌های سطح پایین از هوش مصنوعی بدون خطر به نظر برسد، اما در استفاده‌های نظامی، می‌تواند نتایج اسفباری به همراه داشته باشد که ارتش آمریکا در آزمایش دو هواپیما جدید خود به آن برخورد. در این پروژه، دو هواپیما به پرواز درآمدند و یکی از آنها که با هوش مصنوعی اداره می‌شد، دستور حمله به هدف را داشت. با وجود این، اتاق فرمان در میانه‌ مسیر دستور دیگری برای آن صادر کرد اما پس از سه بار تکرار دستور دوم، هواپیمای حامل هوش مصنوعی، اول اقدام به موشک‌باران اتاق فرمان کرد و سپس هدف را مورد اصابت قرار داد.

این تجربه نشان داد که هوش مصنوعی بر اساس منطق خود عمل می‌کند و کار چندانی به تمایلات بشر ندارد. در نتیجه باید با وسواس فنی و علمی دقیقی با آن برخورد کرد. به نوعی می‌توان گفت که هوش مصنوعی در علم هنوز رام بشر نشده است. 

 

نظرات

مخاطب گرامی توجه فرمایید:
نظرات حاوی الفاظ نامناسب، تهمت و افترا منتشر نخواهد شد.