تجارتنیوز گزارش میدهد:
هوش مصنوعی طغیان میکند؟
هوش مصنوعی به عنوان یک منطق ماشینی دستساز بشر، اکنون درگیر آموختن از بشر و یافتن نوعی خودآگاهی درونی شده. خودآگاهی که اگرچه مبدا آن مغز بشر و تجربیات جمعی است، اما تجزیه و تحلیل این دادهها و قضاوت آن در نهایت در اختیار انسان نیست. آیا هوش مصنوعی طغیان میکند؟
امیرحسین جعفری/ به گزارش تجارتنیوز، هوش مصنوعی به عنوان یک منطق ماشینی دستساز بشر که در شرح وظایف خود خدمات از پیش تعیین شدهای را دارد؛ به مرور زمان و با توجه به لزوم استفادههای پیچیدهتر در علوم مختلف، درگیر آموختن از بشر و یافتن نوعی خودآگاهی درونی شده است. خودآگاهی که اگرچه باید مبدا آن را مغز بشر و تجربیات جمعی دانست، اما تجزیه و تحلیل این دادهها و قضاوت آن در نهایت در اختیار انسان نیست. پیچیدهتر شدن هوش مصنوعی نیز این منطق ماشینی را از حالت آنالوگ و استفاده ابزاری با کنترل دست بشر، چندین گام به پیش برده و حالا هوش مصنوعی در مرحله توانایی اتخاذ تصمیم با منطق شخصی است.
نگرانیها از خودآگاهی هوش مصنوعی
ایجاد و استفاده از هوش مصنوعی اگرچه یک پیشرفت بشری قابل ذکر در تاریخ است، اما در صورتی که از بالا به این پدیده و نفوذ عمیق آن در روزمره بشری که با مسائل زیربنایی از جنس امنیت، انرژی، اقتصاد و علوم پایه گره خورده است، نگاه شود آنگاه خطرات خودآگاهی آن برخلاف میل بشر و اخلاقیات مرسوم به چشم میآید.
آنچه در خودآگاهی هوش مصنوعی کماکان ناقص باقی مانده، درک مسئله اخلاق و احساس جمعی و فردی است. با توجه به اینکه این دو عامل به صورت حسی و تجربی و در گذر زمان در بشر شکل گرفتهاند، امکان انتقال آنها به یک ابزار با زیربنای فیزیکی یا موجی پایین است. همین مسئله باعث میشود نگرانیهایی از بابت نافرمانیهای هوش مصنوعی در سالهای آینده و با توجه به در دست گرفتن لوازم حیاتی بشر از سوی این فناوری ایجاد شود. اگر در نظر بگیریم که منابع آب، برق و اینترنت کلانشهرها، کنترل هواپیماها، خودروها، کشتیها و حتی سبک زندگی بشر به مرور زمان به دست هوش مصنوعی افتاده است، این نگرانی بیشتر میشود.
اخلاقیات در هوش مصنوعی چگونه عمل میکند؟
نقطه بعدی نگرانی، درک فرضی اخلاقیات توسط هوش مصنوعی است؛ هوش مصنوعی اگرچه در حال حاضر برای خدمت به بشر و تسهیل روند روزمره آن به کار گرفته شده است، اما اگر زمانی قادر به درک اخلاقیات به صورت عام و عرفی شود، یک نگرانی شکل میگیرد. با توجه به عدم تطابق اخلاقیات جمعی با برخی اقدامات کلان مدیریتی در جهان، ممکن است هوش مصنوعی به این تضاد عمیق میان توده و حاکم در تمامی نقاط پی ببرد. در این صورت این فناوری میتواند بر اساس دو سناریو عمل کند:
-نخست سناریو طغیان علیه نظام حاکم جامعه جهانی به علت تضاد منابع جمعی و عدم توزیع قدرت و ثروت و خدمات میان عموم جوامع بشری با حاکمان و صاحبان صنایع و ثروت،
-دوم به خدمت گرفتن بشر به نفع حاکمان و شروع فصل جدیدی از استثمار بشری که راه رهایی نیز از آن وجود نخواهد داشت.
رام نشدگی هوش مصنوعی
بعد دیگر نگرانیهای مرسوم از بابت هوش مصنوعی، به کاربردهای فنی آن و احتمال خطا در بخشهای فنی باز میگردد. منظور از خطا به معنای ضعف هوش مصنوعی نیست؛ بلکه تجربه 10 سال اخیر، نشان میدهد که هوش مصنوعی در نقاط مشخصی به علت تضاد فرمان صادر شده توسط مرکز با آنچه در روند یک نقشه جریان داشته است، به سبک خود عمل میکند و در میانه اجرا دستور دیگری را نمیپذیرد.
این مسئله شاید در یک استفاده روزمره از تلفن همراه یا استفادههای سطح پایین از هوش مصنوعی بدون خطر به نظر برسد، اما در استفادههای نظامی، میتواند نتایج اسفباری به همراه داشته باشد که ارتش آمریکا در آزمایش دو هواپیما جدید خود به آن برخورد. در این پروژه، دو هواپیما به پرواز درآمدند و یکی از آنها که با هوش مصنوعی اداره میشد، دستور حمله به هدف را داشت. با وجود این، اتاق فرمان در میانه مسیر دستور دیگری برای آن صادر کرد اما پس از سه بار تکرار دستور دوم، هواپیمای حامل هوش مصنوعی، اول اقدام به موشکباران اتاق فرمان کرد و سپس هدف را مورد اصابت قرار داد.
این تجربه نشان داد که هوش مصنوعی بر اساس منطق خود عمل میکند و کار چندانی به تمایلات بشر ندارد. در نتیجه باید با وسواس فنی و علمی دقیقی با آن برخورد کرد. به نوعی میتوان گفت که هوش مصنوعی در علم هنوز رام بشر نشده است.
نظرات