خبر مهم:

فونیکس - هدر اخبار
کد مطلب: ۸۸۷۶۹۳

تجارت‌نیوز از نگرانی‌های ایلان ماسک گزارش می‌دهد:

هوش مصنوعی بزرگترین چالش تاریخ بشر می‌شود؟/ غول جادویی که محدودیت ندارد

هوش مصنوعی بزرگترین چالش تاریخ بشر می‌شود؟/ غول جادویی که محدودیت ندارد

قابلیت‌های هوش مصنوعی بسیاری از سران کشورها و شرکت‌ها را نگران کرده و به این ترس دامن زده است که بشر قادر به کنترل ابعاد هوشمند آن نباشد. از این رو در اجلاس ایمن‌سازی هوش مصنوعی در لندن انگلیس تصمیماتی برای مقابله با اثرات سوء این فناوری گرفته شد اما مطلبی که نظر همه را جلب کرد سخنان ایلان ماسک درباره خطرات هوش مصنوعی بود.

به گزارش تجارت‌نیوز ، از حدود دو سال پیش که هوش مصنوعی به‌طور جدی جای خود را در بین مردم پیدا کرد، ایلان ماسک به‌عنوان یکی از رهبران فناوری دنیا نسبت به پیشرفت غیر قابل تصور این فناوری هشدار داد و این هشدارها همچنان ادامه دارد.

هوش مصنوعی بزرگترین مشکل تاریخ بشر می‌شود

سایت خبری CNBC در گزارش روز پنجشنبه خود نوشت: ایلان ماسک فکر می‌کند که هوش مصنوعی در نهایت می‌تواند همه را بیکار کند. ماسک که اکنون ریاست شرکت‌های اسپیس ایکس، ایکس (توییتر سابق) و استارتاپ تازه تاسیس هوش مصنوعی xAI را بر عهده دارد، در مراسمی در کشور بریتانیا و با حضور نخست وزیر این کشور اعلام کرد که هوش مصنوعی این پتانسیل را دارد که به بزرگترین مشکل تاریخ بشر تبدیل شود.

وی همچنان ادامه داد: «ما چیزی خواهیم داشت که برای اولین بار هوشمندتر از باهوش‌ترین انسان‌هاست.» او حتی درباره نابودی مشاغل سراسر دنیا هم چنین گفته است که «سخت است بگویم چه زمانی اتفاق می‌اقتد اما زمانی فرا می‌رسد که دیگر نیازی به شغل‌های مختلف نیست. شاید شما بخواهید کاری را برای رضایت شخصی انجام بدهید اما باید بدانید هوش مصنوعی قادر به انجام همه کارها خواهد بود.»

هوش مصنوعی؛ غول جادویی که محدودیت ندارد

این میلیاردر آمریکایی حتی به شوخی نکته‌ای را چنین بیان کرد: «فرض کنید یک غول جادویی دارید و هر آروزیی بکنید برای شما انجام می‌دهد ولی فقط تا سه بار، اما هوش مصنوعی این کار را برای شما به‌صورت بی‌نهایت انجام می‌دهد. با اینکه شاید این مسئله از نظر بسیاری افراد چیز خوبی باشد ولی یکی از چالش‌های آینده پیدا کردن معنا برای ادامه زندگی است.»

همان‌طور که گفته شد ماسک پیش از این هم هشدارهایی درباره هوش مصنوعی داده بود و آن را خطرناک‌تر از بمب هسته‌ای دانسته بود. او یکی از رهبرانی بود که در نامه‌ای سرگشاده در اوایل سال جاری خواستار توقف هوش مصنوعی پیشرفته‌تر از GPT-4 OpenAI شد.

البته در مقابل این سخنان ماسک، بعضی دیگر از رهبران دنیای فناوری مانند الکس کارپ و پلانتیر مخالف او هستند. به عنوان مثال کارپ در مصاحبه‌ای گفته بود که بسیاری از افرادی که درخواست توقف پیشرفت برای هوش مصنوعی را دارند به این دلیل است که محصولی برای ارائه ندارند و به دنبال خرید زمان هستند.

اجماع چین و آمریکا برای مقابله با خطرات هوش مصنوعی

این اظهارات ماسک پس از پایان اجلاسی برای ایمن سازی هوش مصنوعی در کشور انگلستان گفته شد. اجلاسی که در آن رهبران جهان به دنبال رسیدن به یک نقطه مشترک برای مقابله با اثرات منفی هوش مصنوعی بودند. اثراتی که شاید تمام زندگی انسان را تحت تاثیر خود قرار دهد. مقابله با خطرات هوش مصنوعی آنقدر مهم شده است که حتی دو کشور درگیر یعنی آمریکا و چین هم برای رسیدن به یک اجماع جهانی در مورد ایمن سازی هوش مصنوعی دور یک میز جمع شده بودند.

پیش از برگزاری این اجلاس هم گروه «G7» یک دستورالعمل برای شرکت‌هایی که خدمات هوش مصنوعی ارائه می‌دهند تدوین کرده بود.

سند تدوین شده توسط گروه G7‌ شامل 11 بند می‌شود و هدف آن ترویج هوش مصنوعی ایمن و قابل اعتماد در سراسر جهان است. این سند همچنین راهنمایی‌هایی را برای اقدامات سازمان‌ها و کشورهایی که پیشرفته‌ترین سیستم‌های هوش مصنوعی مانند مدل‌های پایه و هوش مصنوعی مولد را در اختیار دارند، ارائه می‌کند.

این دستورالعمل از شرکت‌ها می‌خواهد تا اقدامات مناسب را برای شناسایی، ارزیابی و کاهش خطرات در طول چرخه عمر هوش مصنوعی و همچنین مقابله با حوادث و الگوهای سوءاستفاده پس از عرضه محصولات به بازار، انجام دهند. در این راستا شرکت‌ها باید گزارش‌های خود را در مورد قابلیت‌ها، محدودیت‌ها و استفاده محصولات هوش مصنوعی خود ارسال کرده و روی کنترل‌های امنیتی قوی سرمایه‌گذاری کنند.

نظرات

مخاطب گرامی توجه فرمایید:
نظرات حاوی الفاظ نامناسب، تهمت و افترا منتشر نخواهد شد.