فونیکس - هدر اخبار
کد مطلب: ۸۰۷۹۳۶

همه چیز درباره جفری هینتون دانشمندی که ۱۰ سال برای گوگل کار کرد

چرا پدرخوانده هوش مصنوعی از آینده این تکنولوژی می‌ترسد؟

چرا پدرخوانده هوش مصنوعی از آینده این تکنولوژی می‌ترسد؟

جفری هینتون، پدرخوانده هوش مصنوعی هفته گذشته گوگل را ترک کرد تا درباره هوش مصنوعی و خطرات آن برای آینده بشریت راحت‌تر اظهار نظر کند. به عقیده او هوش مصنوعی اکنون صدها برابر از آدم‌ها بیشتر می‌داند و ممکن است از نوع انسان پیشی بگیرد.

به گزارش تجارت‌نیوز ، جفری هینتون 75 ساله، روانشناس شناختی و دانشمند رایانه بریتانیایی-کانادایی که به پدر هوش مصنوعی (AI) معروف است، با ابراز نگرانی از اینکه تحقیقات هوش مصنوعی در مسیر اشتباهی پیش می‌رود، هفته پیش گوگل را ترک کرد. او که کارهای پیشگامانه‌ای در زمینه شبکه‌های عصبی مصنوعی انجام داده، اکنون احساس می‌کند که با وجود هوش مصنوعی خطری در انتظار بشریت است.

هینتون در مصاحبه‌ای با نیویورک تایمز گفت که نگران پتانسیل هوش مصنوعی برای از بین بردن مشاغل و ایجاد دنیایی است که در آن بسیاری «دیگر نتوانند بدانند چه چیزی حقیقت دارد.» درواقع، هینتون به دنبال ظهور ChatGPT و دیگر چت‌بات‌ها و مطرح شدن انتقادات و نگرانی‌ها نسبت به آینده هوش مصنوعی استعفا داد. در حالی که بیش از 10 سال در کمپانی گوگل و روی پروژه‌های هوش مصنوعی تحقیق کرده بود.

ماجرای ورود جفری هینتون به هوش مصنوعی

جفری هینتون در سال 1947 در ویمبلدون لندن متولد شد. ورود جفری به این مسیر، بسیار تحت تاثیر خانواده‌‌اش بوده است. چرا که پدربزرگش جورج بول بود. ریاضی‌دانی که اختراع جبر بولی پایه‌های رایانه‌های مدرن را پایه‌ریزی کرد.

همچنین، پسر عموی او جوآن هینتون، یک فیزیکدان هسته‌ای بود و روی پروژه منهتن کار می‌کرد که اولین سلاح هسته‌ای جهان را در طول جنگ جهانی دوم تولید کرد. در نهایت پدر جفری، تیلور یک محقق بود که به عضویت انجمن سلطنتی، قدیمی‌ترین آکادمی علمی جهان درآمد.

جفری مدرک کارشناسی خود را در روانشناسی تجربی از کمبریج در سال 1970 و دکترای خود را در هوش مصنوعی از ادینبورگ در سال 1978 دریافت کرد. مرحله فوق دکترا را در دانشگاه ساسکس و دانشگاه کالیفرنیا سن دیگو گذراند و پنج سال به‌عنوان عضو هیئت علمی در بخش علوم کامپیوتر دانشگاه کارنگی ملون مشغول به کار بود. سپس عضو مؤسسه تحقیقات پیشرفته کانادا شد و به دپارتمان علوم کامپیوتر دانشگاه تورنتو نقل مکان کرد.

از سال 1998 تا 2001، واحد علوم اعصاب محاسباتی گتسبی را در کالج دانشگاه لندن راه‌اندازی کرد و سپس به دانشگاه تورنتو بازگشت. از سال 2004 تا 2013، مدیر برنامه «محاسبات عصبی و ادراک تطبیقی» بود که توسط مؤسسه تحقیقات پیشرفته کانادا تأمین مالی شده بود.

در سال 2013، استارتاپ DNN Research که جفری هینتون آن را تأسیس کرده بود، توسط گوگل خریداری شد. این زمانی بود که گروه پروفسور جفری هینتون در دانشگاه تورنتو سیستمی را مبتنی بر یادگیری عمیق و شبکه‌های عصبی کانولوشنال توسعه دادند که در نهایت با اختلاف زیادی برنده مسابقه بینایی کامپیوتر ImageNet شد. تا ده سال بعد از آن، هینتون زمان خود را بین تحقیقات دانشگاهی و کار خود در گوگل تقسیم کرده بود.

جفری هینتون به دلیل انجام تحقیقات و اقدامات گسترده‌ای که در زمینه توسعه شبکه‌های عصبی مصنوعی کرد، امروزه به پدرخوانده هوش مصنوعی شناخته می‌شود.

اما حالا هینتون متوجه شده است که غول‌های بزرگ فناوری برای کسب سود، روی توسعه فناوری‌های مبتنی بر هوش مصنوعی رقابت می‌کنند که می‌تواند آسیب جدی به بشریت وارد کند. پدرخوانده هوش مصنوعی گوگل را ترک کرده است، زیرا می‌خواهد در مورد خطرات هوش مصنوعی آزادانه صحبت کند.

علت نگرانی دانشمندان درباره هوش مصنوعی

این اولین بار نیست که دانشمندی در مورد اثرات بد هوش مصنوعی هشدار می‌دهد. در ژانویه سال 2015، استیون هاوکینگ، ایلان ماسک و چندین تن از محققان این حوزه، نیز در این مورد ابراز نگرانی کردند. همچنین در ماه مارس سال جاری میلادی، بسیاری از دانشمندانی که روی هوش مصنوعی کار می‌کنند، طی نامه‌ای سرگشاده خواستار توقف آزمایش‌ها بر روی مدل‌های جدیدتر هوش مصنوعی شدند.

برخی نیز احتمال مسابقه تسلیحاتی هوش مصنوعی نظامی را داده‌اند و سازمان ملل متحد باید تلاش‌هایی را برای جلوگیری از توسعه سیستم‌های تسلیحات خودمختار مرگبار (LAWS، سلاح‌های مبتنی بر هوش مصنوعی) فراتر از کنترل معنادار انسانی انجام دهد. در این نامه ذکر شده بود که به‌خلاف تسلیحات هسته‌ای، ساخت این سلاح‌ها دشوار نیست.

با این حال نگرانی کنونی در مورد ابزارهایی مانند ChatGPT است. انواع مختلف هوش مصنوعی مولد می‌تواند به گسترش اطلاعات غلط کمک کند که در نهایت آسیب‌های جبران‌ناپذیری به بار خواهد آورد.

همچنین، محققان مدت‌هاست متوجه شده‌اند که جذب و به‌کارگیری دانش جدید در شبکه‌های عصبی مصنوعی بسیار بیشتر از افراد است، زیرا آموزش آنها به انرژی و داده‌های بسیار زیادی نیاز دارد.

اما هینتون استدلال می‌کند که دیگر این‌طور نیست. چراکه سیستم‌هایی مانند GPT-4 پس از آموزش صحیح توسط محققان، می‌توانند خیلی سریع چیزهای جدید یاد بگیرند. این امر هینتون را به این نتیجه رسانده که سیستم‌های هوش مصنوعی ممکن است از انسان‌ها پیشی بگیرند.

در ماه‌های اخیر نیز مشاهده شده است که سازندگان هوش مصنوعی در تلاش‌اند که به هر نحوی در مسابقه هوش مصنوعی برنده شوند. اما توسعه هوش مصنوعی به هر قیمتی و بدون برنامه‌ریزی دقیق می‌تواند باعث سرکشی ابزارها شود که احتمالاً حتی سازندگان آن‌ها نیز به سختی می‌توانند جلوی سرکش شدن‌شان را بگیرند.

هینتون در نگرانی‌های خود تنها نیست

هینتون در نگرانی‌های خود تنها نیست. اندکی پس از اینکه OpenAI جدیدترین مدل هوش مصنوعی خود را به نام GPT-4 در ماه مارس منتشر کرد، بیش از هزار محقق و رهبر جهان فناوری، نامه‌ای را امضا کردند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی شدند.

هشدارها درباره هوش مصنوعی به جایی رسید که در مارس 2023، سام آلتمن، مدیر عامل OpenAI در یک مصاحبه تلویزیونی به خطرات ناشی از قدرت و خطرات مدل‌های زبانی برای جامعه اذعان کرد.

او گفته بود که توانایی تولید خودکار متن، تصویر یا کد می‌تواند برای راه‌اندازی کمپین‌های اطلاعات نادرست یا حملات سایبری مورد سوء‌استفاده قرار گیرد.

هینتون در آخرین اظهارات خود درباره GPT-4، آخرین مدل هوش مصنوعی از OpenAI گفته است که صدها برابر بیشتر از هر انسان دیگری می‌داند. به همین دلیل است که در ذهن افرادی مانند پروفسور جفری هینتون نسبت به هوش مصنوعی مولد ترس وجود دارد.

همچنین جالب اینجاست که OpenAI جزئیات فنی را در مورد آخرین مدل زبان GPT-4 خود مخفی نگه داشته است. در حالی که برای غول‌های فناوری شفافیت بسیار مهم است، اما OpenAI تنها به دلیل منافع تجاری از افشای جزئیات سر بازمی‌زند.

نظرات

مخاطب گرامی توجه فرمایید:
نظرات حاوی الفاظ نامناسب، تهمت و افترا منتشر نخواهد شد.