موضوعات داغ: # جاده شمال # شمال # رهبر انقلاب # سال 1404 # اسرائیل # ترامپ # کاخ سفید # استادیوم آزادی
«تجارت‌نیوز» گزارش می‌دهد:

مدل‌های استدلال هوش مصنوعی می‌توانستند دهه‌ها زودتر ظهور کنند

نوام براون از OpenAI معتقد است مدل‌های استدلال هوش مصنوعی می‌توانستند ۲۰ سال زودتر توسعه یابند.

به گزارش تجارت نیوز، نوام براون، رهبر تحقیقات استدلال هوش مصنوعی در OpenAI، اظهار کرده است که مدل‌های پیشرفته هوش مصنوعی قادر به «استدلال»، مانند مدل o1 شرکت OpenAI، می‌توانستند ۲۰ سال زودتر توسعه یابند اگر محققان رویکردها و الگوریتم‌های مناسب را شناسایی کرده بودند. براون این اظهارات را در یک پنل بحث در کنفرانس GTC انویدیا در سن‌خوزه روز چهارشنبه مطرح کرد. او تأکید کرد که مسیر تحقیقاتی منجر به مدل‌های استدلالی به دلایل مختلف نادیده گرفته شده است، اما پتانسیل چنین مدل‌هایی همواره وجود داشته است.

مسیر نادیده گرفته‌شده به سوی استدلال هوش مصنوعی

براون توضیح داد که توسعه مدل‌های هوش مصنوعی استدلالی به دلیل عدم تمرکز بر تکنیک‌های لازم به تأخیر افتاده است. او گفت: «دلایل مختلفی وجود داشت که این مسیر تحقیقاتی نادیده گرفته شد.» با بازتاب به سفر تحقیقاتی خود، براون اشاره کرد که متوجه شکافی حیاتی در توسعه هوش مصنوعی شده است. او گفت: «من در طول تحقیقاتم متوجه شدم که چیزی کم است. انسان‌ها زمان زیادی را صرف فکر کردن قبل از عمل در شرایط سخت می‌کنند. شاید این [در هوش مصنوعی] بسیار مفید باشد.» این بینش او را به سمت کشف روش‌هایی سوق داد که به مدل‌های هوش مصنوعی امکان می‌دهد قبل از تولید پاسخ‌ها «فکر کنند»، قابلیتی که اکنون در مدل‌های استدلالی مانند o1 OpenAI مرکزی است.

نقش استنتاج در زمان آزمایش در استدلال هوش مصنوعی

براون یکی از معماران اصلی مدل o1 OpenAI است که از تکنیکی به نام استنتاج در زمان آزمایش برای شبیه‌سازی استدلال استفاده می‌کند. استنتاج در زمان آزمایش شامل اعمال منابع محاسباتی اضافی به مدل‌های در حال اجرا است که به آن‌ها امکان می‌دهد اطلاعات را به‌طور کامل‌تر پردازش کنند قبل از ارائه پاسخ‌ها. این رویکرد منجر به مدل‌هایی می‌شود که دقیق‌تر و قابل اعتمادتر هستند، به‌ویژه در حوزه‌های پیچیده‌ای مانند ریاضیات و علوم. براون تأکید کرد که اگرچه پیش‌آموزش—آموزش مدل‌های بزرگ بر روی مجموعه‌داده‌های گسترده—هنوز مهم است، اما دیگر تنها تمرکز توسعه هوش مصنوعی نیست.

در عوض، آزمایشگاه‌هایی مانند OpenAI اکنون تلاش‌های خود را بین پیش‌آموزش و استنتاج در زمان آزمایش متعادل می‌کنند، که براون آن‌ها را استراتژی‌های مکمل توصیف کرد.

چالش‌های دانشگاه‌ها در تحقیقات هوش مصنوعی

در طول پنل، از براون پرسیده شد که آیا مؤسسات دانشگاهی می‌توانند با آزمایشگاه‌های هوش مصنوعی مانند OpenAI رقابت کنند، با توجه به دسترسی محدود آن‌ها به منابع محاسباتی. او تأیید کرد که افزایش نیازهای محاسباتی مدل‌های مدرن هوش مصنوعی، انجام آزمایش‌های بزرگ‌مقیاس را برای دانشگاه‌ها چالش‌برانگیزتر کرده است. با این حال، او پیشنهاد کرد که دانشگاهیان هنوز می‌توانند با تمرکز بر حوزه‌هایی که به قدرت محاسباتی کمتری نیاز دارند، مانند طراحی معماری مدل، مشارکت‌های قابل توجهی داشته باشند. براون همچنین پتانسیل همکاری بین آزمایشگاه‌های پیشرو و محققان دانشگاهی را برجسته کرد.

او گفت: «فرصتی برای همکاری بین آزمایشگاه‌های پیشرو [و دانشگاه‌ها] وجود دارد. قطعاً آزمایشگاه‌های پیشرو به انتشارات دانشگاهی نگاه می‌کنند و با دقت فکر می‌کنند که آیا این استدلال قانع‌کننده است که اگر این رویکرد بیشتر گسترش یابد، بسیار مؤثر خواهد بود. اگر چنین استدلال قانع‌کننده‌ای در مقاله وجود داشته باشد، ما در این آزمایشگاه‌ها آن را بررسی خواهیم کرد.»

اهمیت معیارگذاری در هوش مصنوعی

براون معیارگذاری هوش مصنوعی را به عنوان حوزه‌ای معرفی کرد که دانشگاه‌ها می‌توانند در آن تأثیر قابل توجهی داشته باشند. او وضعیت فعلی معیارهای هوش مصنوعی را ناکافی و نامتناسب با وظایف دنیای واقعی توصیف کرد. او گفت: «وضعیت معیارها در هوش مصنوعی واقعاً بد است، و این کار به قدرت محاسباتی زیادی نیاز ندارد.» معیارهای محبوب اغلب دانش نامتعارف را آزمایش می‌کنند و نمراتی تولید می‌کنند که به‌طور دقیق مهارت مدل در وظایفی که برای اکثر مردم مهم است را منعکس نمی‌کنند. این موضوع باعث سردرگمی گسترده درباره قابلیت‌ها و بهبودهای مدل‌های هوش مصنوعی شده است. اظهارات براون نیاز به معیارهای معنادارتر و عملی‌تر که عملکرد هوش مصنوعی را بهتر ارزیابی کنند، برجسته می‌کند.

پیامدهای گسترده برای تحقیقات هوش مصنوعی

اظهارات براون در زمانی مطرح می‌شود که بودجه تحقیقات علمی، از جمله هوش مصنوعی، تحت تهدید است. کاهش شدید بودجه‌های اعطایی علمی توسط دولت ترامپ با انتقاد متخصصان هوش مصنوعی، از جمله جفری هینتون، برنده جایزه نوبل، مواجه شده است که هشدار می‌دهند این کاهش‌ها می‌تواند تلاش‌های تحقیقاتی هوش مصنوعی را هم در داخل و هم در سطح بین‌المللی به خطر بیندازد. درخواست براون برای بهبود معیارگذاری و همکاری بیشتر بین دانشگاه‌ها و صنعت، اهمیت ایجاد محیطی که در آن تحقیقات نوآورانه بتواند رشد کند، حتی در مواجهه با محدودیت‌های منابع، را برجسته می‌کند.

در مجموع، بینش‌های نوام براون در کنفرانس GTC نور تازه‌ای بر پتانسیل استفاده‌نشده مدل‌های استدلال هوش مصنوعی و فرصت‌های از دست‌رفته در تحقیقات قبلی انداخت. با تأکید بر اهمیت استنتاج در زمان آزمایش و حمایت از روش‌های معیارگذاری بهتر، براون در حال پیشبرد رویکردی ظریف‌تر و مؤثرتر به توسعه هوش مصنوعی است. با ادامه تکامل این حوزه، همکاری بین دانشگاه‌ها و صنعت، همراه با تمرکز بر روش‌های ارزیابی معنادار، برای باز کردن پتانسیل کامل استدلال هوش مصنوعی و اطمینان از تحقق فواید آن در حوزه‌های مختلف حیاتی خواهد بود.

نظرات
آخرین اخبار
پربازدیدترین اخبار

وب‌گردی