موضوعات داغ: # بازار ارز و طلا # پایتخت # تلویزیون # قاچاق سوخت # قیمت بنزین

مصرف انرژی ChatGPT کمتر از حد تصور

ChatGPT

مطالعه جدید نشان می‌دهد مصرف انرژی ChatGPT کمتر از حد تصور است، اما با پیشرفت هوش مصنوعی، این مصرف افزایش خواهد یافت.

به گزارش تجارت نیوز، یک مطالعه جدید نشان می‌دهد که ChatGPT، پلتفرم چت‌بات معروف شرکت OpenAI، ممکن است به اندازه‌ای که قبلاً تصور می‌شد انرژی مصرف نکند. با این حال، مصرف انرژی ChatGPT تا حد زیادی به نحوه استفاده از آن و مدل‌های هوش مصنوعی خاصی که وظیفه پردازش درخواست‌ها را بر عهده دارند، بستگی دارد.

این یافته‌ها حاصل تحلیل اخیر مؤسسه تحقیقاتی غیرانتفاعی Epoch AI است که تلاش کرده مصرف انرژی یک درخواست معمولی در ChatGPT را محاسبه کند.

در حالی که برآوردهای قبلی نشان می‌داد ChatGPT برای پاسخ به یک سوال به حدود ۳ وات-ساعت انرژی نیاز دارد (ده برابر بیشتر از یک جستجوی گوگل)، Epoch AI معتقد است این رقم بیش از حد برآورد شده است.

با استفاده از آخرین مدل پیش‌فرض OpenAI برای ChatGPT، یعنی GPT-4o، به عنوان مرجع، Epoch AI دریافت که یک درخواست معمولی در ChatGPT به طور متوسط حدود ۰.۳ وات-ساعت انرژی مصرف می‌کند.

این رقم به طور قابل توجهی کمتر از ارقام قبلی است و حتی از انرژی مصرفی بسیاری از دستگاه‌های خانگی معمولی نیز پایین‌تر است. جاشوا یو، تحلیلگر داده‌های Epoch که این تحلیل را انجام داده، به TechCrunch گفت: «مصرف انرژی در مقایسه با استفاده از دستگاه‌های معمولی خانگی یا گرمایش و سرمایش خانه یا رانندگی با ماشین، واقعاً چیز مهمی نیست.»

بحث‌ها درباره مصرف انرژی هوش مصنوعی

مصرف انرژی سیستم‌های هوش مصنوعی و تأثیر گسترده‌تر آن‌ها بر محیط زیست، به موضوعی بحث‌برانگیز تبدیل شده است، چرا که شرکت‌های فعال در این حوزه به سرعت در حال گسترش زیرساخت‌های خود هستند.

هفته گذشته، بیش از ۱۰۰ سازمان نامه‌ای سرگشاده منتشر کردند و از صنعت هوش مصنوعی و مقامات نظارتی خواستند تا اطمینان حاصل کنند که مراکز داده جدید هوش مصنوعی منابع طبیعی را تخلیه نمی‌کنند یا شرکت‌های خدمات‌رسانی را مجبور به استفاده از منابع انرژی غیرقابل تجدید نمی‌کنند. این نامه نگرانی‌های فزاینده درباره ردپای زیست‌محیطی فناوری‌های هوش مصنوعی را برجسته می‌کند.

یو توضیح داد که تحلیل او با انگیزه پاسخ به تحقیقاتی که از نظر او قدیمی هستند، انجام شده است. به عنوان مثال، نویسنده گزارش قبلی که مصرف انرژی ChatGPT را ۳ وات-ساعت برای هر درخواست تخمین زده بود، فرض کرده بود که OpenAI از تراشه‌های قدیمی و کم‌بازده برای اجرای مدل‌های خود استفاده می‌کند.

یو گفت: «من شاهد بحث‌های عمومی زیادی بوده‌ام که به درستی تشخیص داده بودند هوش مصنوعی در سال‌های آینده انرژی زیادی مصرف خواهد کرد، اما مصرف انرژی فعلی آن را به دقت توصیف نکرده بودند.»

او همچنین اشاره کرد که تخمین ۳ وات-ساعت برای هر درخواست بر اساس «تحقیقات نسبتاً قدیمی» بوده و بر اساس محاسبات اولیه، رقم بالایی به نظر می‌رسد.

محدودیت‌های تحلیل

اگرچه تخمین Epoch AI مبنی بر مصرف ۰.۳ وات-ساعت برای هر درخواست به طور قابل توجهی کمتر از ارقام قبلی است، اما این رقم همچنان یک تخمین است. OpenAI داده‌های دقیقی را برای محاسبه دقیق‌تر منتشر نکرده است.

علاوه بر این، تحلیل انجام شده هزینه‌های انرژی اضافی مرتبط با برخی ویژگی‌های ChatGPT، مانند تولید تصویر یا پردازش ورودی‌ها را در نظر نمی‌گیرد. یو اذعان کرد که درخواست‌های با «ورودی طولانی»—مانند فایل‌های بزرگ یا داده‌های گسترده—احتمالاً انرژی بیشتری نسبت به یک سوال معمولی مصرف می‌کنند.

یو همچنین اشاره کرد که مصرف پایه انرژی ChatGPT در آینده افزایش خواهد یافت. او گفت: «هوش مصنوعی پیشرفته‌تر خواهد شد، آموزش این هوش مصنوعی احتمالاً به انرژی بسیار بیشتری نیاز خواهد داشت و این هوش مصنوعی آینده ممکن است بسیار شدیدتر از ChatGPT فعلی استفاده شود—وظایف بیشتری و پیچیده‌تری را نسبت به امروز انجام دهد.»

این پیش‌بینی با روندهای کلی صنعت هوش مصنوعی همسو است، جایی که مقیاس استقرار سیستم‌ها در حال رانندگی گسترش زیرساخت‌ها است.

رشد تقاضای انرژی در هوش مصنوعی

رشد سریع فناوری‌های هوش مصنوعی انتظار می‌رود تقاضای عظیمی بر منابع انرژی وارد کند. گزارش Rand پیش‌بینی می‌کند که مراکز داده هوش مصنوعی ممکن است در دو سال آینده تقریباً به تمام ظرفیت برق کالیفرنیا در سال ۲۰۲۲ (۶۸ گیگاوات) نیاز داشته باشند.

تا سال ۲۰۳۰، آموزش یک مدل پیشرفته هوش مصنوعی ممکن است به توان خروجی معادل هشت راکتور هسته‌ای (۸ گیگاوات) نیاز داشته باشد. این پیش‌بینی‌ها چالش‌های تعادل بین نوآوری در هوش مصنوعی و پایداری محیط‌زیستی را برجسته می‌کند.

ChatGPT به تنهایی به کاربران گسترده و در حال رشدی دسترسی دارد که منجر به تقاضای عظیم سرورها شده است. OpenAI به همراه شرکای سرمایه‌گذاری خود قصد دارد در سال‌های آینده میلیاردها دلار برای پروژه‌های جدید مراکز داده هوش مصنوعی هزینه کند.

این شرکت همچنین تمرکز خود را به مدل‌های استدلالی معطوف کرده است که قادر به انجام وظایف پیچیده‌تر هستند اما به قدرت محاسباتی بسیار بیشتری نیاز دارند. برخلاف مدل‌هایی مانند GPT-4o که تقریباً بلافاصله به درخواست‌ها پاسخ می‌دهند، مدل‌های استدلالی قبل از ارائه پاسخ، چند ثانیه یا حتی چند دقیقه «فکر می‌کنند»، فرآیندی که انرژی بیشتری مصرف می‌کند.

بهبود بازدهی در مقابل افزایش تقاضا

OpenAI شروع به انتشار مدل‌های استدلالی با بازدهی انرژی بالاتر، مانند o3-mini، کرده است. با این حال، بعید است که این بهبودهای بازدهی به طور کامل افزایش تقاضای انرژی ناشی از پیچیدگی فزاینده مدل‌های هوش مصنوعی و استقرار گسترده آن‌ها را جبران کند.

یو پیشنهاد کرد افرادی که نگران ردپای انرژی هوش مصنوعی هستند می‌توانند از برنامه‌هایی مانند ChatGPT به صورت محدود استفاده کنند یا مدل‌های کوچک‌تری را انتخاب کنند که به قدرت محاسباتی کمتری نیاز دارند.

او گفت: «می‌توانید از مدل‌های کوچک‌تر مانند GPT-4o-mini استفاده کنید و به صورت محدود از آن‌ها به گونه‌ای استفاده کنید که نیاز به پردازش یا تولید حجم زیادی داده نداشته باشد.»

با ادامه تکامل فناوری‌های هوش مصنوعی، این صنعت با چالش دوگانه پیشبرد نوآوری و به حداقل رساندن تأثیرات محیط‌زیستی مواجه است. یافته‌های Epoch AI درک دقیق‌تری از مصرف انرژی ChatGPT ارائه می‌دهد، اما در عین حال نیاز به تحقیقات بیشتر و روش‌های پایدار در توسعه هوش مصنوعی را نیز برجسته می‌کند. تعادل بین پیشرفت فناوری و مسئولیت‌پذیری محیط‌زیستی همچنان به عنوان یک موضوع حیاتی باقی خواهد ماند، چرا که هوش مصنوعی به طور فزاینده‌ای در زندگی روزمره ادغام می‌شود.

نظرات