به گزارش تجارت نیوز، یک مطالعه جدید نشان میدهد که ChatGPT، پلتفرم چتبات معروف شرکت OpenAI، ممکن است به اندازهای که قبلاً تصور میشد انرژی مصرف نکند. با این حال، مصرف انرژی ChatGPT تا حد زیادی به نحوه استفاده از آن و مدلهای هوش مصنوعی خاصی که وظیفه پردازش درخواستها را بر عهده دارند، بستگی دارد.
این یافتهها حاصل تحلیل اخیر مؤسسه تحقیقاتی غیرانتفاعی Epoch AI است که تلاش کرده مصرف انرژی یک درخواست معمولی در ChatGPT را محاسبه کند.
در حالی که برآوردهای قبلی نشان میداد ChatGPT برای پاسخ به یک سوال به حدود ۳ وات-ساعت انرژی نیاز دارد (ده برابر بیشتر از یک جستجوی گوگل)، Epoch AI معتقد است این رقم بیش از حد برآورد شده است.
با استفاده از آخرین مدل پیشفرض OpenAI برای ChatGPT، یعنی GPT-4o، به عنوان مرجع، Epoch AI دریافت که یک درخواست معمولی در ChatGPT به طور متوسط حدود ۰.۳ وات-ساعت انرژی مصرف میکند.
این رقم به طور قابل توجهی کمتر از ارقام قبلی است و حتی از انرژی مصرفی بسیاری از دستگاههای خانگی معمولی نیز پایینتر است. جاشوا یو، تحلیلگر دادههای Epoch که این تحلیل را انجام داده، به TechCrunch گفت: «مصرف انرژی در مقایسه با استفاده از دستگاههای معمولی خانگی یا گرمایش و سرمایش خانه یا رانندگی با ماشین، واقعاً چیز مهمی نیست.»
بحثها درباره مصرف انرژی هوش مصنوعی
مصرف انرژی سیستمهای هوش مصنوعی و تأثیر گستردهتر آنها بر محیط زیست، به موضوعی بحثبرانگیز تبدیل شده است، چرا که شرکتهای فعال در این حوزه به سرعت در حال گسترش زیرساختهای خود هستند.
هفته گذشته، بیش از ۱۰۰ سازمان نامهای سرگشاده منتشر کردند و از صنعت هوش مصنوعی و مقامات نظارتی خواستند تا اطمینان حاصل کنند که مراکز داده جدید هوش مصنوعی منابع طبیعی را تخلیه نمیکنند یا شرکتهای خدماترسانی را مجبور به استفاده از منابع انرژی غیرقابل تجدید نمیکنند. این نامه نگرانیهای فزاینده درباره ردپای زیستمحیطی فناوریهای هوش مصنوعی را برجسته میکند.
یو توضیح داد که تحلیل او با انگیزه پاسخ به تحقیقاتی که از نظر او قدیمی هستند، انجام شده است. به عنوان مثال، نویسنده گزارش قبلی که مصرف انرژی ChatGPT را ۳ وات-ساعت برای هر درخواست تخمین زده بود، فرض کرده بود که OpenAI از تراشههای قدیمی و کمبازده برای اجرای مدلهای خود استفاده میکند.
یو گفت: «من شاهد بحثهای عمومی زیادی بودهام که به درستی تشخیص داده بودند هوش مصنوعی در سالهای آینده انرژی زیادی مصرف خواهد کرد، اما مصرف انرژی فعلی آن را به دقت توصیف نکرده بودند.»
او همچنین اشاره کرد که تخمین ۳ وات-ساعت برای هر درخواست بر اساس «تحقیقات نسبتاً قدیمی» بوده و بر اساس محاسبات اولیه، رقم بالایی به نظر میرسد.
محدودیتهای تحلیل
اگرچه تخمین Epoch AI مبنی بر مصرف ۰.۳ وات-ساعت برای هر درخواست به طور قابل توجهی کمتر از ارقام قبلی است، اما این رقم همچنان یک تخمین است. OpenAI دادههای دقیقی را برای محاسبه دقیقتر منتشر نکرده است.
علاوه بر این، تحلیل انجام شده هزینههای انرژی اضافی مرتبط با برخی ویژگیهای ChatGPT، مانند تولید تصویر یا پردازش ورودیها را در نظر نمیگیرد. یو اذعان کرد که درخواستهای با «ورودی طولانی»—مانند فایلهای بزرگ یا دادههای گسترده—احتمالاً انرژی بیشتری نسبت به یک سوال معمولی مصرف میکنند.
یو همچنین اشاره کرد که مصرف پایه انرژی ChatGPT در آینده افزایش خواهد یافت. او گفت: «هوش مصنوعی پیشرفتهتر خواهد شد، آموزش این هوش مصنوعی احتمالاً به انرژی بسیار بیشتری نیاز خواهد داشت و این هوش مصنوعی آینده ممکن است بسیار شدیدتر از ChatGPT فعلی استفاده شود—وظایف بیشتری و پیچیدهتری را نسبت به امروز انجام دهد.»
این پیشبینی با روندهای کلی صنعت هوش مصنوعی همسو است، جایی که مقیاس استقرار سیستمها در حال رانندگی گسترش زیرساختها است.
رشد تقاضای انرژی در هوش مصنوعی
رشد سریع فناوریهای هوش مصنوعی انتظار میرود تقاضای عظیمی بر منابع انرژی وارد کند. گزارش Rand پیشبینی میکند که مراکز داده هوش مصنوعی ممکن است در دو سال آینده تقریباً به تمام ظرفیت برق کالیفرنیا در سال ۲۰۲۲ (۶۸ گیگاوات) نیاز داشته باشند.
تا سال ۲۰۳۰، آموزش یک مدل پیشرفته هوش مصنوعی ممکن است به توان خروجی معادل هشت راکتور هستهای (۸ گیگاوات) نیاز داشته باشد. این پیشبینیها چالشهای تعادل بین نوآوری در هوش مصنوعی و پایداری محیطزیستی را برجسته میکند.
ChatGPT به تنهایی به کاربران گسترده و در حال رشدی دسترسی دارد که منجر به تقاضای عظیم سرورها شده است. OpenAI به همراه شرکای سرمایهگذاری خود قصد دارد در سالهای آینده میلیاردها دلار برای پروژههای جدید مراکز داده هوش مصنوعی هزینه کند.
این شرکت همچنین تمرکز خود را به مدلهای استدلالی معطوف کرده است که قادر به انجام وظایف پیچیدهتر هستند اما به قدرت محاسباتی بسیار بیشتری نیاز دارند. برخلاف مدلهایی مانند GPT-4o که تقریباً بلافاصله به درخواستها پاسخ میدهند، مدلهای استدلالی قبل از ارائه پاسخ، چند ثانیه یا حتی چند دقیقه «فکر میکنند»، فرآیندی که انرژی بیشتری مصرف میکند.
بهبود بازدهی در مقابل افزایش تقاضا
OpenAI شروع به انتشار مدلهای استدلالی با بازدهی انرژی بالاتر، مانند o3-mini، کرده است. با این حال، بعید است که این بهبودهای بازدهی به طور کامل افزایش تقاضای انرژی ناشی از پیچیدگی فزاینده مدلهای هوش مصنوعی و استقرار گسترده آنها را جبران کند.
یو پیشنهاد کرد افرادی که نگران ردپای انرژی هوش مصنوعی هستند میتوانند از برنامههایی مانند ChatGPT به صورت محدود استفاده کنند یا مدلهای کوچکتری را انتخاب کنند که به قدرت محاسباتی کمتری نیاز دارند.
او گفت: «میتوانید از مدلهای کوچکتر مانند GPT-4o-mini استفاده کنید و به صورت محدود از آنها به گونهای استفاده کنید که نیاز به پردازش یا تولید حجم زیادی داده نداشته باشد.»
با ادامه تکامل فناوریهای هوش مصنوعی، این صنعت با چالش دوگانه پیشبرد نوآوری و به حداقل رساندن تأثیرات محیطزیستی مواجه است. یافتههای Epoch AI درک دقیقتری از مصرف انرژی ChatGPT ارائه میدهد، اما در عین حال نیاز به تحقیقات بیشتر و روشهای پایدار در توسعه هوش مصنوعی را نیز برجسته میکند. تعادل بین پیشرفت فناوری و مسئولیتپذیری محیطزیستی همچنان به عنوان یک موضوع حیاتی باقی خواهد ماند، چرا که هوش مصنوعی به طور فزایندهای در زندگی روزمره ادغام میشود.