فونیکس - هدر اخبار
کد مطلب: ۷۳۴۹۹۲

تجارت‌نیوز گزارش می‌دهد:

ChatGPT؛ ربات جدید هوش مصنوعی که با انسان‌ حرف می‌زند

ChatGPT؛ ربات جدید هوش مصنوعی که با انسان‌ حرف می‌زند

ChatGPT ربات جدیدی است که با استفاده از هوش مصنوعی می‌تواند علاوه بر کدنویسی، مقاله بنویسد و با انسان‌ها صحبت کند و به سوالات آن‌ها پاسخ دهد.

به گزارش تجارت‌نیوز ، ChatGPT ربات جدید هوش مصنوعی، روز چهارشنبه توسط OpenAI، یک شرکت تحقیقاتی هوش مصنوعی که از جمله بنیانگذاران آن ایلان ماسک بود، منتشر شد.

به گفته این شرکت، در 30 نوامبر و برای تعامل «به شیوه مکالمه» با توانایی پاسخگویی به سوالات بعدی و حتی اعتراف به اشتباهات طراحی شده است.

به گزارش رویترز، سام آلتمن، یکی از بنیانگذاران و مدیر عامل شرکت OpenAI گفت: «در عرض یک هفته پس از رونمایی ربات ChatGPT، بیش از یک میلیون کاربر تلاش کردند تا این ابزار را مورد تجریه و تحلیل کامل قرار دهند.»

او همچنین، اعلام کرد که مشتاق جمع‌آوری بازخورد کاربران برای کمک به کار مداوم ما برای بهبود این سیستم است.

ربات هوش مصنوعی ChatGPT چگونه کار می‌کند؟

شرکت OpenAI در مورد نحوه کار هوش مصنوعی ChatGPT اینگونه گفت: «این سیستم با استفاده از تکنیک یادگیری ماشینی به نام یادگیری تقویتی از بازخورد انسانی (RLHF) می‌تواند گفتگو انسان را شبیه سازی کند، به سوالات بعدی پاسخ دهد، اشتباهات را بپذیرد، صحبت‌های نادرست را به چالش بکشد و درخواست‌های نامناسب را رد کند.»

نمونه‌ای از این ربات که برای آزمایش عمومی در دسترس عموم قرار گرفت؛ تلاش می‌کند تا سؤالات مطرح‌ شده توسط کاربران را درک کند و سپس پاسخ‌هایی مشابه کاربر انسانی را ارائه ‌دهد.

طبق گفته پژوهشگران ربات ChatGPT، به روشی محاوره‌ای تعامل دارد. به سؤالات پاسخ می‌دهد، اشتباهات را می‌پذیرد، مقدمات نادرست را به چالش می‌کشد و درخواست‌های نامناسب را رد می‌کند. همچنین قادر به نوشتن مقاله و پست وبلاگ است.

تا‌کنون، کاربرانChatGPT را در سرعت‌های آن قرار داده‌اند، و طیف گسترده‌ای از کاربردهای بالقوه را پیدا کرده‌اند و در عین حال آسیب‌پذیری‌های آن را نیز بررسی کرده‌اند.

ایلان ماسک، سام آلتمن و سایر سرمایه‌گذاران، بنیانگذاران OpenAI هستند که هر کدام یک میلیارد دلار برای ایجاد این شرکت در سال 2016 به عنوان یک مرکز تحقیقاتی غیرانتفاعی که آشکارا با سایر محققان همکاری خواهد کرد، متعهد شدند. ماسک در سال 2018 برای تمرکز بر اسپیس ایکس و تسلا ترک کرد و OpenAI در سال 2019 به یک شرکت انتفاعی تبدیل شد.

آیا ربات ChatGPT می‌تواند خطرناک باشد؟

همواره برخی از افراد گمان می‌کنند که اگر ربات‌ها به دنیای انسان‌ها وارد شوند، می‌توانند برای آن‌ها تهدید آمیز باشند.

پروژه OpenAI هم یک از مشکلات این ربات را به تمایل آن برای ارائه «پاسخ‌های معقول اما نادرست یا بی‌معنی» می‌داند. مشکلی که کارشناسان معتقدند رفع آن به این راحتی‌ها امکان پذیر نیست.

خیلی از منتقدان ربات‌ها عقیده دارند که فناوری‌های مبتنی برهوش مصنوعی می‌تواند سوگیری‌های اجتماعی مانند نژاد، جنسیت و فرهنگ را شدت ببخشند.

غول‌های فناوری از جمله آلفابت گوگل و آمازون نیز در گذشته اعلام کرده‌اند که تعدادی از پروژه آن‌ها که با هوش مصنوعی کار می‌کنند «از نظر اخلاقی مضحک» و محدودیت‌هایی دارند. حتی در چند شرکت، این سیستم‌ها مشکلاتی را به وجود آوردند که لازم شد انسان‌ها وارد عمل شوند و آن مشکلات را برطرف کنند.

با این حال، تحقیقات روی هوش مصنوعی همچنان برای بسیاری دانشمندان جذاب است. براساس داده‌های شرکت حسابرسی PitchBook، سرمایه‌گذاری در شرکت‌های سازنده هوش مصنوعی سال گذشته نزدیک به 13 میلیارد دلار افزایش یافت و امسال نیز تا این لحظه به 6 میلیارد دلار رسیده است.

استفاده توییتر از چت ربات جدید هوش مصنوعی

این درحالیست که ایلان ماسک که اکنون درگیر ایجاد تغییرات اساسی توییتر است، در سال 2018 هیئت مدیره OpenAI را ترک کرد. اما در آن زمان نظر خود را در مورد این پدیده، را «خوب ترسناک» توصیف کرد.

ایلان ماسک مدتی بعد در توییتی نوشت که دسترسی OpenAI را به پایگاه داده توییتر متوقف خواهد کرد. شرکت توییتر از OpenAI تا قبل از این، برای تست ابزارهای خود استفاده می‌کرد.

اما حالا به نظر می‌رسد که جامعه کریپتو با ChatGPT، به جلو گام برداشته است. چراکه تویبتر اعلام کرده که از آن برای بسیاری از برنامه‌ها از جمله یک ربات تجاری، یک وبلاگ رمزنگاری و حتی یک آهنگ اصلی استفاده می‌کند.

برای توسعه این سیستم، نسخه اولیه از طریق مکالمه با مربیان انسانی تنظیم شد.

طبق توییت ایلان ماسک که دیگر عضو هیئت مدیره OpenAI نیست، این سیستم همچنین از دسترسی به داده های توییتر یاد گرفت. رئیس توییتر نوشت که "فعلا" دسترسی را متوقف کرده است.

نظرات

مخاطب گرامی توجه فرمایید:
نظرات حاوی الفاظ نامناسب، تهمت و افترا منتشر نخواهد شد.