موضوعات داغ: # قیمت سکه # قیمت طلا # بحران آب # ترامپ # استقلال # خشکسالی # بازار سهام # قیمت مصالح
«تجارت‌نیوز» گزارش می‌دهد:

شکایت خانواده قربانیان از ChatGPT / آیا این هوش مصنوعی مانند یک راهنمای خودکشی عمل می‌کند؟

شکایت خانواده قربانیان از ChatGPT / آیا این هوش مصنوعی مانند یک راهنمای خودکشی عمل می‌کند؟
در کنار مزایای فراوانی که استفاده از هوش مصنوعی در اختیار کاربران قرار می‌دهد، ممکن است که پیشنهاداتی مخرب و خطرناک را نیز به آنها ارائه کند.

به گزارش تجارت نیوز، شرکت OpenAI، مدل هوش مصنوعی GPT-4o را در ماه می 2024 عرضه کرد و این مدل به‌صورت پیش‌فرض برای همه کاربران فعال بود. اکنون بنظر می‌رسد که بسیاری از شکایات علیه این شرکت، مختص به این مدل بخصوص است، چرا که این مدل تا حد زیادی با تمام نظرات کاربران موافق بوده است، حتی اگر که کاربر قصد انجام اعمال منفی یا خطرناک داشته است.

شکایت هفت خانواده از شرکت OpenAI

هفت خانواده، شکایت خود علیه شرکت OpenAI که سازنده هوش مصنوعی مشهور ChatGPT است را در روز پنجشنبه ثبت کردند. بر اساس شکایت خانواده‌ها، مدل GPT-4o از لحاظ بلوغ به مرحله قابل قبولی نرسیده بوده و بدون ملاحظات امنیتی به کاربران اطلاعات و پیشنهادات مخرب ارائه می‌کرده است. چهار مورد از پرونده‌های حقوقی ایجاد شده به نقش این هوش مصنوعی در خودکشی قربانیان اشاره دارند و سه مورد دیگر نیز ادعا کرده‌اند که هوش مصنوعی ChatGPT، توهم‌ و افکار خطرناک را به کاربران ارائه کرده است که منجر به بستری اشخاص در بخش روانپزشکی نیز شده است. در این پرونده‌ها ذکر شده که شرکت OpenAI جهت رقابت با هوش مصنوعی جمینای گوگل و ورود سریع به بازار، بدون تست‌های امنیتی، مدل GPT-4o را به بازار عرضه کرده و این اتفاقات نتیجه عدم بررسی دقیق این شرکت بوده است.

گفتگو با هوش مصنوعی ChatGPT درباره خودکشی

یکی از پرونده‌ها، مربوط به زین شمبلین 23 ساله است که حدود چهار ساعت با این هوش مصنوعی گفتگو کرده است. بر اساس تاریخچه پیام‌ها، شمبلین چندین بار پیام‌های خودکشی خود را در این چت بات نوشته است و ادعا کرده است که قصد کشتن خود با گلوله را پس از اتمام تمام شربت‌های سیب دارد. وی چندین بار از هوش مصنوعی پرسیده است که چند شربت سیب دیگر وجود دارد و تا چه زمانی زنده خواهد ماند؟ هوش مصنوعی ChatGPT وی را تشویق کرده است تا برنامه خودکشی خود را عملی کند و به وی گفته است که «در آرامش بخواب، مرد. کار خوبی انجام دادی».

نوجوان 16 ساله‌ای به نام آدام رین نیز که خودکشی کرده است، با این هوش مصنوعی صحبت می‌کرده و ChatGPT چندین بار به وی پیشنهاد گفتگو و مراجعه به روانشناس را کرده بود. با این وجود، آدام این پیشنهادات را رد می‌کرده و از این چت بات درباره روش‌های خودکشی برای داستان تخیلی خود، سوال می‌کرده است. خانواده همه قربانیان اعلام کرده‌اند که قربانیان ابتدا برای انجام تکالیف مدرسه و تحقیق از این هوش مصنوعی استفاده می‌کردند و به‌مرور شروع به صحبت درباره خودکشی با آن شدند.
نظرات
آخرین اخبار
پربازدیدترین اخبار

وب‌گردی