به گزارش تجارت نیوز، شرکت OpenAI، مدل هوش مصنوعی GPT-4o را در ماه می 2024 عرضه کرد و این مدل بهصورت پیشفرض برای همه کاربران فعال بود. اکنون بنظر میرسد که بسیاری از شکایات علیه این شرکت، مختص به این مدل بخصوص است، چرا که این مدل تا حد زیادی با تمام نظرات کاربران موافق بوده است، حتی اگر که کاربر قصد انجام اعمال منفی یا خطرناک داشته است.
شکایت هفت خانواده از شرکت OpenAI
هفت خانواده، شکایت خود علیه شرکت OpenAI که سازنده هوش مصنوعی مشهور ChatGPT است را در روز پنجشنبه ثبت کردند. بر اساس شکایت خانوادهها، مدل GPT-4o از لحاظ بلوغ به مرحله قابل قبولی نرسیده بوده و بدون ملاحظات امنیتی به کاربران اطلاعات و پیشنهادات مخرب ارائه میکرده است. چهار مورد از پروندههای حقوقی ایجاد شده به نقش این هوش مصنوعی در خودکشی قربانیان اشاره دارند و سه مورد دیگر نیز ادعا کردهاند که هوش مصنوعی ChatGPT، توهم و افکار خطرناک را به کاربران ارائه کرده است که منجر به بستری اشخاص در بخش روانپزشکی نیز شده است. در این پروندهها ذکر شده که شرکت OpenAI جهت رقابت با هوش مصنوعی جمینای گوگل و ورود سریع به بازار، بدون تستهای امنیتی، مدل GPT-4o را به بازار عرضه کرده و این اتفاقات نتیجه عدم بررسی دقیق این شرکت بوده است.
گفتگو با هوش مصنوعی ChatGPT درباره خودکشی
یکی از پروندهها، مربوط به زین شمبلین 23 ساله است که حدود چهار ساعت با این هوش مصنوعی گفتگو کرده است. بر اساس تاریخچه پیامها، شمبلین چندین بار پیامهای خودکشی خود را در این چت بات نوشته است و ادعا کرده است که قصد کشتن خود با گلوله را پس از اتمام تمام شربتهای سیب دارد. وی چندین بار از هوش مصنوعی پرسیده است که چند شربت سیب دیگر وجود دارد و تا چه زمانی زنده خواهد ماند؟ هوش مصنوعی ChatGPT وی را تشویق کرده است تا برنامه خودکشی خود را عملی کند و به وی گفته است که «در آرامش بخواب، مرد. کار خوبی انجام دادی».