فناوری «جعل عمیق» ۲۵ میلیون دلار به باد داد
ویدئوهای جعل عمیق ویدئوهایی هستند که در آنها با استفاده از نرمافزارهای مبتنی بر هوش مصنوعی تصاویر به نحوی تغییر داده میشوند که گویی فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آنها را انجام نداده است.
به گزارش تجارتنیوز، یک کارمند مالی که در یک شرکت چند ملیتی در هنگ کنگ مشغول کار بوده است، با فریب خوردن از کلاهبردارانی که از فناوری دیپفیک یا جعل عمیق استفاده کرده بودند مبلغ ۲۵ میلیون دلار به آنها پرداخت کرد.
به نقل از یورونیوز، پلیس هنگ کنگ گفته است سارقان در این کلاهبرداری پیچیده، به عنوان «مدیر مالی» با کارمند تماس برقرار کرده و صحنه ویدئوکنفرانس را طوری چیده بودند که گویی چند نفر دیگر از کارکنان شرکت نیز در جلسه حضور دارند. در حالی که تمامی افراد در جلسه از طریق فناوری جعل عمیق درست شده بودند و واقعی نبودند.
به گفته مقامات پلیس شخص کارمند در ابتدا به پیامی که ظاهراً از طرف مدیر ارشد مالی شرکت، مستقر در بریتانیا، فرستاده شده بود شک کرده بود. اوتصور کرده بود که این یک ایمیل فیشینگ است، زیرا در مورد نیاز به انجام یک تراکنش مخفی صحبت میکرد.
با این حال این کارمند شک و تردیدهای اولیه خود را پس از برقراری تماس ویدیویی کنار گذاشت، زیرا سایر افراد حاضر در جلسه دقیقاً شبیه همکارانی بودند که او میشناخت. این فرد با اعتقاد به اینکه همه اشخاص حاضر در تماس واقعی هستند، موافقت کرد که در مجموع ۲۰۰ میلیون دلار هنگ کنگ (حدود ۲۵.۶ میلیون دلار آمریکا) پرداخت کند.
کلاهبرداری مربوط به مدیر مالی جعلی تنها زمانی کشف شد که کارمند بعداً با دفتر مرکزی شرکت صحت درخواستهای مالی را چک کرد. پلیس هنگ کنگ نام شرکت و کارمند را فاش نکرده است.
این پرونده تازهترین مورد از چندین کلاهبرداری مشابه اخیر است که در آنها گمان میرود سارقان از فناوری جعل عمیق برای اصلاح ویدیوهای در دسترس عموم و سایر فیلمها برای فریب دادن افراد استفاده کرده باشند.
فناوری جعل عمیق در دستکاری در دنیای ویدئو را میتوان تقریبا به فتوشاپ در دنیای عکس تشبیه کرد.
پلیس هنگ کنگ در یک کنفرانس مطبوعاتی در روز جمعه گفت که شش نفر را در ارتباط با چنین کلاهبرداریهایی دستگیر کرده است.
به گفته مقامات، کلاهبرداران از هشت کارت شناسایی دزدیده شده در هنگ کنگ برای ثبت ۹۰ درخواست وام و تقاضای افتتاح ۵۴ حساب بانکی بین ژوئیه تا سپتامبر سال گذشته استفاده کردهاند. همچنین دستکم در ۲۰ مورد از جعل عمیق جهت فریب برنامههای تشخیص چهره، با بهرهگیری از تصاویر کارت شناسایی افراد، استفاده شده است.
در سالهای اخیر نگرانیهای فزایندهای در کشورها از بابت پیچیدگیهای فناوری جعل عمیق و استفادههای نادرست از آن ایجاد شده است.
در اواخر ماه گذشته پخش تصاویر پورنوگرافیک از تیلور سوئیفت ستاره پاپ آمریکایی که توسط هوش مصنوعی تولید شده بود، باعث بالا گرفتن بحثها درباره پتانسیل آسیبرسان فناوریهای مبتنی بر هوش مصنوعی شد.
این عکسها که تیلور سوئیفت را در موقعیتهای صریح جنسی نشان میدادند، قبل از حذف شدن از شبکههای اجتماعی دهها میلیون بار دیده شدند.
نظرات