به گزارش تجارت نیوز، از آغاز عصر هستهای، سیاستمداران و استراتژیستها سعی کردهاند از به کارگیری سلاحهای هستهای به شکلی اشتباه جلوگیری کنند. اما احتمال وقوع حوادث مشابه همچنان بهسان دوران جنگ سرد بالا است. در سال ۱۹۸۳، سیستم هشدار زودهنگام شوروی به اشتباه نشان داد که ایالات متحده برای حمله هستهای به این کشور خیز برداشته؛ چنین هشداری میتوانست باعث یک ضد حمله فاجعهبار شود. اما این تراژدی رقم نخورد چرا که درجهدار سرپرست شیفت متوجه شد هشدار اشتباه است. اگر او این تصمیم را نمیگرفت، رهبری شوروی ایالات متحده را هدف مخربترین سلاحهای دنیا قرار میداد.
وقتی هوش مصنوعی به چالش تبدیل میشود
حالا گسترش سریع هوش مصنوعی تهدیدات هستهای را تشدید کرده است. یکی از نگرانیها این است که کشوری مجهز به سلاحهای هستهای تصمیم به استفاده از سلاحهای هستهای را به ماشینها واگذار کند. با این حال، ایالات متحده تدابیری را برای اطمینان از اینکه انسانها تصمیم نهایی را در مورد استفاده یا عدم استفاده از سلاح هستهای نگیرند، تعریف کرده است. بر اساس استراتژی دفاع ملی ۲۰۲۲، یک انسان همچنان در «حلقه تصمیمگیری» برای اتخاذ تصمیم به استفاده یا متوقف کردن استفاده از سلاح هستهای باقی خواهد ماند.
همچنین، جو بایدن، رئیسجمهوری وقت ایالات متحده و شی جین پینگ، رهبر چین در بیانیههای مشترک خود توافق کردند که باید کنترل انسانی بر تصمیم استفاده از سلاحهای هستهای وجود داشته باشد. اما هوش مصنوعی خطر دیگری برای امنیت هستهای به همراه دارد. این تکنولوژی کار را برای ایجاد و پخش «دیپفیکها» آسانتر کرده؛ ویدیوها، تصاویر یا صداهایی که بهطور قانعکنندهای تغییر داده شدهاند و برای تولید اطلاعات غلط درباره افراد یا رویدادها به کار میروند و این تکنیکها هر روز پیچیدهتر میشوند.
چند هفته پس از حمله روسیه به اوکراین در سال ۲۰۲۲، یک دیپفیک بهطور گسترده منتشر شد که در آن رئیسجمهور اوکراین، ولودیمیر زلنسکی، از اوکراینیها خواسته بود سلاحهای خود را زمین بگذارند؛ در سال ۲۰۲۳، یک دیپفیک باعث شد مردم به اشتباه فکر کنند که ولادیمیر پوتین، رئیسجمهور روسیه، در تلویزیون دولتی ظاهر شده و اعلام کرده که بسیج عمومی در حال انجام است. در یک سناریوی افراطی، دیپفیک میتواند رهبر کشور مجهز به سلاح هستهای را قانع کند که حمله اول از سوی دشمن در حال انجام است یا یک پلتفرم هوش مصنوعی ممکن است هشدارهای غلطی مبنی بر بسیج یا حتی حمله با بمب کثیف از سوی دشمن کلید خورده است.
دولت ترامپ به دنبال آن است تا از هوش مصنوعی برای امنیت ملی استفاده کند. در ماه ژوئیه، او طرح اقدام مشترک را منتشر کرد که خواستار استفاده «تهاجمی» از هوش مصنوعی در سراسر وزارت دفاع بود. در ماه دسامبر، وزارت دفاع پلتفرم GenAI.mil را معرفی کرد، ابزاری مبتنی بر هوش مصنوعی برای کارکنان. با این حال در حالی که دولت در حال پیادهسازی هوش مصنوعی در زیرساختهای امنیت ملی است، ضرورت دارد تا سیاستمداران و طراحان سیستمها در نظر داشته باشند که ماشینها باید نقش محدودی در مراحل اولیه تصمیمگیری هستهای ایفا کنند.
تا زمانی که مهندسان نتوانند مشکلات ذاتی هوش مصنوعی، مانند هالوسینیشنها (توهمها) و تقلبها را حل کنند – مشکلاتی که به واسطهاش مدلهای زبان بزرگ الگوها یا حقایق را به شکلی نادرست پیشبینی میکنند – دولت ایالات متحده باید اطمینان حاصل کند که انسانها همچنان کنترل سیستمهای هشدار هستهای را در دست دارند. سایر کشورهای دارای سلاح هستهای نیز باید همین رویکرد را در پیش بگیرند.
بحرانهای زنجیرهای
امروز، دونالد ترامپ، رئیس جمهوری آمریکا از تلفن همراه برای دسترسی به دیپفیکها استفاده کرده؛ گاهی اوقات آنها را در رسانههای اجتماعی منتشر میکند، بسیاری از مشاوران نزدیکش نیز همین کار را انجام میدهند. با محو شدن مرزها بین اطلاعات واقعی و جعلی، احتمال بالایی وجود دارد که این دیپفیکها بتوانند تصمیمات حساس مربوط به امنیت ملی، از جمله تصمیمات مربوط به سلاحهای هستهای، را تحت تاثیر قرار دهند. اگر اطلاعات غلط حتی برای چند دقیقه هم بتواند رئیسجمهور ایالات متحده را فریب دهد، ممکن است برای جهان فاجعهبار باشد.
بر اساس قوانین ایالات متحده، رئیسجمهور نیازی به مشورت با کسی ندارد تا دستور استفاده از سلاحهای هستهای را صادر کند، خواه برای حمله تلافیجویانه و یا حمله پیشگیرانه. مقامات نظامی ایالات متحده آمادهاند تا هواپیماها، زیردریاییها و موشکهای مستقر در زمین که کلاهک هستهای حمل میکنند را راهاندازی کنند. در چنین شرایطی موشک بالستیک قارهپیما قادر است هدف خود را در مدت 30 دقیقه هدف قرار دهد؛ پس از شلیک چنین موشکی دیگر هیچ چیز قادر به متوقف کردن شرایط نیست.
در این میان نیروهای هستهای ایالات متحده و روسیه آمادهاند تا «بر اساس هشدار» عمل کنند، به این معنی که میتوانند به محض شناسایی موشکهای دشمن که به سمت آنها در حرکت هستند، شلیک کنند. هر رهبر فقط چند دقیقه زمان دارد تا ارزیابی کند که آیا حمله هستهای دشمن آغاز شده یا خیر. (بر اساس سیاست فعلی ایالات متحده، رئیسجمهور این اختیار را دارد که تصمیم را تا بعد از حمله سلاح هستهای دشمن به ایالات متحده به تاخیر بیندازد.) اگر سیستم هشدار زودهنگام ایالات متحده تهدیدی را برای این کشور شناسایی کند، مقامات آمریکا تلاش خواهند کرد که حمله را با استفاده از منابع طبقهبندیشده و غیرطبقهبندیشده تایید کنند.
آنها ممکن است دادههای ماهوارهای برای فعالیتهای مراکز نظامی شناختهشده، بیانیههای اخیر رهبران خارجی، و منابع خبری و شبکههای اجتماعی خارجی را برای درک زمینه و اخبار در محل بررسی کنند. سپس افسران نظامی، کارمندان دولتی و مقامات سیاسی باید تصمیم بگیرند که کدام اطلاعات را به مقامات بالاتر گزارش دهند و چطور آن را ارائه کنند.
در همین راستا میتوان گفت اطلاعات غلط مبتنی بر هوش مصنوعی میتواند زمینه ساز بحرانهای زنجیرهای شود. اگر از سیستمهای هوش مصنوعی برای تفسیر دادههای هشدار زودهنگام استفاده شود، این سیستمها ممکن است حملهای غیرواقعی را شبیهسازی کنند که مقامات ایالات متحده را در موقعیتی مشابه با موقعیتی که استانیسلاو پتروف در چهار دهه پیش قرار داشت، قرار دهد. چون منطق داخلی سیستمهای هوش مصنوعی غیرشفاف است، انسانها اغلب نمیدانند چرا هوش مصنوعی به نتیجه خاصی رسیده است.
تحقیقات نشان میدهد که افرادی که آشنایی متوسطی با هوش مصنوعی دارند، تمایل دارند به خروجیهای ماشین اعتماد کرده و آنها را بررسی نکنند تا از نظر تعصب یا اشتباهات مثبت کاذب مطمئن شوند، حتی در موضوعات امنیت ملی. بدون آموزش گسترده، ابزارها و فرآیندهای عملیاتی که ضعفهای هوش مصنوعی را در نظر بگیرند، تصمیمگیرندگان کاخ سفید ممکن است با فرض کردن این احتمال که محتوای تولید شده توسط هوش مصنوعی دقیق است، حملهای تراژدیک را کلید بزنند.
چشمانداز مبهم و در عین حال هولناک
ماه ژوئیه، دولت ترامپ طرح اقدام هوش مصنوعی را منتشر کرد که در قالبش خواستار استفاده تهاجمی از ابزارهای هوش مصنوعی در وزارت دفاع، بزرگترین دستگاه اداری جهان بود. هوش مصنوعی در بهبود کارایی بخشهایی از ارتش مفید واقع شده است. فرآیند فعالیت ماشین باعث میشود که برنامهریزی جهت تعمیرات ناوهای نابودگر نیروی دریایی آسانتر شود. فناوری هوش مصنوعی که در مهمات خودران مانند پهپادها تعبیه شده، به سربازان این امکان را میدهد که از خطوط مقدم فاصله بگیرند.
همچنین، ابزارهای ترجمه هوش مصنوعی به افسران اطلاعاتی کمک میکنند تا دادهها را در مورد کشورهای خارجی تحلیل کنند. هوش مصنوعی حتی ممکن است در برخی دیگر از وظایف معمول جمعآوری اطلاعات مفید باشد، مانند شناسایی تفاوتها در تصاویر بمبافکنها. به کارگیری هوش مصنوعی در سیستمهای نظامی نباید در قالب همهچیز یا هیچچیز تبیین شود. استفاده از هوش مصنوعی در برخی حوزهها باید متوقف شود، از جمله سیستمهای هشدار زودهنگام هستهای و فرماندهی و کنترل، که در آن خطرات هالوسیناسیون و جعل اطلاعات بر مزایایی که نرمافزارهای مبتنی بر هوش مصنوعی میتوانند به ارمغان بیاورند، پیشی میگیرد.
بهترین سیستمهای هوش مصنوعی بر مجموعه دادههای جامع و بررسیشده متقابل ساخته میشوند. سیستمهای هشدار زودهنگام هستهای فاقد این ویژگیها هستند زیرا از زمان حملات هستهای به هیروشیما و ناکازاکی، هیچ حمله هستهای دیگری رخ نداده است. هر سیستم شناسایی هستهای مبتنی بر هوش مصنوعی احتمالا باید بر اساس دادههای موجود از آزمایشهای موشکی و ردیابی ماهوارهای فعالیت کند. مهندسان باید سیستمهای دفاعی در برابر هالوسیناسیونها برای اطمینان ایجاد کنند—که این خود چالشهای فنی بزرگی است.
ممکن است وسوسهکننده باشد که چکهای انجامشده توسط کارکنان با آموزشهای عالی را با ابزارهای هوش مصنوعی جایگزین کنیم یا از هوش مصنوعی برای ترکیب منابع مختلف داده به منظور تسریع تحلیل استفاده کنیم، اما حذف چشمهای انسانی میتواند منجر به اشتباهات، تعصبها و سوءتفاهمها شود. همانطور که وزارت دفاع نیاز به کنترل معنادار انسانی بر پهپادهای خودران دارد، باید از هر عنصر فناوری هشدار زودهنگام هستهای و اطلاعاتی خواسته شود که استانداردهای بالاتری را رعایت کند.
ابزارهای یکپارچهسازی دادههای هوش مصنوعی نباید جایگزین اپراتورهای انسانی شوند که در مورد موشکهای بالستیک ورودی گزارش میدهند. تلاشها برای تایید هشدارهای اولیه در مورد شلیک هستهای از دادههای ماهوارهای یا راداری باید تنها بهطور جزئی خودکار شوند و شرکتکنندگان در تماسهای کنفرانس امنیت ملی حساس باید فقط دادههای تایید شده و بدون تغییر را در نظر بگیرند.
بازگشت به استراتژی قدیمی
امروزه، خطر جنگ هستهای بیشتر از هر زمان دیگری در دهههای اخیر است. روسیه تهدید کرده که از سلاحهای هستهای در اوکراین استفاده خواهد کرد، چین به سرعت در حال گسترش زرادخانه هستهایاش است، کره شمالی اکنون توانایی شلیک موشکهای بالستیک قارهپیما به ایالات متحده را دارد، از همین رو سیاستهای جلوگیری از گسترش سلاحهای هستهای شکننده شده اند.
در این وضعیت، مهم است تا اطمینان حاصل شود که انسانها و نه ماشینها، که بر اساس دادههای ناقص یا اشتباه آموزش دیدهاند، تصمیمگیریهای مربوط به اقدامات، نیتها و اهداف دشمن را قضاوت کنند. آژانسهای اطلاعاتی باید در پیگیری منبع اطلاعاتی که از هوش مصنوعی استخراج میشود، بهتر عمل کنند و نحوه انتقال اطلاعات به سیاستگذاران را استانداردسازی کنند، بهویژه زمانی که دادهها با هوش مصنوعی تقویت میشوند.
به عنوان مثال، زمانی که آژانس اطلاعات جغرافیایی ملی ایالات متحده (NGA) از هوش مصنوعی برای تولید اطلاعات استفاده میکند، در گزارش خود ذکر میکند که محتوا توسط ماشین تولید شده است. تحلیلگران اطلاعاتی، سیاستگذاران و کارکنان آنها باید آموزش ببینند که در برابر محتواهایی که فورا قابل راستیآزمایی نیستند، بیشتر توجه داشته باشند، همانطور که بسیاری از کسبوکارها اکنون در برابر حملات فیشینگ سایبری هوشیار هستند.
فریب، متغیری که از قلم افتاد!
تاکید دولت ترامپ بر وضعیت هستهای ایالات متحده در استراتژی دفاع ملی میبایست از خطرات احتمالی و پیچیده اطلاعات هوش مصنوعی در زمینه سلاحهای هستهای جلوگیری کرده تا یک ماشین بدون کنترل انسانی از سلاح هستهای استفاده نکند. بهعنوان اولین قدم، تمامی کشورهای دارای سلاح هستهای باید توافق کنند که تنها انسانها خواهند بود که تصمیمات مربوط به استفاده از سلاح هستهای را اتخاذ کنند.
سپس باید کانالهای ارتباطی در مواقع بحران را بهبود بخشند. یک خط تلفن برای گفتوگو بین واشنگتن و مسکو وجود دارد، اما میان واشنگتن و پکن چنین خطی تعریف نشده سیاستها و وضعیت هستهای ایالات متحده از دهه ۱۹۸۰ به این طرف تغییر چندانی نکردهاند، زمانی که رهبران نگران بودند که اتحاد جماهیر شوروی به طور غیرمنتظرهای حمله کند.
سیاستگذاران آن زمان نمیتوانستند تصور کنند که چه میزان اطلاعات غلط به دستگاههای شخصی افرادی که مسئول سلاحهای هستهای امروز هستند، منتقل خواهد شد. هر دو شاخه قانونگذاری و اجرایی باید وضعیت سیاستهای سلاحهای هستهای را که برای دوران جنگ سرد طراحی شدهاند، بازبینی کنند. برای مثال، سیاستگذاران ممکن است از رئیسجمهور آینده بخواهند که قبل از حمله هستهای اول، با رهبران کنگره مشورت کند یا زمانی را برای تایید اطلاعات مورد استفاده برای اتخاذ تصمیم در نظر بگیرند.
زیرا ایالات متحده گزینههای قوی برای حمله ثانویه دارد، دقت باید بر سرعت اولویت داشته باشد. هوش مصنوعی اکنون پتانسیل این را دارد که مقامات کلیدی تصمیمگیری و اعضای زنجیره فرماندهی هستهای را فریب دهد. در گذشته، تنها دیپلماسی و گفتوگوی واقعی بودند که از سوءتفاهمها میان کشورهای مسلح به سلاح هستهای جلوگیری میکردند. اما امروز هوش مصنوعی این توان را دارد تا آخر زمانی هولناک را رقم بزند.