29/شهريور/1404
|
01:39
از تحقیق دانشگاهی تا میدان نبرد؛ هوش مصنوعی به «رویه نظامی» در ارتش ایالات متحده بدل می‌شود

آغاز دوران جنگ‌های الگوریتمی در آمریکا

محسن عبدالله‌زاده: کنگره و نهادهای دفاعی ایالات متحده سال ۲۰۲۵ روندی سازمان‌یافته را برای انتقال هوش‌ مصنوعی از «ابزار تحقیق و پشتیبانی» به «رویه عملیاتی و مقرراتی» آغاز کردند.
کنگره آمریکا در حال حاضر در حال بررسی لایحه مجوز دفاع ملی (NDAA) برای سال مالی ۲۰۲۶ است که شامل مقررات قابل توجهی برای تسریع و نظارت بر ادغام هوش‌ مصنوعی (AI) در عملیات‌های نظامی است. این لایحه توسط کمیته‌های نظامی مجلس نمایندگان و سنای آمریکا تدوین شده و هر ۲ نسخه بر اهمیت هوش‌ مصنوعی برای حفظ برتری راهبردی ایالات متحده تأکید دارند.
این روند به ‌معنای آن است که هوش مصنوعی دیگر تنها موضوعی برای تحقیقات دانشگاهی یا همکاری‌های محدود با شرکت‌های فناوری نیست، بلکه به یک «رویه قانونی و جاری» در سیاست دفاعی ایالات متحده تبدیل می‌شود. نگاهی به لایحه مجوز دفاع ملی سال 2026 نشان‌ می‌دهد در بخش‌های مختلفی از این لایحه به تجهیز ارتش ایالات متحده به هوش ‌مصنوعی برای نبرد در میدان جنگ و همچنین انجام آزمایش‌های مختلف جهت استفاده تسلیحاتی از این تکنولوژی پرداخته شده ‌است. بخش ۱۵۳۲ نسخه مجلس نمایندگان، راه‌اندازی برنامه‌های آزمایشی را برای ارتش، نیروی دریایی و نیروی هوایی جهت به‌کارگیری راه‌حل‌های هوش ‌مصنوعی تجاری برای بهبود نگهداری و تعمیر وسایط نقلیه زمینی الزامی می‌کند. علاوه بر این، بخش ۱۵۳۳ به وزارت جنگ (DoD) دستور می‌دهد ۱۲ ابزار هوش‌ مصنوعی مولد (Generative AI) را برای پشتیبانی از حوزه‌های حیاتی مأموریت مانند ارزیابی خسارت، امنیت سایبری و تحلیل مأموریت توسعه دهد.
بخش ۳۲۸ نسخه سنای آمریکا نیز بر ادغام ابزارهای هوش‌ مصنوعی تجاری در لجستیک تمرکز دارد و از وزارت جنگ آمریکا می‌خواهد این ابزارها را در حداقل ۲ تمرین در سال ۲۰۲۶ به کار گیرد.
هر ۲ نسخه لایحه بر سرمایه‌گذاری بر آموزش و توسعه نیروی کار متخصص در حوزه هوش‌ مصنوعی تأکید می‌کنند. نسخه سنای آمریکا به ‌طور خاص بر چارچوب‌های حکمرانی، امنیت و استانداردسازی برای استفاده مسؤولانه از هوش‌ مصنوعی تمرکز دارد. برای مثال، بخش ۱۶۲۹ دستور می‌دهد استانداردهایی برای تشخیص محتوای تولید شده توسط هوش‌ مصنوعی ایجاد شود تا از اطلاعات گمراه‌کننده جلوگیری شود.
متن‌های نسخه‌های مجلس نمایندگان و سنا از لایحه مجوز دفاعی ۲۰۲۶ مفادی دارند که صراحتاً هدف‌گذاری کرده‌اند وزارت جنگ استفاده از قابلیت‌های هوش‌ مصنوعی، از جمله «تلاش‌های مولد هوش‌ مصنوعی» (Generative AI) را تسریع و اختیار اجرای چندین پروژه آزمایشی را فراهم کند. در برخی بخش‌ها صراحتاً تا «۱۲ پروژه مولد هوش‌ مصنوعی» برای مصارف ملی/ دفاعی مجاز شمرده شده ‌است. این نوع درج آشکار در قانون مشخصاً مسیر تخصیص بودجه، اولویت‌های برنامه‌ای و تسهیل قرارداد با بخش خصوصی را هموار می‌کند.
بر اساس این لایحه، دفتر CDAO در پنتاگون، نقش راهبری و هماهنگی سیاست‌های مسؤولانه، پیاده‌سازی و استانداردسازی را به عهده دارد و در عمل نقطه تمرکز برای ادغام AI در ساختار فرماندهی و زنجیره تأمین دفاعی شده ‌است.
همزمان با متون قانونی، وزارت جنگ آمریکا قراردادهای بزرگی با شرکت‌های خصوصی (از جمله شرکت‌هایی که در آماده‌سازی داده و آماده‌سازی مدل تخصص دارند) منعقد می‌کند. ورود پیمانکاران تخصصی و شرکت‌های داده‌محور به شبکه‌های محرمانه، همراه با مجوزهای بودجه‌ای، مسیر تبدیل نوآوری به توانمندی عملیاتی را کوتاه می‌کند.
* استراتژی کلان دفاعی آمریکا در حوزه هوش‌ مصنوعی
اهمیت بررسی این لایحه در کنگره آمریکا، تنها به موضوع استفاده از هوش‌ مصنوعی در مسائل نظامی محدود نمی‌شود. این لایحه در واقع بخشی از یک استراتژی بزرگ‌تر بلندمدت در وزارت جنگ آمریکا برای ادغام هوش‌ مصنوعی به‌منظور مصارف نظامی در یک ساختار واحد نظامی است. این ساختار شامل مباحث زیر است: 
اداره اصلی دیجیتال و هوش‌ مصنوعی (CDAO): این اداره سال ۲۰۲۲ برای نظارت بر اتخاذ و یکپارچه‌سازی هوش‌ مصنوعی در وزارت دفاع ایجاد شد. بودجه این اداره از 10.3 میلیون دلار در سال ۲۰۲۲ به 320.4 میلیون دلار در سال ۲۰۲۳ افزایش یافت که نشان‌دهنده اولویت بالای این موضوع است.
بودجه و سرمایه‌گذاری: اگرچه بودجه مستقیم CDAO سال ۲۰۲۵ کاهش‌ یافت اما پنتاگون بیش از ۶۸۵ پروژه مرتبط با هوش‌ مصنوعی را تحت نظارت دارد و به استفاده از قراردادهای بخش خصوصی برای پیشبرد این فناوری ادامه می‌دهد.
برنامه ۵۰۰ روزه ارتش آمریکا: ارتش ایالات متحده اخیراً یک برنامه ۵۰۰ روزه را برای ایمن‌سازی و ادغام هوش‌ مصنوعی معرفی کرده است. این برنامه شامل ۲ ابتکار «شکست هوش‌ مصنوعی» (Break AI) برای آزمایش فناوری‌های مبتنی بر هوش‌ مصنوعی و «مقابله با هوش‌ مصنوعی» (Counter AI) برای محافظت از نیروها در برابر استفاده خصمانه از این فناوری است.
کاربردهای عملیاتی: نیروی دریایی آمریکا از هوش‌ مصنوعی مولد برای تحلیل حجم عظیمی از داده‌های غیرطبقه‌بندی‌شده در رزمایش‌ها استفاده کرده است. همچنین، نیروی هوایی آمریکا در حال توسعه یک برنامه رهگیری هدف پیشرفته با بودجه ۹۹ میلیون دلاری است که از هوش‌ مصنوعی برای پردازش داده‌های حسگرها و کاهش زمان بین شناسایی و درگیری هدف استفاده می‌کند.
* خطرات هوش‌ مصنوعی نظامی آمریکا برای جهان
استفاده از هوش‌ مصنوعی در امور نظامی با چالش‌ها و هشدارهای جدی همراه است. از همین رو است که بسیاری از تحلیلگران حوزه بین‌الملل تاکنون بارها درباره رگولاتوری و ایجاد قوانین بین‌المللی برای استفاده از هوش‌ مصنوعی در مسائل نظامی صحبت کرده‌اند و درباره خطرات رقابت در این زمینه بین قدرت‌های بزرگ جهان هشدار داده‌اند.
اخیراً ایالات متحده در آزمایشی درباره نحوه استفاده از هوش‌ مصنوعی در مأموریت‌های نظامی، یک پهپاد را تحت کنترل هوش‌ مصنوعی قرار داد و به این نتیجه رسید این پهپاد برای تکمیل عملیات خود علیه اپراتور انسانی خود نیز اقدام کرده است. این آزمایش شبیه‌سازی شده باعث ایجاد سر و صدا و اعتراضات زیاد درباره استفاده از هوش‌ مصنوعی در مسائل نظامی شد. کارشناسان هشدار می‌دهند مدل‌های زبانی بزرگ (LLMs) ممکن است برای کاربردهای حساس، مانند تحلیل احساسات یا تشخیص پروپاگاندا به ‌اندازه کافی دقیق نباشند و اتکای بیش از حد به آنها می‌تواند منجر به خطا در تصمیم‌گیری‌های نظامی شود. این همان چیزی است که هم‌اکنون توسط ایالات متحده و رژیم صهیونیستی در حال اجرایی شدن بوده و نتایج بسیار مخرب و ویرانگری را برجا گذاشته ‌است. 
در اوکراین، پنتاگون با همکاری شرکت‌های فناوری از الگوریتم‌های یادگیری ماشین برای تحلیل سریع تصاویر ماهواره‌ای و هدایت پهپادها بهره برد. این ابزارها به ارتش اوکراین امکان داد ظرف چند دقیقه به اطلاعاتی دست یابد که پیش‌تر نیازمند ساعت‌ها زمان بود اما این اهداف در برخی موارد با خطاهای ماشینی روبه‌رو شده و باعث افزایش میزان تلفات غیرنظامیان نیز می‌شود. در سوی دیگر، اسرائیل نیز در جنگ‌های اخیر غزه به ‌طور گسترده از هوش‌ مصنوعی برای انتخاب اهداف و هماهنگی حملات استفاده‌ کرد. ارتش صهیونیستی سال ۲۰۲۱ مدعی شد نخستین «جنگ هوش‌ مصنوعی» را رقم زده ‌است. پس از حوادث اکتبر ۲۰۲۳ نیز گزارش‌هایی منتشر شد که نشان می‌داد سامانه‌های الگوریتمی در انتخاب اهداف بمباران نقش ایفا کرده‌اند؛ مساله‌ای که به‌دلیل افزایش خطر تلفات غیرنظامی، با انتقادهای گسترده حقوق بشری روبه‌رو شد.
* چرا عملیات‌های نظامی رژیم مهم است؟
عملیات‌های نظامی رژیم صهیونیستی در غزه و سایر 6 کشوری که تاکنون از سال 2023 به آنها حمله کرده (ایران، سوریه، لبنان، تونس، یمن و قطر) از اهمیت زیادی در بررسی و تحلیل چگونگی استفاده از هوش‌ مصنوعی در حملات نظامی برخوردار است. رژیم در این جنگ‌ها هم در شناسایی اهداف مد نظر خود و هم در تخمین زمان و مکان حمله و همچنین نوع تسلیحاتی که باید از آنها استفاده کند، از هوش‌ مصنوعی استفاده‌ کرد. بسیاری از کارشناسان هوش‌ مصنوعی و روابط بین‌الملل بر این عقیده‌اند علت بالا بودن قربانیان جنگ در غزه یا هدف قرار دادن غیرنظامیان در سایر کشورهایی که مورد حمله این رژیم قرار گرفته‌اند، استفاده از هوش‌ مصنوعی است. کارشناسان بین‌المللی همچنین بر این باورند این کار در واقع آزمایش انواع پردازش اطلاعات و هدف‌گیری و استفاده از تجهیزات نظامی در میدان نبرد بود که ایالات متحده آن را برعهده رژیم صهیونیستی گذاشت. 
بـرخی گزارش‌های تحقیقاتی و تحلیلی ادعا کردند سـامـانه‌هایی با نـام‌های مستعار مانند «Lavender» یا «The Gospel / Habsora» در رسانه‌ها لیست‌های بزرگی از اهداف بالقوه تولید کرده‌اند که به تسریع عملیات و افزایش شمار اهداف منجر شده ‌است. در مقابل، مقامات نظامی رژیم استفاده سیستماتیک و خودمختار از هوش‌ مصنوعی برای «شناسایی افراد» را تکذیب یا آن را ابزار کمکیِ تحلیل خوانده‌اند. بر اساس گزارش گاردین و رویترز، گزارش‌های سازمان‌های حقوق بشری نیز نگرانی‌هایی درباره داده‌های نادرست، سوگیری و پیامد برای غیرنظامیان مطرح کرده‌اند.
* اخلاق در استفاده از هوش مصنوعی نظامی 
جدا از مساله اشتباهات در شناسایی اهداف و نوع استفاده از تسلیحات برای حمله به اهداف نظامی، مساله مسؤولیت‌پذیری نیز همچنان بی‌پاسخ مانده ‌است: اگر سامانه‌ای مبتنی بر هوش مصنوعی موجب تلفات انسانی شود، چه کسی پاسخگو خواهد بود؟ فرماندهان میدانی، برنامه‌نویسان یا خود سیستم؟ علاوه بر این، سرعت تصمیم‌گیری الگوریتم‌ها می‌تواند جنگ‌های آینده را به رقابت میان ماشین‌ها بدل کند؛ رقابتی که در آن، زمان واکنش به میلی‌ثانیه‌ها کاهش و خطر بروز جنگ‌های ناخواسته به ‌طور چشمگیری افزایش می‌یابد.
اصول حقوق بشردوستانه بین‌المللی، بر ضرورت تفکیک میان اهداف نظامی و غیرنظامی و رعایت تناسب در حملات تأکید دارد اما آیا الگوریتم‌ها می‌توانند چنین اصولی را در میدان جنگ رعایت کنند؟ گزارش‌های سازمان‌های حقوق بشری نشان‌ می‌دهد عادی‌سازی استفاده از هوش مصنوعی در عملیات‌های نظامی، خطر آغاز یک مسابقه تسلیحاتی جهانی را در پی دارد. مسابقه‌ای که نه‌تنها موازنه قوا را تغییر می‌دهد، بلکه احتمال بروز خطاهای فاجعه‌بار را نیز افزایش خواهد داد.
لایحه تازه کنگره آمریکا تنها یک اقدام قانون‌گذاری ساده نیست، بلکه نشانه‌ای از گذار به دوره‌ای است که در آن ماشین‌ها نقش محوری در جنگ‌های مدرن ایفا می‌کنند اما پرسش بنیادین همچنان باقی است: آیا جهان آماده پذیرش جنگ‌هایی است که تصمیم مرگ و زندگی در آنها به ‌دست الگوریتم‌ها سپرده می‌شود؟
گنجاندن هوش‌ مصنوعی در متنِ قانون و رویه نظامی (از طریق NDAA، نهادهای مرکزی و قراردادهای کلان) روندی ساختاری است که اجرای آن در کوتاه‌مدت افزایش کارآیی و در بلندمدت تغییر بنیادین ماهیت تصمیم‌گیری نظامی را نوید می‌دهد اما این انتقال نه‌تنها مساله فناوری و بودجه است، بلکه بحران‌های اخلاقی، حقوقی و امنیتیِ جدی‌ای را پیش رو می‌گذارد که بی‌پاسخ ماندن آنها می‌تواند پیامدهای انسانی و بین‌المللی دامنه‌داری داشته‌ باشد.

ارسال نظر
پربیننده