محسن عبداللهزاده: کنگره و نهادهای دفاعی ایالات متحده سال ۲۰۲۵ روندی سازمانیافته را برای انتقال هوش مصنوعی از «ابزار تحقیق و پشتیبانی» به «رویه عملیاتی و مقرراتی» آغاز کردند.
کنگره آمریکا در حال حاضر در حال بررسی لایحه مجوز دفاع ملی (NDAA) برای سال مالی ۲۰۲۶ است که شامل مقررات قابل توجهی برای تسریع و نظارت بر ادغام هوش مصنوعی (AI) در عملیاتهای نظامی است. این لایحه توسط کمیتههای نظامی مجلس نمایندگان و سنای آمریکا تدوین شده و هر ۲ نسخه بر اهمیت هوش مصنوعی برای حفظ برتری راهبردی ایالات متحده تأکید دارند.
این روند به معنای آن است که هوش مصنوعی دیگر تنها موضوعی برای تحقیقات دانشگاهی یا همکاریهای محدود با شرکتهای فناوری نیست، بلکه به یک «رویه قانونی و جاری» در سیاست دفاعی ایالات متحده تبدیل میشود. نگاهی به لایحه مجوز دفاع ملی سال 2026 نشان میدهد در بخشهای مختلفی از این لایحه به تجهیز ارتش ایالات متحده به هوش مصنوعی برای نبرد در میدان جنگ و همچنین انجام آزمایشهای مختلف جهت استفاده تسلیحاتی از این تکنولوژی پرداخته شده است. بخش ۱۵۳۲ نسخه مجلس نمایندگان، راهاندازی برنامههای آزمایشی را برای ارتش، نیروی دریایی و نیروی هوایی جهت بهکارگیری راهحلهای هوش مصنوعی تجاری برای بهبود نگهداری و تعمیر وسایط نقلیه زمینی الزامی میکند. علاوه بر این، بخش ۱۵۳۳ به وزارت جنگ (DoD) دستور میدهد ۱۲ ابزار هوش مصنوعی مولد (Generative AI) را برای پشتیبانی از حوزههای حیاتی مأموریت مانند ارزیابی خسارت، امنیت سایبری و تحلیل مأموریت توسعه دهد.
بخش ۳۲۸ نسخه سنای آمریکا نیز بر ادغام ابزارهای هوش مصنوعی تجاری در لجستیک تمرکز دارد و از وزارت جنگ آمریکا میخواهد این ابزارها را در حداقل ۲ تمرین در سال ۲۰۲۶ به کار گیرد.
هر ۲ نسخه لایحه بر سرمایهگذاری بر آموزش و توسعه نیروی کار متخصص در حوزه هوش مصنوعی تأکید میکنند. نسخه سنای آمریکا به طور خاص بر چارچوبهای حکمرانی، امنیت و استانداردسازی برای استفاده مسؤولانه از هوش مصنوعی تمرکز دارد. برای مثال، بخش ۱۶۲۹ دستور میدهد استانداردهایی برای تشخیص محتوای تولید شده توسط هوش مصنوعی ایجاد شود تا از اطلاعات گمراهکننده جلوگیری شود.
متنهای نسخههای مجلس نمایندگان و سنا از لایحه مجوز دفاعی ۲۰۲۶ مفادی دارند که صراحتاً هدفگذاری کردهاند وزارت جنگ استفاده از قابلیتهای هوش مصنوعی، از جمله «تلاشهای مولد هوش مصنوعی» (Generative AI) را تسریع و اختیار اجرای چندین پروژه آزمایشی را فراهم کند. در برخی بخشها صراحتاً تا «۱۲ پروژه مولد هوش مصنوعی» برای مصارف ملی/ دفاعی مجاز شمرده شده است. این نوع درج آشکار در قانون مشخصاً مسیر تخصیص بودجه، اولویتهای برنامهای و تسهیل قرارداد با بخش خصوصی را هموار میکند.
بر اساس این لایحه، دفتر CDAO در پنتاگون، نقش راهبری و هماهنگی سیاستهای مسؤولانه، پیادهسازی و استانداردسازی را به عهده دارد و در عمل نقطه تمرکز برای ادغام AI در ساختار فرماندهی و زنجیره تأمین دفاعی شده است.
همزمان با متون قانونی، وزارت جنگ آمریکا قراردادهای بزرگی با شرکتهای خصوصی (از جمله شرکتهایی که در آمادهسازی داده و آمادهسازی مدل تخصص دارند) منعقد میکند. ورود پیمانکاران تخصصی و شرکتهای دادهمحور به شبکههای محرمانه، همراه با مجوزهای بودجهای، مسیر تبدیل نوآوری به توانمندی عملیاتی را کوتاه میکند.
* استراتژی کلان دفاعی آمریکا در حوزه هوش مصنوعی
اهمیت بررسی این لایحه در کنگره آمریکا، تنها به موضوع استفاده از هوش مصنوعی در مسائل نظامی محدود نمیشود. این لایحه در واقع بخشی از یک استراتژی بزرگتر بلندمدت در وزارت جنگ آمریکا برای ادغام هوش مصنوعی بهمنظور مصارف نظامی در یک ساختار واحد نظامی است. این ساختار شامل مباحث زیر است:
اداره اصلی دیجیتال و هوش مصنوعی (CDAO): این اداره سال ۲۰۲۲ برای نظارت بر اتخاذ و یکپارچهسازی هوش مصنوعی در وزارت دفاع ایجاد شد. بودجه این اداره از 10.3 میلیون دلار در سال ۲۰۲۲ به 320.4 میلیون دلار در سال ۲۰۲۳ افزایش یافت که نشاندهنده اولویت بالای این موضوع است.
بودجه و سرمایهگذاری: اگرچه بودجه مستقیم CDAO سال ۲۰۲۵ کاهش یافت اما پنتاگون بیش از ۶۸۵ پروژه مرتبط با هوش مصنوعی را تحت نظارت دارد و به استفاده از قراردادهای بخش خصوصی برای پیشبرد این فناوری ادامه میدهد.
برنامه ۵۰۰ روزه ارتش آمریکا: ارتش ایالات متحده اخیراً یک برنامه ۵۰۰ روزه را برای ایمنسازی و ادغام هوش مصنوعی معرفی کرده است. این برنامه شامل ۲ ابتکار «شکست هوش مصنوعی» (Break AI) برای آزمایش فناوریهای مبتنی بر هوش مصنوعی و «مقابله با هوش مصنوعی» (Counter AI) برای محافظت از نیروها در برابر استفاده خصمانه از این فناوری است.
کاربردهای عملیاتی: نیروی دریایی آمریکا از هوش مصنوعی مولد برای تحلیل حجم عظیمی از دادههای غیرطبقهبندیشده در رزمایشها استفاده کرده است. همچنین، نیروی هوایی آمریکا در حال توسعه یک برنامه رهگیری هدف پیشرفته با بودجه ۹۹ میلیون دلاری است که از هوش مصنوعی برای پردازش دادههای حسگرها و کاهش زمان بین شناسایی و درگیری هدف استفاده میکند.
* خطرات هوش مصنوعی نظامی آمریکا برای جهان
استفاده از هوش مصنوعی در امور نظامی با چالشها و هشدارهای جدی همراه است. از همین رو است که بسیاری از تحلیلگران حوزه بینالملل تاکنون بارها درباره رگولاتوری و ایجاد قوانین بینالمللی برای استفاده از هوش مصنوعی در مسائل نظامی صحبت کردهاند و درباره خطرات رقابت در این زمینه بین قدرتهای بزرگ جهان هشدار دادهاند.
اخیراً ایالات متحده در آزمایشی درباره نحوه استفاده از هوش مصنوعی در مأموریتهای نظامی، یک پهپاد را تحت کنترل هوش مصنوعی قرار داد و به این نتیجه رسید این پهپاد برای تکمیل عملیات خود علیه اپراتور انسانی خود نیز اقدام کرده است. این آزمایش شبیهسازی شده باعث ایجاد سر و صدا و اعتراضات زیاد درباره استفاده از هوش مصنوعی در مسائل نظامی شد. کارشناسان هشدار میدهند مدلهای زبانی بزرگ (LLMs) ممکن است برای کاربردهای حساس، مانند تحلیل احساسات یا تشخیص پروپاگاندا به اندازه کافی دقیق نباشند و اتکای بیش از حد به آنها میتواند منجر به خطا در تصمیمگیریهای نظامی شود. این همان چیزی است که هماکنون توسط ایالات متحده و رژیم صهیونیستی در حال اجرایی شدن بوده و نتایج بسیار مخرب و ویرانگری را برجا گذاشته است.
در اوکراین، پنتاگون با همکاری شرکتهای فناوری از الگوریتمهای یادگیری ماشین برای تحلیل سریع تصاویر ماهوارهای و هدایت پهپادها بهره برد. این ابزارها به ارتش اوکراین امکان داد ظرف چند دقیقه به اطلاعاتی دست یابد که پیشتر نیازمند ساعتها زمان بود اما این اهداف در برخی موارد با خطاهای ماشینی روبهرو شده و باعث افزایش میزان تلفات غیرنظامیان نیز میشود. در سوی دیگر، اسرائیل نیز در جنگهای اخیر غزه به طور گسترده از هوش مصنوعی برای انتخاب اهداف و هماهنگی حملات استفاده کرد. ارتش صهیونیستی سال ۲۰۲۱ مدعی شد نخستین «جنگ هوش مصنوعی» را رقم زده است. پس از حوادث اکتبر ۲۰۲۳ نیز گزارشهایی منتشر شد که نشان میداد سامانههای الگوریتمی در انتخاب اهداف بمباران نقش ایفا کردهاند؛ مسالهای که بهدلیل افزایش خطر تلفات غیرنظامی، با انتقادهای گسترده حقوق بشری روبهرو شد.
* چرا عملیاتهای نظامی رژیم مهم است؟
عملیاتهای نظامی رژیم صهیونیستی در غزه و سایر 6 کشوری که تاکنون از سال 2023 به آنها حمله کرده (ایران، سوریه، لبنان، تونس، یمن و قطر) از اهمیت زیادی در بررسی و تحلیل چگونگی استفاده از هوش مصنوعی در حملات نظامی برخوردار است. رژیم در این جنگها هم در شناسایی اهداف مد نظر خود و هم در تخمین زمان و مکان حمله و همچنین نوع تسلیحاتی که باید از آنها استفاده کند، از هوش مصنوعی استفاده کرد. بسیاری از کارشناسان هوش مصنوعی و روابط بینالملل بر این عقیدهاند علت بالا بودن قربانیان جنگ در غزه یا هدف قرار دادن غیرنظامیان در سایر کشورهایی که مورد حمله این رژیم قرار گرفتهاند، استفاده از هوش مصنوعی است. کارشناسان بینالمللی همچنین بر این باورند این کار در واقع آزمایش انواع پردازش اطلاعات و هدفگیری و استفاده از تجهیزات نظامی در میدان نبرد بود که ایالات متحده آن را برعهده رژیم صهیونیستی گذاشت.
بـرخی گزارشهای تحقیقاتی و تحلیلی ادعا کردند سـامـانههایی با نـامهای مستعار مانند «Lavender» یا «The Gospel / Habsora» در رسانهها لیستهای بزرگی از اهداف بالقوه تولید کردهاند که به تسریع عملیات و افزایش شمار اهداف منجر شده است. در مقابل، مقامات نظامی رژیم استفاده سیستماتیک و خودمختار از هوش مصنوعی برای «شناسایی افراد» را تکذیب یا آن را ابزار کمکیِ تحلیل خواندهاند. بر اساس گزارش گاردین و رویترز، گزارشهای سازمانهای حقوق بشری نیز نگرانیهایی درباره دادههای نادرست، سوگیری و پیامد برای غیرنظامیان مطرح کردهاند.
* اخلاق در استفاده از هوش مصنوعی نظامی
جدا از مساله اشتباهات در شناسایی اهداف و نوع استفاده از تسلیحات برای حمله به اهداف نظامی، مساله مسؤولیتپذیری نیز همچنان بیپاسخ مانده است: اگر سامانهای مبتنی بر هوش مصنوعی موجب تلفات انسانی شود، چه کسی پاسخگو خواهد بود؟ فرماندهان میدانی، برنامهنویسان یا خود سیستم؟ علاوه بر این، سرعت تصمیمگیری الگوریتمها میتواند جنگهای آینده را به رقابت میان ماشینها بدل کند؛ رقابتی که در آن، زمان واکنش به میلیثانیهها کاهش و خطر بروز جنگهای ناخواسته به طور چشمگیری افزایش مییابد.
اصول حقوق بشردوستانه بینالمللی، بر ضرورت تفکیک میان اهداف نظامی و غیرنظامی و رعایت تناسب در حملات تأکید دارد اما آیا الگوریتمها میتوانند چنین اصولی را در میدان جنگ رعایت کنند؟ گزارشهای سازمانهای حقوق بشری نشان میدهد عادیسازی استفاده از هوش مصنوعی در عملیاتهای نظامی، خطر آغاز یک مسابقه تسلیحاتی جهانی را در پی دارد. مسابقهای که نهتنها موازنه قوا را تغییر میدهد، بلکه احتمال بروز خطاهای فاجعهبار را نیز افزایش خواهد داد.
لایحه تازه کنگره آمریکا تنها یک اقدام قانونگذاری ساده نیست، بلکه نشانهای از گذار به دورهای است که در آن ماشینها نقش محوری در جنگهای مدرن ایفا میکنند اما پرسش بنیادین همچنان باقی است: آیا جهان آماده پذیرش جنگهایی است که تصمیم مرگ و زندگی در آنها به دست الگوریتمها سپرده میشود؟
گنجاندن هوش مصنوعی در متنِ قانون و رویه نظامی (از طریق NDAA، نهادهای مرکزی و قراردادهای کلان) روندی ساختاری است که اجرای آن در کوتاهمدت افزایش کارآیی و در بلندمدت تغییر بنیادین ماهیت تصمیمگیری نظامی را نوید میدهد اما این انتقال نهتنها مساله فناوری و بودجه است، بلکه بحرانهای اخلاقی، حقوقی و امنیتیِ جدیای را پیش رو میگذارد که بیپاسخ ماندن آنها میتواند پیامدهای انسانی و بینالمللی دامنهداری داشته باشد.
از تحقیق دانشگاهی تا میدان نبرد؛ هوش مصنوعی به «رویه نظامی» در ارتش ایالات متحده بدل میشود
آغاز دوران جنگهای الگوریتمی در آمریکا
ارسال نظر
پربیننده
تازه ها