در مقالات بینامتنی، تلاش میکنیم یک موضوع را از زوایه دید نویسندگان مختلف و در میان محتوای مقالات منتشر شده (در منابع و به زبانهای مختلف) مورد واکاوی و بررسی قرار دهیم.
از انیگما در آلمان نازی تا BAD One در اوکراین
گفته میشود «از تیر و کمان گرفته تا بمب اتم، جنگ همیشه محرک اصلی پیشرفت فناوری بوده است». در بسیاری از جنگها، کشورهایی که به لحاظ فناوری ادوات جنگی دست برتر را داشتند توانستند پیروز جنگ باشند. اما استفاده از فناوری هوشمند سابقهاش احتمالا به چند دهه قبل برمیگردد.
شاید بتوان از انیگما (Enigma) به عنوان اولین استفاده از هوش مصنوعی در صنعت نظامی نام برد. این دستگاه با 26 حرف الفبا برای ارسال ایمن پیامها رمزنگاری شده بود و در جنگ جهانی دوم توسط نیروهای آلمانی استفاده میشد. پس از مدتی مرکز شنود الکترونیک انگلستان (اولترا) با روش مهندسی معکوس، ماشین ضد انیگما با نام «bombe» را ساختند.
از موارد اخیر استفاده از هوش مصنوعی در جنگ میتوانیم به جنگ اوکراین اشاره کنیم. ولت اوکراین از زمان آغاز درگیری در سال ۲۰۲۲، فناوری و به طور خاص هوش مصنوعی را در خط مقدم استراتژی جنگی خود قرار داد. رباتی به نام BAD One نیز، یکی از نیروهایی است که در اوکراین استفاده شده است. این ربات خودکار سگمانند که توسط شرکت بریتانیایی Alliance طراحی شده است، که مخفیانه در مناطق جنگی حرکت میکند و با استفاده از دید حرارتی، مواضع دشمن و همچنین میدانهای مین را شناسایی میکند. همچنین میتواند مهمات را برای تأمین تدارکات سربازان در حین نبرد حمل کند. علاوه بر این یک مسلسل خودکار که از هوش مصنوعی برای شناسایی و هدف قرار دادن دشمنان در حال حرکت در میدان نبرد استفاده میکند در ارتش اوکراین وجود داشته است.
ربات مسلح SGR-1 که در مرز میان دو کره شمالی و جنوبی نصب است و یا پهپاد KARGU را که براساس تشخیص چهره شلیک میکند یکی دیگر از نمونههای امروزی استفاده از هوش مصنوعی برای مقاصد جنگی است.

چالشهای اخلاقی به کارگیری هوش مصنوعی در سلاحهای کشنده میان موافقان و مخالفان
استفاده از AI در جنگافزارها موافقان و مخالفان زیادی دارد. اما اگر فقط نام موافقان و مخالفان را مرور کنیم، درخواهیم یافت که مخالفتها با این پدیده راه به جایی نخواهد برد و احتمالا با پیشرفت روزافزون استفاده از هوش مصنوعی در جنگ میان دولتها خواهیم بود.
یکی از موافقان به کارگیری AI در صنایع تسلیحاتی، ولادیمیر پوتین رییس جمهور روسیه است.
به گفته پوتین، هوش مصنوعی آینده دنیا را تحت تأثیر قرار خواهد داد و هر کشوری که بتواند در این زمینه پیشرو باشد، میتواند بر دنیا حکمرانی کند.
وزیر دفاع آمریکا هوش مصنوعی را کلید برتری در صحنه آتی جهان دانست. همچنین دولت چین قصد دارد تا سال 2030 میلادی به کشور پیشرو در فناوری هوش مصنوعی تبدیل شود.
آمریکا در سال 2018 واحد جدیدی به نام فرماندهی آینده ارتش (Army Futures Command یا AFC) تاسیس کرد که قرار است نقش هوش مصنوعی و تکنولوژی را در توسعه سلاحها تعیین کند.
در مقالهای منتسب به ارتش اسرائیل آمده است که این کشور اعمال هرگونه محدودیت در تولید سلاحهای مجهز به هوش مصنوعی را یک تهدید علیه کشورش میداند. همچنین یک مقام ارشد در دفتر ریاست جمهوری آذربایجان نیز استفاده از پهپادهای انتحاری در جنگ اخیر غرهباغ را محترم دانسته است. به گفته برخی از بزرگان عرصه سیاست، کاربرد هوش مصنوعی در ارتش، نه تنها برای ارتش مفید است، بلکه میزان کشتار غیرنظامیان را کاهش میدهد.

از آن سو تاکنون بیش از 3000 کارشناس هوش مصنوعی، پارلمان اروپا، 20 برنده جایزه صلح نوبل و بیش از 160 رهبر مذهبی نیز خواستار ممنوعیت تولید سلاحهای خودمختار شدهاند. در سال 2018، حدود سه هزار و یکصد تن از کارکنان شرکت گوگل به دنبال اعتراض به همکاری این شرکت با پنتاگون برای تولید صلاحهای خودمختار و پروژه Maven اعتصاب کرده بودند.
آنها خواستار خروج شرکت گوگل از کسب و کارهای مربوط به جنگ و تهیه، انتشار و اجرای سیاستهای شفافی مبنی بر عدم همکاری با پروژههای جنگی بودند. Fei-Fei Li، مدیر ارشد بخش رایانش ابری گوگل (Google Cloud) و سرپرست آزمایشگاه هوش مصنوعی (AI) در دانشگاه استندفورد نیز مخالفت خود را با این مسلئه حساس جهانی اعلام کرده است.
گوگل پس از واکنشهای منفی، تصمیم گرفت قرارداد خود با پنتاگون را تمدید نکند؛ واکنشهایی که منجر به استعفای تعدادی از کارکنان و امضای طوماری توسط هزاران نفر دیگر در محکومیت مشارکت این شرکت در این پروژه شد.
این غول فناوری اواخر همان سال اعلام کرد که دیگر برای قرارداد رایانش ابری ۱۰ میلیارد دلاری با پنتاگون رقابت نخواهد کرد، زیرا «نمیتوان مطمئن بود» که این قرارداد با اصول هوش مصنوعی پنتاگون همسو باشد.
سیاست اخلاقی بهروز شده گوگل پس از آن منتشر شد که ساندار پیچای، مدیرعامل شرکت مادر آلفابت، به رهبران فناوری از جمله جف بزوس، بنیانگذار آمازون و مارک زاکربرگ، رئیس متا، در مراسم تحلیف دونالد ترامپ، رئیس جمهور ایالات متحده در ۲۰ ژانویه پیوست.
ترامپ چند ساعت پس از روی کار آمدن، فرمان اجرایی جو بایدن، رئیس جمهور سابق آمریکا را که حفاظهای خاصی را برای این فناوری به سرعت در حال توسعه ایجاد کرده بود، لغو کرد. دستور بایدن، شرکتهای توسعهدهنده هوش مصنوعی را ملزم میکرد تا قبل از انتشار عمومی فناوریهای جدید، نتایج آزمایشهای ایمنی را با دولت به اشتراک بگذارند.
همچنین سازمان ملل متحد در سال 2018 طی یک همایش یک هفتهای به دنبال تصویب قعطنامهای با هدف تحریم کاربرد جنگافزارهایی بر اساس هوش مصنوعی بود. اما کشورهایی از قبیل اسرائیل، آمریکا، روسیه، کره جنوبی، استرالیا و… راه تصویب آن را سد کردند. به دنبال آن ۷۵ سازمان دفاع از حقوق انسانی و ۳۲ کشور از ناکامی آن همایش ابراز ناراحتی کردند.

دورنما و چشم انداز
در دو دهه گذشته، تلفیق یادگیری ماشین و رباتیک با صنایع دفاعی، نقطه عطفی در تاریخ نظامیگری رقم زده است. وقتی نخستین پهپادهای شناسایی در افغانستان آزمایش شدند، کمتر کسی باور داشت که همین فناوری روزی بتواند بهصورت خودکار هدف را ردیابی و در لحظه تصمیم به حمله بگیرد. پرونده تحول این فناوری را میتوان در سه مرحله اصلی خلاصه کرد:
- شناسایی و پشتیبانی اطلاعاتی
- کشف اهداف با تحلیل بلادرنگ تصاویر ماهوارهای و دادههای جمعآوریشده از حسگرهای زمینی.
- افزایش دقت اطلاعاتی تا حدی که فرماندهان برای نخستین بار بدون حضور در میدان نبرد، ورق تصمیمگیری را ورق زدند.
- اتوماسیون عملیات تاکتیکی
- بهرهگیری از الگوریتمهای تشخیص الگو برای خنثیسازی تهدیدات مین و بمبهای کارگذاشتهشده.
- توسعه رباتهای زمینی اندکاندک به نقش سرباز جایگزین، با توانایی ناوبری در مسیرهای پیچیده.
- هوشمندسازی تصمیمسازی استراتژیک
- سامانههای پشتیبان تصمیم (Decision Support Systems) که با بررسی سناریوهای متعدد، پیشنهادات تاکتیکی ارائه میدهند.
- شبیهسازی جنگهای بزرگ بر پایه هوش مصنوعی برای آزمودن فرضهای فرماندهان.
نمونههای برتر پروژههای سلاح هوشمند
| کشور | پروژه/سلاح هوشمند | کاربرد و ویژگیها |
|---|---|---|
| ایالات متحده | پهپادهای MQ-9 Reaper با تجزیهوتحلیل خودکار | شناسایی تهدیدات و هدفگیری دقیق با اتکا بر کامپیوتر |
| چین | پروژه “فرمانده مجازی” | شبیهسازی تصمیمات ژنرالها در نبردهای نظری |
| روسیه | ربات زمینپیمای Uran-9 | عملیات اکتشافی و مبارزه با خودروهای دشمن |
| اسرائیل | سیستم Harpy (پهپاد شکار پدافند) | خودران برای انهدام سامانههای پدافندی دشمن |
| ایران | پهپادهای «سیمرغ» و «مهاجر ۶» | مأموریتهای شناسایی و گاه حمله با قابلیت برنامهریزی هوشمند |
هر یک از این پروژهها با تمرکز بر کاهش دخالت انسان در شرایط خطیر، تلاش کردهاند سرعت عمل و دقت عملیات را به حداکثر برسانند. اما واقعیت این است که همهجا کارکرد بیچونوچرای هوش مصنوعی از دید دولتمردان و فرماندهان نظامی، یکسان نیست.

پهپادهای خودران—پرواز بر فراز اخلاق
یکی از بحثبرانگیزترین کاربردها، پهپادهای رزمی خودران است؛ ماشینهایی که بهواسطه الگوریتمهای یادگیری عمیق میتوانند تصمیم بگیرند چه زمانی شلیک کنند. در سال ۲۰۲۱، یک مأموریت آزمایشی در پایگاه نیروی دریایی آمریکا، نشان داد پهپادی بر مبنای الگوریتم reinforcement learning (یادگیری تقویتی) میتواند در فضای آشفته نبرد از میان دهها هدف، صلاحیت هر یک را برای انهدام بسنجند.
- نکته کلیدی: در طراحی این سیستمها معمولاً یک سلسلهمراتب نرمافزاری تعریف میشود تا «بیینده» (Observer) دادهها را تفسیر کند، «قاضی» (Evaluator) شرایط را بسنجد و «فعلکننده» (Actuator) دستور شلیک را اجرا کند، اما چه کسی در این میان مسئول خواهد بود اگر اشتباه کنند؟
در سطح کلانتر، چند کشور بزرگ در حال توسعه پلتفرمهایی هستند که با تحلیل حجم عظیمی از دادههای سیاسی، اقتصادی و نظامی، توصیههایی ارائه میدهند. گزارش مؤسسه بینالمللی مطالعات استراتژیک (IISS) از پروژههای سال ۲۰۲۳ نشان میدهد که ترکیب دادههای ماهوارهای، علائم الکترونیکی و تحلیل شبکههای اجتماعی میتواند پیشبینی تحرکات نیروهای مخالف را تا ۸۰ درصد دقت ببرد.
- مثال میدانی: در رزمایش مشترک ناتو در چهار سوی اروپا، سامانه پشتیبان تصمیمگیری ارائه شد که ۱۵۰۰ سناریوی احتمالی را در عرض پنج دقیقه بررسی کرد و مسیرهای ایمنتر برای انتقال تجهیزات سنگین را پیشنهاد داد.
این فناوریها کمک میکنند فرماندهان در کوتاهترین زمان، گزینههای خود را ارزیابی و انتخاب کنند؛ اما نقطه ابهام همچنان در لایه اخلاقی و حقوقی است.
یک مرور تاریخی نشان میدهد:
- افغانستان (۲۰۱۰–۲۰۱۴): پهپادهای شناساییـرزمی با الگوریتم تشخیص چهره برای شناسایی رهبران گروههای مهاجم بهکار گرفته شدند.
- لیبی (۲۰۱۱): پهپادهای Harpy اسرائیلی، اولین تجربه مستقل انهدام سامانههای دفاع هوایی دشمن را رقم زدند.
- درگیریهای شهری در سوریه (۲۰۱۶): رباتهای Uran-9 روسی، علیرغم نوآوری، در میدان واقعی به دلیل مشکلات ارتباطی با مراکز فرماندهی چند بار متوقف شدند.
هرکدام از این تجربهها درسهای فراوانی به همراه داشتند: از اهمیت پایداری ارتباط تا ضرورت بازتعریف چارچوبهای مسئولیتپذیری بینالمللی.

بررسی یک نمونه میدانی: اسراییل
از آنجا که یکی از دولتهایی که امروزه به طور عملی و در حجم وسیع از چنین جنگافزارهایی در جنگها بهره میگیرد دولت و ارتش اسراییل است جهت بررسی عملکرد میدانی به سراغ سوابق استفاده از هوش مصنوعی در جنگهایی که ارتش اسرائیل در آن دخیل بوده میپردازیم.
در سالهای اخیر اسرائیل از مجموعهای از سامانههای هوش مصنوعی در جمعآوری اطلاعات، تحلیل داده و هدفگیری استفاده کرده است. با این حال، شواهد نشان میدهد که هیچ یک از این سامانهها مصون از خطا نیستند و گاهی اشتباهاتشان به قیمت جان و آزادی انسانها تمام شده است.
نمونههایی از خطاهای سامانههای جنگی اسراییل
| ابزار | نوع خطا | پیامد | منبع |
|---|---|---|---|
| Lavender | نرخ شناسایی اشتباه تقریباً ۱۰٪ | حمله به افراد بیگناه | [1][2] |
| Where’s Daddy? | شناسایی موقعیت اشتباه بازگشتی افراد | بمباران منازل غیرنظامیان | [2] |
| Whisper (OpenAI) | تولید “متنهای ساخته” نادرست در ترجمه | هدایت اشتباه عملیات و تلفات غیرنظامی | [3] |
| سیستم شناسایی چهره | اعلان مثبت کاذب (false positive) | بازداشت و بازجویی افراد بیگناه | [10] |
| Gospel | شناسایی ساختاری غیرنظامی بهعنوان هدف | تخریب مدارس، بیمارستانها و اماکن عمومی | [6] |
- سیستم Lavender که برای غربالکردن دادههای ارتباطی و شناسایی چهرهها به کار میرود، در حدود ۱۰٪ موارد افراد سالم را به عنوان “شبهنظامی” برچسب زده است و دستور حمله صادر شده.
- ابزار Where’s Daddy؟ که قرار بود زمان بازگشت افراد تعیینشده را به فرماندهی گزارش کند، بارها محل اشتباهی را نشانه گرفت و منجر به بمباران منازل خانوادهها شد.
- سامانه ترجمه Whisper از OpenAI در تحلیل تماسهای ضبطشده، گاهی جملاتی را جعل میکند یا اشتباه ترجمه میکند. یکی از مأموران گزارش داده که ترجمهی غلط او را به حمله علیه غیرنظامیها ترغیب کرد.
- دوربینهای مجهز به هوش مصنوعی برای شناسایی چهره در ایستگاههای بازرسی، چندینبار افراد بیگناه را به اشتباه شناسایی و به بازداشتگاه منتقل کردند.
- سامانه Gospel که روی تصاویر ماهوارهای و پهپادی کار میکند، در برخی مناطق ساختمانهای مسکونی یا مدارس را بهجای تاسیسات نظامی فهرست کرده است.

چالشهای اخلاقی مورد تأکید مخالفان
آیا ماشینها حق تصمیم درباره مرگ را دارند؟ یکی از سنگینترین سوالات، همین است: آیا میتوانیم به الگوریتمهایی بسپاریم که زندگی و مرگ انسانها را رقم بزنند؟ منتقدان استفاده از جنگافزارهای هوشمند و سلاحهای خودکار، چالشهای خود را در سه محور مطرح میکنند:
- محور اول، مسئولیتپذیری: در سخنرانی مدیر مرکز مطالعات امنیتی ژنو (GCSS) در ۲۰۲۲، تاکید شد که «همواره یک انسان باید در حلقه تصمیمگیری باشد.»
- محور دوم، شفافیت الگوریتمی: اگر دلیل یک حمله هفتگی بر پایه معیارهای نامعلوم نرمافزار باشد، چگونه میتوان به عدالت بینالمللی پاسخگو بود؟
- محور سوم، مسابقه تسلیحاتی: همانطور که سلاحهای هستهای روزگاری به معضلی جهانی بدل شد، AI تسلیحاتی میتواند «سبد ترس» را در رابطه بین قدرتها داغتر کند.
از جمله چالشهایی که فعالان حقوق بشر و ناظران بین المللی بر آن تاکید دارند میتوان به این موارد اشاره کرد:
- کمرنگ شدن نظارت انسانی
جنگافزارهای خودکار گاهی بدون بررسی دقیق انسانی عملیات را کلید میزنند. منتقدان میگویند در مواردی، انسان فقط نقش مهر تأیید نهایی را دارد و فرآیند واقعی تصمیمگیری به ماشین سپرده شده است. - ابهام در مسئولیتپذیری حقوقی
اگر هوش مصنوعی اشتباه کند و منجر به کشته شدن غیرنظامیان شود، مشخص نیست چه کسی را باید پاسخگو دانست: فرمانده میدانی، برنامهنویس الگوریتم یا سازنده سختافزار؟ - سوگیریهای الگوریتمی و تبعیض
دادههای آموزشی اغلب ناقص یا جانبدارانه هستند. منتقدان هشدار میدهند که این سوگیریها میتواند به هدفگیری نامتناسب گروههای قومی یا اقلیتها منجر شود. - فقدان شفافیت و دسترسی عمومی
کدها و معیارهای تصمیمگیری این سامانهها محرمانهاند. این امر اجازه نمیدهد سازمانهای حقوق بشری یا ناظران مستقل صحت عملکرد و خطاها را بررسی کنند. - تسریع مسابقه تسلیحاتی و از بین رفتن بازدارندگی
وقتی کشورها به سرعت تسلیحات هوشمند تولید کنند، از یک سو احتمال بروز درگیریها افزایش مییابد و از سوی دیگر کنترل بر فناوریهای خطرناک سختتر میشود.
پس از تجربیات جنگ اوکراین سوالات زیادی در ذهن فعالان و اندیشمندان در زمینه محدودیتهای استفاده از فناوریهای کشنده به وجود آمد که این مساله را به معضلی انسانی و اخلاقی بدل کرد. دغدغههایی همچون عدالت جنگی، قربانی شدن غیرنظامیان و بر هم خوردن توازن.
تاریخ به ما میگوید که هرگونه قانون یا اصول بازی جوانمردانه اغلب در جنگ بیاهمیت از آب در میآید. در حالی که، از آنچه دیدهایم، به نظر میرسد هوش مصنوعی در اوکراین از کشتن مردم باز میماند، میدانیم که فناوری که از آن خط قرمز عبور میکند، در حال توسعه است. برخی ممکن است بگویند که جنگ رباتیک میتواند با اجتناب از نیاز به اعزام انسانها به مناطق جنگی، جان انسانها را نجات دهد. اما چه اتفاقی میافتد وقتی یکی از طرفین دیگر رباتی نداشته باشد؟ آیا آنها تسلیم میشوند یا شروع به فرستادن افراد به میدان نبرد میکنند؟
پیشرفتهای حاصل از جنگ هوش مصنوعی در اوکراین به ما نشان میدهد که پیشرفتهای تکنولوژیکی و اخلاقی همیشه با یک سرعت پیشرفت نمیکنند. در حالی که هوش مصنوعی ممکن است تلفات انسانی را کاهش دهد، سوالات جدی در مورد سطح قدرت و استقلالی که ما مایل به واگذاری آن به رباتها هستیم، مطرح میشود. نحوه پاسخ ما به این سوالات میتواند پیامدهای بزرگی بر چگونگی تأثیر هوش مصنوعی بر جامعه در زمان صلح و جنگ داشته باشد.
بیش از 16 هزار نفر که تعداد زیادی از آنها شهرت جهانی دارند، ازجمله ایلان ماسک، نوآم چامسکی و استیون هاوکینگ نامهای سرگشاده را امضاء کردهاند که درباره تهدید سامانههای نبرد مبتنی برهوش مصنوعی برای افراد غیرنظامی، احتمال وقوع مسابقه تسلیحاتی و سرانجام پیامدهای مرگبار آنها برای بشریت است
