فهرست مطالب

در مقالات بینامتنی، تلاش می‌کنیم یک موضوع را از زوایه دید نویسندگان مختلف و در میان محتوای مقالات منتشر شده (در منابع و به زبان‌های مختلف) مورد واکاوی و بررسی قرار دهیم.

از انیگما در آلمان نازی تا BAD One در اوکراین

گفته می‌شود «از تیر و کمان گرفته تا بمب اتم، جنگ همیشه محرک اصلی پیشرفت فناوری بوده است». در بسیاری از جنگ‌ها، کشورهایی که به لحاظ فناوری ادوات جنگی دست برتر را داشتند توانستند پیروز جنگ باشند. اما استفاده از فناوری هوشمند سابقه‌اش احتمالا به چند دهه قبل برمی‌گردد.

شاید بتوان از  انیگما (Enigma)  به عنوان اولین استفاده از هوش مصنوعی در صنعت نظامی نام برد. این دستگاه با 26 حرف الفبا برای ارسال ایمن پیام‌ها رمزنگاری شده بود و در جنگ جهانی دوم توسط نیروهای آلمانی استفاده می‌شد. پس از مدتی مرکز شنود الکترونیک انگلستان (اولترا) با روش مهندسی معکوس، ماشین ضد انیگما با نام «bombe» را ساختند.

از موارد اخیر استفاده از هوش مصنوعی در جنگ می‌توانیم به جنگ اوکراین اشاره کنیم. ولت اوکراین از زمان آغاز درگیری در سال ۲۰۲۲، فناوری و به طور خاص هوش مصنوعی را در خط مقدم استراتژی جنگی خود قرار داد. رباتی به نام BAD One نیز، یکی از نیروهایی است که در اوکراین استفاده شده است. این ربات خودکار سگ‌مانند که توسط شرکت بریتانیایی Alliance طراحی شده است، که مخفیانه در مناطق جنگی حرکت می‌کند و با استفاده از دید حرارتی، مواضع دشمن و همچنین میدان‌های مین را شناسایی می‌کند. همچنین می‌تواند مهمات را برای تأمین تدارکات سربازان در حین نبرد حمل کند. علاوه بر این یک مسلسل خودکار که از هوش مصنوعی برای شناسایی و هدف قرار دادن دشمنان در حال حرکت در میدان نبرد استفاده می‌کند در ارتش اوکراین وجود داشته است.

ربات مسلح  SGR-1  که در مرز میان دو کره شمالی و جنوبی نصب است و یا پهپاد  KARGU  را که براساس تشخیص چهره شلیک می‌کند یکی دیگر از نمونه‌های امروزی استفاده از هوش مصنوعی برای مقاصد جنگی است.

چالش‌های اخلاقی به کارگیری هوش مصنوعی در سلاح‌های کشنده میان موافقان و مخالفان

استفاده از AI در جنگ‌افزارها موافقان و مخالفان زیادی دارد. اما اگر فقط نام موافقان و مخالفان را مرور کنیم، درخواهیم یافت که مخالفت‌ها با این پدیده راه به جایی نخواهد برد و احتمالا با پیشرفت روزافزون استفاده از هوش مصنوعی در جنگ میان دولت‌ها خواهیم بود.

یکی از موافقان به کارگیری AI در صنایع تسلیحاتی، ولادیمیر پوتین رییس جمهور روسیه است.

به گفته  پوتین، هوش مصنوعی آینده دنیا را تحت تأثیر قرار خواهد داد و هر کشوری که بتواند در این زمینه پیشرو باشد، می‌تواند بر دنیا حکمرانی کند.

وزیر دفاع آمریکا  هوش مصنوعی را کلید برتری در صحنه آتی جهان دانست. همچنین دولت چین قصد دارد تا سال 2030 میلادی به کشور پیشرو در فناوری هوش مصنوعی تبدیل شود.

آمریکا در سال 2018 واحد جدیدی به نام فرماندهی آینده‌ ارتش  (Army Futures Command یا AFC)  تاسیس کرد که قرار است نقش هوش مصنوعی و تکنولوژی را در توسعه‌ سلاح‌ها تعیین کند.

در مقاله‌ای منتسب به ارتش اسرائیل آمده است که این کشور اعمال هرگونه محدودیت در تولید سلاح‌های مجهز به هوش مصنوعی را یک تهدید علیه کشورش می‌داند. همچنین یک مقام ارشد در دفتر ریاست جمهوری آذربایجان نیز استفاده از پهپادهای انتحاری در جنگ اخیر غره‌باغ را محترم دانسته است. به گفته برخی از بزرگان عرصه سیاست،  کاربرد هوش مصنوعی در ارتش، نه تنها برای ارتش مفید است، بلکه میزان کشتار غیرنظامیان را کاهش می‌دهد.

از آن سو تاکنون بیش از 3000 کارشناس هوش مصنوعی، پارلمان اروپا، 20 برنده جایزه صلح نوبل و بیش از 160 رهبر مذهبی نیز خواستار ممنوعیت تولید سلاح‌های خودمختار شده‌اند. در سال 2018، حدود سه هزار و یکصد تن از کارکنان شرکت گوگل به دنبال اعتراض به همکاری این شرکت با پنتاگون برای تولید صلاح‌های خودمختار و پروژه Maven اعتصاب کرده بودند.

آن‌ها خواستار خروج شرکت گوگل از کسب و کارهای مربوط به جنگ و تهیه، انتشار و اجرای سیاست‌های شفافی مبنی بر عدم همکاری با پروژه‌های جنگی بودند. Fei-Fei Li، مدیر ارشد بخش  رایانش ابری گوگل (Google Cloud)  و سرپرست آزمایشگاه هوش مصنوعی (AI) در دانشگاه استندفورد نیز مخالفت خود را با این مسلئه حساس جهانی اعلام کرده است.

گوگل پس از واکنش‌های منفی، تصمیم گرفت قرارداد خود با پنتاگون را تمدید نکند؛ واکنش‌هایی که منجر به استعفای تعدادی از کارکنان و امضای طوماری توسط هزاران نفر دیگر در محکومیت مشارکت این شرکت در این پروژه شد.

این غول فناوری اواخر همان سال اعلام کرد که دیگر برای قرارداد رایانش ابری ۱۰ میلیارد دلاری با پنتاگون رقابت نخواهد کرد، زیرا «نمی‌توان مطمئن بود» که این قرارداد با اصول هوش مصنوعی پنتاگون همسو باشد.

سیاست اخلاقی به‌روز شده گوگل پس از آن منتشر شد که ساندار پیچای، مدیرعامل شرکت مادر آلفابت، به رهبران فناوری از جمله جف بزوس، بنیانگذار آمازون و مارک زاکربرگ، رئیس متا، در مراسم تحلیف دونالد ترامپ، رئیس جمهور ایالات متحده در ۲۰ ژانویه پیوست.

ترامپ چند ساعت پس از روی کار آمدن، فرمان اجرایی جو بایدن، رئیس جمهور سابق آمریکا را که حفاظ‌های خاصی را برای این فناوری به سرعت در حال توسعه ایجاد کرده بود، لغو کرد. دستور بایدن، شرکت‌های توسعه‌دهنده هوش مصنوعی را ملزم می‌کرد تا قبل از انتشار عمومی فناوری‌های جدید، نتایج آزمایش‌های ایمنی را با دولت به اشتراک بگذارند.

همچنین سازمان ملل متحد در سال 2018 طی یک همایش یک هفته‌ای به دنبال تصویب قعطنامه‌ای با هدف تحریم کاربرد جنگ‌افزارهایی بر اساس هوش مصنوعی بود. اما کشورهایی از قبیل اسرائیل، آمریکا، روسیه، کره جنوبی، استرالیا و… راه تصویب آن را سد کردند. به دنبال آن ۷۵ سازمان دفاع از حقوق انسانی و ۳۲ کشور از ناکامی آن همایش ابراز ناراحتی کردند.

دورنما و چشم انداز

در دو دهه گذشته، تلفیق یادگیری ماشین و رباتیک با صنایع دفاعی، نقطه عطفی در تاریخ نظامی‌گری رقم زده است. وقتی نخستین ‌پهپادهای شناسایی در افغانستان آزمایش شدند، کمتر کسی باور داشت که همین فناوری روزی بتواند به‌صورت خودکار هدف را ردیابی و در لحظه تصمیم به حمله بگیرد. پرونده تحول این فناوری را می‌توان در سه ‌مرحله اصلی خلاصه کرد:

  1. شناسایی و پشتیبانی اطلاعاتی
    • کشف اهداف با تحلیل بلادرنگ تصاویر ماهواره‌ای و داده‌های جمع‌آوری‌شده از حسگرهای زمینی.
    • افزایش دقت اطلاعاتی تا حدی که فرماندهان برای نخستین بار بدون حضور در میدان نبرد، ورق تصمیم‌گیری را ورق زدند.
  2. اتوماسیون عملیات تاکتیکی
    • بهره‌گیری از الگوریتم‌های تشخیص الگو برای خنثی‌سازی تهدیدات مین و بمب‌های کارگذاشته‌شده.
    • توسعه ربات‌های زمینی اندک‌اندک به نقش سرباز جایگزین، با توانایی ناوبری در مسیرهای پیچیده.
  3. هوشمندسازی تصمیم‌سازی استراتژیک
    • سامانه‌های پشتیبان تصمیم (Decision Support Systems) که با بررسی سناریوهای متعدد، پیشنهادات تاکتیکی ارائه می‌دهند.
    • شبیه‌سازی جنگ‌های بزرگ بر پایه هوش مصنوعی برای آزمودن فرض‌های فرماندهان.

نمونه‌های برتر پروژه‌های سلاح هوشمند

کشور پروژه/سلاح هوشمند کاربرد و ویژگی‌ها
ایالات متحده پهپادهای MQ-9 Reaper با تجزیه‌وتحلیل خودکار ‌ شناسایی تهدیدات و هدف‌گیری دقیق با اتکا بر کامپیوتر
چین پروژه “فرمانده مجازی” شبیه‌سازی تصمیمات ژنرال‌ها در نبردهای نظری
روسیه ربات زمین‌پیمای Uran-9 عملیات اکتشافی و مبارزه با خودروهای دشمن
اسرائیل سیستم Harpy (پهپاد شکار پدافند) خودران برای انهدام سامانه‌های پدافندی دشمن
ایران پهپادهای «سیمرغ» و «مهاجر ۶» مأموریت‌های شناسایی و گاه حمله با قابلیت برنامه‌ریزی هوشمند

هر یک از این پروژه‌ها با تمرکز بر کاهش دخالت انسان در شرایط خطیر، تلاش کرده‌اند سرعت عمل و دقت عملیات را به حداکثر برسانند. اما واقعیت این است که همه‌جا کارکرد بی‌چون‌وچرای هوش مصنوعی از دید دولتمردان و فرماندهان نظامی، یکسان نیست.

پهپادهای خودران—پرواز بر فراز اخلاق

یکی از بحث‌برانگیزترین کاربردها، پهپادهای رزمی خودران است؛ ماشین‌هایی که به‌واسطه الگوریتم‌های یادگیری عمیق می‌توانند تصمیم بگیرند چه زمانی شلیک کنند. در سال ۲۰۲۱، یک مأموریت آزمایشی در پایگاه نیروی دریایی آمریکا، نشان داد پهپادی بر مبنای الگوریتم reinforcement learning (یادگیری تقویتی) می‌تواند در فضای آشفته نبرد از میان ده‌ها هدف، صلاحیت هر یک را برای انهدام بسنجند.

  • نکته کلیدی: در طراحی این سیستم‌ها معمولاً یک سلسله‌مراتب نرم‌افزاری تعریف می‌شود تا «بیینده» (Observer) داده‌ها را تفسیر کند، «قاضی» (Evaluator) شرایط را بسنجد و «فعل‌کننده» (Actuator) دستور شلیک را اجرا کند، اما چه کسی در این میان مسئول خواهد بود اگر اشتباه کنند؟

در سطح کلان‌تر، چند کشور بزرگ در حال توسعه پلتفرم‌هایی هستند که با تحلیل حجم عظیمی از داده‌های سیاسی، اقتصادی و نظامی، توصیه‌هایی ارائه می‌دهند. گزارش مؤسسه بین‌المللی مطالعات استراتژیک (IISS) از پروژه‌های سال ۲۰۲۳ نشان می‌دهد که ترکیب داده‌های ماهواره‌ای، علائم الکترونیکی و تحلیل شبکه‌های اجتماعی می‌تواند پیش‌بینی تحرکات نیروهای مخالف را تا ۸۰ درصد دقت ببرد.

  • مثال میدانی: در رزمایش مشترک ناتو در چهار سوی اروپا، سامانه پشتیبان تصمیم‌گیری ارائه شد که ۱۵۰۰ سناریوی احتمالی را در عرض پنج دقیقه بررسی کرد و مسیرهای ایمن‌تر برای انتقال تجهیزات سنگین را پیشنهاد داد.

این فناوری‌ها کمک می‌کنند فرماندهان در کوتاه‌ترین زمان، گزینه‌های خود را ارزیابی و انتخاب کنند؛ اما نقطه ابهام همچنان در لایه اخلاقی و حقوقی است.

یک مرور تاریخی نشان می‌دهد:

  • افغانستان (۲۰۱۰–۲۰۱۴): پهپادهای شناسایی‌ـ‌رزمی با الگوریتم تشخیص چهره برای شناسایی رهبران گروه‌های مهاجم به‌کار گرفته شدند.
  • لیبی (۲۰۱۱): پهپادهای Harpy اسرائیلی، اولین تجربه مستقل انهدام سامانه‌های دفاع هوایی دشمن را رقم زدند.
  • درگیری‌های شهری در سوریه (۲۰۱۶): ربات‌های Uran-9 روسی، علیرغم نوآوری، در میدان واقعی به دلیل مشکلات ارتباطی با مراکز فرماندهی چند بار متوقف شدند.

هرکدام از این تجربه‌ها درس‌های فراوانی به همراه داشتند: از اهمیت پایداری ارتباط تا ضرورت بازتعریف چارچوب‌های مسئولیت‌پذیری بین‌المللی.

بررسی یک نمونه میدانی: اسراییل

از آنجا که یکی از دولت‌هایی که امروزه به طور عملی و در حجم وسیع از چنین جنگ‌افزارهایی در جنگ‌ها بهره می‌گیرد دولت و ارتش اسراییل است جهت بررسی عملکرد میدانی به سراغ سوابق استفاده از هوش مصنوعی در جنگ‌هایی که ارتش اسرائیل در آن دخیل بوده می‌پردازیم.

در سال‌های اخیر اسرائیل از مجموعه‌ای از سامانه‌های هوش مصنوعی در جمع‌آوری اطلاعات، تحلیل داده و هدف‌گیری استفاده کرده است. با این حال، شواهد نشان می‌دهد که هیچ یک از این سامانه‌ها مصون از خطا نیستند و گاهی اشتباهاتشان به قیمت جان و آزادی انسان‌ها تمام شده است.

نمونه‌هایی از خطاهای سامانه‌های جنگی اسراییل

ابزار نوع خطا پیامد منبع
Lavender نرخ شناسایی اشتباه تقریباً ۱۰٪ حمله به افراد بی‌گناه [1][2]
Where’s Daddy? شناسایی موقعیت اشتباه بازگشتی افراد بمباران منازل غیرنظامیان [2]
Whisper (OpenAI) تولید “متن‌های ساخته” نادرست در ترجمه هدایت اشتباه عملیات و تلفات غیرنظامی [3]
سیستم شناسایی چهره اعلان مثبت کاذب (false positive) بازداشت و بازجویی افراد بی‌گناه [10]
Gospel شناسایی ساختاری غیرنظامی به‌عنوان هدف تخریب مدارس، بیمارستان‌ها و اماکن عمومی [6]
  1. سیستم Lavender که برای غربال‌کردن داده‌های ارتباطی و شناسایی چهره‌ها به کار می‌رود، در حدود ۱۰٪ موارد افراد سالم را به عنوان “شبه‌نظامی” برچسب زده است و دستور حمله صادر شده.
  2. ابزار Where’s Daddy؟ که قرار بود زمان بازگشت افراد تعیین‌شده را به فرماندهی گزارش کند، بارها محل اشتباهی را نشانه گرفت و منجر به بمباران منازل خانواده‌ها شد.
  3. سامانه ترجمه Whisper از OpenAI در تحلیل تماس‌های ضبط‌شده، گاهی جملاتی را جعل می‌کند یا اشتباه ترجمه می‌کند. یکی از مأموران گزارش داده که ترجمه‌ی غلط او را به حمله علیه غیرنظامی‌ها ترغیب کرد.
  4. دوربین‌های مجهز به هوش مصنوعی برای شناسایی چهره در ایستگاه‌های بازرسی، چندین‌بار افراد بی‌گناه را به اشتباه شناسایی و به بازداشتگاه منتقل کردند.
  5. سامانه Gospel که روی تصاویر ماهواره‌ای و پهپادی کار می‌کند، در برخی مناطق ساختمان‌های مسکونی یا مدارس را به‌جای تاسیسات نظامی فهرست کرده است.

چالش‌های اخلاقی مورد تأکید مخالفان

آیا ماشین‌ها حق تصمیم درباره مرگ را دارند؟ یکی از سنگین‌ترین سوالات، همین است: آیا می‌توانیم به الگوریتم‌هایی بسپاریم که زندگی و مرگ انسان‌ها را رقم بزنند؟ منتقدان استفاده از جنگ‌افزارهای هوشمند و سلاح‌های خودکار، چالش‌های خود را در سه محور مطرح می‌کنند:

  • محور اول، مسئولیت‌پذیری: در سخنرانی مدیر مرکز مطالعات امنیتی ژنو (GCSS) در ۲۰۲۲، تاکید شد که «همواره یک انسان باید در حلقه تصمیم‌گیری باشد.»
  • محور دوم، شفافیت الگوریتمی: اگر دلیل یک حمله هفتگی بر پایه معیارهای نامعلوم نرم‌افزار باشد، چگونه می‌توان به عدالت بین‌المللی پاسخگو بود؟
  • محور سوم، مسابقه تسلیحاتی: همان‌طور که سلاح‌های هسته‌ای روزگاری به معضلی جهانی بدل شد، AI تسلیحاتی می‌تواند «سبد ترس» را در رابطه بین قدرت‌ها داغ‌تر کند.

از جمله چالش‌هایی که فعالان حقوق بشر و ناظران بین المللی بر آن تاکید دارند می‌توان به این موارد اشاره کرد:

  • کم‌رنگ شدن نظارت انسانی
    جنگ‌افزارهای خودکار گاهی بدون بررسی دقیق انسانی عملیات را کلید می‌زنند. منتقدان می‌گویند در مواردی، انسان فقط نقش مهر تأیید نهایی را دارد و فرآیند واقعی تصمیم‌گیری به ماشین سپرده شده است.
  • ابهام در مسئولیت‌پذیری حقوقی
    اگر هوش مصنوعی اشتباه کند و منجر به کشته شدن غیرنظامیان شود، مشخص نیست چه کسی را باید پاسخگو دانست: فرمانده میدانی، برنامه‌نویس الگوریتم یا سازنده سخت‌افزار؟
  • سوگیری‌های الگوریتمی و تبعیض
    داده‌های آموزشی اغلب ناقص یا جانبدارانه هستند. منتقدان هشدار می‌دهند که این سوگیری‌ها می‌تواند به هدف‌گیری نامتناسب گروه‌های قومی یا اقلیت‌ها منجر شود.
  • فقدان شفافیت و دسترسی عمومی
    کدها و معیارهای تصمیم‌گیری این سامانه‌ها محرمانه‌اند. این امر اجازه نمی‌دهد سازمان‌های حقوق بشری یا ناظران مستقل صحت عملکرد و خطاها را بررسی کنند.
  • تسریع مسابقه تسلیحاتی و از بین رفتن بازدارندگی
    وقتی کشورها به سرعت تسلیحات هوشمند تولید کنند، از یک سو احتمال بروز درگیری‌ها افزایش می‌یابد و از سوی دیگر کنترل بر فناوری‌های خطرناک سخت‌تر می‌شود.

پس از تجربیات جنگ اوکراین سوالات زیادی در ذهن فعالان و اندیشمندان در زمینه محدودیت‌های استفاده از فناوری‌های کشنده به وجود آمد که این مساله را به معضلی انسانی و اخلاقی بدل کرد. دغدغه‌هایی همچون عدالت جنگی، قربانی شدن غیرنظامیان و بر هم خوردن توازن.

تاریخ به ما می‌گوید که هرگونه قانون یا اصول بازی جوانمردانه اغلب در جنگ بی‌اهمیت از آب در می‌آید. در حالی که، از آنچه دیده‌ایم، به نظر می‌رسد هوش مصنوعی در اوکراین از کشتن مردم باز می‌ماند، می‌دانیم که فناوری که از آن خط قرمز عبور می‌کند، در حال توسعه است. برخی ممکن است بگویند که جنگ رباتیک می‌تواند با اجتناب از نیاز به اعزام انسان‌ها به مناطق جنگی، جان انسان‌ها را نجات دهد. اما چه اتفاقی می‌افتد وقتی یکی از طرفین دیگر رباتی نداشته باشد؟ آیا آنها تسلیم می‌شوند یا شروع به فرستادن افراد به میدان نبرد می‌کنند؟

پیشرفت‌های حاصل از جنگ هوش مصنوعی در اوکراین به ما ‌نشان می‌دهد که پیشرفت‌های تکنولوژیکی و اخلاقی همیشه با یک سرعت پیشرفت نمی‌کنند. در حالی که هوش مصنوعی ممکن است تلفات انسانی را کاهش دهد، سوالات جدی در مورد سطح قدرت و استقلالی که ما مایل به واگذاری آن به ربات‌ها هستیم، مطرح می‌شود. نحوه پاسخ ما به این سوالات می‌تواند پیامدهای بزرگی بر چگونگی تأثیر هوش مصنوعی بر جامعه در زمان صلح و جنگ داشته باشد.

بیش از 16 هزار نفر که تعداد زیادی از آن‌ها شهرت جهانی دارند، ازجمله ایلان ماسک، نوآم چامسکی و استیون هاوکینگ نامه‌ای سرگشاده را امضاء کرده‌اند که درباره تهدید سامانه‌های نبرد مبتنی برهوش مصنوعی برای افراد غیرنظامی، احتمال وقوع مسابقه تسلیحاتی و سرانجام پیامدهای مرگبار آن‌ها برای بشریت است