۰

پنتاگون به استفاده از روبات‌های خودمختار نظامی نزدیک‌تر شد

تاریخ انتشار
سه شنبه ۲۱ ارديبهشت ۱۴۰۰ ساعت ۱۱:۳۶
پنتاگون به استفاده از روبات‌های خودمختار نظامی نزدیک‌تر شد
پنتاگون به استفاده از روبات‌های خودمختار نظامی نزدیک‌تر شد

تعداد روبات‌ها در این عملیات آنقدر زیاد بود که هیچ اپراتور انسانی نمی‌توانست همه آنها را تحت نظر داشته باشد.  بنابراین به این روبات‌ها دستوراتی داده شد که به صورت خودکار، دشمنان مسلح را بیابند و در صورت لزوم، بکشند. 

این عملیات، البته صرفا تمرینی بود که از سوی آژانس پروژه‌های پژوهشی پیشرفته دفاعی (دارپا) وابسته به پنتاگون ترتیب داده شده بود.

روبات‌ها در این عملیات به سلاح‌های کشنده مجهز نبودند و صرفا از فرستنده‌های رادیویی بهره می‌بردند که به منظور شبیه‌سازی کنش و واکنش‌ها بین آنها و روبات‌های دوست و دشمن طراحی شده بود.

این عملیاتی، یکی از چندین عملیاتی بود که تابستان گذاشته، برای آزمایش کاربرد هوش مصنوعی در خودکارسازی سیستم‌های نظامی ترتیب داده شده بود و شامل چندین سناریوی پیچیده و سریع بود که حضور در آنها و اتخاد تصمیمات سریع از سوی نیروهای انسانی، کار دشواری است.

این عملیات نمایشی همچنین حاکی از تغییر در شیوه تفکر پنتاگون درباره سلاح‌های خودمختار بود و نشان داد که چنین ابزارهایی می‌توانند در زمینه عملکرد در موقعیت‌های پیچیده بهتر یا با سرعت بالاتری عمل کنند.

ژنرال  جان موری (John Murray) فرمانده واحد فرماندهی آینده ارتش آمریکا (United States Army Futures Command) ماه گذشته در آکادمی ارتش ایالات متحده گفت که با وجود انبوه روبات‌ها، حالا برنامه‌ریزان، سیاست‌گذاران و جامعه نظامی آمریکا ناگزیرند به این بیندیشند که آیا اتخاذ تمامی تصمیمات درباره استفاده از قوای مهلک توسط سیستم‌های خودمختار جدید، باید به عهده انسان باشد یا نه.

اظهارات سایر فرماندهان نظامی نیز نشان دهنده علاقه آنها به اعطای ماموریت‌های بیشتر به سیستم‌های خودمختار است. هفته گذشت، مایکل کانان، مدیر عملیات شتابدهنده هوش مصنوعی نیروی هوایی در دانشگاه MIT در کنفرانسی با موضوع هوش مصنوعی، با بیان اینکه شیوه تفکر رو به تحول است، گفت: در حالی که انسان تصمیمات سطح بالا را می‌گیرد، باید وظایفی مانند شناسایی و تشخیص اهداف احتمالی را به هوش مصنوعی سپرد.

در همین رویداد، سپهبد کلینتون هاینوت (Clinton Hinote)، معاون رییس ستاد استراتژی، ادغام و الزامات پنتاگون گفت: حذف انسان از چرخه سیستم‌های خودمختار مهلک، از جمله مباحث جدی در آینده است و هنوز در این زمینه تصمیمی اتخاد نشده است.

در ماه مه گذشته، کمیسیون امنیت ملی در زمینه هوش مصنوعی (NSCAI) که گروهی مشاوره‌ای تشکیل داده شده از سوی کنگره است، در گزارشی پیشنهاد کرد که آمریکا باید دربرابر درخواست‌های بین‌المللی  برای ممنوعیت توسعه سلاح‌های خودمختار مقاومت کند.

تیموتی چانگ، مدیر برنامه پروژه هوش ازدحامی در دارپا، گفت که آزمایش‌های تابستان گذشته، به منظور بررسی این مورد طراحی شده بود که چه زمانی یک اپراتور پهپاد باید برای سیستم‌های خودمختار تصمیم‌ بگیرد و چه زمانی این مسوولیت باید به خود سیستم واگذار شود. برای مثال، وقتی از چند جبهه با حمله مواجه می‌شویم، ممکن است کنترل انسانی ایجاد مزاحمت کند؛ زیرا انسان قادر به واکنش با سرعت کافی نیست.

چانگ افزود: در واقع سیستم‌های خودمختار بدون دخالت انسان، می‌توانند بهتر عمل کنند.

در آزمایش‌های مذکور، به پهپادها و روبات‌های چرخ‌دار که هر کدام در ابعاد یک کوله پشتی بودند، اهدافی کلی داده شد و سپس، الگوریتم‌های هوش مصنوعی برای تدوین برنامه‌ای به منظور دستیابی به این اهداف وارد عمل شند. برخی از این روبات‌ها، ساختمان‌ها را محاصره کردندو تعداد دیگری نیز مشغول انجام گشت‌ و نگهبانی شدند. تعدادی از روبات‌ها با مواد منفجره شبیه‌سازی شده تخریب شده و تعدادی نیز توانستند دشمن را (که در این عملیات از امواج رادیویی به جای آن استفاده شده بود)  شناسایی کنند و تصمیم به حمله بگیرند.

البته استفاده از سلاح‌های خودمختار چیز تازه‌ای نیست و آمریکا و تعدادی از کشورها، دهه‌هاست که از آنها استفاده می‌کنند. برای مثال، برخی از انواع موشک، قادرند که به صورت خودمختار، دشمن را دریک محدوده مشخص شده، شناسایی و به آن حمله کنند. اما پیشرفت‌های سریع در الگوریتم‌های هوش مصنوعی، شیوه استفاده نظامی از چنین سیستم‌هایی را تغییر خواهد داد. کدهای آماده هوش مصنوعی که اغلب با درجه اطمینان بالا، قادر به کنترل روبات‌ها، شناسایی اهداف و نشانه‌ها هستند، پیاده‌سازی سیستم‌های بیشتر در طیف وسیع‌تری از شرایط را ممکن کرده‌اند.

اما با وجود اینکه پهپادها، استفاده گسترده از هوش مصنوعی را به نمایش می‌گذارند، گاه نگهداشتن عامل انسانی در چرخه عملیات دشوار می‌شود و این مساله می‌تواند مشکل آفرین باشد؛ زیرا فناوری هوش مصنوعی ممکن است دارای سوگیری باشد یا غیرقابل پیش‌بینی عمل بکند. برای مثال یک الگوریتم بینایی ماشین که به منظور بازشناسی یک نوع یونیفورم خاص آموزش دیده باشد، ممکن است به اشتباه، فردی را با لباس مشابه هدف قرار دهد.

به گفته چانگ، در پروژه هوش ازدحامی، مبنا بر این است که الگوریتم‌های هوش مصنوعی تا جایی بهینه شوند که بتوانند دشمن را با قابلیت اطمینان بالا، تا حدی که قابل اعتماد هم باشد، شناسایی کنند.

اما استفاده از هوش مصنوعی در سیستم‌های جنگی و اسلحه، در سال‌های اخیر محل مناقشه بوده است. در سال 2018، کارکنان گوگل به دلیل اینکه این شرکت، فناوری هوش مصنوعی را از طریق پروژه میون (Maven) در اختیار نیروی هوایی ایالات متحده گذاشته بود، دست به تظاهرات زدند.

پل شار (Paul Scharre) کارشناس منیت و نویسنده کتاب «ارتش صفر نفره: سلاح‌های خودمختار و آینده جنگ» می‌گوید: زمان آن فرا رسیده که بحث‌های پردامنه‌تری درباره فناوری سلاح‌های خودمختار شکل بگیرد.

وی می‌افزاید: بحث‌ها درباره حضور انسان در چرخه عملیات نظامی، پیچیده‌تر از دیدگاه‌های صفر و یکی و آری یا نه است. اگر انسان تصمیم بگیرد که به مقابله با انبوه پهپادهای دشمن بپردازد، آیا همان انسان باید تک تک اهداف را انتخاب کند؟

در نوامبر سال 2012، وزارت دفاع آمریکا، سیاست‌های استفاده از سلاح‌های خودمختار را منتشر کرد که بر اساس آن،  این سلاح‌ها باید تحت نظارت انسان مورد استفاده قرار بگیرند؛ ولی این بدان معنا نیست که سربازان، تمامی تصمیمات را خواهند گرفت.

مکس تگمارک (Max Tegmark) استاد دانشگاه MIT و هم‌بنیان‌گذار موسسه آینده زندگی (Future of Life Institute)، موسسه‌ای غیر انتفاعی که مخالف استفاده از سلاح‌های خودمختار است، می‌گوید: سلاح‌های خودمختار کشنده، که آنقدر ارزانند که هر تروریستی می‌تواند آنها را تهیه کند، مورد توجه امنیت ملی آمریکا نیستند.

وی معتقد است که سلاح‌های هوش مصنوعی را باید مانند سلاح‌های بیولوژیکی ممنوع کرد.

تگمارک با بیان اینکه گزارش NSCAI مبنی بر مخالفت با ممنوعیت جهانی این سلاح‌ها یک خطای استراتژیک است، می‌افزاید: به گمان من، روزی از این کار پشیمان می‌شویم؛ همان‌گونه که بابت مسلح کردن طالبان پشیمان شده‌ایم.
 
کد مطلب : ۲۷۶۲۸۹
ارسال نظر
نام شما

آدرس ايميل شما