کد خبر: 559287
|
۱۴۰۱/۰۴/۰۱ ۰۶:۰۵:۰۰
| |

ربات‌های قاتل در راه هستند!

ربات‌های قاتل در راه هستند!
کد خبر: 559287
|
۱۴۰۱/۰۴/۰۱ ۰۶:۰۵:۰۰

میدان‌های نبرد آینده تحت تسلط کسانی خواهد بود که می‌توانند به بهترین شکل از هوش برای مانور دادن سریع و دقیق در برابر مخالفان استفاده کنند. جنگ کنونی در اوکراین یک نمونه آشکار از این موضوع است.

به گزارش فرارو به نقل از اندیشکده شورای آتلانتیک، برای مثال، در جریان عبور فاجعه بار اخیر نیرو‌های روس از رودخانه در منطقه دونباس نیرو‌های اوکراینی توانستند از منابع اطلاعاتی برای شناسایی، به دام انداختن و نابودی کل گردان روس استفاده کنند.

جنگ در حال تکامل است و شواهد نشان می‌دهند که یک نیروی باهوش‌تر و چابک‌تر می‌تواند قاطعانه دشمن قوی‌تر را با استفاده دقیق از فناوری‌های جدید شکست دهد. اهرمی که در این حوزه به سرعت در حال تکامل است سیستم‌های رزمی خودمختار هستند که به طور رسمی به عنوان سیستم‌های تسلیحات خودکار مرگبار (LAWS) شناخته می‌شوند که به شکل عامیانه از آن تحت عنوان «ربات‌های قاتل» یاد می‌شود.

این سیستم‌های بدون نیاز به پرسنل از الگوریتم‌های هوش مصنوعی (AI) و یادگیری ماشینی (ML) برای شناسایی و نابود کردن هدف به طور مستقل استفاده می‌کنند. ایالات متحده، متحدان و شرکای آن علاوه بر رقبا و دشمنان استراتژیک‌شان در حال تحقیق و توسعه سامانه‌های هوایی بدون سرنشین و هواپیما‌های بدون سرنشین و وسایل نقلیه زمینی و زیر آبی هستند.

در حالی که بیش‌تر این سامانه‌ها هنوز در حال آزمایش هستند برخی از آن‌ها در حال حاضر فعال می‌باشند (مانند سامانه‌های فعال لیبی از سال ۲۰۲۰ میلادی). عصر ربات قاتل ممکن است به سختی با موجی از شناخت عمومی آغاز شده باشد و اکنون جهان باید تصمیمات سختی در این حوزه اتخاذ کند: در مورد تمایل به اعمال قوانین و هم چنین شرایطی که تحت آن این سیستم‌ها را برای استفاده مرگبار توانمند می‌سازد.

 

فناوری کشنده، اما ظریف

جذابیت سیستم‌های تسلیحاتی خودکار مرگبار آشکار است: این تسلیحات خطرات متوجه نیرو‌ها را کاهش داده و پشتیبانی لجستیکی آن را آسان‌تر کرده‌اند، زیرا الزامات ایمن نگه داشتن یک اپراتور می‌تواند پیچیده و پرهزینه باشد.

این تسلیحات هم چنین می‌توانند سرعت عمل را (که آشکار شده در اوکراین عاملی بسیار حیاتی است) در شناسایی اعمال کنند و بدون نیاز به ارسال اطلاعات برای فرمانده یک هدف را شناسایی کرده و تصمیمی برای انهدام تقریبا آنی آن اتخاذ کنند و سپس منتظر تایید باشند. این سرعت می‌تواند تفاوت بین نابود کردن یک هدف با ارزش و تماشای فرار ایمن آن در حالی باشد که سیستم در انتظار دستور آتش است.

در نهایت آن که سیستم‌های تسلیحاتی خودکار مرگبار در تصمیم گیری آرام، محاسبه گر، بی‌عاطفه و بی‌طرف هستند. برای مثال، یک پهپاد را تصور کنید که سیستم موشک پرتاب چندگانه روسی (MLRS) را شناسایی می‌کند سیستمی که آماده شلیک ده‌ها موشک به سمت یک منطقه مسکونی است.

جستجو در پایگاه داده داخلی آن می‌تواند وسیله نقلیه را به عنوان یک سیستم MLRS روسی علامت‌گذاری کند و جستجوی محیطی می‌تواند خطر آسیب جانبی را رد کند و یک الگوریتم از پیش برنامه ریزی شده درگیری می‌تواند اعتبار هدف را تایید نماید. یک شلیک از پیش مجاز می‌تواند بدون تاخیر اجرا شود و جدول زمانی تشخیص تا انهدام هدف تنها می‌تواند چند ثانیه به طول انجامد.

با این وجود، علیرغم مزایای فراوان در مورد ربات‌های قاتل یا سیستم‌های تسلیحاتی خودکار مرگبار یک مولفه اخلاقی مهم نیز وجود دارد که باید مورد توجه قرار گیرد. آیا تصمیم گیرندگان ملی و فرماندهان عملیاتی حاضر هستند اجازه دهند یک وسیله نقلیه خودمختار جان یک نفر و یا شاید جان تعداد زیادی از انسان‌ها را بگیرد؟ آیا ما به عنوان یک جامعه با توانمندسازی ربات‌های قاتل برای انجام دستورات ارتش خود راحت هستیم؟ یک فرمانده انفرادی مایل به پذیرش چه میزان خطر خطا است؟ در هر حال، جنگ عرصه‌ای همراه با آشفتگی است. ربات‌های قاتل قطعا مرتکب اشتباه خواهند شد.

ربات‌های قاتل به ناچار جان غیرنظامیان بیگناه را می‌گیرند و باعث وارد شدن آسیب‌های جانبی و قتل عام می‌شوند و احتمالا ناخواسته باعث مرگ نیرو‌های دوست خواهند شد.

این موارد برخلاف گذشته دیگر مقولاتی علمی – تخیلی نیستند و باید به زودی به آن پرداخته شود. در سطح نهادی، باید یک چارچوب عملیاتی برای قوانین و همچنین ارائه راهنمایی‌های استراتژیک برای اطمینان بخشی از کاربرد اخلاقی ربات‌های قاتل در آینده ایجاد کرد. اکنون زمان تقویت موارد قانونی و حقوقی درباره ربات‌های قاتل برای به کارگیری نیروی کشنده آن پیش از درگیری است و تصمیم گیری در این باره در گرماگرم نبرد زمان مناسبی نخواهد بود.

سیستم‌های تسلیحاتی خودکار مرگبار باید در سخت‌ترین سناریو‌ها به طور کامل آزمایش شوند و نتایج آن باید ارزیابی شوند و میزان خطای مورد انتظار باید محاسبه گردد. به عنوان یک اصل مبنایی سیستم‌های تسلیحاتی خودکار مرگبار یا ربات‌های قاتل باید کمتر از یک اپراتور انسانی خطر ارتکاب خطا داشته باشند. پیش از آغاز درگیری تصمیم تاکتیکی برای استفاده از نیروی کشنده باید توسط یک فرمانده یا نماینده منتخب او گرفته شود.

آن فرمانده باید راهنمایی‌های ارائه شده توسط تصمیم گیرندگان ملی، محیط عملیاتی و ماهیت حیاتی اهداف فردی را در یک میدان نبرد تاکتیکی ارزیابی کند. فرمانده باید راهنمایی روشنی ارائه دهد که بتوان آن را در الگوریتمی نوشت که در طول یک درگیری خاص استفاده می‌شود و در نهایت تصمیم می‌گیرد که ربات قاتل خود درباره زندگی یک انسان به طور مستقل تصمیم گیری کنند یا بایستی راهنمایی و مجوز بیش‌تری را از فرماندهی درخواست کند.

فرمانده هم چنین باید آمادگی داشته باشد که تصمیم خود را در صورت اشتباه بودن قوانین توجیه کند. در نهایت سیستم‌های تسلیحاتی خودکار مرگبار باید به طور گسترده در سخت‌ترین سناریو‌های آموزشی و تمرینی ممکن مورد آزمایش قرار گیرند.

روش‌هایی که ربات‌های قاتل برای اتخاذ تصمیمات مرگبار خود استفاده می‌کنند از شناسایی یک هدف و تایید هویت آن گرفته تا کاهش خطر آسیب جانبی باید به صورت عمومی منتشر شوند (همراه با آمار‌هایی که صحت آن را تایید می‌کند). شفافیت برای ایجاد اعتماد عمومی به قوانین بسیار مهم است و اعتماد به توانایی‌های آن تنها با اثبات قابلیت اطمینان آن از طریق آزمایش و تجزیه و تحلیل دقیق و گسترده ایجاد می‌شود.

نباید از تصمیم گیری درباره استفاده از ربات‌های قاتل ترسید بلکه تصمیم گیری درباره آن باید به خوبی و فکر شده صورت گرفته و به طور دقیق مورد بحث قرار گیرد. استفاده از ربات‌های قاتل در حالی که در آینده فرصت‌های بی‌سابقه را ارائه می‌دهند، اما با چالش‌های بی‌سابقه‌ای نیز همراه است که باید برای این موضوع آماده شد.

 

اخبار مرتبط سایر رسانه ها
اخبار از پلیکان
تمامی اخبار این باکس توسط پلتفرم پلیکان به صورت خودکار در این سایت قرار گرفته و سایت اعتمادآنلاین هیچگونه مسئولیتی در خصوص محتوای آن به عهده ندارد

دیدگاه تان را بنویسید

اخبار روز سایر رسانه ها
    اخبار از پلیکان
    تمامی اخبار این باکس توسط پلتفرم پلیکان به صورت خودکار در این سایت قرار گرفته و سایت اعتمادآنلاین هیچگونه مسئولیتی در خصوص محتوای آن به عهده ندارد

    خواندنی ها