راه پرداخت
رسانه فناوری‌های مالی ایران

آیا ربات‌های قاتل، گریزناپذیر و حتمی‌الوقوع هستند؟

ماهنامه عصر تراکنش شماره ۳۶ / در جنگ، سرعت می‌کُشد. سربازی که در کشیدن کمان از سرعت بیشتری برخوردار باشد، می‌تواند جان سالم از مهلکه به در ببرد؛ کشتی که زودتر کشتی دشمن را غرق می‌کند، می‌تواند خود را از باران موشک برهاند. در مواردی که انسان‌ها نمی‌توانند با سرعت جنگ‌های مدرن پیش بروند، ماشین‌ها وارد میدان می‌شوند. زمانی که یک آرپی‌جی به یک خودروی زرهی شلیک می‌شود، یک سیستم خودکار روی خودرو این تهدید را شناسایی کرده، آن را ردیابی کرده و یک گلوله به سمت آن شلیک می‌کند تا آن را متوقف کند و همه این اقدامات قبل از آنی اتفاق می‌افتد که خدمه داخل خودرو از آن مطلع شوند.

به‌طور مشابه، کشتی‌های نیروی دریایی ایالات متحده به سیستم حفاظتی رزمی مجهز هستند که می‌تواند حالت خودکار ویژه را فعال کند که به‌طور خودکار و بر اساس قواعد برنامه‌ریزی‌شده دقیق، موشک‌های شلیک‌شده به سمت کشتی را مورد اصابت قرار می‌دهد.

این نوع از سیستم‌های دفاعی، دهه‌ها به کار گرفته شده‌اند و در حال حاضر هم حداقل 30 کشور از آن استفاده می‌کنند. از بسیاری جهات آنها مشابه سیستم‌های ترمز خودکار در خودروهای جدید هستند که تنها در شرایط اضطراری فعال می‌شوند، اما نظامیان هم، مانند خودروسازان، به‌تدریج آزادی عمل ماشین‌ها را بیشتر کرده‌اند.

در یک رزمایش در سال گذشته، ایالات متحده نشان داد که اتوماسیون چگونه می‌تواند در یک اصطلاحاً «زنجیر کشتار» به کار گرفته شود؛ یک ماهواره، کشتی دشمن فرضی را هدف‌گیری کرد و یک هواپیمای تجسس را برای پرواز نزدیک‌تر به کشتی و تأیید شناسایی، اعزام کرد؛ هواپیمای تجسس سپس داده‌های خود را به یک هواپیمای فرماندهی و کنترل هوابرد ارسال کرد و این هواپیما، یک ناوشکن دریایی را برای انجام حمله انتخاب کرد. در این سناریو، اتوماسیون فرصت بیشتری را در اختیار افسران قرار داد تا یک تصمیم آگاهانه اتخاذ کنند؛ اینکه آیا به کشتی دشمن شلیک کنند یا خیر.

نیروهای نظامی یک دلیل الزام‌آور برای مشارکت انسان در تصمیمات مهم و مهلک دارند. یکی اینکه، انسان‌ها به‌عنوان محافظی در برابر عملکردهای نادرست و تفسیرهای نادرست از داده‌ها عمل می‌کنند؛ آنها قبل از اینکه ماشه را بکشند اطمینان حاصل می‌کنند که سیستم خودکار، یک کشتی خودی یا یک کشتی بی‌طرف را به اشتباه به‌عنوان کشتی دشمن شناسایی نکرده باشد.

علاوه بر این، حتی پیشرفته‌ترین انواع هوش مصنوعی هم نمی‌توانند بافت و زمینه را درک کنند، قضاوت کرده، یا در شرایط جدید مانند یک انسان واکنش نشان دهند. انسان‌ها از همه بهتر می‌توانند وارد فکر فرمانده دشمن شوند، عملیات‌های دروغین و تظاهری را تشخیص دهند و اینکه چه زمانی عنصر غافلگیری را به کار گرفته و چه زمانی حمله کنند.

اما ماشین‌ها، سریع‌تر هستند و کسی که اول حمله می‌کند، مزایای زیادی را از آن خود می‌کند. با توجه به این فشار رقابتی، نمی‌توان تصور روزی را دور از ذهن دانست که تنها راه زنده‌ماندن، استفاده از یک زنجیر کشتار کاملاً خودکار باشد. اگر تنها یک ابرقدرت این کار را انجام دهد، سایرین ممکن است خود را مجبور به پیروی از این ابرقدرت احساس کنند. در سال 2016، «رابرت ورک»، وزیر دفاع وقت، این مسئله بغرنج را به زبان ساده بدین صورت بیان کرد:

او پرسید: «اگر رقبای ما به سمت ترمیناتورها بروند و مشخص شود که ترمیناتورها قادر به تصمیم‌گیری سریع‌تر هستند، حتی اگر آنها بد باشند، ما چگونه باید واکنش نشان دهیم؟»

ترمیناتورها هنوز از خط مونتاژ خارج نشده‌اند، اما هر نسل جدیدی از تسلیحات در حال نزدیک‌شدن به انسان‌هاست. در حالی که هیچ کشوری هنوز قصد خود برای ساخت تسلیحات کاملاً خودمختار و مستقل را اعلام نکرده، اما تعداد اندکی هم آن را تکذیب کرده‌اند. خطرات یک جنگ‌افزار با سرعت ماشین، بسیار بیشتر از صرفاً یک موشک تمام‌عیار است. محققان نظامی در چین در مورد یک «شگفتی در میدان جنگ» گمانه‌زنی کرده‌اند؛ نقطه‌ای که در آن، نبرد سریع‌تر از درک بشر به پیش می‌رود. در شرایط «فراجنگ»، آن‌طور که برخی استراتژیست‌های جنگی آمریکایی آن را نامیده‌اند، افزایش ناخواسته شدت جنگ می‌تواند سریعاً از کنترل خارج شود.

سقوط ناگهانی در بازار سهام در سال 2010، یک نمونه متناظر از این شرایط است: الگوریتم‌های خودکار تجارت، به زیان موقت چند تریلیون دلاری در یک روز عصر منجر شدند. برای جلوگیری از چنین فاجعه‌ای، تنظیم‌گران مالی مکانیسم توقف معاملات را به‌روز کردند؛ به گونه‌ای که این مکانیسم در صورت افت بسیار سریع قیمت‌ها، معاملات را متوقف می‌کند، اما شما چگونه می‌توانید مانع یک جنگ ناگهانی شوید؟

از اواخر قرن نوزدهم، ابرقدرت‌های نظامی ـ چه بریتانیای کبیر و آلمان و چه ایالات متحده و اتحاد جماهیر شوروی سابق ـ برای ایجاد قواعدی در مورد انواع ماشین‌های کشتار نوین، از گلوله‌های انفجاری تا گازهای سمی و تسلیحات اتمی، تلاش کرده‌اند. در برخی موارد مانند تسلیحات ضدماهواره و بمب‌های نوترونی، توافقات رسمی ضروری نبود؛ طرفین به‌سادگی محدودیت‌های ضمنی اعمال کردند. در تمام این موارد، هدف، کاهش اثرات و عواقب جنگ بود.

در حال حاضر، چنین اجماعی در مورد تسلیحات کاملاً خودمختار وجود ندارد. تقریباً 30 کشور از ممنوعیت کامل حمایت می‌کنند، اما هیچ‌یک از آنها ابرقدرت نظامی یا توسعه‌دهنده رباتیک نیستند. در سازمان ملل متحد، زمانی که موضوع تسلیحات خودمختار مورد بحث سالانه بود، چین، روسیه و ایالات متحده، تلاش‌ها برای تصویب ممنوعیت را خنثی کردند (ایالات متحده و روسیه به‌وضوح و مستقیماً مخالفت نکردند، در حالی که چین در سال 2018 ممنوعیتی را پیشنهاد داد که در واقع بیهوده بود). یکی از سازوکارهای چالش‌برانگیز در سازمان ملل، زورآزمایی بین سازمان‌های غیردولتی ـ همچون پویش توقف ربات‌های قاتل که هدف آن خلع سلاح است ـ و ارتش‌های نظامی است که تن به خلع سلاح نمی‌دهند؛ مگر اینکه مطمئن شوند که رقبای آنها نیز این کار را می‌کنند.

تسلیحات خودمختار چالش‌های منحصربه‌فردی را برای قانون‌گذاران و تنظیم‌گران ایجاد می‌کند. آنها را نمی‌توان به مانند مثلاً یک موشک هسته‌ای 1.5 مگاتنی مشاهده و سنجش کرد. واقعاً عامل خودمختاری چیست و چه میزان از آن را باید مجاز دانست؟ چگونه می‌توانید یک هواپیمای بدون سرنشین کنترل از راه دور دشمن را از یک هواپیمای مجهز به نرم‌افزار ترمیناتور تشخیص دهید؟ پیشروی اتوماسیون ادامه خواهد داشت، مگر اینکه تحلیلگران امنیتی بتوانند پاسخ‌های قانع‌کننده‌ای برای این پرسش‌های پیدا کنند و کشورهای چین، روسیه و ایالات متحده هم بتوانند در مورد محدودیت‌های مورد توافق چندجانبه تصمیم بگیرند. نهایتاً اینکه ابرقدرت‌های دنیا به هر سمتی بروند، سایر کشورها هم به ناچار در همان راه قدم می‌گذارند.

منبع ماهنامه عصر تراکنش شماره ۳۶
نویسنده / مترجم پائول اسکاره محسن محمودی
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.