پایگاه خبری راه پرداخت دارای مجوز به شماره ۷۴۵۷۲ از وزارت فرهنگ و ارشاد اسلامی و بخشی از «شبکه عصر تراکنش» است. راه پرداخت فعالیت خود را از دوم اردیبهشتماه ۱۳۹۰ شروع کرده و اکنون پرمخاطبترین رسانه ایران در زمینه فناوریهای مالی، بانکداری و پرداخت و استارتآپهای فینتک است.
آیا رباتهای قاتل، گریزناپذیر و حتمیالوقوع هستند؟
ماهنامه عصر تراکنش شماره ۳۶ / در جنگ، سرعت میکُشد. سربازی که در کشیدن کمان از سرعت بیشتری برخوردار باشد، میتواند جان سالم از مهلکه به در ببرد؛ کشتی که زودتر کشتی دشمن را غرق میکند، میتواند خود را از باران موشک برهاند. در مواردی که انسانها نمیتوانند با سرعت جنگهای مدرن پیش بروند، ماشینها وارد میدان میشوند. زمانی که یک آرپیجی به یک خودروی زرهی شلیک میشود، یک سیستم خودکار روی خودرو این تهدید را شناسایی کرده، آن را ردیابی کرده و یک گلوله به سمت آن شلیک میکند تا آن را متوقف کند و همه این اقدامات قبل از آنی اتفاق میافتد که خدمه داخل خودرو از آن مطلع شوند.
بهطور مشابه، کشتیهای نیروی دریایی ایالات متحده به سیستم حفاظتی رزمی مجهز هستند که میتواند حالت خودکار ویژه را فعال کند که بهطور خودکار و بر اساس قواعد برنامهریزیشده دقیق، موشکهای شلیکشده به سمت کشتی را مورد اصابت قرار میدهد.
این نوع از سیستمهای دفاعی، دههها به کار گرفته شدهاند و در حال حاضر هم حداقل 30 کشور از آن استفاده میکنند. از بسیاری جهات آنها مشابه سیستمهای ترمز خودکار در خودروهای جدید هستند که تنها در شرایط اضطراری فعال میشوند، اما نظامیان هم، مانند خودروسازان، بهتدریج آزادی عمل ماشینها را بیشتر کردهاند.
در یک رزمایش در سال گذشته، ایالات متحده نشان داد که اتوماسیون چگونه میتواند در یک اصطلاحاً «زنجیر کشتار» به کار گرفته شود؛ یک ماهواره، کشتی دشمن فرضی را هدفگیری کرد و یک هواپیمای تجسس را برای پرواز نزدیکتر به کشتی و تأیید شناسایی، اعزام کرد؛ هواپیمای تجسس سپس دادههای خود را به یک هواپیمای فرماندهی و کنترل هوابرد ارسال کرد و این هواپیما، یک ناوشکن دریایی را برای انجام حمله انتخاب کرد. در این سناریو، اتوماسیون فرصت بیشتری را در اختیار افسران قرار داد تا یک تصمیم آگاهانه اتخاذ کنند؛ اینکه آیا به کشتی دشمن شلیک کنند یا خیر.
نیروهای نظامی یک دلیل الزامآور برای مشارکت انسان در تصمیمات مهم و مهلک دارند. یکی اینکه، انسانها بهعنوان محافظی در برابر عملکردهای نادرست و تفسیرهای نادرست از دادهها عمل میکنند؛ آنها قبل از اینکه ماشه را بکشند اطمینان حاصل میکنند که سیستم خودکار، یک کشتی خودی یا یک کشتی بیطرف را به اشتباه بهعنوان کشتی دشمن شناسایی نکرده باشد.
علاوه بر این، حتی پیشرفتهترین انواع هوش مصنوعی هم نمیتوانند بافت و زمینه را درک کنند، قضاوت کرده، یا در شرایط جدید مانند یک انسان واکنش نشان دهند. انسانها از همه بهتر میتوانند وارد فکر فرمانده دشمن شوند، عملیاتهای دروغین و تظاهری را تشخیص دهند و اینکه چه زمانی عنصر غافلگیری را به کار گرفته و چه زمانی حمله کنند.
اما ماشینها، سریعتر هستند و کسی که اول حمله میکند، مزایای زیادی را از آن خود میکند. با توجه به این فشار رقابتی، نمیتوان تصور روزی را دور از ذهن دانست که تنها راه زندهماندن، استفاده از یک زنجیر کشتار کاملاً خودکار باشد. اگر تنها یک ابرقدرت این کار را انجام دهد، سایرین ممکن است خود را مجبور به پیروی از این ابرقدرت احساس کنند. در سال 2016، «رابرت ورک»، وزیر دفاع وقت، این مسئله بغرنج را به زبان ساده بدین صورت بیان کرد:
او پرسید: «اگر رقبای ما به سمت ترمیناتورها بروند و مشخص شود که ترمیناتورها قادر به تصمیمگیری سریعتر هستند، حتی اگر آنها بد باشند، ما چگونه باید واکنش نشان دهیم؟»
ترمیناتورها هنوز از خط مونتاژ خارج نشدهاند، اما هر نسل جدیدی از تسلیحات در حال نزدیکشدن به انسانهاست. در حالی که هیچ کشوری هنوز قصد خود برای ساخت تسلیحات کاملاً خودمختار و مستقل را اعلام نکرده، اما تعداد اندکی هم آن را تکذیب کردهاند. خطرات یک جنگافزار با سرعت ماشین، بسیار بیشتر از صرفاً یک موشک تمامعیار است. محققان نظامی در چین در مورد یک «شگفتی در میدان جنگ» گمانهزنی کردهاند؛ نقطهای که در آن، نبرد سریعتر از درک بشر به پیش میرود. در شرایط «فراجنگ»، آنطور که برخی استراتژیستهای جنگی آمریکایی آن را نامیدهاند، افزایش ناخواسته شدت جنگ میتواند سریعاً از کنترل خارج شود.
سقوط ناگهانی در بازار سهام در سال 2010، یک نمونه متناظر از این شرایط است: الگوریتمهای خودکار تجارت، به زیان موقت چند تریلیون دلاری در یک روز عصر منجر شدند. برای جلوگیری از چنین فاجعهای، تنظیمگران مالی مکانیسم توقف معاملات را بهروز کردند؛ به گونهای که این مکانیسم در صورت افت بسیار سریع قیمتها، معاملات را متوقف میکند، اما شما چگونه میتوانید مانع یک جنگ ناگهانی شوید؟
از اواخر قرن نوزدهم، ابرقدرتهای نظامی ـ چه بریتانیای کبیر و آلمان و چه ایالات متحده و اتحاد جماهیر شوروی سابق ـ برای ایجاد قواعدی در مورد انواع ماشینهای کشتار نوین، از گلولههای انفجاری تا گازهای سمی و تسلیحات اتمی، تلاش کردهاند. در برخی موارد مانند تسلیحات ضدماهواره و بمبهای نوترونی، توافقات رسمی ضروری نبود؛ طرفین بهسادگی محدودیتهای ضمنی اعمال کردند. در تمام این موارد، هدف، کاهش اثرات و عواقب جنگ بود.
در حال حاضر، چنین اجماعی در مورد تسلیحات کاملاً خودمختار وجود ندارد. تقریباً 30 کشور از ممنوعیت کامل حمایت میکنند، اما هیچیک از آنها ابرقدرت نظامی یا توسعهدهنده رباتیک نیستند. در سازمان ملل متحد، زمانی که موضوع تسلیحات خودمختار مورد بحث سالانه بود، چین، روسیه و ایالات متحده، تلاشها برای تصویب ممنوعیت را خنثی کردند (ایالات متحده و روسیه بهوضوح و مستقیماً مخالفت نکردند، در حالی که چین در سال 2018 ممنوعیتی را پیشنهاد داد که در واقع بیهوده بود). یکی از سازوکارهای چالشبرانگیز در سازمان ملل، زورآزمایی بین سازمانهای غیردولتی ـ همچون پویش توقف رباتهای قاتل که هدف آن خلع سلاح است ـ و ارتشهای نظامی است که تن به خلع سلاح نمیدهند؛ مگر اینکه مطمئن شوند که رقبای آنها نیز این کار را میکنند.
تسلیحات خودمختار چالشهای منحصربهفردی را برای قانونگذاران و تنظیمگران ایجاد میکند. آنها را نمیتوان به مانند مثلاً یک موشک هستهای 1.5 مگاتنی مشاهده و سنجش کرد. واقعاً عامل خودمختاری چیست و چه میزان از آن را باید مجاز دانست؟ چگونه میتوانید یک هواپیمای بدون سرنشین کنترل از راه دور دشمن را از یک هواپیمای مجهز به نرمافزار ترمیناتور تشخیص دهید؟ پیشروی اتوماسیون ادامه خواهد داشت، مگر اینکه تحلیلگران امنیتی بتوانند پاسخهای قانعکنندهای برای این پرسشهای پیدا کنند و کشورهای چین، روسیه و ایالات متحده هم بتوانند در مورد محدودیتهای مورد توافق چندجانبه تصمیم بگیرند. نهایتاً اینکه ابرقدرتهای دنیا به هر سمتی بروند، سایر کشورها هم به ناچار در همان راه قدم میگذارند.