پایگاه خبری راه پرداخت دارای مجوز به شماره ۷۴۵۷۲ از وزارت فرهنگ و ارشاد اسلامی و بخشی از «شبکه عصر تراکنش» است. راه پرداخت فعالیت خود را از دوم اردیبهشتماه ۱۳۹۰ شروع کرده و اکنون پرمخاطبترین رسانه ایران در زمینه فناوریهای مالی، بانکداری و پرداخت و استارتآپهای فینتک است.
چالشهای امنیتی هوش مصنوعی مولد در بانکداری: مقابله با تهدیدات سایبری در عصر دیجیتال
محمدمهدی امیرفروغی، دکتری هوش مصنوعی، در یادداشتی تخصصی به چالشهای هوش مصنوعی مولد در صنعت بانکداری میپردازد
هوش مصنوعی مولد (Generative AI) به طور گستردهای در صنایع مختلف از جمله بانکداری و مالی بهکارگرفتهشده است تا فرایندها را بهینهسازی کند، تحلیلهای پیشرفتهتری ارائه دهد و در نهایت اتوماسیون را در سطوح مختلف ممکن سازد. اما این تکنولوژی، به دلیل قابلیت تولید محتوا و الگوریتمهای پیچیدهای که از دادههای بزرگ برای ساخت پیشبینیها و تصمیمات استفاده میکند، تهدیدات امنیتی جدیدی را نیز معرفی کرده است که میتواند اثرات عمیقی بر صنعت مالی داشته باشد. در این مقاله، به بررسی سطوح مختلف حملات سایبری به سیستمهای هوش مصنوعی مولد و چالشهای امنیتی آن در بانکداری خواهیم پرداخت و همچنین مثالهای عینی از این تهدیدات را مورد تحلیل قرار خواهیم داد.
حملات در سطح دادهها (Data-Level Attacks)
حملات تزریق دادهها:
یکی از روشهای رایج در حملات به سیستمهای هوش مصنوعی مولد، تزریق دادههای مخرب به مجموعهدادههای آموزشی است. این نوع حملات که معمولاً بهعنوان Data Poisoning شناخته میشوند، شامل واردکردن دادههای نادرست یا گمراهکننده به الگوریتمهای یادگیری ماشین است تا مدلها را به تولید نتایج اشتباه سوق دهند. در یک نمونه از این نوع حملات در صنعت بانکداری، مهاجمان ممکن است دادههای تاریخی و نادرست از تراکنشهای بانکی را به سیستم تزریق کنند. این کار میتواند منجر به پیشبینیهای نادرست در مدلهای مدیریت ریسک و تحلیلهای مالی شود.
مثال عینی:
فرض کنید یک بانک از مدلهای هوش مصنوعی برای پیشبینی ریسک وامدهی استفاده میکند. مهاجمان با تزریق دادههای جعلی، نظیر گزارشهای نادرست از درآمد مشتریان یا تاریخچه مالی مخدوش، میتوانند مدل را بهگونهای هدایت کنند که وامهای بیشتری را به مشتریان پرخطر اعطا کند، در نتیجه ممکن است بانک با کاهش کیفیت پورتفوی وامهای خود روبرو شود.
حملات به ورودیها (Adversarial Attacks):
در این نوع حملات، مهاجمان ورودیهایی را به سیستمهای مولد وارد میکنند که به طور ظاهری بیضرر هستند؛ اما در واقع هدف آنها گمراهکردن مدل است. برای مثال، در استفاده از سیستمهای شناسایی تصاویر برای تأیید هویت یا تشخیص تقلب، مهاجم میتواند تغییرات جزئی در تصویر (که برای انسان قابلشناسایی نیست) اعمال کند تا سیستم شناسایی را بهاشتباه بیندازد.
مثال عینی:
در یک سیستم تشخیص چهره برای احراز هویت در یک بانک آنلاین، مهاجم ممکن است از تکنیکهای adversarial machine learning برای ایجاد تغییرات ظریف در تصویر چهره خود استفاده کند که برای سیستم قابلشناسایی نباشد، اما سیستم هوش مصنوعی را گمراه کرده و به او اجازه دهد بهحساب بانکی دیگری دسترسی پیدا کند.
حملات در سطح مدل (Model-Level Attacks)
سرقت مدل (Model Theft):
مهاجمان ممکن است باهدف سرقت مدلهای هوش مصنوعی مولد، از تکنیکهای مختلفی مانند model extraction استفاده کنند. در این نوع حمله، مهاجم سعی میکند از سیستمهای در حال اجرا برای استخراج پارامترها و الگوریتمهای مدلهای هوش مصنوعی استفاده کند. در صنایع مالی، این میتواند به سرقت مدلهای پیچیده پیشبینی ریسک یا مدلهای اعتبارسنجی وام منجر شود که در نهایت به استفاده غیرمجاز از این مدلها و تحلیلهای بهدستآمده از آنها منتهی میشود.
مثال عینی:
یک بانک ممکن است از مدلهای پیشرفتهای برای پیشبینی بحرانهای مالی استفاده کند. مهاجم با استفاده از حملات model inversion یا استخراج مدل، سعی میکند تا دسترسی به مدلهای در حال اجرا را پیدا کرده و تحلیلهای مالی حساس را برای خود کپی کند. این سرقت میتواند به سوءاستفادههای مالی گسترده یا کاهش مزیت رقابتی بانک منجر شود.
حملات به فرایند یادگیری (Poisoning Attacks):
در حملات به فرایند یادگیری، مهاجمان سعی میکنند با تغییر یا مخدوش کردن دادههای آموزشی قبل از شروع فرایند یادگیری، مدلهای هوش مصنوعی را فریب دهند. این حملات ممکن است به کاهش دقت مدلها و اختلال در پیشبینیهای مالی منجر شود.
مثال عینی:
یک مهاجم میتواند دادههای مربوط به بحرانهای مالی یا پیشبینیهای اقتصادی را که به طور معمول به مدلهای بانکداری تغذیه میشود، به طور عمدی دستکاری کند. نتیجه این کار میتواند نادرستی در پیشبینی نوسانات بازار یا عدم شناسایی بحرانهای اقتصادی در آینده باشد.
حملات در سطح تولید محتوا (Content-Level Attacks)
تولید محتوای جعلی (Deepfakes):
یکی از چالشهای جدید که ناشی از هوش مصنوعی مولد است، توانایی تولید محتوای جعلی و واقعینمای deepfake است. این محتوا میتواند به طور گسترده در رسانهها، ایمیلها، و شبکههای اجتماعی منتشر شده و اثرات منفی بر بازارهای مالی و بانکها بگذارد. بهویژه، در شرایط بحرانهای مالی یا تغییرات بازار، انتشار محتوای جعلی مانند ویدئوهای تقلبی از مقامات مالی میتواند باعث ایجاد نوسانات در بازارها شود.
مثال عینی:
یک ویدئو جعلی که ظاهراً توسط رئیس یک بانک منتشر شده است میتواند نشاندهنده اخراج ناگهانی هزاران کارمند باشد. این ویدئو میتواند بهسرعت در رسانههای اجتماعی پخش شود و باعث کاهش اعتماد عمومی به بانک و ایجاد بحران در بازار سهام آن بانک شود.
حملات از طریق انتشار اطلاعات نادرست:
هوش مصنوعی مولد میتواند برای تولید تحلیلهای مالی گمراهکننده، گزارشهای تقلبی، یا اخبار جعلی استفاده شود. این حملات ممکن است باعث ایجاد شایعاتی در مورد وضعیت مالی بانکها و مؤسسات مالی شوند که میتواند بر تصمیمات سرمایهگذاران و مصرفکنندگان تأثیر منفی بگذارد.
مثال عینی:
مهاجمان میتوانند گزارشهای جعلی درباره کاهش درآمد یا زیانهای شدید یک بانک منتشر کنند. این گزارشها میتواند اعتماد سرمایهگذاران را تحتتأثیر قرار دهد و باعث افت شدید قیمت سهام بانک شود، حتی اگر این اطلاعات اشتباه باشند.
حملات در سطح تعاملات کاربر (User-Interaction Attacks)
حملات فیشینگ و مهندسی اجتماعی:
یکی از سادهترین اما مؤثرترین راهها برای سوءاستفاده از سیستمهای هوش مصنوعی مولد، حملات فیشینگ است. این حملات میتوانند از تکنیکهای مولد برای طراحی ایمیلها، پیامها یا وبسایتهای جعلی استفاده کنند که به نظر میرسد از بانکها یا مؤسسات مالی معتبر آمدهاند. این حملات میتوانند منجر به افشای اطلاعات حساس کاربران و سرقت پول شوند.
مثال عینی:
یک مهاجم با استفاده از مدلهای مولد زبان طبیعی میتواند ایمیلی مشابه ایمیلهای رسمی یک بانک طراحی کند که حاوی لینکی است که کاربر را به یک وبسایت فیشینگ هدایت میکند. این وبسایت ممکن است ظاهری مشابه سایت اصلی بانک داشته باشد و پس از واردکردن اطلاعات حساب، کاربر را فریب دهد.
تأثیر بر تصمیمگیریهای کاربران:
هوش مصنوعی مولد میتواند محتوای خاصی تولید کند که به طور عمدی برای تحتتأثیر قراردادن تصمیمات کاربران طراحی شده است. این محتوا میتواند شامل تحلیلهای مالی گمراهکننده باشد که باعث میشود کاربران تصمیمات نادرستی بگیرند.
مثال عینی:
یک سیستم هوش مصنوعی مولد میتواند گزارشهایی تولید کند که پیشبینی میکند یک سهام خاص بهزودی رشد زیادی خواهد داشت، در حالی که این پیشبینی نادرست است. این گزارشها میتوانند به سرمایهگذاران فریبخورده منجر به خرید این سهام و ضررهای مالی شوند.
راهکارهای مقابله با تهدیدات امنیتی
برای مقابله با تهدیدات امنیتی در هوش مصنوعی مولد، لازم است از مجموعهای از استراتژیها و ابزارهای پیشرفته استفاده شود که قادر به کاهش خطرات ناشی از حملات به دادهها، مدلها و فرایندهای تصمیمگیری هوش مصنوعی باشند. در این بخش، به بررسی راهکارهای اصلی میپردازیم که میتوانند از صنایع مالی و بانکی در برابر تهدیدات امنیتی محافظت کنند.
استفاده از تکنیکهای امنیتی در سطح دادهها
۱. رمزنگاری دادهها (Data Encryption):
یکی از اقدامات حیاتی برای حفاظت از دادهها، بهویژه در هنگام انتقال و ذخیرهسازی، استفاده از رمزنگاری است. دادههای حساس مانند اطلاعات شخصی مشتریان و تراکنشهای مالی باید بهطور کامل رمزنگاری شوند تا در صورت دسترسی غیرمجاز به این دادهها، امکان سوءاستفاده از آنها وجود نداشته باشد.
۲. شناسایی و تصحیح دادههای جعلی (Data Anomaly Detection):
استفاده از سیستمهای تشخیص ناهنجاری و الگوریتمهای یادگیری ماشینی برای شناسایی دادههای مخدوش و جعلی میتواند یکی از مؤثرترین روشها برای مقابله با حملات تزریق دادهها و Data Poisoning باشد. این سیستمها میتوانند بهطور خودکار دادههایی که خارج از الگوهای معمول هستند را شناسایی کرده و آنها را از مجموعه دادههای آموزشی حذف کنند.
۳. شفافیت دادهها (Data Provenance):
ایجاد یک مکانیزم برای پیگیری و نظارت بر منابع دادهها (Data Provenance) میتواند به شناسایی و جلوگیری از تزریق دادههای مخرب کمک کند. این روش شامل ردیابی دقیق هرگونه تغییر در دادهها و اطمینان از منبع معتبر آنها است.
تقویت امنیت مدلها
۱. استفاده از یادگیری ایمن (Secure Machine Learning):
مدلهای هوش مصنوعی باید از الگوریتمهای خاصی برای افزایش امنیت و حفاظت در برابر حملات Adversarial Attacks استفاده کنند. یکی از روشهای معمول در این زمینه استفاده از Adversarial Training است که در آن مدلها بهطور عمدی با دادههای دستکاریشده آموزش داده میشوند تا از این طریق قدرت دفاعی آنها در برابر حملات افزایش یابد.
۲. محدودسازی دسترسی به مدلها (Model Access Control):
به منظور جلوگیری از Model Theft، باید دسترسی به مدلهای هوش مصنوعی با استفاده از کنترلهای دسترسی دقیق محدود شود. این اقدام شامل استفاده از احراز هویت چندعاملی برای دسترسی به مدلها و تضمین اینکه تنها افراد مجاز به این سیستمها دسترسی داشته باشند، میباشد.
۳. ارزیابی و تست امنیتی مدلها:
مدلهای هوش مصنوعی باید بهطور مداوم مورد ارزیابی امنیتی قرار گیرند تا هرگونه آسیبپذیری یا نقص در آنها شناسایی و برطرف شود. این ارزیابیها میتوانند شامل آزمایشهای Penetration Testing و شبیهسازی حملات سایبری به مدلها برای شناسایی نقاط ضعف امنیتی باشند.
امنیت در سطح تولید محتوا
۱. تشخیص و جلوگیری از تولید محتوای جعلی (Deepfake Detection):
برای مقابله با حملات Deepfake، استفاده از الگوریتمهای شناسایی و تشخیص محتوای جعلی ضروری است. این الگوریتمها میتوانند بهطور خودکار تصاویر، ویدیوها و صداهای دستکاریشده را شناسایی کرده و آنها را از محتوای واقعی تفکیک کنند.
۲. مدیریت شفافیت و صحت اطلاعات (Content Authenticity):
بانکها و موسسات مالی میتوانند به استفاده از ابزارهای دیجیتال برای تأیید صحت محتوا و منابع آن روی آورند. این ابزارها میتوانند شامل استفاده از Blockchain برای تأسیس یک سیستم تأیید اعتبار برای گزارشها و پیشبینیهای مالی باشند. استفاده از این فناوری بهویژه در مواردی که دادهها و گزارشها از منابع مختلف به سیستم وارد میشوند، مفید است.
تقویت امنیت در تعاملات کاربران
۱. احراز هویت چندعاملی (Multi-Factor Authentication):
استفاده از MFA برای تمامی سیستمهای بانکداری آنلاین و موبایل بهویژه در زمان انجام تراکنشهای حساس، میتواند امنیت را بهشدت تقویت کند. این روش شامل استفاده از دو یا چند عامل برای احراز هویت کاربران است که میتواند شامل کدهای ارسالشده به تلفن همراه یا احراز هویت بیومتریک باشد.
۲. آموزش کاربران و کارکنان:
آموزش و آگاهیبخشی به کارکنان و مشتریان در خصوص تهدیدات فیشینگ و مهندسی اجتماعی یکی از مؤثرترین راهها برای کاهش ریسکهای امنیتی است. کارمندان باید با روشهای شناسایی حملات فیشینگ و تشخیص محتوای جعلی آشنا شوند. همچنین، آموزشهای مرتب برای تشخیص تهدیدات جدید بهویژه در مواجهه با حملات پیشرفته و پیچیده ضروری است.
۳. نظارت بر رفتار کاربران (User Behavior Analytics):
استفاده از User Behavior Analytics (UBA) میتواند به شناسایی رفتارهای غیرمعمول و مشکوک در سیستمها کمک کند. این تکنیکها میتوانند به طور خودکار هرگونه فعالیت مشکوک مانند تلاش برای ورود به سیستم با اطلاعات نادرست یا درخواستهای غیرمعمول برای برداشت وجه را شناسایی کنند.
استفاده از راهکارهای نظارتی و قانونی
۱. استانداردهای امنیتی (Security Standards):
مقامات نظارتی باید استانداردهای سختگیرانهای را برای استفاده از هوش مصنوعی در صنایع مالی وضع کنند. این استانداردها میتوانند شامل الزامات برای شفافیت مدلهای هوش مصنوعی، پاسخگویی به اشتباهات مدل و تضمین حریم خصوصی دادهها باشند. بهویژه، در زمینه بانکداری، استانداردهای GDPR (General Data Protection Regulation) برای حفاظت از اطلاعات شخصی و Basel III برای مدیریت ریسکها باید بهطور کامل رعایت شوند.
۲. چارچوبهای حقوقی (Legal Frameworks):
برقراری قوانین و چارچوبهای قانونی برای مقابله با تهدیدات هوش مصنوعی مولد میتواند به عنوان یک عامل پیشگیرانه عمل کند. این قوانین میتوانند شامل تعیین مسئولیتها در صورت وقوع خسارت از حملات به سیستمهای AI، همچنین الزامات برای گزارشدهی تهدیدات و نقضهای امنیتی باشند.
استفاده از رویکردهای چندسطحی برای افزایش امنیت در حوزه مالی
هوش مصنوعی مولد در حالی که قابلیتهای بسیاری را برای بهبود عملکردهای بانکداری و مالی ارائه میدهد، چالشهای امنیتی قابلتوجهی را نیز به همراه دارد. تهدیدات امنیتی از جمله حملات تزریق داده، حملات به مدلها، تولید محتوای جعلی و حملات مهندسی اجتماعی میتوانند تأثیرات عمیقی بر اعتماد عمومی، سلامت مالی بانکها و عملکرد بازارهای مالی داشته باشند.
برای مقابله با این تهدیدات، بانکها و مؤسسات مالی باید از رویکردهای چندسطحی برای افزایش امنیت استفاده کنند. این رویکردها شامل استفاده از تکنیکهای امنیتی پیشرفته در سطح دادهها، مدلها و محتوای تولید شده، تقویت اقدامات امنیتی در تعاملات کاربران و پیادهسازی نظارتهای قانونی و نظارتی است.
با اتخاذ این اقدامات و استفاده از فناوریهای نوین برای تقویت امنیت، بانکها و مؤسسات مالی میتوانند از آسیبپذیریهای بالقوه ناشی از هوش مصنوعی مولد جلوگیری کنند و درعینحال از مزایای این فناوری برای بهبود خدمات و افزایش کارایی خود بهرهبرداری کنند.