راه پرداخت
رسانه فناوری‌های مالی ایران

چالش‌های امنیتی هوش مصنوعی مولد در بانکداری: مقابله با تهدیدات سایبری در عصر دیجیتال

محمدمهدی امیرفروغی‌، دکتری هوش مصنوعی، در یادداشتی تخصصی به چالش‌های هوش مصنوعی مولد در صنعت بانکداری می‌پردازد

هوش مصنوعی مولد (Generative AI) به طور گسترده‌ای در صنایع مختلف از جمله بانکداری و مالی به‌کارگرفته‌شده است تا فرایندها را بهینه‌سازی کند، تحلیل‌های پیشرفته‌تری ارائه دهد و در نهایت اتوماسیون را در سطوح مختلف ممکن سازد. اما این تکنولوژی، به دلیل قابلیت تولید محتوا و الگوریتم‌های پیچیده‌ای که از داده‌های بزرگ برای ساخت پیش‌بینی‌ها و تصمیمات استفاده می‌کند، تهدیدات امنیتی جدیدی را نیز معرفی کرده است که می‌تواند اثرات عمیقی بر صنعت مالی داشته باشد. در این مقاله، به بررسی سطوح مختلف حملات سایبری به سیستم‌های هوش مصنوعی مولد و چالش‌های امنیتی آن در بانکداری خواهیم پرداخت و همچنین مثال‌های عینی از این تهدیدات را مورد تحلیل قرار خواهیم داد.


حملات در سطح داده‌ها (Data-Level Attacks)


حملات تزریق داده‌ها:
یکی از روش‌های رایج در حملات به سیستم‌های هوش مصنوعی مولد، تزریق داده‌های مخرب به مجموعه‌داده‌های آموزشی است. این نوع حملات که معمولاً به‌عنوان Data Poisoning شناخته می‌شوند، شامل واردکردن داده‌های نادرست یا گمراه‌کننده به الگوریتم‌های یادگیری ماشین است تا مدل‌ها را به تولید نتایج اشتباه سوق دهند. در یک نمونه از این نوع حملات در صنعت بانکداری، مهاجمان ممکن است داده‌های تاریخی و نادرست از تراکنش‌های بانکی را به سیستم تزریق کنند. این کار می‌تواند منجر به پیش‌بینی‌های نادرست در مدل‌های مدیریت ریسک و تحلیل‌های مالی شود.

مثال عینی:
فرض کنید یک بانک از مدل‌های هوش مصنوعی برای پیش‌بینی ریسک وام‌دهی استفاده می‌کند. مهاجمان با تزریق داده‌های جعلی، نظیر گزارش‌های نادرست از درآمد مشتریان یا تاریخچه مالی مخدوش، می‌توانند مدل را به‌گونه‌ای هدایت کنند که وام‌های بیشتری را به مشتریان پرخطر اعطا کند، در نتیجه ممکن است بانک با کاهش کیفیت پورتفوی وام‌های خود روبرو شود.

حملات به ورودی‌ها (Adversarial Attacks):
در این نوع حملات، مهاجمان ورودی‌هایی را به سیستم‌های مولد وارد می‌کنند که به طور ظاهری بی‌ضرر هستند؛ اما در واقع هدف آنها گمراه‌کردن مدل است. برای مثال، در استفاده از سیستم‌های شناسایی تصاویر برای تأیید هویت یا تشخیص تقلب، مهاجم می‌تواند تغییرات جزئی در تصویر (که برای انسان قابل‌شناسایی نیست) اعمال کند تا سیستم شناسایی را به‌اشتباه بیندازد.

مثال عینی:
در یک سیستم تشخیص چهره برای احراز هویت در یک بانک آنلاین، مهاجم ممکن است از تکنیک‌های adversarial machine learning برای ایجاد تغییرات ظریف در تصویر چهره خود استفاده کند که برای سیستم قابل‌شناسایی نباشد، اما سیستم هوش مصنوعی را گمراه کرده و به او اجازه دهد به‌حساب بانکی دیگری دسترسی پیدا کند.


حملات در سطح مدل (Model-Level Attacks)


سرقت مدل (Model Theft):
مهاجمان ممکن است باهدف سرقت مدل‌های هوش مصنوعی مولد، از تکنیک‌های مختلفی مانند model extraction استفاده کنند. در این نوع حمله، مهاجم سعی می‌کند از سیستم‌های در حال اجرا برای استخراج پارامترها و الگوریتم‌های مدل‌های هوش مصنوعی استفاده کند. در صنایع مالی، این می‌تواند به سرقت مدل‌های پیچیده پیش‌بینی ریسک یا مدل‌های اعتبارسنجی وام منجر شود که در نهایت به استفاده غیرمجاز از این مدل‌ها و تحلیل‌های به‌دست‌آمده از آن‌ها منتهی می‌شود.

مثال عینی:
یک بانک ممکن است از مدل‌های پیشرفته‌ای برای پیش‌بینی بحران‌های مالی استفاده کند. مهاجم با استفاده از حملات model inversion یا استخراج مدل، سعی می‌کند تا دسترسی به مدل‌های در حال اجرا را پیدا کرده و تحلیل‌های مالی حساس را برای خود کپی کند. این سرقت می‌تواند به سوءاستفاده‌های مالی گسترده یا کاهش مزیت رقابتی بانک منجر شود.

حملات به فرایند یادگیری (Poisoning Attacks):

در حملات به فرایند یادگیری، مهاجمان سعی می‌کنند با تغییر یا مخدوش کردن داده‌های آموزشی قبل از شروع فرایند یادگیری، مدل‌های هوش مصنوعی را فریب دهند. این حملات ممکن است به کاهش دقت مدل‌ها و اختلال در پیش‌بینی‌های مالی منجر شود.

مثال عینی:
یک مهاجم می‌تواند داده‌های مربوط به بحران‌های مالی یا پیش‌بینی‌های اقتصادی را که به طور معمول به مدل‌های بانکداری تغذیه می‌شود، به طور عمدی دستکاری کند. نتیجه این کار می‌تواند نادرستی در پیش‌بینی نوسانات بازار یا عدم شناسایی بحران‌های اقتصادی در آینده باشد.


 حملات در سطح تولید محتوا (Content-Level Attacks)


تولید محتوای جعلی (Deepfakes):
یکی از چالش‌های جدید که ناشی از هوش مصنوعی مولد است، توانایی تولید محتوای جعلی و واقعی‌نمای deepfake است. این محتوا می‌تواند به طور گسترده در رسانه‌ها، ایمیل‌ها، و شبکه‌های اجتماعی منتشر شده و اثرات منفی بر بازارهای مالی و بانک‌ها بگذارد. به‌ویژه، در شرایط بحران‌های مالی یا تغییرات بازار، انتشار محتوای جعلی مانند ویدئوهای تقلبی از مقامات مالی می‌تواند باعث ایجاد نوسانات در بازارها شود.

مثال عینی:
یک ویدئو جعلی که ظاهراً توسط رئیس یک بانک منتشر شده است می‌تواند نشان‌دهنده اخراج ناگهانی هزاران کارمند باشد. این ویدئو می‌تواند به‌سرعت در رسانه‌های اجتماعی پخش شود و باعث کاهش اعتماد عمومی به بانک و ایجاد بحران در بازار سهام آن بانک شود.

حملات از طریق انتشار اطلاعات نادرست:

هوش مصنوعی مولد می‌تواند برای تولید تحلیل‌های مالی گمراه‌کننده، گزارش‌های تقلبی، یا اخبار جعلی استفاده شود. این حملات ممکن است باعث ایجاد شایعاتی در مورد وضعیت مالی بانک‌ها و مؤسسات مالی شوند که می‌تواند بر تصمیمات سرمایه‌گذاران و مصرف‌کنندگان تأثیر منفی بگذارد.

مثال عینی:
مهاجمان می‌توانند گزارش‌های جعلی درباره کاهش درآمد یا زیان‌های شدید یک بانک منتشر کنند. این گزارش‌ها می‌تواند اعتماد سرمایه‌گذاران را تحت‌تأثیر قرار دهد و باعث افت شدید قیمت سهام بانک شود، حتی اگر این اطلاعات اشتباه باشند.


حملات در سطح تعاملات کاربر (User-Interaction Attacks)


حملات فیشینگ و مهندسی اجتماعی:
یکی از ساده‌ترین اما مؤثرترین راه‌ها برای سوءاستفاده از سیستم‌های هوش مصنوعی مولد، حملات فیشینگ است. این حملات می‌توانند از تکنیک‌های مولد برای طراحی ایمیل‌ها، پیام‌ها یا وب‌سایت‌های جعلی استفاده کنند که به نظر می‌رسد از بانک‌ها یا مؤسسات مالی معتبر آمده‌اند. این حملات می‌توانند منجر به افشای اطلاعات حساس کاربران و سرقت پول شوند.

مثال عینی:
یک مهاجم با استفاده از مدل‌های مولد زبان طبیعی می‌تواند ایمیلی مشابه ایمیل‌های رسمی یک بانک طراحی کند که حاوی لینکی است که کاربر را به یک وب‌سایت فیشینگ هدایت می‌کند. این وب‌سایت ممکن است ظاهری مشابه سایت اصلی بانک داشته باشد و پس از واردکردن اطلاعات حساب، کاربر را فریب دهد.

تأثیر بر تصمیم‌گیری‌های کاربران:
هوش مصنوعی مولد می‌تواند محتوای خاصی تولید کند که به طور عمدی برای تحت‌تأثیر قراردادن تصمیمات کاربران طراحی شده است. این محتوا می‌تواند شامل تحلیل‌های مالی گمراه‌کننده باشد که باعث می‌شود کاربران تصمیمات نادرستی بگیرند.

مثال عینی:
یک سیستم هوش مصنوعی مولد می‌تواند گزارش‌هایی تولید کند که پیش‌بینی می‌کند یک سهام خاص به‌زودی رشد زیادی خواهد داشت، در حالی که این پیش‌بینی نادرست است. این گزارش‌ها می‌توانند به سرمایه‌گذاران فریب‌خورده منجر به خرید این سهام و ضررهای مالی شوند.


راهکارهای مقابله با تهدیدات امنیتی


برای مقابله با تهدیدات امنیتی در هوش مصنوعی مولد، لازم است از مجموعه‌ای از استراتژی‌ها و ابزارهای پیشرفته استفاده شود که قادر به کاهش خطرات ناشی از حملات به داده‌ها، مدل‌ها و فرایندهای تصمیم‌گیری هوش مصنوعی باشند. در این بخش، به بررسی راهکارهای اصلی می‌پردازیم که می‌توانند از صنایع مالی و بانکی در برابر تهدیدات امنیتی محافظت کنند.


استفاده از تکنیک‌های امنیتی در سطح داده‌ها


۱. رمزنگاری داده‌ها (Data Encryption):
یکی از اقدامات حیاتی برای حفاظت از داده‌ها، به‌ویژه در هنگام انتقال و ذخیره‌سازی، استفاده از رمزنگاری است. داده‌های حساس مانند اطلاعات شخصی مشتریان و تراکنش‌های مالی باید به‌طور کامل رمزنگاری شوند تا در صورت دسترسی غیرمجاز به این داده‌ها، امکان سوءاستفاده از آن‌ها وجود نداشته باشد.

۲. شناسایی و تصحیح داده‌های جعلی (Data Anomaly Detection):
استفاده از سیستم‌های تشخیص ناهنجاری و الگوریتم‌های یادگیری ماشینی برای شناسایی داده‌های مخدوش و جعلی می‌تواند یکی از مؤثرترین روش‌ها برای مقابله با حملات تزریق داده‌ها و Data Poisoning باشد. این سیستم‌ها می‌توانند به‌طور خودکار داده‌هایی که خارج از الگوهای معمول هستند را شناسایی کرده و آن‌ها را از مجموعه داده‌های آموزشی حذف کنند.

۳. شفافیت داده‌ها (Data Provenance):
ایجاد یک مکانیزم برای پیگیری و نظارت بر منابع داده‌ها (Data Provenance) می‌تواند به شناسایی و جلوگیری از تزریق داده‌های مخرب کمک کند. این روش شامل ردیابی دقیق هرگونه تغییر در داده‌ها و اطمینان از منبع معتبر آن‌ها است.


 تقویت امنیت مدل‌ها


۱. استفاده از یادگیری ایمن (Secure Machine Learning):
مدل‌های هوش مصنوعی باید از الگوریتم‌های خاصی برای افزایش امنیت و حفاظت در برابر حملات Adversarial Attacks استفاده کنند. یکی از روش‌های معمول در این زمینه استفاده از Adversarial Training است که در آن مدل‌ها به‌طور عمدی با داده‌های دستکاری‌شده آموزش داده می‌شوند تا از این طریق قدرت دفاعی آن‌ها در برابر حملات افزایش یابد.

۲. محدودسازی دسترسی به مدل‌ها (Model Access Control):
به منظور جلوگیری از Model Theft، باید دسترسی به مدل‌های هوش مصنوعی با استفاده از کنترل‌های دسترسی دقیق محدود شود. این اقدام شامل استفاده از احراز هویت چندعاملی برای دسترسی به مدل‌ها و تضمین اینکه تنها افراد مجاز به این سیستم‌ها دسترسی داشته باشند، می‌باشد.

۳. ارزیابی و تست امنیتی مدل‌ها:
مدل‌های هوش مصنوعی باید به‌طور مداوم مورد ارزیابی امنیتی قرار گیرند تا هرگونه آسیب‌پذیری یا نقص در آن‌ها شناسایی و برطرف شود. این ارزیابی‌ها می‌توانند شامل آزمایش‌های Penetration Testing و شبیه‌سازی حملات سایبری به مدل‌ها برای شناسایی نقاط ضعف امنیتی باشند.


 امنیت در سطح تولید محتوا


۱. تشخیص و جلوگیری از تولید محتوای جعلی (Deepfake Detection):
برای مقابله با حملات Deepfake، استفاده از الگوریتم‌های شناسایی و تشخیص محتوای جعلی ضروری است. این الگوریتم‌ها می‌توانند به‌طور خودکار تصاویر، ویدیوها و صداهای دستکاری‌شده را شناسایی کرده و آن‌ها را از محتوای واقعی تفکیک کنند.

۲. مدیریت شفافیت و صحت اطلاعات (Content Authenticity):
بانک‌ها و موسسات مالی می‌توانند به استفاده از ابزارهای دیجیتال برای تأیید صحت محتوا و منابع آن روی آورند. این ابزارها می‌توانند شامل استفاده از Blockchain برای تأسیس یک سیستم تأیید اعتبار برای گزارش‌ها و پیش‌بینی‌های مالی باشند. استفاده از این فناوری به‌ویژه در مواردی که داده‌ها و گزارش‌ها از منابع مختلف به سیستم وارد می‌شوند، مفید است.


 تقویت امنیت در تعاملات کاربران


۱. احراز هویت چندعاملی (Multi-Factor Authentication):
استفاده از MFA برای تمامی سیستم‌های بانکداری آنلاین و موبایل به‌ویژه در زمان انجام تراکنش‌های حساس، می‌تواند امنیت را به‌شدت تقویت کند. این روش شامل استفاده از دو یا چند عامل برای احراز هویت کاربران است که می‌تواند شامل کدهای ارسال‌شده به تلفن همراه یا احراز هویت بیومتریک باشد.

۲. آموزش کاربران و کارکنان:
آموزش و آگاهی‌بخشی به کارکنان و مشتریان در خصوص تهدیدات فیشینگ و مهندسی اجتماعی یکی از مؤثرترین راه‌ها برای کاهش ریسک‌های امنیتی است. کارمندان باید با روش‌های شناسایی حملات فیشینگ و تشخیص محتوای جعلی آشنا شوند. همچنین، آموزش‌های مرتب برای تشخیص تهدیدات جدید به‌ویژه در مواجهه با حملات پیشرفته و پیچیده ضروری است.

۳. نظارت بر رفتار کاربران (User Behavior Analytics):
استفاده از User Behavior Analytics (UBA) می‌تواند به شناسایی رفتارهای غیرمعمول و مشکوک در سیستم‌ها کمک کند. این تکنیک‌ها می‌توانند به طور خودکار هرگونه فعالیت مشکوک مانند تلاش برای ورود به سیستم با اطلاعات نادرست یا درخواست‌های غیرمعمول برای برداشت وجه را شناسایی کنند.


استفاده از راهکارهای نظارتی و قانونی


۱. استانداردهای امنیتی (Security Standards):
مقامات نظارتی باید استانداردهای سختگیرانه‌ای را برای استفاده از هوش مصنوعی در صنایع مالی وضع کنند. این استانداردها می‌توانند شامل الزامات برای شفافیت مدل‌های هوش مصنوعی، پاسخگویی به اشتباهات مدل و تضمین حریم خصوصی داده‌ها باشند. به‌ویژه، در زمینه بانکداری، استانداردهای GDPR (General Data Protection Regulation) برای حفاظت از اطلاعات شخصی و Basel III برای مدیریت ریسک‌ها باید به‌طور کامل رعایت شوند.

۲. چارچوب‌های حقوقی (Legal Frameworks):
برقراری قوانین و چارچوب‌های قانونی برای مقابله با تهدیدات هوش مصنوعی مولد می‌تواند به عنوان یک عامل پیشگیرانه عمل کند. این قوانین می‌توانند شامل تعیین مسئولیت‌ها در صورت وقوع خسارت از حملات به سیستم‌های AI، همچنین الزامات برای گزارش‌دهی تهدیدات و نقض‌های امنیتی باشند.


استفاده از رویکردهای چندسطحی برای افزایش امنیت در حوزه مالی


هوش مصنوعی مولد در حالی که قابلیت‌های بسیاری را برای بهبود عملکردهای بانکداری و مالی ارائه می‌دهد، چالش‌های امنیتی قابل‌توجهی را نیز به همراه دارد. تهدیدات امنیتی از جمله حملات تزریق داده، حملات به مدل‌ها، تولید محتوای جعلی و حملات مهندسی اجتماعی می‌توانند تأثیرات عمیقی بر اعتماد عمومی، سلامت مالی بانک‌ها و عملکرد بازارهای مالی داشته باشند.

برای مقابله با این تهدیدات، بانک‌ها و مؤسسات مالی باید از رویکردهای چندسطحی برای افزایش امنیت استفاده کنند. این رویکردها شامل استفاده از تکنیک‌های امنیتی پیشرفته در سطح داده‌ها، مدل‌ها و محتوای تولید شده، تقویت اقدامات امنیتی در تعاملات کاربران و پیاده‌سازی نظارت‌های قانونی و نظارتی است.

با اتخاذ این اقدامات و استفاده از فناوری‌های نوین برای تقویت امنیت، بانک‌ها و مؤسسات مالی می‌توانند از آسیب‌پذیری‌های بالقوه ناشی از هوش مصنوعی مولد جلوگیری کنند و درعین‌حال از مزایای این فناوری برای بهبود خدمات و افزایش کارایی خود بهره‌برداری کنند.

نویسنده همکار محمدمهدی امیرفروغی‌
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.