راه پرداخت
رسانه فناوری‌های مالی ایران

استفاده از هوش مصنوعی در خدمات مالی سکه‌ای است که دو رو دارد

حسین حقیقی مشاور تحول دیجیتال، در یادداشتی برای راه پرداخت از چالش‌های فراگیری استفاده از هوش مصنوعی در مؤسسات مالی گفت

هوش مصنوعی در بخش مالی خصوصاً در زمینه‌هایی مثل ارزیابی اعتبار، تحلیل داده‌ها، خودکارسازی فرایندها و حتی مبارزه با ‌ fraud detection در حال گسترش است. سرمایه‌گذاری در هوش مصنوعی در دنیا روبه‌افزایش بوده و طبق داده‌های IMF حدود این سرمایه‌گذاری از ۱۶۶ میلیارد دلار در سال ۲۰۲۳ به ۴۰۰ میلیارد دلار در سال ۲۰۲۷ افزایش پیدا خواهد کرد.
سرمایه‌گذاری‌ها نیز بیشتر از جنس زیرساختی هستند و در موضوعاتی مانند رایانش ابری، رایانش کوانتومی، بیگ دیتا و مواردی که بخش‌های محاسباتی را تقویت می‌کند پخش شده‌اند.
وابستگی مؤسسات مالی به دلیل مزایایی که AI به همراه دارد، روزبه‌روز بیشتر می‌شود؛ اما این وابستگی چالش‌هایی را نیز به همراه خواهد داشت که اگر شناسایی نشده و از آن جلوگیری نشود استفاده از هوش مصنوعی نتیجه عکس خواهد داشت.
چالش اول مربوط به تهدیدات سایبری است. یکی از بزرگ‌ترین ریسک‌هایی که متوجه هوش مصنوعی در حوزه مالی است باتوجه‌به استفاده گسترده از داده‌های سیستم‌های هوش مصنوعی، مهاجمان سایری و هکرها نیز می‌توانند از این فناوری برای حملات پیچیده‌تر استفاده کنند. همان‌طور که مبارزه با تخلف با این ابزار بیشتر شده، خود تخلفات نیز با استفاده از آن گسترش‌یافته است.
چالش دوم وابستگی به تأمین‌کنندگان ثالث است که در بازار هوش مصنوعی متمرکز هستند. این چالش فقط مربوط به کشور ما نیست؛ زیرا ارائه‌دهندگان زیرساخت هوش مصنوعی محدود هستند که شامل Open AI، مایکروسافت و چند بازیگر بزرگ می‌شوند. اگر مشکلی برای همین تعداد انگشت‌شمار تأمین‌کننده هوش مصنوعی که مؤسسات مالی از آن استفاده می‌کنند پیش بیاید باعث ریسک بسیار بزرگی در خدمات مالی می‌شود. تمرکز بازار در هوش مصنوعی به‌ویژه در خدمات خاص مانند پردازش داده منجر به ریسک‌های آسیب‌پذیری سیستماتیک می‌شود که فقط یک بخش را درگیر نمی‌کند.
چالش سوم ریسک همبستگی است؛ وقتی ما از مدل‌های یکسان هوش مصنوعی استفاده می‌کنیم، اگر یک داده‌ای یک جا اشتباه داده شود بخش زیادی از خدمات مالی در دنیا و در کشور ما بحران‌های مشابهی خواهند داشت.
چالش چهارم حکمرانی داده و ریسک مدل‌هاست؛ مدل‌های هوش مصنوعی پیچیده‌اند و نیازمند داده‌های باکیفیت هستند. همچنین عدم شفافیت این مدل‌ها شناخت مشکل و ایراد آن‌ها را سخت‌تر می‌کند.
در مدلی که یک خروجی اشتباه تحویل داد متخصصینی که بتوانند این مدل را شناسایی کنند و خطا را تشخیص دهند چه در سطح دنیا و چه در کشور کم هستند و نیاز به پرورش استعدادهایی در زمینه Large language model برای شناسایی خطاها داریم.
موضوع هالوسیژن موضوعی است که آن‌قدر ما از این مدل‌ها داده می‌گیریم و اعتقاد بسیاری به آن‌ها پیدا می‌کنیم تا جایی که دیتاهای مصنوعی خلق می‌کنند و این دیتاها وارد دنیای واقعی می‌شوند.
برای خودم پیش‌آمده که هوش مصنوعی مقاله‌ای منبع با تمام مشخصات به من داده؛ اما آن مقاله اصلاً وجود خارجی نداشته و عملاً هوش مصنوعی دیتاسازی فیک انجام داده است.
برای همین خیلی از مدل‌سازی مربوط به اعتبارسنجی بانکی یا قیمت‌گذاری‌های آن‌ها که برای مؤسسات مالی ایجاد می‌کند ممکن است داده‌های درستی نباشند؛ زیرا هم ممکن است هم ورودی اشتباه داده باشند و هم ممکن است داده‌ها ناشی از حملات سایبری به این مدل‌ها باشد.


مقابله با چالش‌های هوش مصنوعی


طبق مقالات و توصیه‌های FSB و IMF، برای مقابله با این تهدیدها، یک‌سری سیاست‌ها می‌توان اجرا کرد. نظارت‌های دقیق و هماهنگی‌های بین‌المللی که یعنی کشورها یک چارچوب نظارتی مشترک داشته باشند، استفاده از ابزارهای نظارتی هوش مصنوعی، ارتباط میان مؤسسات مالی و غیرمالی در استفاده از هوش مصنوعی و سرمایه‌گذاری در زیرساخت‌های مربوطه خصوصاً در کشور ما سیاست‌هایی هستند که از چالش‌های هوش مصنوعی می‌کاهند.
از نظر من داده‌هایی که به این مدل‌ها در سیستم مالی کشور ما الل خصوص بانک‌ها داده می‌شود، داده‌های باکیفیتی نیستند و موضوع مدیریت داده چالش بزرگی است.

در سطح حاکمیتی نیز موضوعات GPU، کوانتوم، کامپیوتینگ و کلود کامپیوتینگ مهم هستند که نیاز به داخلی شدن آن‌ها در هوش مصنوعی داریم از طرفی متخصصین امنیتی و Large Language Modelها داریم که داده‌ها درست باشند.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.