راه پرداخت
رسانه فناوری‌های مالی ایران

چه چالش‌ها و نگرانی‌هایی در استفاده از هوش مصنوعی در صنعت مالی وجود دارد؟

هوش مصنوعی مدتی است که راه خود را در بخش خدمات مالی پیدا کرده است و هیچ‌کس مزایای بی‌شمار آن را نمی‌تواند انکار کند. هوش مصنوعی می‌تواند بهره‌وری را افزایش دهد، فرآیندها را بهینه، هزینه را کمتر و تجربه مشتری را غنی کند. کاربردهای احتمالی این فناوری از ارائه خدمات به مشتری و بازاریابی گرفته تا مدیریت دارایی، مدیریت پرتفوی، خزانه‌داری و معاملات اوراق بهادار گسترده است.

فناوری هوش مصنوعی در حال حاضر در حوزه‌هایی نظیر کشف تقلب، مدیریت ریسک، رتبه‌بندی اعتباری و مشاوره ثروت جایگزین تصمیم‌گیرندگان انسانی شده و یا به تقویت این تصمیمات کمک کرده است، به طوریکه می‌توان گفت عدم به‌کارگیری قابلیت‌های فناوری هوش مصنوعی در این حوزه‌ها می‌تواند عواقب جبران‌ناپذیری در پی داشته باشد. با توجه به اینکه ما با حجم زیادی از داده مواجه هستیم که روزبه‌روز نیز به آن افزوده می‌شود، استفاده از سیستم‌های هوش مصنوعی برای افزایش دقت، ضروری هستند.

با پیشرفت قابلیت‌های ناشی از فناوری، رشد حجم داده‌های در دسترس و افزایش فشار رقابتی، کاربرد هوش مصنوعی در حوزه مالی فراگیر خواهد شد. با این حال همانند هر فناوری دیگری، پذیرش هوش مصنوعی نیز چالش‌های خاص خودش را دارد. رگولاتورها، متخصصان و مشتریان اغلب نگرانی‌هایی را در این زمینه مطرح می‌کنند که می‌توان آنها را در سه دسته «سوگیری»، «مسئولیت» و «شفافیت» قرار داد.


سوگیری هوش مصنوعی از کجا ناشی می‌شود و چگونه می‌توانیم آن را برطرف کنیم؟


یک مدل یا الگوریتم هوش مصنوعی زمانی دچار سوگیری می‌شود که تصمیماتی اتخاذ کند که در آن پیش‌داوری و یا تبعیض، نسبت به گروه خاصی از مردم مشاهده شود. ممکن است تصور کنید که این موارد نادر است و ماشین‌ها در مقایسه با انسان‌ها کمتر اهل قضاوت هستند. متاسفانه همان‌طور که سال گذشته نیز ثابت شد، ماشین‌ها بیش از آن چیزی که به نظر می‌رسد اهل قضاوت هستند. شکست هوش مصنوعی حتی می‌تواند در بزرگ‌ترین شرکت‌های جهان نیز رخ دهد.

در نوامبر سال ۲۰۱۹، هنگامی که دیوید هانسن خالق مشهور چارچوب نرم‌افزاری Ruby on Rails اپل را به تبعیض جنسیتی متهم کرد، این شرکت در رسانه‌های اجتماعی توجهات ناخواسته‌ زیادی را به خود جلب کرد. ماجرا این بود که دیوید و همسرش هم‌زمان برای درخواست کارت‌های اعتباری اپل اقدام کرده بودند و در حالی که آنها مالیات مشترکی پرداخت می‌کردند و نمره اعتباری همسرش نیز بالاتر از او بود، الگوریتم‌های هوش مصنوعی شرکت اپل دیوید را ۲۰ برابر بالاتر از همسرش رتبه‌بندی کردند. هنگامی که آنها در شبکه‌های اجتماعی این مساله را مطرح کردند، اپل نتوانست مشکلی را که به این نتیجه منجر شده است را تشخیص دهد (عدم درک صحیح از نحوه تصمیم‌گیری الگوریتم‌ها). در پی این اتفاق، رگولاتورهای مالی تحقیقات خود را از گلدمن ساکس (که مدیریت اپل‌کارت را بر عهده داشت) آغاز کردند.

این سوگیری‌ها چگونه رخ می‌دهد؟ یکی از دلایل این است که مساله به‌صورت اشتباه چارچوب‌بندی شده است. برای مثال اگر یک سیستم هوش مصنوعی که اعتبار یک مشتری را محاسبه می‌کند، به گونه‌ای برنامه‌ریزی شود که سود یک شرکت را به حداکثر برساند، خیلی زود می‌تواند رفتارهای ددمنشانه‌ای از خود بروز دهد و افرادی با امتیاز اعتباری پایین را جستجو کند و به آنها وام‌هایی با بهره بالا و شرایط نامناسب بفروشد. چنین رفتارهایی هر چند می‌تواند توسط جامعه ناپسند شمرده و غیراخلاقی تلقی شود اما هوش مصنوعی این تفاوت‌های ظریف را درک نمی‌کند.

دلیل دیگر این سوگیری‌های ناخواسته می‌تواند عدم آگاهی اجتماعی باشد: داده‌هایی که سیستم از آنها تغذیه کرده است حاوی سوگیری‌ها و پیش‌داوری‌هایی بوده که سیستم‌های اجتماعی را بازنمایی می‌کند. ماشین نه این سوگیری‌ها را درک می‌کند و نه قادر به حذف آن است، بلکه صرفاً تلاش می‌کند مدل را برای سوگیری‌های موجود در سیستم بهینه کند.

در نهایت ممکن است خود داده، نماینده خوبی از واقعیت موجود نباشد. هنگامی که نمونه‌های معدودی از بخش‌های اقلیتی خاص در سیستم وجود داشته باشد، الگوریتم‌ها می‌توانند تعمیم‌های گسترده‌ای بر اساس داده‌های محدودی که دارند، ارائه دهند. این موضوع ‌شباهت زیادی به یک نوع سوگیری شناختی با نام «راه‌حل‌های دم‌دستی» دارد که در تصمیمات انسانی مشاهده می‌شود.


چالش مسئولیت‌پذیری هوش مصنوعی


یکی دیگر از چالش‌های هوش مصنوعی این است که اگر الگوریتم‌های این فناوری تصمیم نادرستی بگیرند چه کسی مسئول است؟ اگر یک اتومبیل خودران در یک تصادف مقصر شناخته شود، آیا مالک آن مسئول است که نتوانسته از خودرو به درستی مراقبت کند یا به تماس الگوریتم خودرو پاسخی نداده است؟ و یا این مساله کاملاً به الگوریتم مربوط می‌شود؟ در مورد مثال قبلی و ارائه وام‌های پرهزینه به افرادی که رتبه اعتباری پایینی دارند چطور؟ شرکتی که از این الگوریتم‌ها استفاده می‌کند چه بازه زمانی فرصت دارد تا تشخیص دهد یک جای کار می‌لنگد تا آن را برطرف کند؟ شرکت تا چه حد مسئول این خسارت‌هاست؟

این‌ها موضوعات اخلاقی و رگولاتوری مهمی هستند که باید مورد توجه قرار گیرد. ریسک‌های مرتبط با فناوری به‌ویژه زمانی که مصرف‌کنندگان را تحت تأثیر قرار می‌دهند باید به‌دقت مدیریت شوند. به همین دلیل این موضوع اهمیت دارد که مسئولیت الگوریتمیک روی دوش اپراتورهایی قرار گیرد که موظفند کنترل‌های لازم را در این زمینه انجام دهند و اطمینان حاصل کنند که الگوریتم‌ها همان‌طوری که انتظار می‌رود عمل کنند.


عدم شفافیت


موضوعی که اغلب در خصوص فناوری هوش مصنوعی مطرح می‌شود این است که بسیاری از الگوریتم‌ها از عدم شفافیت و توضیح رنج می‌برند و تشخیص  اینکه الگوریتم‌ها چگونه و چرا به یک نتیجه‌گیری خاص می‌رسند دشوار است. در نتیجه این موضوع می‌تواند تشخیص سوگیری مدل یا رفتارهای تبعیض‌آمیز را با چالش مواجه کند. لذا عادلانه است که بگوییم نبود شفافیت و گسترش مدل‌های جعبه‌سیاه دلایل اصلی چالش‌هایی است که به آنها اشاره شد.


هوش مصنوعی قابل توضیح (XAI) می‌تواند بازی را تغییر دهد


مؤسسات مالی برای پیشگیری از سوگیری، تضمین امنیت و حریم خصوصی و ایجاد یک فناوری قابل توضیح و مسئولیت‌پذیر باید چارچوبی ارائه کنند. هوش مصنوعی نباید از رویکردهای موسوم به جعبه‌سیاه استفاده کند. روش‌هایی وجود دارد که این فناوری را برای انسان‌ها قابل‌فهم‌تر کند. XAI یکی از این روش‌هاست.

XAI مفهومی گسترده است که سیستم‌ها و ابزارهایی به منظور افزایش شفافیت فرآیند تصمیم‌گیری هوش مصنوعی برای انسان را شامل می‌شود. مهم‌ترین مزیت رویکرد XAI این است که از داده‌ها، متغیرها و نقاط تصمیم‌گیری، بینش‌هایی فراهم می‌کند که می‌تواند برای ارائه یک پیشنهاد یا توصیه مورد استفاده قرار گیرد. از سال ۲۰۱۷ تلاش‌های زیادی از طریق به‌کارگیری رویکرد XAI برای حل مساله جعبه‌های سیاه صورت پذیرفته است. دارپا یکی از پیشگامان این حوزه است که در حال تلاش برای ساخت سیستم‌هایی است که XAI را تسهیل می‌کند و در این زمینه موفقیت‌هایی هم در سطح صنعت و هم در سطح آکادمیک به دست آورده است. در یک سال گذشته، با شروع ساخت چنین سیستم‌هایی توسط گوگل، مایکروسافت و دیگر شرکت‌های بزرگ فناوری، شاهد افزایش قابل توجه پذیرش XAI بوده‌ایم.

XAI هنوز با چالش‌هایی همراه است. این فناوری در دوران طفولیت خود به سر می‌برد و مسائلی در خصوص قابلیت توضیح و یا دقت و همچنین ریسک‌هایی که شرکت‌ها برای پذیرش آن دارند، مطرح است. با این حال، موفقیت هوش مصنوعی به توانایی ما در ایجاد اعتماد به فناوری و ایجاد استقبال در بین کاربران، مشتریان و عموم مردم بستگی دارد. XAI می‌تواند بازی را تغییر دهد زیرا به افزایش شفافیت و غلبه بر بسیاری از موانعی که در حال حاضر از پذیرش عمومی آن جلوگیری می‌کند، کمک خواهد کرد.

منبع The Fintech Times
نویسنده / مترجم رابین خوزه
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.