پایگاه خبری راه پرداخت دارای مجوز به شماره ۷۴۵۷۲ از وزارت فرهنگ و ارشاد اسلامی و بخشی از «شبکه عصر تراکنش» است. راه پرداخت فعالیت خود را از دوم اردیبهشتماه ۱۳۹۰ شروع کرده و اکنون پرمخاطبترین رسانه ایران در زمینه فناوریهای مالی، بانکداری و پرداخت و استارتآپهای فینتک است.
چه چالشها و نگرانیهایی در استفاده از هوش مصنوعی در صنعت مالی وجود دارد؟
هوش مصنوعی مدتی است که راه خود را در بخش خدمات مالی پیدا کرده است و هیچکس مزایای بیشمار آن را نمیتواند انکار کند. هوش مصنوعی میتواند بهرهوری را افزایش دهد، فرآیندها را بهینه، هزینه را کمتر و تجربه مشتری را غنی کند. کاربردهای احتمالی این فناوری از ارائه خدمات به مشتری و بازاریابی گرفته تا مدیریت دارایی، مدیریت پرتفوی، خزانهداری و معاملات اوراق بهادار گسترده است.
فناوری هوش مصنوعی در حال حاضر در حوزههایی نظیر کشف تقلب، مدیریت ریسک، رتبهبندی اعتباری و مشاوره ثروت جایگزین تصمیمگیرندگان انسانی شده و یا به تقویت این تصمیمات کمک کرده است، به طوریکه میتوان گفت عدم بهکارگیری قابلیتهای فناوری هوش مصنوعی در این حوزهها میتواند عواقب جبرانناپذیری در پی داشته باشد. با توجه به اینکه ما با حجم زیادی از داده مواجه هستیم که روزبهروز نیز به آن افزوده میشود، استفاده از سیستمهای هوش مصنوعی برای افزایش دقت، ضروری هستند.
با پیشرفت قابلیتهای ناشی از فناوری، رشد حجم دادههای در دسترس و افزایش فشار رقابتی، کاربرد هوش مصنوعی در حوزه مالی فراگیر خواهد شد. با این حال همانند هر فناوری دیگری، پذیرش هوش مصنوعی نیز چالشهای خاص خودش را دارد. رگولاتورها، متخصصان و مشتریان اغلب نگرانیهایی را در این زمینه مطرح میکنند که میتوان آنها را در سه دسته «سوگیری»، «مسئولیت» و «شفافیت» قرار داد.
سوگیری هوش مصنوعی از کجا ناشی میشود و چگونه میتوانیم آن را برطرف کنیم؟
یک مدل یا الگوریتم هوش مصنوعی زمانی دچار سوگیری میشود که تصمیماتی اتخاذ کند که در آن پیشداوری و یا تبعیض، نسبت به گروه خاصی از مردم مشاهده شود. ممکن است تصور کنید که این موارد نادر است و ماشینها در مقایسه با انسانها کمتر اهل قضاوت هستند. متاسفانه همانطور که سال گذشته نیز ثابت شد، ماشینها بیش از آن چیزی که به نظر میرسد اهل قضاوت هستند. شکست هوش مصنوعی حتی میتواند در بزرگترین شرکتهای جهان نیز رخ دهد.
در نوامبر سال ۲۰۱۹، هنگامی که دیوید هانسن خالق مشهور چارچوب نرمافزاری Ruby on Rails اپل را به تبعیض جنسیتی متهم کرد، این شرکت در رسانههای اجتماعی توجهات ناخواسته زیادی را به خود جلب کرد. ماجرا این بود که دیوید و همسرش همزمان برای درخواست کارتهای اعتباری اپل اقدام کرده بودند و در حالی که آنها مالیات مشترکی پرداخت میکردند و نمره اعتباری همسرش نیز بالاتر از او بود، الگوریتمهای هوش مصنوعی شرکت اپل دیوید را ۲۰ برابر بالاتر از همسرش رتبهبندی کردند. هنگامی که آنها در شبکههای اجتماعی این مساله را مطرح کردند، اپل نتوانست مشکلی را که به این نتیجه منجر شده است را تشخیص دهد (عدم درک صحیح از نحوه تصمیمگیری الگوریتمها). در پی این اتفاق، رگولاتورهای مالی تحقیقات خود را از گلدمن ساکس (که مدیریت اپلکارت را بر عهده داشت) آغاز کردند.
این سوگیریها چگونه رخ میدهد؟ یکی از دلایل این است که مساله بهصورت اشتباه چارچوببندی شده است. برای مثال اگر یک سیستم هوش مصنوعی که اعتبار یک مشتری را محاسبه میکند، به گونهای برنامهریزی شود که سود یک شرکت را به حداکثر برساند، خیلی زود میتواند رفتارهای ددمنشانهای از خود بروز دهد و افرادی با امتیاز اعتباری پایین را جستجو کند و به آنها وامهایی با بهره بالا و شرایط نامناسب بفروشد. چنین رفتارهایی هر چند میتواند توسط جامعه ناپسند شمرده و غیراخلاقی تلقی شود اما هوش مصنوعی این تفاوتهای ظریف را درک نمیکند.
دلیل دیگر این سوگیریهای ناخواسته میتواند عدم آگاهی اجتماعی باشد: دادههایی که سیستم از آنها تغذیه کرده است حاوی سوگیریها و پیشداوریهایی بوده که سیستمهای اجتماعی را بازنمایی میکند. ماشین نه این سوگیریها را درک میکند و نه قادر به حذف آن است، بلکه صرفاً تلاش میکند مدل را برای سوگیریهای موجود در سیستم بهینه کند.
در نهایت ممکن است خود داده، نماینده خوبی از واقعیت موجود نباشد. هنگامی که نمونههای معدودی از بخشهای اقلیتی خاص در سیستم وجود داشته باشد، الگوریتمها میتوانند تعمیمهای گستردهای بر اساس دادههای محدودی که دارند، ارائه دهند. این موضوع شباهت زیادی به یک نوع سوگیری شناختی با نام «راهحلهای دمدستی» دارد که در تصمیمات انسانی مشاهده میشود.
چالش مسئولیتپذیری هوش مصنوعی
یکی دیگر از چالشهای هوش مصنوعی این است که اگر الگوریتمهای این فناوری تصمیم نادرستی بگیرند چه کسی مسئول است؟ اگر یک اتومبیل خودران در یک تصادف مقصر شناخته شود، آیا مالک آن مسئول است که نتوانسته از خودرو به درستی مراقبت کند یا به تماس الگوریتم خودرو پاسخی نداده است؟ و یا این مساله کاملاً به الگوریتم مربوط میشود؟ در مورد مثال قبلی و ارائه وامهای پرهزینه به افرادی که رتبه اعتباری پایینی دارند چطور؟ شرکتی که از این الگوریتمها استفاده میکند چه بازه زمانی فرصت دارد تا تشخیص دهد یک جای کار میلنگد تا آن را برطرف کند؟ شرکت تا چه حد مسئول این خسارتهاست؟
اینها موضوعات اخلاقی و رگولاتوری مهمی هستند که باید مورد توجه قرار گیرد. ریسکهای مرتبط با فناوری بهویژه زمانی که مصرفکنندگان را تحت تأثیر قرار میدهند باید بهدقت مدیریت شوند. به همین دلیل این موضوع اهمیت دارد که مسئولیت الگوریتمیک روی دوش اپراتورهایی قرار گیرد که موظفند کنترلهای لازم را در این زمینه انجام دهند و اطمینان حاصل کنند که الگوریتمها همانطوری که انتظار میرود عمل کنند.
عدم شفافیت
موضوعی که اغلب در خصوص فناوری هوش مصنوعی مطرح میشود این است که بسیاری از الگوریتمها از عدم شفافیت و توضیح رنج میبرند و تشخیص اینکه الگوریتمها چگونه و چرا به یک نتیجهگیری خاص میرسند دشوار است. در نتیجه این موضوع میتواند تشخیص سوگیری مدل یا رفتارهای تبعیضآمیز را با چالش مواجه کند. لذا عادلانه است که بگوییم نبود شفافیت و گسترش مدلهای جعبهسیاه دلایل اصلی چالشهایی است که به آنها اشاره شد.
هوش مصنوعی قابل توضیح (XAI) میتواند بازی را تغییر دهد
مؤسسات مالی برای پیشگیری از سوگیری، تضمین امنیت و حریم خصوصی و ایجاد یک فناوری قابل توضیح و مسئولیتپذیر باید چارچوبی ارائه کنند. هوش مصنوعی نباید از رویکردهای موسوم به جعبهسیاه استفاده کند. روشهایی وجود دارد که این فناوری را برای انسانها قابلفهمتر کند. XAI یکی از این روشهاست.
XAI مفهومی گسترده است که سیستمها و ابزارهایی به منظور افزایش شفافیت فرآیند تصمیمگیری هوش مصنوعی برای انسان را شامل میشود. مهمترین مزیت رویکرد XAI این است که از دادهها، متغیرها و نقاط تصمیمگیری، بینشهایی فراهم میکند که میتواند برای ارائه یک پیشنهاد یا توصیه مورد استفاده قرار گیرد. از سال ۲۰۱۷ تلاشهای زیادی از طریق بهکارگیری رویکرد XAI برای حل مساله جعبههای سیاه صورت پذیرفته است. دارپا یکی از پیشگامان این حوزه است که در حال تلاش برای ساخت سیستمهایی است که XAI را تسهیل میکند و در این زمینه موفقیتهایی هم در سطح صنعت و هم در سطح آکادمیک به دست آورده است. در یک سال گذشته، با شروع ساخت چنین سیستمهایی توسط گوگل، مایکروسافت و دیگر شرکتهای بزرگ فناوری، شاهد افزایش قابل توجه پذیرش XAI بودهایم.
XAI هنوز با چالشهایی همراه است. این فناوری در دوران طفولیت خود به سر میبرد و مسائلی در خصوص قابلیت توضیح و یا دقت و همچنین ریسکهایی که شرکتها برای پذیرش آن دارند، مطرح است. با این حال، موفقیت هوش مصنوعی به توانایی ما در ایجاد اعتماد به فناوری و ایجاد استقبال در بین کاربران، مشتریان و عموم مردم بستگی دارد. XAI میتواند بازی را تغییر دهد زیرا به افزایش شفافیت و غلبه بر بسیاری از موانعی که در حال حاضر از پذیرش عمومی آن جلوگیری میکند، کمک خواهد کرد.