پایگاه خبری راه پرداخت دارای مجوز به شماره ۷۴۵۷۲ از وزارت فرهنگ و ارشاد اسلامی و بخشی از «شبکه عصر تراکنش» است. راه پرداخت فعالیت خود را از دوم اردیبهشتماه ۱۳۹۰ شروع کرده و اکنون پرمخاطبترین رسانه ایران در زمینه فناوریهای مالی، بانکداری و پرداخت و استارتآپهای فینتک است.
روشی بهتر برای آنبوردینگ هوش مصنوعی
مشکل چیست؟ بعضی از شرکتها نمیتوانند بهخوبی از هوش مصنوعی استفاده کنند و از لحاظ بهرهوری آنطور که میخواهند پیشرفت نمیکنند. چرا این اتفاق میافتد؟ مدیران اغلب هدفشان از بهکارگیری هوش مصنوعی را با شفافیت بیان نمیکنند. در نتیجه افراد متوجه نمیشوند که هدف از هوش مصنوعی کمک به آنهاست، نه جایگزینکردن آنها
ماهنامه عصر تراکنش شماره ۳۶ / در سال 2018 شرکت Workforce Institute در نظرسنجی از سه هزار مدیر در هشت کشور صنعتی مختلف، به این نتیجه رسید که اکثر شرکتکنندگان، هوش مصنوعی را ابزاری ارزشمند برای بهرهوری میدانند.
دلیل این موضوع مشخص است؛ هوش مصنوعی از لحاظ سرعت پردازش، دقت و پیوستگی (ماشینها هیچگاه به خاطر خستگی دچار خطا نمیشوند) مزیتهای قابل توجهی دارد و به همین خاطر است که بسیاری از متخصصان امروزه از آن استفاده میکنند. برای مثال بعضی از متخصصان پزشکی، بیماریها را با کمک هوش مصنوعی تشخیص میدهند و گزینههای درمانی خود را نیز با کمک این فناوری تعیین میکنند.
با این حال، شرکتکنندگان این نظرسنجی اظهار کردهاند که در رابطه با هوش مصنوعی کمی نگران هستند و میترسند که این ماشینها جای آنها را پر کنند. البته این طرز فکر فقط مربوط به شرکتکنندگان این نظرسنجی نمیشود. روزنامه گاردین هم اخیراً گزارش کرده که بیش از شش میلیون نفر از کارمندان اروپا میترسند شغلشان را به خاطر هوش مصنوعی از دست بدهند. در سخنان استادان و مدیرانی که هر روز در کنفرانسها و سمینارها ملاقات میکنیم نیز این ترس بهخوبی نمایان است. پس میتوان گفت مزیتهای هوش مصنوعی یک نکته منفی هم دارد؛ وقتی ماشینی کاری را بهتر از انسانها انجام میدهد، دیگر چه نیازی به نیروی انسانی خواهد بود؟
وجود چنین ترسهایی نشان میدهد که وقتی سازمانها میخواهند از مزایای هوش مصنوعی بهره ببرند، باید هنگام معرفی آن به افرادی که قرار است با آن کار کنند، مراقب باشند. «اندرو ویلسون» که تا ژانویه 2020 مدیر ارشد فناوری اطلاعات شرکت اکسنچر بود، میگوید: «هرچه سازمان بیشتر تأکید کند که هوش مصنوعی قرار است به افراد کمک کند و افراد قرار است به هوش مصنوعی کمک کنند، ارزش بیشتری از آن به دست میآید.»
طبق یافتههای شرکت اکسنچر، شرکتهایی که بهوضوح اعلام میکنند هدفشان از بهکارگیری هوش مصنوعی کمک به انسانهاست (نه جایگزینکردن آنها)، نسبت به شرکتهایی که هدفشان را از بهکارگیری هوش مصنوعی بیان نمیکنند (یا در مورد آن شفاف نیستند) در اغلب ابعاد بهرهوری مدیریتی (بهخصوص سرعت، رشد و کارایی تصمیمگیریها) عملکرد بهتری دارند.
به بیان دیگر، درست مانند زمانی که یک نیروی بااستعداد جدید به تیم ملحق میشود، هوش مصنوعی نیز نوعی نیروی کمکی است که به جای شکست اعضای تیم باید به موفقیت آنها منجر شود. یک کارفرمای هوشمند وقتی نیروی جدیدی را استخدام میکند، کارهای ساده را به او میسپارد تا ابتدا در زمینههای کماهمیت تجربه عملی کسب کند. سپس کارمندان باتجربهتر را بهعنوان منتور او انتخاب میکند تا به او کمک کرده و او را آموزش بدهند.
این کار باعث میشود کارمندان جدید کارها را یاد بگیرند و کارمندان قبلی بر وظایف مهمتر تمرکز کنند. همینطور که این کارمندان جدید تجربه کسب میکنند و نشان میدهند که از پس کارها برمیآیند، منتورهایشان نیز بیشتر به آنها اعتماد میکنند و تصمیمات مهمتری را به آنها میسپارند. با گذشت زمان، کارآموز این منتورها به همکارانشان تبدیل میشوند و بینشها و مهارتهای او را تکمیل میکنند.
به نظر ما این رویکرد میتواند برای هوش مصنوعی هم جواب بدهد. در ادامه، خلاصهای از تحقیقات خودمان و دیگران را ارائه میدهیم، در مورد پیادهسازی هوش مصنوعی و سیستمهای اطلاعاتی صحبت میکنیم و مطالعات سازمانی مربوط به نوآوری و روشهای برتر آن را شرح میدهیم تا نشان دهیم که چطور میتوان هوش مصنوعی را در چهار مرحله پیادهسازی کرد. با استفاده از این رویکرد چهارمرحلهای، شرکتها میتوانند اعتماد کارمندانشان را نسبت به این فناوری افزایش دهند و در سازمانشان نوعی سیستم شناختی غیرمتمرکز «انسان ـ هوش مصنوعی» بسازند. سیستمی که در آن، هم انسانها و هم هوش مصنوعی پیوسته در حال پیشرفت هستند.
برخی سازمانها مرحله اول این رویکرد را آزمایش کردهاند و برخی دیگر تا مراحل دوم و سوم هم پیش رفتهاند. کسی هنوز به مرحله چهارم نرسیده، اما علائم و شواهد نشان میدهد که خیلی زود شاهد این اتفاق خواهیم بود. رسیدن به مرحله چهارم از لحاظ فناوری کاملاً امکانپذیر است و ارزش بیشتری برای شرکتها به ارمغان خواهد آورد؛ زیرا در این مرحله، افراد کاملاً با فناوری هوش مصنوعی سازگار خواهند شد.
در زمان تصمیمگیریهای متعدد که نیروی انسانی خسته و کمحواس میشوند، هوش مصنوعی میتواند کمک زیادی به آنها بکند.
مرحله اول: هوش مصنوعی بهعنوان دستیار
اولین مرحله پذیرش هوش مصنوعی شبیه به فرایند آموزش دستیار است. وقتی کارمند جدیدی وارد سازمان میشود، ابتدا قوانین پایه را به او یاد میدهید و سپس وظایفی ساده و در عین حال وقتگیر که معمولاً خودتان انجام میدادید را به او میسپارید (مانند مرتبکردن فرمهای آنلاین یا خلاصهنویسی اسناد) تا مقداری از وقتتان آزاد شود و بتوانید بر کارهای مهمتری از شغلتان تمرکز کنید. این کارآموز با مشاهده کارهای شما، انجام وظایف و سؤال پرسیدن بهمرور کارها را یاد میگیرد.
یکی از رایجترین وظایفی که در ابتدا به دستیارهای هوش مصنوعی محول میشود، طبقهبندی دادههاست. سیستمهای توصیهگری که شرکتها از اواسط دهه 1990 برای کمک به مشتریان از آن استفاده میکردند (تا بتوانند هزاران محصول را فیلتر کرده و مرتبطترین آنها را پیدا کنند)، نمونه خوبی از دستیار هوش مصنوعی است. آمازون و نتفلیکس اولین وبسایتهایی بودند که از این فناوری استفاده کردند.
در حال حاضر حجم زیادی از تصمیمگیریهای کسبوکارها به این نوع طبقهبندی احتیاج دارد. برای مثال، وقتی مدیران پورتفوی سهامی را انتخاب میکنند تا در آن سرمایهگذاری کنند، اطلاعاتی که در دسترس آنها قرار میگیرد، خیلی بیشتر از حجمی است که یک انسان بتواند آن را پردازش کند و همیشه هم اطلاعات جدیدی به آن اضافه میشود که تاریخچه اطلاعات آن را طولانیتر میکند. یک نرمافزار میتواند با توجه به معیار سرمایهگذاری مورد نظر، این سهام را فیلتر کرده و مسئله را بهتر از انسانها مدیریت کند.
در عین حال، پردازش زبان طبیعی میتواند مرتبطترین اخبار مربوط به شرکت را شناسایی کند و حتی عقاید کلی نسبت به رویدادهای پیشروی شرکت (که معمولاً در گزارشهای تحلیلگران میآید) را هم ارزیابی کند. یکی از شرکتهای واقع در لندن، به نام «مدیریت دارایی ماربل بار» (MBAM) که در سال 2002 تأسیس شد، جزء اولین سازمانهایی بود که در محیط کارش از این فناوریها استفاده کرد. این شرکت پلتفرمی به نام RAID (پایگاه داده اطلاعات و بررسی تحقیقات) توسعه داده تا مدیران پورتفوی بتوانند به کمک آن حجم زیادی از اطلاعات مربوط به رویدادهای شرکتی، اتفاقات خبری و تغییرات قیمت سهام را فیلتر کنند.
یکی دیگر از روشهایی که هوش مصنوعی میتواند از طریق آن به نیروهای انسانی کمک کند، این است که از وظایف آنها الگوبرداری کند. همه شما تابهحال از گوگل استفاده کردهاید و احتمالاً دیدهاید که وقتی عبارتی را جستوجو میکنید، گوگل متن شما را بهصورت خودکار کامل میکند.
فناوری «پیشبینی متن» در تلفن همراه هم روش مشابهی را اتخاذ میکند تا بتواند سرعت تایپ شما را افزایش دهد. این شکل از الگوبرداری که اغلب به آن «بوتاسترپینگ قضاوتی» میگویند، بیش از 30 سال پیش توسعه یافت و خیلی راحت میتوان برای تصمیمگیری از آن استفاده کرد. هوش مصنوعی میتواند با استفاده از این قابلیت و با الگوبرداری از تصمیمگیریهای قبلی کارمندان، انتخابهای احتمالی آنها در آینده را شناسایی کند و وقتی فرد با تصمیمات متعددی روبهرو شد، این انتخاب را بهعنوان یک نقطه شروع به او پیشنهاد دهد. بنابراین هوش مصنوعی به جای اینکه کار را انجام دهد، فقط سرعت انجام آن را افزایش میدهد و نمیتواند جایگزین نیروی انسان شود.
بگذارید نگاهی به این موقعیت خاص بیندازیم. تصور کنید کارمندان یک آژانس هواپیمایی میخواهند تصمیم بگیرند که چقدر غذا و نوشیدنی برای پرواز آماده کنند. در این صورت، هوش مصنوعی با توجه به تجربیات سفرهای پیشین و انجام یکسری محاسبات به آنها کمک میکند تا فهرست سفارشهای غذا را پر کنند. اگر در این زمینه تصمیم غلطی گرفته شود، هزینههای زیادی بر شرکت تحمیل میشود، اگر کمتر از میزان لازم غذا سفارش دهند، ممکن است مسافران عصبانی شوند و دیگر از آن خط هواپیمایی بلیت تهیه نکنند. همچنین اگر بیش از اندازه غذا سفارش دهند، مقدار زیادی از آن اسراف میشود و از آنجایی که بار هواپیما بیشتر شده، سوخت بیشتری هم مصرف میشود.
در این شرایط وجود نوعی الگوریتم بسیار کمککننده است. هوش مصنوعی میتواند با بررسی انتخابهای پیشین یا با استفاده از قوانینی که توسط مدیر وضع شدهاند، تصمیمات مدیر بخش تغذیه را پیشبینی کند. هوش مصنوعی همچنین میتواند این سفارشهای پیشنهادی را متناسب با مقتضیات هر پرواز (برای مثال مقدار آب و غذایی که در آن مسیر احتیاج است و حتی خریدهای پیشین مسافران) تکمیل کند.
با این حال، درست مانند پیشبینی خودکار متن در تلفن همراه، در اینجا هم انسانها مجبور نیستند پیشنهاد ماشین را قبول کنند و در صورت نیاز، میتوانند چیز دیگری به جای آن بنویسند. انسانها همیشه نقش راننده اصلی را دارند و ماشینها کمکرانندههایی هستند که از مدل تصمیمگیری آنها الگوبرداری میکنند یا آنها را پیشبینی میکنند.
بنابراین، همکاری مدیران با هوش مصنوعی نباید موضوع غیرقابل باوری باشد. ما همین الان هم داریم این کار را در زندگی شخصیمان انجام میدهیم. وقتی به گوگل اجازه میدهیم ادامه متن جستوجویمان را تکمیل کند، یعنی داریم از هوش مصنوعی بهعنوان دستیارمان استفاده میکنیم. در محیط کار هم، مدیران میتوانند برای مثال قوانین بهخصوصی را برای دستیار هوش مصنوعی وضع کنند تا هنگام تکمیل فرمها آن را رعایت کنند و بر اساس آنها تصمیم بگیرند.
در واقع، بسیاری از ابزارهای نرمافزاری که در حال حاضر در محیط کار استفاده میشوند (از جمله برنامههای رتبهسنجی اعتبار)، به همین صورت عمل میکنند و در حقیقت مجموعهای از تصمیمگیریهای تعریفشده انسانها به حساب میآیند. دستیار هوش مصنوعی میتواند کارهایی را که مدیر انجام میدهد، رمزگذاری کند. بنابراین برای یادگیری هوش مصنوعی هیچ نیازی نیست مدیر تغییری در رفتارش ایجاد کند، چه برسد به اینکه بخواهد تلاشی برای «آموزش» دستیار کند.
مرحله دوم: هوش مصنوعی بهعنوان منتور
مرحله بعدی، آمادهکردن سیستم هوش مصنوعی برای ارائه بازخوردهای آنی است. به لطف برنامههای یادگیری ماشین، میتوان هوش مصنوعی را آموزش داد تا بادقت تصمیمات کاربر را در شرایط بهخصوص پیشبینی کند (برای مثال، هوش مصنوعی هیچگاه به خاطر خستگی یا اعتمادبهنفس بیش از حد، در تصمیماتش دچار خطا و لغزش نمیشود). اگر کاربر بخواهد تصمیمی بگیرد که با پیشینه تصمیماتش همخوانی ندارد، سیستم این مغایرت را شناسایی کرده و به او گوشزد میکند. این مسئله بهخصوص برای زمانی که حجم تصمیمگیریها زیاد است و کارمندان ممکن است دچار خستگی یا حواسپرتی شوند، بسیار کمککننده است.
تحقیقاتی که در زمینه روانشناسی، اقتصاد رفتاری و علوم شناختی انجام شده، نشان میدهد که توانایی استدلال انسانها محدود و ناکامل است. بهخصوص در رابطه با مسائل آماری و احتمالی که همیشه بخش مهمی از کسبوکار هستند، این موضوع بسیار صدق میکند. بسیاری از تحقیقات مربوط به تصمیمات حقوقی (که چن، یکی از نویسندگان این مقاله، در یکی از آنها همکاری داشته) نشان دادهاند که قاضیها قبل از ناهار، نسبت به زمان بعد از ناهار، بیشتر حکم پناهندگی سیاسی صادر میکنند.
همچنین، اگر تیم فوتبال محبوبشان روز قبل در مسابقه برنده شده باشد، حکمهای سبکتری برای مجرمان در نظر میگیرند یا اگر آن روز تولد متهم باشد، نسبت به او آسانگیرتر میشوند. بنابراین بدیهی است که اگر نرمافزاری برای کمک به انسان وجود داشته باشد که بتواند به آنها بگوید تصمیماتشان بر خلاف تصمیمگیریهای قبلی است، یا با متغیرهای حقوقی مغایرت دارد، قضاوت بهتری انجام میشود.
هوش مصنوعی میتواند این نوع اطلاعات را در اختیار نیروی انسانی قرار دهد. پژوهشی دیگر (که چن یکی از نویسندگان آن بود) نشان داد برنامههای هوش مصنوعی که مدلی متشکل از متغیرهای حقوقی ساده (که توسط نویسندگان تحقیق ساخته شده بودند) را پردازش میکنند، میتوانند در همان روزی که پرونده باز میشود، تصمیمات مربوط به پناهندگی را با دقت ۸۰ درصدی پیشبینی کنند. نویسندگان این تحقیق قابلیت یادگیری را نیز به این برنامه اضافه کردهاند تا برنامه مذکور بتواند با مراجعه به تصمیمات قبلی قاضی، تصمیمگیریهای او را شبیهسازی کند.
این رویکرد در شرایط دیگر هم بهخوبی قابل اجراست. برای مثال، وقتی مدیران پورتفوی MBAMبخواهند خریدوفروشهایی انجام دهند که ممکن است ریسک کلی پورتفوی را افزایش دهد (برای مثال درصد کل سهام آن نسبت به یک بخش یا منطقه جغرافیایی بهخصوص را افزایش دهد)، سیستم با استفاده از یک پیام فوری این مسئله را به آنها هشدار میدهد تا بتوانند تصمیمات مناسبی بگیرند. حال، اگر این تصمیمگیری خطر چندانی برای شرکت به وجود نیاورد، مدیر پورتفوی میتواند بازخورد هوش مصنوعی را نادیده بگیرد، اما در هر صورت، هوش مصنوعی به مدیر پورتفوی کمک میکند نسبت به تصمیمگیریهایش بیشتر فکر کند.
البته، هوش مصنوعی همیشه هم درست نمیگوید. در بسیاری از موارد، هوش مصنوعی اطلاعات خصوصی قابل اطمینانی که تصمیمگیرنده به آن دسترسی دارد را در نظر نمیگیرد. بنابراین ممکن است به جای تصحیح سوگیریهای رفتاری انسان، او را گمراه کند. به همین خاطر است که استفاده از هوش مصنوعی باید بهصورت یک گفتوگو صورت بگیرد. در این گفتوگو، الگوریتم با توجه به دادههایی که دارد، توصیههایی به انسان ارائه میدهد و انسان به هوش مصنوعی یاد میدهد که چرا فلان توصیه را رد کرده است. این موضوع کارایی هوش مصنوعی را افزایش میدهد و در عین حال، قدرت اختیار انسان در تصمیمگیریها را حفظ میکند.
متأسفانه، بسیاری از سیستمهای هوش مصنوعی طوری تنظیم شدهاند که این قدرت اختیار را از انسان میگیرند. برای مثال وقتی الگوریتمی، یکی از تراکنشهای بانکی را بهعنوان کلاهبرداری احتمالی علامتگذاری میکند، کارمندان اغلب نمیتوانند بدون اجازه ناظر یا حتی حسابرس خارجی این تراکنش را تأیید کنند. علاوه بر این، گاهی لغو تصمیمگیری ماشین کاری تقریباً غیرممکن است و این موضوع، هم برای مشتریان و هم برای متخصصان خدمات مشتری بسیار ناامیدکننده است. در بعضی از موارد، دلایل تصمیمگیری هوش مصنوعی غیرشفاف هستند و حتی اگر ماشین اشتباه کرده باشد، کارمندان اجازه ندارند تصمیمگیری آن را زیر سؤال ببرند.
یکی دیگر از مسائلی که هنگام جمعآوری داده از تصمیمگیریهای افراد به وجود میآید، مسئله حریم خصوصی است. به علاوه، اگر بخواهیم کنترل تبادل اطلاعات بین انسانها و ماشینها را به دست انسانها بسپاریم، باید تضمین دهیم تمام دادههایی که توسط هوش مصنوعی جمعآوری میشود، محرمانه میمانند. در واقع باید دیواری وجود داشته باشد که تیم مهندسی را از تیم مدیریت جدا کند. در غیر این صورت، شاید کارمندان بترسند که اگر آزادانه اطلاعاتشان را در اختیار ماشین قرار دهند و در شرکت اشتباهی مرتکب شوند، ممکن است دچار عواقب بدی بشوند.
همچنین، شرکتها باید در رابطه با طراحی و تعامل با هوش مصنوعی قوانینی را در نظر بگیرند تا مطمئن شوند که این سیستمها با هنجارها و رویههای شرکت همراستا هستند. این قوانین ممکن است میزان دقت پیشبینی هوش مصنوعی (برای نشاندادن توصیه یا ارائه دلیل برای آن) را مشخص کنند، معیاری برای ارزیابی ضرورت آن توصیه ارائه دهند و بگویند که کارمند باید تحت چه شرایطی به هوش مصنوعی آموزش دهد یا به جای تأیید یا رد کردن پیشنهادهای آن، مسئله را به یک ناظر ارجاع دهد.
برای اینکه کارمندان بتوانند حس کنترل خود را در مرحله دوم حفظ کنند، توصیه میکنیم مدیران و طراحان هوش مصنوعی، این افراد را در فرایند طراحیشان شرکت دهند؛ یعنی بهعنوان متخصص از آنها استفاده کنند تا دادههایی که قرار است مورد استفاده قرار بگیرند را تعریف کنند و مبنای درستی آن را تشخیص دهند. همچنین هنگام توسعه ماشین کارمندان را با مدلها آشنا سازند و وقتی آن مدلها به کار گرفته شدند، آموزشهای لازم را به او انتقال دهند. در این فرایند، کارمندان میبینند که مدلهای هوش مصنوعی چطور ساخته میشوند، دادهها چطور مدیریت میشوند و چرا ماشینها چنین توصیههایی را ارائه میدهند.
البته هوش مصنوعی همیشه درست نمیگوید. به همین خاطر است که باید در قالب نوعی گفتوگو از آن استفاده کنیم تا بتوانیم کارایی آن را افزایش دهیم و در عین حال، قدرت اختیار نیروهای انسانی را حفظ کنیم.
مرحله سوم: مربی
در یکی از نظرسنجیهای اخیر PwC نزدیک به ۶۰ درصد از شرکتکنندگان گفته بودند که دوست دارند بهصورت روزانه یا هفتگی نسبت به عملکردشان بازخورد بگیرند. درک علت این موضوع کار دشواری نیست. همانطور که «پیتر دراکر» در مقاله معروفی در «هاروارد بیزینس ریویو» به نام «مدیریت خود» در سال ۲۰۰۵ بیان کرد، افراد معمولاً نمیدانند در چه کارهایی مهارت دارند و وقتی هم که فکر میکنند میدانند، معمولاً اشتباه میکنند.
مشکل اینجاست که تنها راه برای کشف نقاط قوت و فرصتهای پیشرفت این است که بادقت اعمال و تصمیمگیریهای کلیدی افراد را تحلیل کنیم. برای این کار باید ببینیم چه انتظاراتی از نتایج تصمیمگیریها داریم و سپس، 9 ماه تا یک سال بعد این انتظارات را با آنچه در عمل اتفاق افتاد، مقایسه کنیم. بنابراین بازخوردی که کارمندان دریافت میکنند، معمولاً از طرف مافوقها و طی بازبینی عملکرد صورت میگیرد؛ نه در زمان و به شکلی که خود دریافتکننده بازخورد انتخاب میکند.
این موضوع خوشایندی نیست؛ زیرا همانطور که «تسا وست» (Tessa West) از دانشگاه نیویورک، در یکی از تحقیقات عصبشناختی اخیرش میگوید، هرچه افراد احساس کنند که قدرت اختیار بیشتری داشته و کنترل گفتوگو با ماشین را در دست دارند (برای مثال بتوانند زمان دریافت بازخورد خود را انتخاب کنند)، بهتر میتوانند نسبت به آن پاسخ دهند.
هوش مصنوعی میتواند این مشکل را برطرف کند. با قابلیتهایی که پیشتر در مورد این فناوری گفتیم، هوش مصنوعی میتواند بهراحتی به کارمندان بازخورد ارائه دهد. در نتیجه به آنها اجازه میدهد نسبت به عملکرد خودشان آگاهی داشته باشند و به خطاها و اشتباهاتشان فکر کنند. وقتی هوش مصنوعی دادههای مربوط به رفتارهای پیشین کارمندان را بررسی کند و خلاصهای ماهانه از عملکردشان ارائه دهد، آنها بهتر میتوانند اقدامات و الگوهای تصمیمگیری خود را متوجه شوند. برای مثال مدیران پورتفوی در MBAM از یک سیستم آنالیتیکس داده که تصمیمگیریهای سرمایهگذاری هر فرد را ضبط میکند، بازخورد دریافت میکنند.
این دادهها میتوانند سوگیریهای جالب و متناقض بین مدیران پورتفوی را آشکار کنند. برخی از مدیران پورتفوی ممکن است نسبت به دیگران زیانگریزی بیشتری داشته باشند و بیش از آنچه باید، برای سرمایهگذاریهای کمبازده صبر کنند. سیستم آنالیتیکس چنین رفتارهایی را شناسایی میکند و مانند یک مربی، بازخوردهای شخصیسازیشده به فرد ارائه میدهند تا تغییرات رفتاری او را در گذشت زمان نشان دهد و به او یاد بدهد که چطور تصمیماتش را ارتقا دهد. رهبران MBAM معتقدند که این موضوع باعث «بهبود تریدینگ» میشود و وجه تمایزی است که هم به توسعه مدیران پورتفوی کمک میکند و هم سازمان را جذابتر میسازد.
علاوه بر این، همانطور که یک منتور خوب میتواند از بینشهای کارآموزش درس بگیرد، یک «ربات مربی» مجهز به یادگیری ماشین هم میتواند (بعد از ارائه بازخورد و توانمند کردن کارآموزان انسانیاش) از تصمیمات آن کارمندان یاد بگیرد. در رابطهای که شرح دادیم، انسان میتواند با ربات مربی خود مخالفت کند و این مسئله، دادههای جدیدی به وجود میآورد که مدل «پنهانی» هوش مصنوعی را تغییر میدهد. یعنی اگر مدیر پورتفوی تصمیم بگیرد بهدلیل وقایع اخیر شرکت یک سهام برجسته را خریداری نکند، میتواند در این رابطه به سیستم توضیحی ارائه دهد. با ارائه فیدبک، سیستم بهطور پیوسته دادههایی به دست میآورد که میتواند با تحلیل آنها بینشهای تازهای ارائه دهد.
اگر کارمندان بتوانند در تبادل اطلاعات با هوش مصنوعی کنترل داشته باشند، احتمال بیشتری دارد که آن را بهعنوان کانالی امن برای ارائه بازخورد بپذیرند و قبول کنند که این فناوری، قصد کمک به آنها را دارد؛ نه اینکه صرفاً بخواهد عملکردشان را ارزیابی کند. برای رسیدن به این هدف، انتخاب رابط درست اهمیت زیادی دارد. برای مثال در MBAM ابزاری که برای بهبود تریدینگ استفاده میشود (برای مثال ابزار تصویری) متناسب با ترجیحات مدیر پورتفوی در نظر گرفته میشود.
درست مانند مرحله دوم، در این مرحله نیز مشارکتدادن کارمندان در طراحی سیستم بسیار مهم است. وقتی هوش مصنوعی مربی باشد، افراد بیشتر هراس از دست دادن قدرتشان را دارند؛ زیرا هوش مصنوعی در این مرحله مانند رقیب آنها به نظر میآید و چه کسی دوست دارد کمهوشتر از یک ماشین به نظر برسد؟
مشکلات مربوط به خودمختاری و حریم خصوصی حتی از آن هم چشمگیرتر است. کار کردن با ماشین به صداقت احتیاج دارد، اما بسیاری از افراد در مورد بهاشتراکگذاری اطلاعاتشان با هوش مصنوعی تردید دارند؛ زیرا میترسند که این ماشین اطلاعات ناخوشایندشان را با کارمندان منابع انسانی در میان بگذارد.
استفاده از هوش مصنوعی به شکلی که در سه مرحله اول توضیح داده شد، قطعاً نقطهضعفهایی هم دارد. این فناوریهای جدید، در بلندمدت، بیشتر از آنکه بخواهند شغل انسانها را از آنها بگیرند، به اشتغالزایی کمک میکنند، اما در حال حاضر با روی کار آمدن این ماشینها ممکن است بازار نیروی کار کمی مختل شود. علاوه بر این، همانطور که «مت بین» (Matt Beane) در کتابی به نام «یاد بگیرید با ماشینهای هوشمند کار کنید» (HBR، سپتامبر تا اکتبر 2019) میگوید، در شرکتهایی که از هوش مصنوعی استفاده میکنند، کارمندان ممکن است فرصت کمتری برای یادگیری عملی و منتورشیپ داشته باشند.
بنابراین، ماشینها ریسکهایی را برای انسانها به وجود میآورند، اما اینطور نیست که بخواهند جای انسانها را اشغال کنند. ریسک اصلی اینجاست که ماشینها ممکن است انسانها را بیش از حد به خودشان متکی کنند و توانایی فکر کردن را از تصمیمگیران بگیرند که متأسفانه این موضوع تا حدودی غیر قابل اجتناب است. همانطور که «بین» اشاره میکند، شرکتها میتوانند با استفاده از هوش مصنوعی برای کارمندانشان فرصتهای یادگیری متفاوت و بهتری خلق کنند و در عین حال با شفافتر کردن سیستم و دادن کنترل بیشتر به کارمندان، سیستمهایشان را ارتقا دهند.
افرادی که در آینده وارد دنیای کار میشوند، در نوعی محیط کاری «انسانی ـ ماشینی» رشد کردهاند و به همین خاطر نسبت به کارمندان قبلی، در پیدا کردن فرصتهای نوآوری و معرفی فعالیتهایی که باعث خلق ارزش و اشتغالزایی میشوند، سریعتر عمل میکنند. این موضوع ما را به مرحله آخر نزدیک میکند.
ـ وقتی هوش مصنوعی در نقش مربی باشد، انسانها بیشتر هراس از دست دادن قدرتشان را دارند؛ زیرا علاوه بر شریک، هوش مصنوعی را رقیب خود به حساب میآورند.
مرحله چهارم: همتیمی
انسانشناسی به نام «ادوین هاچینز» (Edwin Hutchins)، نظریه معروف «ادراک توزیعشده» را توسعه داد. این نظریه بر اساس مطالعات ناوبری کشتی او شکل گرفت که در آن ترکیبی از ملوانها، جدولها، قانونگذاران، قطبنماها و ابزار نقشهکشی استفاده میشد. این نظریه عموماً به مفهوم ذهن گسترشیافته مربوط میشود که میگوید پردازش شناختی و فعالیتهای ذهنی همراه با آن (از جمله باور و نیت انسان) الزاماً محدود به مغز یا حتی بدن او نیستند. در واقع ابزار و تجهیزات خارجی میتوانند تحت شرایطی مناسب، نقش مهمی در پردازش شناختی انسان داشته باشند و چیزی به نام «سیستم توأم» را ایجاد کنند.
همراستا با این طرز تفکر، در آخرین مرحله از مسیر پیادهسازی هوش مصنوعی (که تا جایی که میدانیم هنوز در هیچ سازمانی اجرا نشده)، شرکتها شبکهای توأم از انسانها و ماشینها را ایجاد میکنند که در آن، هر دو از تخصصی که دارند، استفاده میکنند. به عقیده ما، همانطور که هوش مصنوعی دادههای مربوط به تصمیمگیریها و رفتارهای پیشین افراد را تحلیل میکند و از طریق تعاملات فردی با کاربران و حتی الگوبرداری از آنها ارتقا مییابد، بهطور طبیعی جامعهای از متخصصان (متشکل از افراد و ماشینها) در سازمانها پدیدار میشود که رباتهای هوش مصنوعی بهطور کامل در آن ادغام شدهاند.
برای مثال، با کمک جامعهای از متخصصان انسانی و ماشینی که متناسب با نیازهای سازمان تشکیل شدهاند، مدیر خرید (در هنگام تصمیمگیری و فقط با یک کلیک) میتواند ببیند افراد دیگر، محصول مورد نظر را با چه قیمتی میفروشند و به این ترتیب، راحتتر تصمیمگیری کند.
با اینکه فناوری لازم برای ایجاد این هوش جمعی در حال حاضر ساخته شده است، اما پیادهسازی این مرحله مشکلاتی زیادی را به همراه دارد. برای مثال، در ادغام هوش مصنوعی به این شکل، نباید از سوگیریهای جدید یا قدیمی استفاده شود. همچنین باید به مسائل حریم خصوصی انسانها توجه شود تا افراد بتوانند درست مانند همکاران انسانیشان به هوش مصنوعی اعتماد کنند. این به خودی خود مشکل بزرگی به حساب میآید؛ زیرا تحقیقات نشان میدهد که ایجاد اعتماد حتی بین انسانها هم کار بسیار دشواری است.
بهترین رویکرد برای ایجاد اعتماد در محیط کار، این است که رابطه بین اعتماد و شناخت را درک کنیم. موضوع تحقیق «دیوید دانکس» و همکارانش در دانشگاه «کارنگی ملون» نیز همین بود. با توجه به این مدل، من به کسی اعتماد میکنم که بتوانم ارزشها، خواستهها و نیات او را بدانم و مطمئن شوم که او قصد کمک به مرا دارد.
همانطور که از گذشته این نوع شناخت مبنای ایجاد اعتماد در روابط انسانی به حساب میآمد، بنابراین در شراکت بین انسانها و ماشینها هم میتوان به آن استناد کرد. انسانها معمولاً از ماشینها شناختی ندارند و نمیدانند آنها چطور کار میکنند. به همین خاطر به آنها اعتماد نمیکنند، در نتیجه هوش مصنوعی در محیط کار پیشرفت چندانی نداشته است (به ستون «وقتی هوش مصنوعی راهش را گم میکند» مراجعه کنید.)
حال، چطور میتوان نحوه عملکرد سیستم را توضیح داد؟ یکی از چالشهای مهم در زمینه ایجاد شناخت، این است که مفهوم «توضیح» را تعریف کنیم (چه برسد به اینکه بخواهیم «توضیح خوب» را تعریف کنیم). تحقیقات زیادی برای رفع این مشکل انجام شده است. برای مثال، یکی از نویسندگان این مقاله (اوجنیا) سعی دارد در یکی از کارهای تحقیقاتیاش با کمک توضیحات شرطی غلط، الگوریتمهای یادگیری ماشین را از حالت بلکباکس خارج کند.
توضیح شرطی غلط، نحوه تصمیمگیری سیستم هوش مصنوعی را نشان میدهد (برای مثال تأیید یا رد کردن اعتبار یک تراکنش). مثلاً با ارائه فهرستی کوتاه بیان میکند که چه خصوصیاتی از تراکنش باعث این تصمیمگیری شده است. اگر هر یک از این خصوصیات متفاوت بودند (یا با واقعیت مغایرت داشتند)، سیستم تصمیم متفاوتی میگرفت (و اعتبار را رد میکرد).
اوجنیا مفهوم «توضیح خوب» برای تصمیمگیریهای هوش مصنوعی را نیز شرح داده است. مثلاً اینکه موضوعی را بر اساس ویژگیهای منطقی توضیح دهیم بهتر است («مثلاً تراکنش به این خاطر تأیید شد که ویژگیهای الف، ب و ت را داشت») یا اینکه آن را در مقایسه با تصمیمگیریهای دیگر توضیح دهیم؟ («مثلاً این تراکنش تأیید شد، چون شبیه به تراکنشهای تأییدشده دیگر، از جمله تراکنشهای الف و ب بود»). همانطور که تحقیقات زیادی در مورد «قابل توضیح کردن» هوش مصنوعی صورت میگیرد، سیستمهای هوش مصنوعی نیز باید شفافتر شوند تا افراد راحتتر بتوانند به آنها اعتماد کنند.
پذیرش فناوریهای جدید همیشه مشکل بزرگی بوده و هرچه یک فناوری تأثیر بیشتری داشته باشد، این مشکل هم بزرگتر میشود. پیادهسازی هوش مصنوعی نیز بهدلیل تأثیر احتمالی زیادی که دارد، کار دشواری به حساب میآید. با این حال، اگر این کار را هوشمندانه انجام دهیم، پذیرش هوش مصنوعی تقریباً راحت خواهد بود.
دقیقاً به همین خاطر است که شرکتها باید طراحی و توسعه هوش مصنوعی خود را (بهخصوص در رابطه با شفافیت، اختیار تصمیمگیری و حریم خصوصی) با مسئولیتپذیری تمام انجام دهند و اطمینان حاصل کنند که این فناوری برای افرادی که قرار است با آن کار کنند، جذاب و مطمئن است. وقتی افراد ندانند ماشینها چطور این تصمیمات را اخذ میکنند، ممکن است نسبت به آن احساس ترس پیدا کنند و نگران باشند که مبادا هوش مصنوعی محدودشان کند یا جای آنها را بگیرد.
از بین بردن این ترسها و در نتیجه، ایجاد اعتماد نسبت به هوش مصنوعی کلید موفقیت در پذیرش آنها به حساب میآید. با یک طراحی مسئولانه، هوش مصنوعی میتواند در محیط کار به شریک انسانها تبدیل شود. هوش مصنوعی میتواند بهسرعت و با پیوستگی تمام حجم زیادی از دادههای متفاوت را پردازش کند، بینش و خلاقیت بیشتری به انسانها ارائه دهد و انسانها هم در عوض آن را آموزش دهند.
وقتی هوش مصنوعی مسیرش را گم میکند
در سال 2016، موسسه خبری ـ تحقیقاتی «پروپابلیکا» از یک برنامه پیشبینی ریسک هوش مصنوعی به نام COMPAS (که قاضیهای فلوریدای جنوبی با استفاده از آن احتمال ارتکاب مجدد جرم را در بازهای مشخص پیشبینی میکردند)، گزارشی تهیه کرد. سازنده برنامه COMPAS، شرکت «نورتپوینت» (که اکنون Equivant نام دارد) الگوریتم آن را بهعنوان یکی از اسرار تجاری خود مخفی نگه داشته است. یعنی ما نمیدانیم این برنامه چطور پیشبینیهایش را انجام میدهد و به دادههایی که الگوریتم بر اساس آن آموزش دیده، دسترسی نداریم.
بنابراین حتی نمیتوانیم منطق عملکرد آن را درک کنیم. وقتی پروپابلیکا گزارش کرد که این الگوریتم برای افرادی با نژادهای مختلف نتایج نابرابر ارائه میدهد، متوجه شدیم که چرا انسانها نمیتوانند به هوش مصنوعی اعتماد کنند. در واقع COMPAS اولین نمونهای بود که علت عدم اعتماد به هوش مصنوعی را مشخص کرد. اگر کسبوکارها بخواهند کارمندانشان هوش مصنوعی را بپذیرند، از آن استفاده کرده و در نهایت به آن اعتماد کنند، باید (تا جایی که از لحاظ قانونی ممکن است) آن را از حالت بلکباکس خارج کنند و نحوه کارکرد آن را برای کسانی که قرار است با آن کار کنند، توضیح دهند؛ همانطور که «ریچارد سوشر»، دانشمند ارشد شرکت «سیلزفورس» اشاره میکند؛ «اگرکسبوکارها بخواهند از قدرت پیشبینی هوش مصنوعی استفاده کنند، باید به انسانها توضیح دهند که این پیشبینیها یا تصمیمگیریها چطور صورت میگیرند.»