راه پرداخت؛ رسانه فناوری‌های مالی ایران

روشی بهتر برای ‌آن‌بوردینگ هوش مصنوعی

مشکل چیست؟ بعضی از شرکت‌ها نمی‌توانند به‌خوبی از هوش مصنوعی استفاده کنند و از لحاظ بهره‌وری آن‌طور که می‌خواهند پیشرفت‌ نمی‌کنند. چرا این اتفاق می‌افتد؟ مدیران اغلب هدفشان از به‌کارگیری هوش مصنوعی را با شفافیت بیان نمی‌کنند. در نتیجه افراد متوجه نمی‌شوند که هدف از هوش مصنوعی کمک به آنهاست، نه جایگزین‌کردن آنها

0

ماهنامه عصر تراکنش شماره ۳۶ / در سال ۲۰۱۸ شرکت Workforce Institute در نظرسنجی از سه هزار مدیر در هشت کشور صنعتی مختلف، به این نتیجه رسید که اکثر شرکت‌کنندگان، هوش مصنوعی را ابزاری ارزشمند برای بهره‌وری می‌دانند.

دلیل این موضوع مشخص است؛ هوش مصنوعی از لحاظ سرعت پردازش، دقت و پیوستگی (ماشین‌ها هیچ‌گاه به خاطر خستگی دچار خطا نمی‌شوند) مزیت‌های قابل توجهی دارد و به همین خاطر است که بسیاری از متخصصان امروزه از آن استفاده می‌کنند. برای مثال بعضی از متخصصان پزشکی، بیماری‌ها را با کمک هوش مصنوعی تشخیص می‌دهند و گزینه‌های درمانی خود را نیز با کمک این فناوری تعیین می‌کنند.

با این حال، شرکت‌کنندگان این نظرسنجی اظهار کرده‌اند که در رابطه با هوش مصنوعی کمی نگران هستند و می‌ترسند که این ماشین‌ها جای آنها را پر کنند. البته این طرز فکر فقط مربوط به شرکت‌کنندگان این نظرسنجی نمی‌شود. روزنامه گاردین هم اخیراً گزارش کرده که بیش از شش میلیون نفر از کارمندان اروپا می‌ترسند شغلشان را به خاطر هوش مصنوعی از دست بدهند. در سخنان استادان و مدیرانی که هر روز در کنفرانس‌ها و سمینارها ملاقات می‌کنیم نیز این ترس به‌خوبی نمایان است. پس می‌توان گفت مزیت‌های هوش مصنوعی یک نکته منفی هم دارد؛ وقتی ماشینی کاری را بهتر از انسان‌ها انجام می‌دهد، دیگر چه نیازی به نیروی انسانی خواهد بود؟

وجود چنین ترس‌هایی نشان می‌دهد که وقتی سازمان‌ها می‌خواهند از مزایای هوش مصنوعی بهره ببرند، باید هنگام معرفی آن به افرادی که قرار است با آن کار کنند، مراقب باشند. «اندرو ویلسون» که تا ژانویه ۲۰۲۰ مدیر ارشد فناوری اطلاعات شرکت اکسنچر بود، می‌گوید: «هرچه سازمان بیشتر تأکید کند که هوش مصنوعی قرار است به افراد کمک کند و افراد قرار است به هوش مصنوعی کمک کنند، ارزش بیشتری از آن به دست می‌آید.»

طبق یافته‌های شرکت اکسنچر، شرکت‌هایی که به‌وضوح اعلام می‌کنند هدفشان از به‌کارگیری هوش مصنوعی کمک به انسان‌هاست (نه جایگزین‌‌کردن آنها)، نسبت به شرکت‌هایی که هدفشان را از به‌کارگیری هوش مصنوعی بیان نمی‌کنند (یا در مورد آن شفاف نیستند) در اغلب ابعاد بهره‌وری مدیریتی (به‌خصوص سرعت، رشد و کارایی تصمیم‌گیری‌ها) عملکرد بهتری دارند.

به بیان دیگر، درست مانند زمانی که یک نیروی بااستعداد جدید به تیم ملحق می‌شود، هوش مصنوعی نیز نوعی نیروی کمکی است که به جای شکست اعضای تیم باید به موفقیت آنها منجر شود. یک کارفرمای هوشمند وقتی نیروی جدیدی را استخدام می‌کند، کارهای ساده را به او می‌سپارد تا ابتدا در زمینه‌های کم‌اهمیت تجربه عملی کسب کند. سپس کارمندان باتجربه‌تر را به‌عنوان منتور او انتخاب می‌کند تا به او کمک کرده و او را آموزش بدهند.

این کار باعث می‌شود کارمندان جدید کارها را یاد بگیرند و کارمندان قبلی بر وظایف مهم‌تر تمرکز کنند. همین‌طور که این کارمندان جدید تجربه کسب می‌کنند و نشان می‌دهند که از پس کارها برمی‌آیند، منتورهایشان نیز بیشتر به آنها اعتماد می‌کنند و تصمیمات مهم‌تری را به آنها می‌سپارند. با گذشت زمان، کارآموز این منتورها به همکارانشان تبدیل می‌شوند و بینش‌ها و مهارت‌های او را تکمیل می‌کنند.

به نظر ما این رویکرد می‌تواند برای هوش مصنوعی هم جواب بدهد. در ادامه، خلاصه‌ای از تحقیقات خودمان و دیگران را ارائه می‌دهیم، در مورد پیاده‌سازی هوش مصنوعی و سیستم‌های اطلاعاتی صحبت می‌کنیم و مطالعات سازمانی مربوط به نوآوری و روش‌های برتر آن را شرح می‌دهیم تا نشان دهیم که چطور می‌توان هوش مصنوعی را در چهار مرحله پیاده‌سازی کرد. با استفاده از این رویکرد چهارمرحله‌ای، شرکت‌ها می‌توانند اعتماد کارمندانشان را نسبت به این فناوری افزایش دهند و در سازمانشان نوعی سیستم شناختی غیرمتمرکز «انسان‌ ـ هوش مصنوعی» بسازند. سیستمی که در آن، هم انسان‌ها و هم هوش مصنوعی پیوسته در حال پیشرفت هستند.

برخی سازمان‌ها مرحله اول این رویکرد را آزمایش کرده‌اند و برخی دیگر تا مراحل دوم و سوم هم پیش رفته‌اند. کسی هنوز به مرحله چهارم نرسیده، اما علائم و شواهد نشان می‌دهد که خیلی زود شاهد این اتفاق خواهیم بود. رسیدن به مرحله چهارم از لحاظ فناوری کاملاً امکان‌پذیر است و ارزش بیشتری برای شرکت‌ها به ارمغان خواهد آورد؛ زیرا در این مرحله، افراد کاملاً با فناوری هوش مصنوعی سازگار خواهند شد.

در زمان تصمیم‌گیری‌های متعدد که نیروی انسانی خسته و کم‌حواس می‌شوند، هوش مصنوعی می‌تواند کمک زیادی به آنها بکند.

مرحله اول: هوش مصنوعی به‌عنوان دستیار

اولین مرحله پذیرش هوش مصنوعی شبیه به فرایند آموزش دستیار است. وقتی کارمند جدیدی وارد سازمان می‌شود، ابتدا قوانین پایه را به او یاد می‌دهید و سپس وظایفی ساده و در عین حال وقت‌گیر که معمولاً خودتان انجام می‌دادید را به او می‌سپارید (مانند مرتب‌کردن فرم‌های آنلاین یا خلاصه‌نویسی اسناد) تا مقداری از وقتتان آزاد شود و بتوانید بر کارهای مهم‌تری از شغلتان تمرکز کنید. این کارآموز با مشاهده کارهای شما، انجام وظایف و سؤال پرسیدن به‌مرور کارها را یاد می‌گیرد.

یکی از رایج‌ترین وظایفی که در ابتدا به دستیارهای هوش مصنوعی محول می‌شود، طبقه‌بندی داد‌ه‌هاست. سیستم‌های توصیه‌گری که شرکت‌ها از اواسط دهه ۱۹۹۰ برای کمک به مشتریان از آن استفاده می‌کردند (تا بتوانند هزاران محصول را فیلتر کرده و مرتبط‌ترین آنها را پیدا کنند)، نمونه خوبی از دستیار هوش مصنوعی است. آمازون و نت‌فلیکس اولین وب‌سایت‌هایی بودند که از این فناوری استفاده کردند.

در حال حاضر حجم زیادی از تصمیم‌گیری‌های کسب‌وکارها به این نوع طبقه‌بندی احتیاج دارد. برای مثال، وقتی مدیران پورتفوی سهامی را انتخاب می‌کنند تا در آن سرمایه‌گذاری کنند، اطلاعاتی که در دسترس آنها قرار می‌گیرد، خیلی بیشتر از حجمی است که یک انسان بتواند آن را پردازش کند و همیشه هم اطلاعات جدیدی به آن اضافه می‌شود که تاریخچه اطلاعات آن را طولانی‌تر می‌کند. یک نرم‌افزار می‌تواند با توجه به معیار سرمایه‌گذاری مورد نظر، این سهام را فیلتر کرده و مسئله را بهتر از انسان‌ها مدیریت کند.

در عین حال، پردازش زبان طبیعی می‌تواند مرتبط‌ترین اخبار مربوط به شرکت را شناسایی کند و حتی عقاید کلی نسبت به رویدادهای پیش‌روی شرکت (که معمولاً در گزارش‌های تحلیلگران می‌آید) را هم ارزیابی کند. یکی از شرکت‌های واقع در لندن، به نام «مدیریت دارایی ماربل بار» (MBAM) که در سال ۲۰۰۲ تأسیس شد، جزء اولین سازمان‌هایی بود که در محیط کارش از این فناوری‌ها استفاده کرد. این شرکت پلتفرمی به نام RAID (پایگاه داده اطلاعات و بررسی تحقیقات) توسعه داده تا مدیران پورتفوی بتوانند به کمک آن حجم زیادی از اطلاعات مربوط به رویدادهای شرکتی، اتفاقات خبری و تغییرات قیمت سهام‌ را فیلتر کنند.

یکی دیگر از روش‌هایی که هوش مصنوعی می‌تواند از طریق آن به نیروهای انسانی کمک کند، این است که از وظایف آنها الگوبرداری کند. همه شما تابه‌حال از گوگل استفاده کرده‌اید و احتمالاً دیده‌اید که وقتی عبارتی را جست‌وجو می‌کنید، گوگل متن شما را به‌صورت خودکار کامل می‌کند.

فناوری «پیش‌بینی متن» در تلفن همراه هم روش مشابهی را اتخاذ می‌کند تا بتواند سرعت تایپ شما را افزایش دهد. این شکل از الگوبرداری که اغلب به آن «بوت‌استرپینگ قضاوتی» می‌گویند، بیش از ۳۰ سال پیش توسعه یافت و خیلی راحت می‌توان برای تصمیم‌گیری از آن استفاده کرد. هوش مصنوعی می‌تواند با استفاده از این قابلیت و با الگوبرداری از تصمیم‌گیری‌های قبلی کارمندان، انتخاب‌های احتمالی آنها در آینده را شناسایی کند و وقتی فرد با تصمیمات متعددی روبه‌رو شد، این انتخاب را به‌عنوان یک نقطه شروع به او پیشنهاد دهد. بنابراین هوش مصنوعی به جای اینکه کار را انجام دهد، فقط سرعت انجام آن را افزایش می‌دهد و نمی‌تواند جایگزین نیروی انسان شود.

بگذارید نگاهی به این موقعیت خاص بیندازیم. تصور کنید کارمندان یک آژانس هواپیمایی می‌خواهند تصمیم بگیرند که چقدر غذا و نوشیدنی برای پرواز آماده کنند. در این صورت، هوش مصنوعی با توجه به تجربیات سفرهای پیشین و انجام یکسری محاسبات به آنها کمک می‌کند تا فهرست سفارش‌های غذا را پر کنند. اگر در این زمینه تصمیم غلطی گرفته شود، هزینه‌های زیادی بر شرکت تحمیل می‌شود، اگر کمتر از میزان لازم غذا سفارش دهند، ممکن است مسافران عصبانی شوند و دیگر از آن خط هواپیمایی بلیت تهیه نکنند. همچنین اگر بیش از اندازه غذا سفارش دهند، مقدار زیادی از آن اسراف می‌شود و از آنجایی که بار هواپیما بیشتر شده، سوخت بیشتری هم مصرف می‌شود.

در این شرایط وجود نوعی الگوریتم بسیار کمک‌کننده است. هوش مصنوعی می‌تواند با بررسی انتخاب‌های پیشین یا با استفاده از قوانینی که توسط مدیر وضع شده‌اند، تصمیمات مدیر بخش تغذیه را پیش‌بینی کند. هوش مصنوعی همچنین می‌تواند این سفارش‌های پیشنهادی را متناسب با مقتضیات هر پرواز (برای مثال مقدار آب و غذایی که در آن مسیر احتیاج است و حتی خریدهای پیشین مسافران) تکمیل کند.

با این حال، درست مانند پیش‌بینی خودکار متن در تلفن همراه، در اینجا هم انسان‌ها مجبور نیستند پیشنهاد ماشین را قبول کنند و در صورت نیاز، می‌توانند چیز دیگری به جای آن بنویسند. انسان‌ها همیشه نقش راننده اصلی را دارند و ماشین‌ها کمک‌راننده‌هایی هستند که از مدل تصمیم‌گیری آنها الگوبرداری می‌کنند یا آنها را پیش‌بینی می‌کنند.

بنابراین، همکاری مدیران با هوش مصنوعی نباید موضوع غیرقابل باوری باشد. ما همین الان هم داریم این کار را در زندگی شخصی‌مان انجام می‌دهیم. وقتی به گوگل اجازه می‌دهیم ادامه متن جست‌وجویمان را تکمیل کند، یعنی داریم از هوش مصنوعی به‌عنوان دستیارمان استفاده می‌کنیم. در محیط کار هم، مدیران می‌توانند برای مثال قوانین به‌خصوصی را برای دستیار هوش مصنوعی وضع کنند تا هنگام تکمیل فرم‌ها آن را رعایت کنند و بر اساس آنها تصمیم بگیرند.

در واقع، بسیاری از ابزار‌های نرم‌افزاری که در حال حاضر در محیط کار استفاده می‌شوند (از جمله برنامه‌های رتبه‌سنجی اعتبار)، به همین صورت عمل می‌کنند و در حقیقت مجموعه‌ای از تصمیم‌گیری‌های تعریف‌شده انسان‌ها به حساب می‌آیند. دستیار هوش مصنوعی می‌تواند کارهایی را که مدیر انجام می‌دهد، رمزگذاری کند. بنابراین برای یادگیری هوش مصنوعی هیچ نیازی نیست مدیر تغییری در رفتارش ایجاد کند، چه برسد به اینکه بخواهد تلاشی برای «آموزش» دستیار کند.


مرحله دوم: هوش مصنوعی به‌عنوان منتور


مرحله بعدی، آماده‌کردن سیستم هوش مصنوعی برای ارائه بازخورد‌های آنی است. به لطف برنامه‌های یادگیری ماشین، می‌توان هوش مصنوعی را آموزش داد تا بادقت تصمیمات کاربر را در شرایط به‌خصوص پیش‌بینی کند (برای مثال، هوش مصنوعی هیچ‌گاه به خاطر خستگی یا اعتمادبه‌نفس بیش از حد، در تصمیماتش دچار خطا و لغزش نمی‌شود). اگر کاربر بخواهد تصمیمی بگیرد که با پیشینه تصمیماتش همخوانی ندارد، سیستم این مغایرت را شناسایی کرده و به او گوشزد می‌کند. این مسئله به‌خصوص برای زمانی که حجم تصمیم‌گیری‌ها زیاد است و کارمندان ممکن است دچار خستگی یا حواس‌پرتی شوند، بسیار کمک‌کننده است.

تحقیقاتی که در زمینه روان‌شناسی‌‌‌، اقتصاد رفتاری و علوم شناختی انجام شده، نشان می‌دهد که توانایی استدلال انسان‌ها محدود و ناکامل است. به‌خصوص در رابطه با مسائل آماری و احتمالی که همیشه بخش مهمی از کسب‌وکار هستند، این موضوع بسیار صدق می‌کند. بسیاری از تحقیقات مربوط به تصمیمات حقوقی (که چن، یکی از نویسندگان این مقاله، در یکی از آنها همکاری داشته) نشان داده‌اند که قاضی‌ها قبل از ناهار، نسبت به زمان بعد از ناهار، بیشتر حکم پناهندگی سیاسی صادر می‌کنند.

همچنین، اگر تیم فوتبال محبوبشان روز قبل در مسابقه برنده شده باشد، حکم‌های سبک‌تری برای مجرمان در نظر می‌گیرند یا اگر آن روز تولد متهم باشد، نسبت به او آسان‌گیرتر می‌شوند. بنابراین بدیهی است که اگر نرم‌افزاری برای کمک به انسان وجود داشته باشد که بتواند به آنها بگوید تصمیماتشان بر خلاف تصمیم‌گیری‌های قبلی است، یا با متغیرهای حقوقی مغایرت دارد، قضاوت بهتری انجام می‌شود.

هوش مصنوعی می‌تواند این نوع اطلاعات را در اختیار نیروی انسانی قرار دهد. پژوهشی دیگر (که چن یکی از نویسندگان آن بود) نشان داد برنامه‌های هوش مصنوعی که مدلی متشکل از متغیرهای حقوقی ساده (که توسط نویسندگان تحقیق ساخته شده بودند) را پردازش می‌کنند، می‌توانند در همان روزی که پرونده باز می‌شود، تصمیمات مربوط به پناهندگی را با دقت ۸۰ درصدی پیش‌بینی کنند. نویسندگان این تحقیق قابلیت یادگیری را نیز به این برنامه اضافه کرده‌اند تا برنامه مذکور بتواند با مراجعه به تصمیمات قبلی قاضی، تصمیم‌گیری‌های او را شبیه‌سازی کند.

این رویکرد در شرایط دیگر هم به‌خوبی قابل اجراست. برای مثال، وقتی مدیران پورتفوی MBAMبخواهند خریدوفروش‌هایی انجام دهند که ممکن است ریسک کلی پورتفوی را افزایش دهد (برای مثال درصد کل سهام آن نسبت به یک بخش یا منطقه جغرافیایی به‌خصوص را افزایش دهد)، سیستم با استفاده از یک پیام فوری این مسئله را به آنها هشدار می‌دهد تا بتوانند تصمیمات مناسبی بگیرند. حال، اگر این تصمیم‌گیری خطر چندانی برای شرکت به وجود نیاورد، مدیر پورتفوی می‌تواند بازخورد هوش مصنوعی را نادیده بگیرد، اما در هر صورت، هوش مصنوعی به مدیر پورتفوی کمک می‌کند نسبت به تصمیم‌گیری‌هایش بیشتر فکر کند.

البته، هوش مصنوعی همیشه هم درست نمی‌گوید. در بسیاری از موارد، هوش مصنوعی اطلاعات خصوصی قابل ‌اطمینانی که تصمیم‌گیرنده به آن دسترسی دارد را در نظر نمی‌گیرد. بنابراین‌ ممکن است به جای تصحیح سوگیری‌های رفتاری انسان، او را گمراه کند. به همین خاطر است که استفاده از هوش مصنوعی باید به‌صورت یک گفت‌وگو صورت بگیرد. در این گفت‌وگو، الگوریتم با توجه به داده‌هایی که دارد، توصیه‌هایی به انسان ارائه می‌دهد و انسان به هوش مصنوعی یاد می‌دهد که چرا فلان توصیه را رد کرده است. این موضوع کارایی هوش مصنوعی را افزایش می‌دهد و در عین حال، قدرت اختیار انسان در تصمیم‌گیری‌ها را حفظ می‌کند.

متأسفانه، بسیاری از سیستم‌های هوش مصنوعی طوری تنظیم شده‌اند که این قدرت اختیار را از انسان می‌گیرند. برای مثال وقتی الگوریتمی، یکی از تراکنش‌های بانکی را به‌عنوان کلاهبرداری احتمالی علامت‌گذاری می‌کند، کارمندان اغلب نمی‌توانند بدون اجازه ناظر یا حتی حسابرس خارجی این تراکنش را تأیید کنند. علاوه بر این، گاهی لغو تصمیم‌گیری ماشین کاری تقریباً غیرممکن است و این موضوع، هم برای مشتریان و هم برای متخصصان خدمات مشتری بسیار ناامیدکننده است. در بعضی از موارد، دلایل تصمیم‌گیری هوش مصنوعی غیرشفاف هستند و حتی اگر ماشین اشتباه کرده باشد، کارمندان اجازه ندارند تصمیم‌گیری آن را زیر سؤال ببرند.

یکی دیگر از مسائلی که هنگام جمع‌آوری داده از تصمیم‌گیری‌های افراد به وجود می‌آید، مسئله حریم خصوصی است. به علاوه، اگر بخواهیم کنترل تبادل اطلاعات بین انسان‌ها و ماشین‌ها را به دست انسان‌ها بسپاریم، باید تضمین دهیم تمام داده‌هایی که توسط هوش مصنوعی جمع‌آوری می‌شود، محرمانه می‌مانند. در واقع باید دیواری وجود داشته باشد که تیم مهندسی را از تیم مدیریت جدا کند. در غیر این صورت، شاید کارمندان بترسند که اگر آزادانه اطلاعاتشان را در اختیار ماشین قرار دهند و در شرکت اشتباهی مرتکب شوند، ممکن است دچار عواقب بدی بشوند.

همچنین، شرکت‌ها باید در رابطه با طراحی و تعامل با هوش مصنوعی قوانینی را در نظر بگیرند تا مطمئن شوند که این سیستم‌ها با هنجارها و رویه‌های شرکت هم‌راستا هستند. این قوانین ممکن است میزان دقت پیش‌بینی هوش مصنوعی (برای نشان‌دادن توصیه یا ارائه دلیل برای آن) را مشخص کنند، معیاری برای ارزیابی ضرورت آن توصیه ارائه دهند و بگویند که کارمند باید تحت چه شرایطی به هوش مصنوعی آموزش دهد یا به جای تأیید یا رد کردن پیشنهادهای آن، مسئله را به یک ناظر ارجاع دهد.

برای اینکه کارمندان بتوانند حس کنترل خود را در مرحله دوم حفظ کنند، توصیه می‌کنیم مدیران و طراحان هوش مصنوعی، این افراد را در فرایند طراحی‌شان شرکت دهند؛ یعنی به‌عنوان متخصص از آنها استفاده کنند تا داده‌هایی که قرار است مورد استفاده قرار بگیرند را تعریف کنند و مبنای درستی آن را تشخیص دهند. همچنین هنگام توسعه ماشین کارمندان را با مدل‌ها آشنا سازند و وقتی آن مدل‌ها به کار گرفته شدند، آموزش‌های لازم را به او انتقال دهند. در این فرایند، کارمندان می‌بینند که مدل‌های هوش مصنوعی چطور ساخته می‌شوند، داده‌ها چطور مدیریت می‌شوند و چرا ماشین‌ها چنین توصیه‌هایی را ارائه می‌دهند.

البته هوش مصنوعی همیشه درست نمی‌گوید. به همین خاطر است که باید در قالب نوعی گفت‌وگو از آن استفاده کنیم تا بتوانیم کارایی آن را افزایش دهیم و در عین حال، قدرت اختیار نیروهای انسانی را حفظ کنیم.


مرحله سوم: مربی


در یکی از نظرسنجی‌های اخیر PwC نزدیک به ۶۰ درصد از شرکت‌کنندگان گفته بودند که دوست دارند به‌صورت روزانه یا هفتگی نسبت به عملکردشان بازخورد بگیرند. درک علت این موضوع کار دشواری نیست. همان‌طور که «پیتر دراکر» در مقاله معروفی در «هاروارد بیزینس ریویو» به نام «مدیریت خود» در سال ۲۰۰۵ بیان کرد، افراد معمولاً نمی‌دانند در چه کارهایی مهارت دارند و وقتی هم که فکر می‌کنند می‌دانند، معمولاً اشتباه می‌کنند.

مشکل اینجاست که تنها راه برای کشف نقاط قوت و فرصت‌های پیشرفت این است که بادقت اعمال و تصمیم‌گیری‌های کلیدی افراد را تحلیل کنیم. برای این کار باید ببینیم چه انتظاراتی از نتایج تصمیم‌گیری‌ها داریم و سپس، ۹ ماه تا یک سال بعد این انتظارات را با آنچه در عمل اتفاق افتاد، مقایسه کنیم. بنابراین بازخوردی که کارمندان دریافت می‌کنند، معمولاً از طرف مافوق‌ها و طی بازبینی عملکرد صورت می‌گیرد؛ نه در زمان و به شکلی که خود دریافت‌کننده بازخورد انتخاب می‌کند.

این موضوع خوشایندی نیست؛ زیرا همان‌طور که «تسا وست» (Tessa West) از دانشگاه نیویورک، در یکی از تحقیقات عصب‌شناختی اخیرش می‌گوید، هرچه افراد احساس کنند که قدرت اختیار بیشتری داشته و کنترل گفت‌وگو با ماشین را در دست دارند (برای مثال بتوانند زمان دریافت بازخورد خود را انتخاب کنند)، بهتر می‌توانند نسبت به آن پاسخ دهند.

هوش مصنوعی می‌تواند این مشکل را برطرف کند. با قابلیت‌هایی که پیش‌تر در مورد این فناوری گفتیم، هوش مصنوعی می‌تواند به‌راحتی به کارمندان بازخورد ارائه دهد. در نتیجه به آنها اجازه می‌دهد نسبت به عملکرد خودشان آگاهی داشته باشند و به خطاها و اشتباهاتشان فکر کنند. وقتی هوش مصنوعی داده‌های مربوط به رفتارهای پیشین کارمندان را بررسی کند و خلاصه‌ای ماهانه از عملکردشان ارائه دهد، آنها بهتر می‌توانند اقدامات و الگوهای تصمیم‌گیری خود را متوجه شوند. برای مثال مدیران پورتفوی در MBAM از یک سیستم‌ آنالیتیکس داده‌ که تصمیم‌گیری‌های سرمایه‌گذاری هر فرد را ضبط می‌کند، بازخورد دریافت می‌کنند.

این داده‌ها می‌توانند سوگیری‌های جالب و متناقض بین مدیران پورتفوی را آشکار کنند. برخی از مدیران پورتفوی ممکن است نسبت به دیگران زیان‌گریزی بیشتری داشته باشند و بیش از آنچه باید، برای سرمایه‌گذاری‌های کم‌بازده صبر کنند. سیستم آنالیتیکس چنین رفتارهایی را شناسایی می‌کند و مانند یک مربی، بازخورد‌های شخصی‌سازی‌شده به فرد ارائه می‌دهند تا تغییرات رفتاری او را در گذشت زمان نشان دهد و به او یاد بدهد که چطور تصمیماتش را ارتقا دهد. رهبران MBAM معتقدند که این موضوع باعث «بهبود تریدینگ» می‌شود و وجه تمایزی است که هم به توسعه مدیران پورتفوی کمک می‌کند و هم سازمان را جذاب‌تر می‌سازد.

علاوه بر این، همان‌طور که یک منتور خوب می‌تواند از بینش‌های کارآموزش درس بگیرد، یک «ربات مربی» مجهز به یادگیری ماشین هم می‌تواند (بعد از ارائه بازخورد و توانمند کردن کارآموزان انسانی‌اش) از تصمیمات آن کارمندان یاد بگیرد. در رابطه‌ای که شرح دادیم، انسان می‌تواند با ربات مربی خود مخالفت کند و این مسئله، داده‌های جدیدی به وجود می‌آورد که مدل «پنهانی» هوش مصنوعی را تغییر می‌دهد. یعنی اگر مدیر پورتفوی تصمیم بگیرد به‌دلیل وقایع اخیر شرکت یک سهام برجسته را خریداری نکند، می‌تواند در این رابطه به سیستم توضیحی ارائه دهد. با ارائه فیدبک، سیستم به‌طور پیوسته داده‌هایی به دست می‌آورد که می‌تواند با تحلیل آنها بینش‌های تازه‌ای ارائه دهد.

اگر کارمندان بتوانند در تبادل اطلاعات با هوش مصنوعی کنترل داشته باشند، احتمال بیشتری دارد که آن را به‌عنوان کانالی امن برای ارائه بازخورد بپذیرند و قبول کنند که این فناوری، قصد کمک به آنها را دارد؛ نه اینکه صرفاً بخواهد عملکردشان را ارزیابی کند. برای رسیدن به این هدف، انتخاب رابط درست اهمیت زیادی دارد. برای مثال در MBAM ابزاری که برای بهبود تریدینگ استفاده می‌شود (برای مثال ابزار تصویری) متناسب با ترجیحات مدیر پورتفوی در نظر گرفته می‌شود.

درست مانند مرحله دوم، در این مرحله نیز مشارکت‌دادن کارمندان در طراحی سیستم بسیار مهم است. وقتی هوش مصنوعی مربی باشد، افراد بیشتر هراس از دست دادن قدرتشان را دارند؛ زیرا هوش مصنوعی در این مرحله مانند رقیب آنها به نظر می‌آید و چه کسی دوست دارد کم‌هوش‌تر از یک ماشین به نظر برسد؟

مشکلات مربوط به خودمختاری و حریم خصوصی حتی از آن هم چشم‌گیرتر است. کار کردن با ماشین به صداقت احتیاج دارد، اما بسیاری از افراد در مورد به‌اشتراک‌گذاری اطلاعاتشان با هوش مصنوعی تردید دارند؛ زیرا می‌ترسند که این ماشین اطلاعات ناخوشایندشان را با کارمندان منابع انسانی در میان بگذارد.

استفاده از هوش مصنوعی به شکلی که در سه مرحله اول توضیح داده شد، قطعاً نقطه‌ضعف‌هایی هم دارد. این فناوری‌های جدید، در بلندمدت، بیشتر از آنکه بخواهند شغل انسان‌ها را از آنها بگیرند، به اشتغال‌زایی کمک می‌کنند، اما در حال حاضر با روی کار آمدن این ماشین‌ها ممکن است بازار نیروی کار کمی مختل شود. علاوه بر این، همان‌طور که «مت بین» (Matt Beane) در کتابی به نام «یاد بگیرید با ماشین‌های هوشمند کار کنید» (HBR، سپتامبر تا اکتبر ۲۰۱۹) می‌گوید، در شرکت‌هایی که از هوش مصنوعی استفاده می‌کنند، کارمندان ممکن است فرصت کمتری برای یادگیری عملی و منتورشیپ داشته باشند.

بنابراین، ماشین‌ها ریسک‌هایی را برای انسان‌ها به وجود می‌آورند، اما این‌طور نیست که بخواهند جای انسان‌ها را اشغال کنند. ریسک اصلی اینجاست که ماشین‌ها ممکن است انسان‌ها را بیش از حد به خودشان متکی کنند و توانایی فکر کردن را از تصمیم‌گیران بگیرند که متأسفانه این موضوع تا حدودی غیر قابل اجتناب است. همان‌طور که «بین» اشاره می‌کند، شرکت‌ها می‌توانند با استفاده از هوش مصنوعی‌ برای کارمندانشان فرصت‌های یادگیری متفاوت و بهتری خلق کنند و در عین حال با شفاف‌تر کردن سیستم و دادن کنترل بیشتر به کارمندان، سیستم‌هایشان را ارتقا دهند.

افرادی که در آینده وارد دنیای کار می‌شوند، در نوعی محیط کاری «انسانی ـ ماشینی» رشد کرده‌اند و به همین خاطر نسبت به کارمندان قبلی، در پیدا کردن فرصت‌های نوآوری و معرفی فعالیت‌هایی که باعث خلق ارزش و اشتغال‌زایی می‌شوند، سریع‌تر عمل می‌کنند. این موضوع ما را به مرحله آخر نزدیک می‌کند.

ـ وقتی هوش مصنوعی در نقش مربی باشد، انسان‌ها بیشتر هراس از دست دادن قدرتشان را دارند؛ زیرا علاوه بر شریک، هوش مصنوعی را رقیب خود به حساب می‌آورند.


مرحله چهارم: هم‌تیمی


انسان‌شناسی به نام «ادوین هاچینز» (Edwin Hutchins)، نظریه معروف «ادراک توزیع‌شده» را توسعه داد. این نظریه بر اساس مطالعات ناوبری کشتی او شکل گرفت که در آن ترکیبی از ملوان‌ها، جدول‌ها، قانون‌گذاران، قطب‌نماها و ابزار نقشه‌کشی استفاده می‌شد. این نظریه عموماً به مفهوم ذهن گسترش‌یافته مربوط می‌شود که می‌گوید پردازش شناختی و فعالیت‌های ذهنی همراه با آن (از جمله باور و نیت انسان) الزاماً محدود به مغز یا حتی بدن او نیستند. در واقع ابزار و تجهیزات خارجی می‌توانند تحت شرایطی مناسب، نقش مهمی در پردازش شناختی انسان داشته باشند و چیزی به نام «سیستم توأم» را ایجاد کنند.

هم‌راستا با این طرز تفکر، در آخرین مرحله از مسیر پیاده‌سازی هوش مصنوعی (که تا جایی که می‌دانیم هنوز در هیچ سازمانی اجرا نشده)، شرکت‌ها شبکه‌ای توأم از انسان‌ها و ماشین‌ها را ایجاد می‌کنند که در آن، هر دو از تخصصی که دارند، استفاده می‌کنند. به عقیده ما، همان‌طور که هوش مصنوعی داده‌های مربوط به تصمیم‌گیری‌ها و رفتارهای پیشین افراد را تحلیل می‌کند و از طریق تعاملات فردی با کاربران و حتی الگوبرداری از آنها ارتقا می‌یابد، به‌طور طبیعی جامعه‌ای از متخصصان (متشکل از افراد و ماشین‌ها) در سازمان‌ها پدیدار می‌شود که ربات‌های هوش مصنوعی به‌طور کامل در آن ادغام شده‌اند.

برای مثال، با کمک جامعه‌ای از متخصصان انسانی و ماشینی که متناسب با نیاز‌های سازمان تشکیل شده‌اند، مدیر خرید (در هنگام تصمیم‌گیری و فقط با یک کلیک) می‌تواند ببیند افراد دیگر، محصول مورد نظر را با چه قیمتی می‌فروشند و به این ترتیب، راحت‌تر تصمیم‌گیری کند.

با اینکه فناوری لازم برای ایجاد این هوش جمعی در حال حاضر ساخته شده است، اما پیاده‌سازی این مرحله مشکلاتی زیادی را به همراه دارد. برای مثال، در ادغام هوش مصنوعی به این شکل، نباید از سوگیری‌های جدید یا قدیمی استفاده شود. همچنین باید به مسائل حریم خصوصی انسان‌ها توجه شود تا افراد بتوانند درست مانند همکاران انسانی‌شان به هوش مصنوعی اعتماد کنند. این به خودی خود مشکل بزرگی به حساب می‌آید؛ زیرا تحقیقات نشان می‌دهد که ایجاد اعتماد حتی بین انسان‌ها هم کار بسیار دشواری است.

بهترین رویکرد برای ایجاد اعتماد در محیط کار، این است که رابطه بین اعتماد و شناخت را درک کنیم. موضوع تحقیق «دیوید دانکس» و همکارانش در دانشگاه «کارنگی ملون» نیز همین بود. با توجه به این مدل، من به کسی اعتماد می‌کنم که بتوانم ارزش‌ها، خواسته‌ها و نیات او را بدانم و مطمئن شوم که او قصد کمک به مرا دارد.

همان‌طور که از گذشته این نوع شناخت مبنای ایجاد اعتماد در روابط انسانی به حساب می‌آمد، بنابراین در شراکت بین انسان‌ها و ماشین‌ها هم می‌توان به آن استناد کرد. انسان‌ها معمولاً از ماشین‌ها شناختی ندارند و نمی‌دانند آنها چطور کار می‌کنند. به همین خاطر به آنها اعتماد نمی‌کنند، در نتیجه هوش مصنوعی در محیط کار پیشرفت چندانی نداشته است (به ستون «وقتی هوش مصنوعی راهش را گم می‌کند» مراجعه کنید.)

حال، چطور می‌توان نحوه عملکرد سیستم را توضیح داد؟ یکی از چالش‌های مهم در زمینه ایجاد شناخت، این است که مفهوم «توضیح» را تعریف کنیم (چه برسد به اینکه بخواهیم «توضیح خوب» را تعریف کنیم). تحقیقات زیادی برای رفع این مشکل انجام شده است. برای مثال، یکی از نویسندگان این مقاله (اوجنیا) سعی دارد در یکی از کارهای تحقیقاتی‌اش با کمک توضیحات شرطی غلط، الگوریتم‌های یادگیری ماشین را از حالت بلک‌باکس خارج کند.

توضیح شرطی غلط، نحوه تصمیم‌گیری سیستم هوش مصنوعی را نشان می‌دهد (برای مثال تأیید یا رد کردن اعتبار یک تراکنش). مثلاً با ارائه فهرستی کوتاه بیان می‌کند که چه خصوصیاتی از تراکنش باعث این تصمیم‌گیری شده است. اگر هر یک از این خصوصیات متفاوت بودند (یا با واقعیت مغایرت داشتند)، سیستم تصمیم متفاوتی می‌گرفت (و اعتبار را رد می‌کرد).

اوجنیا مفهوم «توضیح خوب» برای تصمیم‌گیری‌های هوش مصنوعی را نیز شرح داده است. مثلاً اینکه موضوعی را بر اساس ویژگی‌های منطقی توضیح ‌دهیم بهتر است («مثلاً تراکنش به این خاطر تأیید شد که ویژگی‌های الف، ب و ت را داشت») یا اینکه آن را در مقایسه با تصمیم‌گیری‌های دیگر توضیح دهیم؟ («مثلاً این تراکنش تأیید شد، چون شبیه به تراکنش‌های تأییدشده دیگر، از جمله تراکنش‌های الف و ب بود»). همان‌طور که تحقیقات زیادی در مورد «قابل توضیح کردن» هوش مصنوعی صورت می‌گیرد، سیستم‌های هوش مصنوعی نیز باید شفاف‌تر شوند تا افراد راحت‌تر بتوانند به آنها اعتماد کنند.

پذیرش فناوری‌های جدید همیشه مشکل بزرگی بوده و هرچه یک فناوری تأثیر بیشتری داشته باشد، این مشکل هم بزرگ‌تر می‌شود. پیاده‌سازی هوش مصنوعی نیز به‌دلیل تأثیر احتمالی زیادی که دارد، کار دشواری به حساب می‌آید. با این حال، اگر این کار را هوشمندانه انجام دهیم، پذیرش هوش مصنوعی تقریباً راحت خواهد بود.

دقیقاً به همین خاطر است که شرکت‌ها باید طراحی و توسعه هوش مصنوعی خود را (به‌خصوص در رابطه با شفافیت، اختیار تصمیم‌گیری و حریم خصوصی) با مسئولیت‌پذیری تمام انجام دهند و اطمینان حاصل کنند که این فناوری برای افرادی که قرار است با آن کار کنند، جذاب و مطمئن است. وقتی افراد ندانند ماشین‌ها چطور این تصمیمات را اخذ می‌کنند، ممکن است نسبت به آن احساس ترس پیدا کنند و نگران باشند که مبادا هوش مصنوعی محدودشان کند یا جای آنها را بگیرد.

از بین بردن این ترس‌ها و در نتیجه، ایجاد اعتماد نسبت به هوش مصنوعی کلید موفقیت در پذیرش آنها به حساب می‌آید. با یک طراحی مسئولانه، هوش مصنوعی می‌تواند در محیط کار به شریک انسان‌ها تبدیل شود. هوش مصنوعی می‌تواند به‌سرعت و با پیوستگی تمام حجم زیادی از داده‌های متفاوت را پردازش کند، بینش و خلاقیت بیشتری به انسان‌ها ارائه دهد و انسان‌ها هم در عوض آن را آموزش دهند.


وقتی هوش مصنوعی مسیرش را گم می‌کند


در سال ۲۰۱۶، موسسه خبری ـ تحقیقاتی «پروپابلیکا» از یک برنامه پیش‌بینی ریسک هوش مصنوعی به نام COMPAS (که قاضی‌های فلوریدای جنوبی با استفاده از آن احتمال ارتکاب مجدد جرم را در بازه‌ای مشخص پیش‌بینی می‌کردند)، گزارشی تهیه کرد. سازنده برنامه COMPAS، شرکت «نورتپوینت» (که اکنون Equivant نام دارد) الگوریتم آن را به‌عنوان یکی از اسرار تجاری خود مخفی نگه داشته است. یعنی ما نمی‌دانیم این برنامه چطور پیش‌بینی‌هایش را انجام می‌دهد و به داده‌هایی که الگوریتم بر اساس آن آموزش دیده، دسترسی نداریم.

بنابراین حتی نمی‌توانیم منطق عملکرد آن را درک کنیم. وقتی پروپابلیکا گزارش کرد که این الگوریتم برای افرادی با نژادهای مختلف نتایج نابرابر ارائه می‌دهد، متوجه شدیم که چرا انسان‌ها نمی‌توانند به هوش مصنوعی اعتماد کنند. در واقع COMPAS اولین نمونه‌ای بود که علت عدم اعتماد به هوش مصنوعی را مشخص کرد. اگر کسب‌وکارها بخواهند کارمندانشان هوش مصنوعی را بپذیرند، از آن استفاده کرده و در نهایت به آن اعتماد کنند، باید (تا جایی که از لحاظ قانونی ممکن است) آن را از حالت بلک‌باکس خارج کنند و نحوه کارکرد آن را برای کسانی که قرار است با آن کار کنند، توضیح دهند؛ همان‌طور که «ریچارد سوشر»، دانشمند ارشد شرکت «سیلزفورس» اشاره می‌کند؛ «اگرکسب‌وکارها بخواهند از قدرت پیش‌بینی هوش مصنوعی استفاده کنند، باید به انسان‌ها توضیح دهند که این پیش‌بینی‌ها یا تصمیم‌گیری‌ها چطور صورت می‌گیرند.»

منبع hbr ماهنامه عصر تراکنش شماره ۳۶
نویسنده / مترجم شراره شبل‌الحکما

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.