راه پرداخت
رسانه فناوری‌های مالی ایران

با هوشمندتر شدن ماشین‌ها، چطور می‌توانیم با آنها ارتباط برقرار کنیم؟

ماهنامه عصر تراکنش شماره ۳۶ / دوچرخه‌سواری در شهر پرشیب و شلوغی مثل سان‌فرانسیسکو، تمرینی شناختی و همچنین جسمی است. برای جان سالم به در بردن از ترافیک، نه‌تنها ماهیچه‌هایم؛ بلکه نظریه ذهنم، یعنی توانایی تصور افکار و نیات دیگران را هم منعطف کردم؛ آن پسری که اسکوتر مارک برد سوار شده، راهش را کج می‌کند تا توی گودال نیفتد؟ آیا راننده‌های شرکت پست پایشان را روی گاز می‌گذارند تا پشت چراغ قرمز نمانند؟ اما اتومبیل‌های خودران دستپاچه‌ام می‌کنند.

سال گذشته زمانی که جنرال‌موتورز به آزمودن اتومبیل‌های کروز خودرانش سرعت بخشید، هر روز یک یا دو ماشین هاچ‌بک اسپرت سفید که سقفشان حسگر داشت، می‌دیدم. آن اوایل این اتومبیل‌ها شدیداً محتاط و انگار عصبی بودند، راننده‌های انسان مدام از سر عصبانیت برای اینکه چرا بی‌خودی ترمز کرده‌اند و دور زدنشان را طولانی می‌کنند، مدام بوق می‌زدند. با گذشت زمان احساس می‌کردم می‌توانم دست این ربات‌های ترسو را بخوانم و حتی استثمارشان کنم. اگر از مسیر دوچرخه‌سواری منحرف می‌شدم، از جایشان جنب نمی‌خوردند و فضایی اضافی به من می‌دادند. به چهارراه که می‌رسیدند، این دست و آن دست می‌کردند و دست‌آخر هم می‌گذاشتند من مثل تیری که از کمان رها می‌شود، عبور کنم.

بعد طی یک هفته چند اتومبیل کروز دیدم که معلوم بود راننده‌های خاطرجمع‌تری دارند. به‌جای اینکه خاضعانه صبروحوصله کنند و پشت دوچرخه‌ها برانند، مثل برق‌ و باد رد می‌شدند و می‌رفتند. نظریه‌ام در مورد ذهن رباتی دود هوا شد و پریشانی جایش را گرفت؛ با رشد توانایی‌ و بی‌محابا شدن هوش مصنوعی، چطور می‌توانیم با آنها ارتباط برقرار کنیم؟

عموماً، انسان‌ها خیلی خوب با فناوري‌های جدید خو می‌کنند. با فشار دادن پدالی فلزی ماشین را هدایت می‌کنیم و مشتاقیم با تابلوهای رانندگی کوچک ارتباط برقرار ‌کنیم، اما هرچه سیستم‌های هوش مصنوعی پیچیده‌تر و پویاتر می‌شوند؛ مثل خودروی رباتیک، ما از جهات مختلف به چالش کشیده می‌شویم. هزار سال تکامل بیولوژیکی و فرهنگی به ما مغزها و جوامعی داده که درک رفتارها، عادت‌های عجیب و تخلفات انسان‌های دیگر را تعلیم دیده است. «ایاد رهوان»، مدیر انجمن «مکس پلانک» برای توسعه انسانی در برلین، می‌گوید با ماشین‌های هوشمند «انگار در تاریکی تلوتلوخوران پیش می‌رویم».

تمایل داریم فرض کنیم، شاید بدون اینکه متوجه این موضوع باشیم، سیستم‌های هوش مصنوعی ذهن‌هایی مشابه ما دارند. «جوزف وایزنبام»، استاد مؤسسه فناوری ماساچوست، در دهه ۱۹۶۰ نخستین «بات مکالمه» به نام «الیزا» را ساخت. وایزنبام، الیزا را طوری برنامه‌نویسی کرد که جملات تایپ‌شده را دوباره عبارت‌بندی کند و به شکل سؤال دربیاورد و به این ترتیب شیوه کار پزشک درمانگر را تقلید کند. در کمال حیرت وایزنبام، انسان‌ها، هوش و هیجانات شبه‌انسانی بات را احساس کردند. او در این‌باره نوشت: «نکته‌ای که متوجهش نشدم این بود که برون‌ریزی خیلی کم به برنامه‌ کامپیوتری نسبتاً ساده، می‌توانست هذیان فکری را در آدم‌های کاملاً سالم ایجاد کند.»

از آن زمان خطرهای ذهنیتی شفاف در مورد هوش مصنوعی شدت گرفت و خیلی زود بااهمیت شدند. دستیارهای مجازی مبتنی بر شخصیت زنانه جسور مثل الکسای شرکت آمازون، ما را از در نظر گرفتن خطرات اجازه به شرکت‌های بزرگ برای ضبط زندگی شخصی‌مان، دور کرد.  نحوه‌ درک و واکنش نشان‌دادن راننده‌ها، موتورسواران و عابران به وسایط نقلیه رباتیک، موضوع مرگ و زندگی است.

حتی زمانی که بیشتر از یک ثانیه وقت برای حدس تصمیمات سیستم هوش مصنوعی داریم، از تبیین و توضیح کامل رفتارش عاجزیم. الگوریتم‌های یادگیری ماشین که اخیراً در بسیاری از برنامه‌های زمانی هوش مصنوعی نقش دارند، نمی‌توانند به همان شکل نرم‌افزار سنتی، برنامه‌نویسی یا مهندسی معکوس شوند. کارشناسان این سیستم‌ها را جعبه‌های سیاه نامیده‌اند؛ چراکه حتی سازندگانشان نمی‌توانند کاملاً نحوه کار آنها را توضیح دهند.

ممکن است روزی مجبور شوید بر اساس توصیه پزشکی که به نوبه خود طبق توصیه سیستم هوش مصنوعی‌‌ای که متدها و منابعی است که هیچ انسان یا ناظری نمی‌تواند بررسی‌اش کند، تصمیمی درمانی بگیرید که مسیر زندگی‌تان را تغییر بدهد. هوش مصنوعی، هوش بیگانه‌ای است؛ اساساً دنیا را طوری درک و پردازش می‌کنند که با درک و پردازش ما فرق دارد.

قضاوت غلط در مورد سیستم‌های هوش مصنوعی ممکن است به قضاوت غلط در مورد انسان‌ها منجر شود. «مادلن کلر الیش»، پژوهشگر رشته انسان‌شناسی در مؤسسه تحقیقاتی «داده و جامعه»، سوانحی را که شامل دستگاه تنظیم خودکار می‌شدند، مورد مطالعه قرار داده است. او می‌گوید تقصیر شکست‌‌ این سیستم‌ها اغلب بر گردن انسان‌هایی می‌افتد که آنها را نساخته‌اند.

پس از اینکه خودروی خودران شرکت اوبر سال ۲۰۱۸ در آریزونا، عابری را که از محلی غیرمجاز عبور می‌کرد، زیر گرفت، پلیس توجه عمومی را به تأمین امنیت از سوی راننده جلب کرد؛ در ویدئویی که در ماشین ضبط شده، به نظر می‌رسد راننده حواسش پرت شده بود.  مدتی بعد بازپرس‌های فدرال متوجه شدند اوبر سیستم ترمز اضطراری اتومبیل را از کار انداخته بود و الگوریتم‌هایی برای آن نوشته بود تا فقط هنگام رسیدن به خط عابر پیاده نسبت به عابران واکنش نشان بدهد. اوبر ویژگی‌های ایمنی را به سیستم خودروهای خودران افزود؛ هرچند دیگر نمی‌تواند در آریزونا چنین ویژگی‌ای را امتحان کند.

البته در آن پرونده متهم شناخته نشد و فقط به‌دلیل عدم ایمنی راننده جریمه شد. ‌ ممکن است حتی برای انسان‌ها سخت‌تر باشد که عملکردها و ناکارآمدی‌های سیستم‌های هوش مصنوعی تصنعی را که پیوسته خودشان را با محیط و تجربیاتشان وفق می‌دهند، آشکارا ببینند. الیش می‌پرسد: «چگونه می‌توان سامانه‌ای پویا را درک کرد که در حین کار چیزهای جدید می‌آموزد و نمی‌توان به دانشی که در گذشته از توانایی‌هایش وجود داشت، تکیه کرد؟»

هرچه تعاملمان با سیستم‌های هوش مصنوعی بیشتر شود، شاید توانایی یادگیری قابل‌ توجه‌ خودمان کمکمان کند نظریه ذهن ماشینی را به‌منظور درک انگیزه‌ها و رفتارهای آنها، بسط و توسعه دهیم. یا شاید هم راه‌حل نزد ماشین‌هاست، نه ما. شاید مهندسان آینده هوش مصنوعی باید همان‌قدر که روی نحوه درست تعامل ماشین‌ها با انسان کار می‌کنند، روی افزایش بهره هوشی الکترونیکی‌شان هم کار کنند.  

منبع ماهنامه عصر تراکنش شماره ۳۶
نویسنده / مترجم تام سیمونت بهار سرلک
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.