پایگاه خبری راه پرداخت دارای مجوز به شماره ۷۴۵۷۲ از وزارت فرهنگ و ارشاد اسلامی و بخشی از «شبکه عصر تراکنش» است. راه پرداخت فعالیت خود را از دوم اردیبهشتماه ۱۳۹۰ شروع کرده و اکنون پرمخاطبترین رسانه ایران در زمینه فناوریهای مالی، بانکداری و پرداخت و استارتآپهای فینتک است.
با هوشمندتر شدن ماشینها، چطور میتوانیم با آنها ارتباط برقرار کنیم؟
ماهنامه عصر تراکنش شماره ۳۶ / دوچرخهسواری در شهر پرشیب و شلوغی مثل سانفرانسیسکو، تمرینی شناختی و همچنین جسمی است. برای جان سالم به در بردن از ترافیک، نهتنها ماهیچههایم؛ بلکه نظریه ذهنم، یعنی توانایی تصور افکار و نیات دیگران را هم منعطف کردم؛ آن پسری که اسکوتر مارک برد سوار شده، راهش را کج میکند تا توی گودال نیفتد؟ آیا رانندههای شرکت پست پایشان را روی گاز میگذارند تا پشت چراغ قرمز نمانند؟ اما اتومبیلهای خودران دستپاچهام میکنند.
سال گذشته زمانی که جنرالموتورز به آزمودن اتومبیلهای کروز خودرانش سرعت بخشید، هر روز یک یا دو ماشین هاچبک اسپرت سفید که سقفشان حسگر داشت، میدیدم. آن اوایل این اتومبیلها شدیداً محتاط و انگار عصبی بودند، رانندههای انسان مدام از سر عصبانیت برای اینکه چرا بیخودی ترمز کردهاند و دور زدنشان را طولانی میکنند، مدام بوق میزدند. با گذشت زمان احساس میکردم میتوانم دست این رباتهای ترسو را بخوانم و حتی استثمارشان کنم. اگر از مسیر دوچرخهسواری منحرف میشدم، از جایشان جنب نمیخوردند و فضایی اضافی به من میدادند. به چهارراه که میرسیدند، این دست و آن دست میکردند و دستآخر هم میگذاشتند من مثل تیری که از کمان رها میشود، عبور کنم.
بعد طی یک هفته چند اتومبیل کروز دیدم که معلوم بود رانندههای خاطرجمعتری دارند. بهجای اینکه خاضعانه صبروحوصله کنند و پشت دوچرخهها برانند، مثل برق و باد رد میشدند و میرفتند. نظریهام در مورد ذهن رباتی دود هوا شد و پریشانی جایش را گرفت؛ با رشد توانایی و بیمحابا شدن هوش مصنوعی، چطور میتوانیم با آنها ارتباط برقرار کنیم؟
عموماً، انسانها خیلی خوب با فناوريهای جدید خو میکنند. با فشار دادن پدالی فلزی ماشین را هدایت میکنیم و مشتاقیم با تابلوهای رانندگی کوچک ارتباط برقرار کنیم، اما هرچه سیستمهای هوش مصنوعی پیچیدهتر و پویاتر میشوند؛ مثل خودروی رباتیک، ما از جهات مختلف به چالش کشیده میشویم. هزار سال تکامل بیولوژیکی و فرهنگی به ما مغزها و جوامعی داده که درک رفتارها، عادتهای عجیب و تخلفات انسانهای دیگر را تعلیم دیده است. «ایاد رهوان»، مدیر انجمن «مکس پلانک» برای توسعه انسانی در برلین، میگوید با ماشینهای هوشمند «انگار در تاریکی تلوتلوخوران پیش میرویم».
تمایل داریم فرض کنیم، شاید بدون اینکه متوجه این موضوع باشیم، سیستمهای هوش مصنوعی ذهنهایی مشابه ما دارند. «جوزف وایزنبام»، استاد مؤسسه فناوری ماساچوست، در دهه ۱۹۶۰ نخستین «بات مکالمه» به نام «الیزا» را ساخت. وایزنبام، الیزا را طوری برنامهنویسی کرد که جملات تایپشده را دوباره عبارتبندی کند و به شکل سؤال دربیاورد و به این ترتیب شیوه کار پزشک درمانگر را تقلید کند. در کمال حیرت وایزنبام، انسانها، هوش و هیجانات شبهانسانی بات را احساس کردند. او در اینباره نوشت: «نکتهای که متوجهش نشدم این بود که برونریزی خیلی کم به برنامه کامپیوتری نسبتاً ساده، میتوانست هذیان فکری را در آدمهای کاملاً سالم ایجاد کند.»
از آن زمان خطرهای ذهنیتی شفاف در مورد هوش مصنوعی شدت گرفت و خیلی زود بااهمیت شدند. دستیارهای مجازی مبتنی بر شخصیت زنانه جسور مثل الکسای شرکت آمازون، ما را از در نظر گرفتن خطرات اجازه به شرکتهای بزرگ برای ضبط زندگی شخصیمان، دور کرد. نحوه درک و واکنش نشاندادن رانندهها، موتورسواران و عابران به وسایط نقلیه رباتیک، موضوع مرگ و زندگی است.
حتی زمانی که بیشتر از یک ثانیه وقت برای حدس تصمیمات سیستم هوش مصنوعی داریم، از تبیین و توضیح کامل رفتارش عاجزیم. الگوریتمهای یادگیری ماشین که اخیراً در بسیاری از برنامههای زمانی هوش مصنوعی نقش دارند، نمیتوانند به همان شکل نرمافزار سنتی، برنامهنویسی یا مهندسی معکوس شوند. کارشناسان این سیستمها را جعبههای سیاه نامیدهاند؛ چراکه حتی سازندگانشان نمیتوانند کاملاً نحوه کار آنها را توضیح دهند.
ممکن است روزی مجبور شوید بر اساس توصیه پزشکی که به نوبه خود طبق توصیه سیستم هوش مصنوعیای که متدها و منابعی است که هیچ انسان یا ناظری نمیتواند بررسیاش کند، تصمیمی درمانی بگیرید که مسیر زندگیتان را تغییر بدهد. هوش مصنوعی، هوش بیگانهای است؛ اساساً دنیا را طوری درک و پردازش میکنند که با درک و پردازش ما فرق دارد.
قضاوت غلط در مورد سیستمهای هوش مصنوعی ممکن است به قضاوت غلط در مورد انسانها منجر شود. «مادلن کلر الیش»، پژوهشگر رشته انسانشناسی در مؤسسه تحقیقاتی «داده و جامعه»، سوانحی را که شامل دستگاه تنظیم خودکار میشدند، مورد مطالعه قرار داده است. او میگوید تقصیر شکست این سیستمها اغلب بر گردن انسانهایی میافتد که آنها را نساختهاند.
پس از اینکه خودروی خودران شرکت اوبر سال ۲۰۱۸ در آریزونا، عابری را که از محلی غیرمجاز عبور میکرد، زیر گرفت، پلیس توجه عمومی را به تأمین امنیت از سوی راننده جلب کرد؛ در ویدئویی که در ماشین ضبط شده، به نظر میرسد راننده حواسش پرت شده بود. مدتی بعد بازپرسهای فدرال متوجه شدند اوبر سیستم ترمز اضطراری اتومبیل را از کار انداخته بود و الگوریتمهایی برای آن نوشته بود تا فقط هنگام رسیدن به خط عابر پیاده نسبت به عابران واکنش نشان بدهد. اوبر ویژگیهای ایمنی را به سیستم خودروهای خودران افزود؛ هرچند دیگر نمیتواند در آریزونا چنین ویژگیای را امتحان کند.
البته در آن پرونده متهم شناخته نشد و فقط بهدلیل عدم ایمنی راننده جریمه شد. ممکن است حتی برای انسانها سختتر باشد که عملکردها و ناکارآمدیهای سیستمهای هوش مصنوعی تصنعی را که پیوسته خودشان را با محیط و تجربیاتشان وفق میدهند، آشکارا ببینند. الیش میپرسد: «چگونه میتوان سامانهای پویا را درک کرد که در حین کار چیزهای جدید میآموزد و نمیتوان به دانشی که در گذشته از تواناییهایش وجود داشت، تکیه کرد؟»
هرچه تعاملمان با سیستمهای هوش مصنوعی بیشتر شود، شاید توانایی یادگیری قابل توجه خودمان کمکمان کند نظریه ذهن ماشینی را بهمنظور درک انگیزهها و رفتارهای آنها، بسط و توسعه دهیم. یا شاید هم راهحل نزد ماشینهاست، نه ما. شاید مهندسان آینده هوش مصنوعی باید همانقدر که روی نحوه درست تعامل ماشینها با انسان کار میکنند، روی افزایش بهره هوشی الکترونیکیشان هم کار کنند.