راه پرداخت؛ رسانه فناوری‌های مالی ایران

اگر هوشمندانه عمل کنیم، هوش مصنوعی می‌تواند بهترین اتفاق برای بشریت باشد

مکس تگمارک که زمانی به‌دنبال آشکار کردن اسرار فرضیه چندجهانی بود، اکنون توجهش به هوش مصنوعی جلب شده است. ریچارد وب با تمارگ در مورد کیهان‌شناسی، خودآگاهی و تلاش برای بهره‌مندی همه از هوش مصنوعی گفت‌وگو کرده است

0

ماهنامه عصر تراکنش شماره ۳۷ / «همه جهان‌ها حتی جهان‌های مثلثی هم وجود دارند.» این جمله ششم ژوئن ۱۹۹۸ یعنی یکی از اولین دفعاتی که مکس تگمارک در دفتر مجله نیوساینتیست حضور یافت، روی جلد این مجله نقش بست. مکس تگمارک که در آن زمان ۳۱ سال داشت، در آن شماره ایده جسورانه‌اش در مورد نظریه چندجهانی را تشریح کرد که طبق آن همه جهان‌هایی که از لحاظ منطقی محتمل هستند، نه‌تنها وجود دارند؛ بلکه باید وجود داشته باشند.

تگمارک که اکنون استاد مؤسسه فناوری ماساچوست (ام‌آی‌تی) است، به‌واسطه ایده‌های بحث‌برانگیزش شناخته می‌شود. همان‌طور که در بخش «عجیب‌وغریب» وب‌سایتش توضیح می‌دهد: «هر وقت ۱۰ مقاله عادی می‌نویسم، به خودم اجازه می‌دهم یک مقاله دیوانه‌وار نیز بنویسم.» اما اظهارات و مقالات عجیب او نباید روی سابقه جدی‌اش در کیهان‌شناسی، علوم اطلاعات کوانتومی و بررسی شماری از عمیق‌ترین پرسش‌های مربوط به ماهیت واقعیت سایه بیندازند.

تگمارک به‌تازگی روی هوش، هم انسانی و هم مصنوعی، متمرکز شده است. در مورد هوش مصنوعی پژوهش‌های پیشگامی انجام می‌دهد و این اواخر با «سیلویو ماریان یودرسکو»، همکار پژوهشگرش در ام‌آی‌تی،  همکاری کرده است تا هوشی مصنوعی ایجاد کنند که می‌تواند برخی از بنیادی‌ترین معادلات فیزیک را با بررسی الگوهای داده‌ها از نو کشف کند. تگمارک در سال ۲۰۱۴ مؤسسه «آینده زندگی»  Future of Life را هم‌بنیان‌گذاری کرد که هدفش درک و کاهش ریسک‌های مربوط به موجودیت انسان، به‌ویژه ریسک‌های ناشی از ظهور هوش مصنوعی است.

چه مسئله‌ای باعث شد از کیهان‌شناسی به هوش مصنوعی روی بیاورید؟

پرسش‌های بزرگ همواره برایم جذاب بوده‌اند، هرچه بزرگ‌تر باشند، بهتر است. به همین دلیل به مطالعه کائنات علاقه‌مند بودم؛ چراکه شامل پرسش‌های فلسفی بزرگی مثل «منشاء همه چیز کجاست»، «چه اتفاقی می‌افتد»، «جایگاه ما در این دنیای بزرگ کجاست» و مانند آنها می‌شود. پیشرفت چشم‌گیری در کیهان‌شناسی داشته‌ایم، اما همزمان داده‌های واقعاً جدید، کمیاب‌تر و دستیابی به آنها دشوارتر ‌شده است.

بنابراین بسیار طبیعی بود که به سمت بزرگ‌ترین معمای حل‌نشده‌ای جذب شوم که به‌نوعی در دسترس قرار دارد. با تلسکوپ‌ها می‌توانیم چیزهایی را ببینیم که در گذشته هرگز نمی‌توانستیم. اکنون همین اتفاق در مورد ذهن هم افتاده است. از طریق علوم اعصاب داده‌های بسیار زیادی به ‌دست آورده‌ایم و به توانایی ساخت نسخه‌های مصنوعی از مقوله‌هایی دست یافته‌ایم که می‌خواهیم مطالعه کنیم.

در حال حاضر روی چه مسئله‌ای کار می‌کنید؟

تحقیقات من بر مقوله‌ای متمرکز است که آن را «یادگیری ماشین در راه نیک» می‌خوانم. به‌تازگی تلاش زیادی در مورد پروژه‌ای انجام داده‌ایم که از یادگیری ماشین برای شناسایی سوگیری خبری استفاده می‌کند. از کیفیت خبر در ایالات متحده بسیار ناراضی‌ام و با خودم عهد بسته‌ام که دیگر در مورد مسئله‌ای گله و شکایت نکنم، مگر اینکه خودم زمانی را برای بهبود وضعیت آن صرف کرده باشم.

هوش مصنوعی چطور می‌تواند سوگیری خبر را کاهش دهد؟

پروژه‌هایی وجود دارند که با استفاده از افرادی که مطالب را راستی‌آزمایی و مشکلات را نشان‌دار می‌کنند، به‌دنبال بهبود کیفیت خبر هستند، اما اگر بیشتر توجه کنید، می‌بینید که برخی سایت‌های راستی‌آزمایی ۹۵ درصد خطاها را در رسانه‌های چپ‌گرای طیف سیاسی و برخی دیگر فقط خطاهای رسانه‌های راست‌گرا را پیدا می‌کنند. در حقیقت دقیقاً مشخص نیست از چه معیارهایی استفاده می‌کنند.

ما تصمیم گرفتیم سیستمی کاملاً خودکار بسازیم. هنوز پروژه کاملی نیست، اما از یادگیری ماشین برای طبقه‌بندی مقاله‌ها و گزارش‌ها بر اساس سنجه‌های متفاوت مثل موضوع، چپ یا راست بودن، موافق یا مخالف تشکیلات بودن، عمیق یا سطحی بودن و التهاب‌زا یا ظریف بودن استفاده می‌کنیم. این ابزار کمی شبیه گوگل‌نیوز است، اما چند دکمه و اهرم در آن تعبیه شده تا خواننده بتواند تنظیمات مورد نظرش را در آن اعمال کند.

آیا این کار ریسک تقویت اثر «اتاق پژواک» را در پی ندارد و باعث نمی‌شود افراد انتخاب کنند فقط خبرهایی را ببینند که با سوگیری‌هایشان همسو است؟

شرایط موجود دقیقاً به همین شکل است. اگر به فیس‌بوک مراجعه کنید، کاملاً اتاق پژواک شما را تقویت می‌کند. پرسش این است که اگر فرصتی به ‌دست بیاورید که بتوانید به ‌جای مطالعه نسنجیده و بدون فکر، انتخاب‌های کمی سنجیده‌تری داشته باشید، آیا این اتفاق شرایط را بهتر می‌کند یا بدتر؟

دیوید رند، استاد روان‌شناسی ام‌آی‌تی آزمایش‌های بسیار جالبی انجام داده که نشان می‌دهد این تفکر که افراد فقط می‌خواهند مطالب موافق عقایدشان را بخوانند تا حدودی اشتباه است. افراد به شنیدن سایر دیدگاه‌ها هم علاقه دارند؛ البته به شرط آنکه به‌صورت ظریفی ارائه شوند. می‌توانیم با استفاده از یادگیری ماشین بفهمیم کدام مقالات ظریف هستند و کدام مقالات احتمالاً فقط افراد را عصبانی می‌کنند. امیدوارم به گونه‌ای نباشد که کاربران ترجیح‌هایشان را یک بار تنظیم کنند و بعد دیگر به آنها دست نزنند؛ بلکه کمی کنجکاو باشند.

هدف کلی‌تر «یادگیری ماشین در راه نیک» چیست؟

فکر می‌کنم چالش بنیادین ما در برخورد با هوش مصنوعی و به‌طور کلی فناوری، پیروز شدن در نبرد خرد است. باید مطمئن شویم که قدرت فناوری سریع‌تر از خردی رشد نمی‌کند که با آن مدیریتش می‌کنیم.

از دیرباز با یادگیری از اشتباهات توانسته‌ایم از فناوری جلوتر باشیم. آتش را اختراع کردیم، چند بار خرابکاری کردیم و بعد کپسول آتش‌نشانی، سازمان آتش‌نشانی و زنگ خطر آتش‌سوزی را ابداع کردیم. خودرو را اختراع کردیم و بعد کمربند ایمنی، کیسه هوا، چراغ راهنمایی و قوانین مخالف سرعت غیرمجاز را به ‌وجود آوردیم.

چالش ما این است که وقتی قدرت فناوری از آستانه ویژه‌ای عبور می‌کند، درس‌گرفتن از اشتباهات دیگر ایده خوبی نیست. نمی‌خواهیم یک جنگ اتمی اتفاقی بین ایالات متحده و روسیه به ‌وقوع بپیوندد و بعد از هزاران انفجار بگوییم: «ای وای! حالا بیایید از اشتباهات‌مان درس بگیریم». در مورد زیست‌شناسی مصنوعی و همچنین هوش مصنوعی در حالی ‌که به توانایی‌های انسانی نزدیک می‌شود، همین مسئله را مشاهده می‌کنیم. این مسئله تمرکز اصلی پژوهش من است؛ اینکه چطور می‌توانیم هوش مصنوعی واقعاً قابل اعتمادی بسازیم؟

چرا مسئله اعتماد به هوش مصنوعی بسیار مهم است؟

بزرگ‌ترین پیشرفت یادگیری ماشین در سال‌های اخیر ناشی از شبکه‌های عصبی مصنوعی بوده که می‌توانند کارهای فوق‌العاده هوشمندانه‌ای انجام دهند؛ مثلاً، همه افراد زمین را در شطرنج یا بازی «گو» شکست بدهند، اما درک و دانش کمی از سازوکار این نوع هوش مصنوعی داریم. اغلب با آن به‌عنوان جعبه سیاه برخورد می‌کنیم و بعد هر چند وقت یک‌بار می‌بینیم که طبق انتظار ما رفتار نمی‌کند. برای مثال مشکلاتی از این دست داریم که بوئینگ واقعاً دوست دارد نحوه کار سیستم خودکار سری ۷۳۷ را بهتر درک کند یا شرکت معاملاتی «نایت کپیتال» دوست داشت قبل از اینکه سیستم معاملات خودکارش به مدت ۴۴ دقیقه هر دقیقه ۱۰ میلیون دلار از دست بدهد، بداند این سیستم چطور کار می‌کند.

دادگاه‌هایی را هم در سراسر ایالات متحده داشتیم که از نرم‌افزاری برای پیشنهاد ارائه یا عدم ارائه عفو مشروط به افراد استفاده می‌کردند. افراد واقعاً نمی‌دانستند این نرم‌افزار چطور کار می‌کند و متوجه نبودند که سوگیری نژادی دارد. در گروه‌مان در حال توسعه روش‌هایی هستیم که به افراد این امکان را می‌دهد که داخل جعبه سیاه را ببینند و درک کنند هوش مصنوعی دقیقاً چه ‌کار می‌کند. فکر می‌کنم اگر افراد بتوانند از این روش‌ها استفاده کنند، شرایط احتمالاً بهتر خواهد شد.

به نظر می‌رسد از آن دسته افراد خوش‌بین به فناوری هستید.

آیا از آن دسته افرادی هستید که فکر می‌کنند آتش می‌تواند افراد را بکشد یا از آن دسته‌ای هستید که فکر می‌کنند آتش افراد را در زمستان گرم نگه می‌دارد؟ بدیهی است که هر دو اتفاق می‌افتد.

مسئله اصلی ارائه استدلال موافق یا مخالف آتش نیست، مسئله اصلی پیدا کردن راهی برای مدیریت هوشمندانه آتش است. فناوری خیر یا شر مطلق نیست، ابزاری خنثی نسبت به اصول اخلاقی است که می‌تواند به شما امکان انجام کار خیر یا شر را بدهد. در حال حاضر هوش مصنوعی هنوز خیلی کم‌هوش است، اما همین حالا هم آن‌قدر در دنیا تأثیرگذار بوده که باعث مشکلات زیادی مثل تصمیمات تبعیض‌آمیز دادگاه‌ها و سقوط هواپیماها شده است.

فکر می‌کنم ساختن هوش مصنوعی بسیار قدرتمند امکان‌پذیر است و اگر هوشمندانه عمل کنیم، هوش مصنوعی می‌تواند بهترین اتفاق برای بشریت باشد؛ زیرا همه مسائلی که درباره تمدن دوست دارم، محصول هوش انسانی است. اگر بتوانیم این هوش انسانی را با هوش مصنوعی تقویت کنیم، می‌توانیم از آن برای حل بحران اقلیمی، برطرف‌کردن معضل فقر، کشف درمان ویروس کرونا و غیره استفاده کنیم. کجای این دستاوردها بد است؟

(سمت چپ) فردی در حال بازدید از فروشگاه سلف‌سرویس قدرت‌گرفته از هوش مصنوعی در نانجینگ و (سمت راست) نرم‌افزار تشخیص چهره‌ای در نمایشگر یک همایش امنیتی در شهر شنژن چین.

با توجه به اینکه هنوز حتی سازوکار هوش انسان را درک نمی‌کنیم، آیا ساخت این نوع هوش مصنوعی «همه‌کاره» پیشرفته، واقع‌بینانه است؟

شبیه این است که بپرسید چطور ممکن است پیش از درک نحوه پرواز پرندگان بفهمیم چطور می‌توان دستگاهی پرنده ساخت؟ تکامل داروینی، هم پرنده و هم حیوانات متفکر به‌دنبال داشت، اما خیلی محدود بود، فقط می‌توانستیم راه‌حل‌هایی داشته باشیم که خودمونتاژشونده و خودتعمیرشونده بودند، فقط از چند عنصر شیمیایی استفاده می‌کردند و بسیار کم‌مصرف بودند. اگر این محدودیت‌های زیستی را برطرف کنیم، اغلب می‌توانیم راه‌حل‌های بسیار ساده‌تری برای همان مشکلات قبلی پیدا کنیم.

می‌دانم که برخی افراد فکر می‌کنند هوش مشخصه‌ای جادویی دارد و در نتیجه فقط می‌تواند در بدن انسان وجود داشته باشد. من این‌طور فکر نمی‌کنم. من حبابی از الکترون‌ها و کوارک‌ها هستم که اطلاعات را با روش‌های پیچیده خاصی پردازش می‌کنند و مسئله کلیدی در هوش ماهیت نوع پردازش اطلاعات است. حتی می‌توانم پیش‌بینی کنم که سازوکار دقیق مغز انسان را زمانی درک خواهیم کرد که سیستمی ساده‌تر بسازیم که تقریباً به اندازه انسان هوشمند باشد.

از قرار معلوم نمی‌توانیم هوشی مصنوعی‌ای بسازیم که دقیقاً مثل انسان‌ها فکر یا احساس می‌کند و از ویژگی‌هایی مثل عاملیت یا خودآگاهی برخوردار است؟

نمی‌توان با قطعیت گفت. فکر می‌کنم مهم‌ترین سؤال این نیست که چه اتفاقی می‌افتد، این است که ما می‌خواهیم چه اتفاقی بیفتد. شاید به‌عنوان طراح انتخاب‌های زیادی داشته باشیم. حوزه ذهن‌های مصنوعی بالقوه بسیار گسترده‌تر از حوزه ذهن‌های زیستی است؛ چراکه همه ذهن‌های زیستی تکامل یافته‌اند و اغلب پیش از هر چیز غریزه بقا دارند. وقتی چنین محدودیت‌هایی نداشته باشید، فرصت‌های بسیار بیشتری در دسترس‌تان قرار می‌گیرد.

شاید بتوانیم هوش‌های مصنوعی متفاوتی بسازیم که در کارهای مختلف به یک اندازه عملکردشان خوب است، اما دامنه گسترده‌ای از تجربه‌های خودآگاهی دارند؛ از هیچ تا تجربه‌ای انتزاعی که شباهت زیادی به تجربه انسان دارد و رنگ‌ها، صداها، لرزش‌ها و حتی احساسات را تجربه می‌کند.

واقعاً؟ مگر می‌توان سیستمی را به ‌نحوی برنامه‌ریزی کرد که احساسات داشته باشد؟

فکر می‌کنم در دادن جواب منفی به این سؤال بیش ‌از حد به خودمان مطمئن هستیم. باید در مورد ادعاهای حق‌به‌جانبی مثل اینکه می‌دانیم چه زمانی تجربه انتزاعی وجود دارد و چه زمانی وجود ندارد، بسیار مراقب باشیم. این اشتباه را در مورد حیوانات مرتکب شدیم و فکر می‌کنم دوباره با ماشین‌ها هم در حال تکرار آن هستیم. بیشتر همکارانم این مسئله را به‌عنوان اصلی بدیهی پذیرفته‌اند که هیچ‌کدام از ماشین‌هایی که می‌سازند، هرگز تجربه‌ای انتزاعی نخواهند داشت، بنابراین نیازی نیست نگران رنج‌کشیدن‌شان باشند و هر وقت بخواهند می‌توانند خاموش یا روشن‌شان کنند. به ‌هیچ‌وجه فکر نمی‌کنم این مسئله بدیهی باشد.

حدس می‌زنم خودآگاهی احساسی است که از پردازش اطلاعات به شیوه‌های پیچیده خاصی ناشی می‌شود. فکر می‌کنم دانشمندان در برابر جهان وظیفه دارند که این شیوه‌های پیچیده خاص را بفهمند.

نمی‌توانیم فرض کنیم ربات‌های انسان‌نمایی مثل سوفیا هرگز تجربه انتزاعی نخواهند داشت.

منظورتان از «احساس ناشی از اطلاعات» چیست؟

بسیاری از افراد به اشتباه فرض می‌کنند که وقتی به اطراف‌شان نگاه می‌کنند و رنگ‌های متفاوتی می‌بینند، این تجربه‌ها به دنیای بیرون وابسته است. برای مثال وقتی یک سیب می‌بینید که قرمز است و فکر می‌کنید فقط به این دلیل رنگ قرمز دارید که سیب وجود دارد. چنین تصوری به‌وضوح اشتباه است، می‌توانید خواب سیب را ببینید و باز هم در حالی ‌که اصلاً دنیای بیرونی وجود ندارد، قرمز بودن را تجربه کنید. بنابراین وقتی نورون‌ها پیام عصبی ارسال می‌کنند، اتفاقی می‌افتد که کاملاً درون مغز انسان قرار دارد. این اتفاق چیست؟ می‌خواهم این را بفهمم.

فکر می‌کنید زمانی برسد که به توصیفی کامل برای نحوه به ‌وجود آمدن خودآگاهی از اتم‌ها و مولکول‌ها برسیم؟

هنوز در ابتدای راهیم و سرنخ چندانی نداریم و بدیهی است که باید با ذهن‌های بسیار باز با این مسئله برخورد کنیم، ولی به‌طور کلی خودآگاهی را آخرین سنگری می‌دانم که هنوز فیزیک موفق به تسخیر آن نشده است.

اکنون هوش نیز به‌مرور به توصیف ریاضیاتی درآمده، درست است‌؟ اساس هوش مصنوعی همین است و همین حالا هم نظریه‌هایی وجود دارند که می‌خواهند پیش‌بینی کنند کدام پردازش اطلاعات خودآگاه است و کدام نیست. حوزه بسیار مستعدی برای تحقیقات علمی است.

اما قوانین فیزیک خودشان محصول تأمل خودآگاه هستند. آیا خودآگاهی همیشه در توصیف خودش ناموفق نخواهد بود؟

بله نظر جالبی است. در واقع می‌پرسید آیا بخش کوچکی از یک مقوله می‌تواند کل آن را که شامل خودش هم می‌شود، توصیف کند؟ یا این کار به معنی ورود به حلقه‌ای تکرارشونده است؟ البته نمی‌توانم مطمئن باشم که می‌توانیم با فیزیک یا ماشین‌ها خودآگاهی را توصیف کنیم. افراد زیادی وجود دارند که فکر می‌کنند هرگز نمی‌توانیم خودآگاهی را توصیف کنیم؛ چراکه شامل نوعی روح یا مقوله دیگری می‌شود که اساساً نمی‌توان مطالعه‌اش کرد.

من خوش‌بین‌ترم. حدس می‌زنم خودآگاهی را می‌توان از منظر پردازش اطلاعاتی که توسط ذرات متحرک انجام می‌شود، به‌خوبی درک کرد. اما صرف‌نظر از اینکه فکر می‌کنید با موفقیت به توصیفی برای خودآگاهی می‌رسیم یا خیر، راهی برای تضمین شکست این است که از ابتدا خودتان را متقاعد کنید که غیرممکن است. پس بیایید تمام تلاش‌مان را بکنیم. اگر موفق نشویم، باز هم بسیار جذاب خواهد بود.

چه آینده‌ای را برای همه این مسائل متصور هستید؟

فکر می‌کنم در این زمینه باید هوش و خودآگاهی را تفکیک کنیم. در زمینه هوش شک ندارم که همچنان پیشرفت‌مان ادامه خواهد داشت؛ مگر اینکه با نوعی خرابکاری دست به خودتخریبی بزنیم. فقط امیدوارم بعداً نگوییم کنجکاوی زیاد سرمان را به باد داد، یعنی کنجکاوی‌مان برای فهمیدن هوش باعث نشود چیزهایی بسازیم که استفاده از آنها منقرض‌مان کند. به همین دلیل است که گرایش زیادی به بررسی دقیق مقوله خرد دارم که پیش از این در موردش بحث کردیم.

آیا نسبت به خطرات هوش مصنوعی آگاه و هشیار شده‌ایم؟

فکر می‌کنم بدون شک تغییرات بزرگی پدیدار شده است. در حال حاضر امکان ندارد به همایشی درباره هوش مصنوعی بروید و با چند سخنرانی در مورد امنیت، شفافیت، قابلیت تعامل و استحکام هوش مصنوعی برخورد نکنید. در جامعه هوش مصنوعی آرمان‌گرایی زیادی وجود دارد. به همین دلیل بسیار امیدوارم که بتوانیم از یادگیری ماشین برای توانمند کردن عموم مردم، مقاومت در برابر قدرت‌های موجود و حتی گاهی اوقات از این ابزارها برای برملا کردن کارهای خلاف پنهانی استفاده کنیم.

این سخنان هم باز نشانه‌ای از خوش‌بینی به فناوری است.

کلید داشتن آینده‌ای مطلوب این است که بتوانیم چشم‌اندازی را مشخص کنیم که افراد از سراسر دنیا بتوانند آن را بپذیرند. با بازی مجموع صفر سروکار نداریم. بدون اغراق می‌توان سناریوهایی را تصور کرد که در آنها هوش مصنوعی تولید ناخالص داخلی جهان را صد برابر یا بیشتر می‌کند. می‌توان آینده‌ای را تصور کرد که در آن همزمان همه پیروز می‌شوند و منافعی کسب می‌کنند. با این حال تاکنون در جلب همکاری انسان‌ها برای تحقق‌بخشیدن به این آرمان بسیار ناموفق بوده‌ایم.

منبع ماهنامه عصر تراکنش شماره ۳۷
نویسنده / مترجم ریچارد وب محمد رهبان

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.