راه پرداخت
رسانه فناوری‌های مالی ایران

آیا تا ابد هوش مصنوعی به مبارزه با فسادهای نظام‌مند مالی کمک خواهد کرد؟

بررسی‌های سازمان Transparency International نشان می‌دهد میزان بروز «فساد» در کشورها با سطح دسترسی به «کلان‌داده‌ها»، نسبت عکس دارد، یعنی در کشورهایی که دسترسی آزاد به داده‌های عظیم وجود ندارد، میزان فساد بیشتر است، هوش مصنوعی در دسترسی به کلان‌داده‌ها خدمات بسیاری را برای بشر انجام داده است.

ماهنامه عصر تراکنش شماره ۳۰ / «استیون هاوکینگ» (Stephen Hawking) از جمله افرادی است که پیشرفت افسارگسیخته فناوری‌های حوزه‌ هوش مصنوعی را به نفع بشر نمی‌داند. او معتقد است موفقیت در ساخت هوش مصنوعی را باید بزرگ‌ترین و در عین حال «بدترین» رخداد تاریخ تمدن بشر به حساب آورد.

«بزرگ‌ترین» از این جهت که در کوتاه‌مدت، می‌تواند بسیار کمک‌کننده و مفید باشد؛ البته این موضوع هم تا حدود زیادی بسته به اینکه چه کسی کنترل آن ماشین هوشمند را در دست می‌گیرد، متغیر است. «بدترین»، از این جهت که اگر این ماشین، در بلندمدت «تکامل» یابد و بتواند بدون کمک بشر، خود را بهبود بخشد و پیشرفت کند، به ماشین «ابرهوشمندی» تبدیل می‌شود که غیر قابل پیش‌بینی و کنترل است و احتمالا اگر اهدافش با اهداف اجدادش (انسان‌ها) هم‌راستا نباشد، درصدد نابودی آنها برخواهد آمد.

به قول «ماروین مینسکی»؛ «ما شانس آورده‌ایم؛ اگر آنها بخواهند ما را در اطراف منزل همچون حیوانات اهلی نگه دارند.» موضوع به قدری جدی و نگران‌کننده است که هاوکینگ، در سال ۲۰۱۶ «مرکز Leverhulme» را در کمبریج برای انجام تحقیقات بیشتر و دقیق‌تر درباره‌ آینده‌ هوش مصنوعی تاسیس می‌کند. «ایلان ماسک»، «بیل گیتس» و بسیاری از بزرگان حوزه‌ فناوری اطلاعات و کامپیوتر نیز با «هاوکینگ» هم‌عقیده‌اند.

زمان زیادی از تعطیل‌شدن پروژه‌ بات‌های هوشمند فیس‌بوک، «باب» و «آلیس» نمی‌گذرد؛ بات‌هایی که با ایجاد تغییراتی در زبان پیش‌فرض‌شان (انگلیسی) به زبان جدیدی می‌رسند و با این زبان جدید با یکدیگر ارتباط برقرار می‌کنند؛ زبانی که برای طراحان‌شان غیرقابل درک است. هدف اصلی فیس‌بوک، صرفا طراحی بات‌های هوشمندی بود که بتوانند با مردم صحبت کنند، اما نتیجه شگفت‌انگیز بود و بات‌ها با زبانی جدید با یکدیگر ارتباط برقرار کردند؛ نکته این است که بات‌ها برای حصول بهترین نتیجه، هیچ قیدوبند و محدودیتی برای خود قائل نبودند.

«ماکس تگمارک»، رئیس موسسه‌ «آینده‌ حیات» معتقد است اگر با مدیریت صحیح، بتوانیم «هوش انسان» را با «هوش مصنوعی» تقویت کنیم، چنان نتایج درخشانی حاصل خواهد شد که قبل از این فکرش را هم نمی‌کردیم. به نظر می‌رسد نکته‌ کلیدی، «مدیریت صحیح» است، اما سوال اینجاست که آیا «مدیریت» صحیح این چالش امکان‌پذیر است؟ آیا می‌توان با اطمینان کامل گفت «ماشین‌های ابرهوشمند» در آینده، قابل کنترل و مدیریت خواهند بود؟


سه قانون مهم


بشر از گذشته‌های دور، رویای طراحی و ساخت موجوداتی هوشمند شبیه به خود را در سر می‌پرورانیده است، اما بخش عمده فعالیت‌های حوزه رباتیک و ماشین‌های هوشمند از قرن بیستم آغاز شده است: کلمه «ربات» را اولین‌بار Karel Čapek در سال ۱۹۲۰ در یکی از نمایشنامه‌هایش به کار برد. در این نمایشنامه ربات‌ها موجوداتی بودند که از اربابان خود اطاعت می‌کردند.

در سال ۱۹۵۰، «آیزاک آسیموف» نویسنده معروف داستان‌های علمی ـ تخیلی در کتاب «من، ربات هستم»، تصویری زیبا از همزیستی ربات‌های هوشمند و انسان‌ها در آینده ارائه می‌دهد و پیش‌بینی می‌کند زندگی انسان‌ها و ماشین‌های هوشمند تا حد زیادی با هم گره خواهد خورد. او در این کتاب سه قانون مهم در خصوص ربات‌ها وضع می‌کند که همه ربات‌ها باید از آن پیروی کنند:

قانون اول: ربات هرگز نباید به آدم‌ها صدمه بزند یا بگذارد به آنها صدمه‌ای برسد.

قانون دوم: ربات باید از هر دستوری که آدم‌ها به او می‌دهند، اطاعت کند، مگر دستوری که با قانون اول مغایرت داشته باشد.

قانون سوم: ربات باید از خودش به‌خوبی محافظت کند؛ به شرط آنکه با قانون‌های اول و دوم مغایرت نداشته باشد.


پیشگامی به نام تورینگ


همه‌چیز از یک سوال به‌ظاهر ساده شروع می‌شود: «آیا ماشین‌ها هم می‌توانند فکر کنند»؟ سوالی که سال‌ها ذهن ریاضیدان بریتانیایی، «آلن ماتیسون تورینگ» را به خود مشغول کرده بود.

ریاضیدانی (احتمالا) مبتلا به «سندروم آسپرگر» که در جنگ جهانی دوم، توانست با «ماشین تورینگ (=کامپیوتر)» که خودش آن را طراحی کرده بود، پیام‌هایی را که توسط «ماشین انیگما» (پیچیده‌ترین ماشین رمزگذاری آلمان‌ها)، رمزگذاری می‌شدند، رمزگشایی کند و با دسترسی به اطلاعات و پیام‌های محرمانه، باعث ناکام‌ماندن بسیاری از حملات کلیدی آنها شود. مورخان تخمین می‌زنند با این کار، جنگ بیش از دو سال کوتاه‌تر و جان بیش از ۱۴ میلیون نفر، نجات داده شده است.

فعالیت‌ها و نظریات تورینگ، به‌عنوان پایه‌های اصلی حوزه‌های «علوم کامپیوتر» و «هوش مصنوعی»، الهام‌بخش محققان دیگر این حوزه بوده و هست. تورینگ، در سال ۱۹۵۴ میلادی و در ۴۱سالگی دست به خودکشی زد و به حیات خود پایان داد.

فعالیت‌های جدی علمی و عملی در حوزه ماشین‌های هوشمند و هوش مصنوعی، با فعالیت‌های تورینگ آغاز شدند و پس از او همچنان ادامه می‌یابند. دو سال بعد از مرگ تورینگ یعنی در سال ۱۹۵۶، «جان مک کارتی» از دانشگاه دارموث، «ماروین مینسکی» از دانشگاه هاروارد، «ناتانیل روچستر» از IBM و «کلاود شنون»، واژه «هوش مصنوعی» را برای اولین‌بار و در مفهوم امروزی آن، در کنفرانس دارموث به کار بردند.

طی این سال‌ها، تعاریف متعددی برای «هوش مصنوعی» مطرح شده که البته با توجه به اینکه تعریف دقیقی از «هوش» نداریم، بالطبع نمی‌توانیم تعریف دقیقی از «هوش مصنوعی» ارائه دهیم، اما در حالت کلی، هوش مصنوعی، مطالعه و جست‌وجوی راه‌های وادار کردن «ماشین ـ رایانه»، به انجام کارها و حل مشکلاتی است که در حال حاضر، انسان‌ها آن را بهتر انجام می‌دهند.

به‌طور کلی می‌توانیم هوش مصنوعی را در قالب دو رویکرد عمده بررسی کنیم؛ «هوش مصنوعی ضعیف  (Weak)» و «هوش مصنوعی قوی  (Strong)». در رویکرد «هوش مصنوعی ضعیف»، ماشین ـ رایانه، صرفا ویژگی‌های «یک جنبه خاص» از هوش انسان را نشان می‌دهد (مثلا، تشخیص چهره که امروزه روی گوشی‌های تلفن همراه وجود دارد و…)، اما در رویکرد «هوش مصنوعی قوی» هدف، طراحی و ساخت ماشینی است که تمامی قابلیت‌های شناختی انسان را یکجا داشته باشد؛ ویژگی‌هایی مثل آگاهی، اراده، یادگیری، فهم زبان، همدردی، تصمیم‌گیری و… .


سوال مهم؛ ماشین می‌فهمد؟


سوال اصلی این است که آیا ماشین، واقعا «می‌فهمد» و «فکر می‌کند»؟ تورینگ معتقد است اگر انسان نتواند تشخیص دهد پاسخ‌هایی که در جواب به سوال‌هایش دریافت می‌کند، به‌وسیله یک انسان دیگر نوشته شده‌اند، یا یک ماشین ـ در حالی که پاسخ‌ها به‌وسیله یک ماشین ارائه شده باشند ـ می‌توان گفت آن ماشین «فکر می‌کند». به این آزمون، «تست تورینگ» می‌گوییم.

مک کارتی، پا را کمی فراتر می‌گذارد. او می‌گوید: «حتی درباره ماشین‌هایی که به اندازه ترموستات‌ها ساده‌اند، می‌توان گفت که دارای باورند.» ترموستات مدنظر مک کارتی سه باور دارد؛ اینجا خیلی گرم است، اینجا خیلی سرد است، اینجا خوب است، اما عده‌ای با این نوع نگرش مخالف‌اند؛ آنها معتقدند ماشین‌ها صرفا دارای نحو (Syntax) و فاقد معناشناسی (Semantics) هستند.



«جان سرل» یکی از این افراد است. استدلالی که او برای این موضوع مطرح می‌کند «‌آزمایش فکری»ای است که با نام «استدلال اتاق چینی» شهرت یافته است؛ فرض کنید در یک اتاق دربسته حضور دارید و قرار است سوال‌هایی را که به زبان چینی مطرح شده‌اند، به زبان چینی پاسخ دهید، شما هیچ آشنایی با زبان چینی ندارید و کلمات برای شما صرفا خطوط کج و معوجی روی کاغذ هستند.

شما کتابچه راهنمایی در اختیار دارید که کلمات چینی و قواعد کلی را به «زبان مادری‌تان» برایتان توضیح داده است. شما با کمک این کتابچه راهنما کلمات را کنار هم می‌چینید و به سوالات پاسخ صحیح می‌دهید. ناظر بیرونی که پاسخ‌های شما را بررسی می‌کند، احساس می‌کند زبان چینی زبان مادری شماست، اما نکته اینجاست که پاسخ‌های صحیح شما، به معنای این نیست که زبان چینی بلدید. «کتابچه راهنما» در اصل همان «برنامه»ای است که برنامه‌نویسان به کامپیوتر می‌دهند و کامپیوتر، صرفا بر اساس آن عمل می‌کند، اما معنا را نمی‌فهمد.


نسبت کلان‌داده‌ها و فساد


فارغ از بحث‌های فلسفی و تخصصی، چه بخواهیم چه نخواهیم، امروز در دنیایی زندگی می‌کنیم که «مجبوریم» هر روز با ماشین‌هایی هوشمند تعامل داشته باشیم. به عبارت بهتر هوش مصنوعی در متن زندگی ما قرار دارد و به نظر می‌رسد بهترین راه، شناخت کامل پتانسیل‌های نهفته آن (از پزشکی تا اقتصاد، از نویسندگی تا رانندگی و…) و تلاش برای مدیریت صحیح شرایط است.

یکی از پتانسیل‌های هوش مصنوعی، کمک به انسان‌ها در راه مقابله با فساد و جرائم سازمان‌یافته است. «فساد»، استفاده نادرست و غیراخلاقی از قدرت، برای رسیدن به منافع شخصی است. گزارش سال ۲۰۱۹ سازمان «شفافیت بین‌الملل» (Transparency International) نشان می‌دهد بسیاری از کشورها نتوانسته‌اند اقدامی درست و بنیادین برای مقابله با فساد انجام دهند. موضوعی که به‌تازگی مورد توجه کشورهای صنعتی و در حال توسعه قرار گرفته، استفاده از هوش مصنوعی، داده‌های باز و کلان‌‌داده برای شفاف‌سازی امور و مبارزه جدی‌تر با فسادهای دولتی است.

بررسی‌های سازمان Transparency International نشان می‌دهد میزان بروز «فساد» در کشورها با سطح دسترسی به «کلان‌داده‌ها»، نسبت عکس دارد، یعنی در کشورهایی که دسترسی آزاد به داده‌های عظیم وجود ندارد، میزان فساد بیشتر است؛ کشورهایی مثل زامبیا، میانمار و نپال در این گروه جای می‌گیرند. البته، صرف دسترسی آزاد به کلان‌داده‌ها، به معنی از بین رفتن فساد نیست.

در این حالت صرفا می‌توان گفت شرایط و زیرساخت‌ها تا حدود زیادی برای کنترل فساد آماده است. برزیل، آرژانتین، مکزیک و اسلواکی از جمله کشورهایی هستند که با وجود امکان دسترسی آزاد به اطلاعات، میزان فساد در آنها بالاست. موضوعی که همه در خصوص آن اشتراک نظر داریم، تلاش برای کنترل فساد است؛ چراکه فساد، نه فقط باعث معضلات اقتصادی، بلکه حتی باعث به وجود آمدن مشکلات سیاسی و اجتماعی نیز می‌شود.

افزایش اختلافات طبقاتی، کاهش اعتماد عمومی مردم نسبت به یکدیگر و نیز نسبت به دولت‌ها، افزایش میزان وقوع جرائم سازمان‌یافته و گسترش فقر در جامعه، تنها چند نمونه از «بیماری»هایی است که جامعه با آن دست‌‌وپنجه نرم خواهد کرد.


ربات‌های هویداگر


در سال ۲۰۱۴ کارگروه مقابله با فساد گروه «G20»، دسترسی به داده‌های باز (Open Data) را لازمه شفافیت و مقابله با فساد عنوان می‌کند. در سال ۲۰۱۵، در نشست ترکیه، این کارگروه، اصول و قواعد لازم برای دسترسی آزاد به اطلاعات را مشخص و طی بیانیه‌ای آن را اعلام می‌کند تا کشورهای عضو، بتوانند آن را به‌صورت دقیق اجرا کنند.

انتشار اطلاعات به‌صورت داده‌های باز، باعث شفاف‌سازی فعالیت دولت‌ها، مشخص‌شدن نحوه هزینه‌کرد بودجه عمومی و تسهیل شرایط همکاری‌های بین‌المللی می‌شود. پرواضح است که بررسی داده‌های باز و کلان‌داده‌ها زمانبر است و شاید صحیح‌تر باشد بگوییم عملا غیرممکن است. با کمک هوش مصنوعی و یادگیری ماشین (Machine Learning)، در اینجا می‌توانیم تعداد زیادی از داده‌ها را در زمان کوتاه بررسی و موارد مشکوکی را که با الگوریتم‌های تعریف‌شده‌مان مغایرت دارند، طبقه‌بندی و گزارش کنیم.

با انتشار داده‌های باز در کشور برزیل، ربات هوشمندی به نام «Rosie» با بهره‌گیری از یادگیری ماشین، توانست بیش از هشت هزار مورد مشکوک از تخلفات «نمایندگان» کنگره را کشف و گزارش کند. یکی از آنها نماینده‌ای در لاس‌وگاس بود که به رستوران Gordon Ramsay رفته بود.

در چین، اوضاع به گونه دیگری است. Zero Trust، ماشین هوشمندی که با هدف مبارزه با فساد، توسط آکادمی علوم چین طراحی شده، قادر است نقشه ارتباطات اجتماعی کارمندان / مدیران دولتی را به‌صورت چندلایه طراحی و رفتارهای آنها را تجزیه‌وتحلیل کند. این ماشین همچنین قادر است با بررسی قراردادهای منعقدشده توسط هر کارمند / مدیر بر اساس سابقه رفتاری او، احتمال فساد در آینده و پروژه‌های مشابه را پیش‌بینی کند.

از سال ۲۰۱۲، Zero Trust‌ توانسته هشت هزار و ۷۲۱ مورد تخلف انجام‌شده توسط دولتمردان (سوءاستفاده از قدرت، استفاده نابجا از بودجه دولتی و…) را گزارش کند. این موضوع باعث ایجاد حس ناامنی بین دولتمردان در شهرهای مختلف شده و همگی در تلاشند تا فعالیت‌های این ماشین هوشمند را متوقف کنند.




وضعی که شاید از کنترل خارج شود


هاوکینگ می‌گوید: «ما انسان‌ها زمانی که آتش را کشف کردیم، بارها خرابکاری کردیم تا توانستیم کپسول آتش‌نشانی را اختراع کنیم. ولی به نظر می‌رسد خرابکاری در حوزه هوش مصنوعی، خسارت‌های جبران‌ناپذیری به همراه داشته باشد. در کنار تمام بحث‌ها و موافقت‌ها / مخالفت‌ها با هوش مصنوعی و ماشین‌های هوشمند، آنچه واضح است، این است که «باید اطمینان حاصل کنیم، ربات‌ها و ماشین‌های هوشمند قطعا در خدمت ما خواهند بود».

به عبارت دیگر، آنها باید موضوعاتی را بیاموزند که برای ما ارزش محسوب می‌شود تا همیشه و در هر حالتی، طرف ما باشند و هیچ‌گاه برای نابودی ما برنامه‌ریزی نکنند، اما آیا «ارزش»ها در فرهنگ‌های مختلف یکسان است؟ اطمینان یافتن از این موضوعات، کار دشواری است، چون ماشینی که «هوشمند» باشد، غیرقابل پیش‌بینی است.

به هیچ‌وجه نباید فکر کنیم اوضاع تحت کنترل ماست؛ اگرچه هنوز در حال آزمون و خطا و بررسی جوانب مختلف موضوع هستیم، اما امروز به درجه‌ای از علم رسیده‌ایم که می‌توانیم «الگوریتم»هایی خلق کنیم که «یاد می‌گیرند»، مثل یک «نوزاد»، تجربه می‌کنند و یاد می‌گیرند، پس حتما باید مقررات دقیقی برای کنترل ساخت ماشین‌های هوشمند و ربات‌ها وضع کنیم.

«طمع» پیشرفت، گاهی باعث می‌شود این موضوعات را فراموش کنیم، آن وقت ممکن است اهداف الگوریتم‌هایمان، اهدافی نادرست و در «تضاد» با اهداف ما باشد و این موضوع به قیمت نابودی ما تمام شود.

در افسانه‌های یونان باستان آمده است: «در روزگاران دور، پادشاهی به نام «میداس» (Midas) حکمرانی می‌کرده و آرزو داشته هر چیزی را که لمس می‌کند، تبدیل به طلا شود. این آرزو لحظه‌ای از ذهن او خارج نمی‌شده و به یکی از خواسته‌های اصلی زندگی‌اش تبدیل شده بوده است. روزی که این خواسته توسط «دیونیسوس» (Dionysus) برآورده می‌شود، میداس خوشحال می‌شود و سر از پا نمی‌شناسد.

ابتدا یک میز را لمس می‌کند و میز تبدیل به طلا می‌شود، سپس صندلی و فرش را لمس می‌کند و آنها هم تبدیل به طلا می‌شوند. وقتی هوس انگور می‌کند، به محض دست‌زدن، خوشه انگور تبدیل به طلا می‌شود، ناراحت می‌شود. همین حالت برای نان و آب و غذا هم تکرار می‌شود. احساس ترس وجود او را فرا می‌گیرد. دخترش که متوجه حال بد او می‌شود، نزدش می‌رود و او را در آغوش می‌کشد، اما وقتی میداس او را لمس می‌کند، او هم تبدیل به طلا می‌شود».

منبع ماهنامه عصر تراکنش شماره ۳۰
نویسنده همکار بهرام تیموری درشکی
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.