راه پرداخت
رسانه فناوری‌های مالی ایران

آیا تا ابد هوش مصنوعی به مبارزه با فسادهای نظام‌مند مالی کمک خواهد کرد؟

بررسی‌های سازمان Transparency International نشان می‌دهد میزان بروز «فساد» در کشورها با سطح دسترسی به «کلان‌داده‌ها»، نسبت عکس دارد، یعنی در کشورهایی که دسترسی آزاد به داده‌های عظیم وجود ندارد، میزان فساد بیشتر است، هوش مصنوعی در دسترسی به کلان‌داده‌ها خدمات بسیاری را برای بشر انجام داده است.

ماهنامه عصر تراکنش شماره ۳۰ / «استیون هاوکینگ» (Stephen Hawking) از جمله افرادی است که پیشرفت افسارگسیخته فناوری‌های حوزه‌ هوش مصنوعی را به نفع بشر نمی‌داند. او معتقد است موفقیت در ساخت هوش مصنوعی را باید بزرگ‌ترین و در عین حال «بدترین» رخداد تاریخ تمدن بشر به حساب آورد.

«بزرگ‌ترین» از این جهت که در کوتاه‌مدت، می‌تواند بسیار کمک‌کننده و مفید باشد؛ البته این موضوع هم تا حدود زیادی بسته به اینکه چه کسی کنترل آن ماشین هوشمند را در دست می‌گیرد، متغیر است. «بدترین»، از این جهت که اگر این ماشین، در بلندمدت «تکامل» یابد و بتواند بدون کمک بشر، خود را بهبود بخشد و پیشرفت کند، به ماشین «ابرهوشمندی» تبدیل می‌شود که غیر قابل پیش‌بینی و کنترل است و احتمالا اگر اهدافش با اهداف اجدادش (انسان‌ها) هم‌راستا نباشد، درصدد نابودی آنها برخواهد آمد.

به قول «ماروین مینسکی»؛ «ما شانس آورده‌ایم؛ اگر آنها بخواهند ما را در اطراف منزل همچون حیوانات اهلی نگه دارند.» موضوع به قدری جدی و نگران‌کننده است که هاوکینگ، در سال 2016 «مرکز Leverhulme» را در کمبریج برای انجام تحقیقات بیشتر و دقیق‌تر درباره‌ آینده‌ هوش مصنوعی تاسیس می‌کند. «ایلان ماسک»، «بیل گیتس» و بسیاری از بزرگان حوزه‌ فناوری اطلاعات و کامپیوتر نيز با «هاوکینگ» هم‌عقیده‌اند.

زمان زيادي از تعطيل‌شدن پروژه‌ بات‌هاي هوشمند فيس‌بوک، «باب» و «آليس» نمي‌گذرد؛ بات‌هايي که با ايجاد تغييراتي در زبان پيش‌فرض‌شان (انگليسي) به زبان جديدي مي‌رسند و با اين زبان جديد با يکديگر ارتباط برقرار مي‌کنند؛ زباني که براي طراحان‌شان غيرقابل درک است. هدف اصلي فيس‌بوک، صرفا طراحي بات‌هاي هوشمندي بود که بتوانند با مردم صحبت کنند، اما نتيجه شگفت‌انگيز بود و بات‌ها با زباني جديد با يکديگر ارتباط برقرار کردند؛ نکته اين است که بات‌ها براي حصول بهترين نتيجه، هيچ قيدوبند و محدوديتي براي خود قائل نبودند.

«ماکس تگمارک»، رئيس موسسه‌ «آينده‌ حيات» معتقد است اگر با مديريت صحيح، بتوانيم «هوش انسان» را با «هوش مصنوعي» تقويت کنيم، چنان نتايج درخشاني حاصل خواهد شد که قبل از اين فکرش را هم نمي‌کرديم. به نظر مي‌رسد نکته‌ کليدي، «مديريت صحيح» است، اما سوال اينجاست که آيا «مديريت» صحيح اين چالش امکان‌پذير است؟ آيا مي‌توان با اطمينان کامل گفت «ماشين‌هاي ابرهوشمند» در آينده، قابل کنترل و مديريت خواهند بود؟


سه قانون مهم


بشر از گذشته‌هاي دور، روياي طراحي و ساخت موجوداتي هوشمند شبيه به خود را در سر مي‌پرورانيده است، اما بخش عمده فعاليت‌هاي حوزه رباتيک و ماشين‌هاي هوشمند از قرن بيستم آغاز شده است: کلمه «ربات» را اولين‌بار Karel Čapek در سال 1920 در يکي از نمايشنامه‌هايش به کار برد. در اين نمايشنامه ربات‌ها موجوداتي بودند که از اربابان خود اطاعت مي‌کردند.

در سال 1950، «آيزاک آسيموف» نويسنده معروف داستان‌هاي علمي ـ تخيلي در کتاب «من، ربات هستم»، تصويري زيبا از همزيستي ربات‌هاي هوشمند و انسان‌ها در آينده ارائه مي‌دهد و پيش‌بيني مي‌کند زندگي انسان‌ها و ماشين‌هاي هوشمند تا حد زيادي با هم گره خواهد خورد. او در اين کتاب سه قانون مهم در خصوص ربات‌ها وضع مي‌کند که همه ربات‌ها بايد از آن پيروي کنند:

قانون اول: ربات هرگز نبايد به آدم‌ها صدمه بزند يا بگذارد به آنها صدمه‌اي برسد.

قانون دوم: ربات بايد از هر دستوري که آدم‌ها به او مي‌دهند، اطاعت کند، مگر دستوري که با قانون اول مغايرت داشته باشد.

قانون سوم: ربات بايد از خودش به‌خوبي محافظت کند؛ به شرط آنکه با قانون‌هاي اول و دوم مغايرت نداشته باشد.


پيشگامي به نام تورينگ


همه‌چيز از يک سوال به‌ظاهر ساده شروع مي‌شود: «آيا ماشين‌ها هم مي‌توانند فکر کنند»؟ سوالي که سال‌ها ذهن رياضيدان بريتانيايي، «آلن ماتيسون تورينگ» را به خود مشغول کرده بود.

رياضيداني (احتمالا) مبتلا به «سندروم آسپرگر» که در جنگ جهاني دوم، توانست با «ماشين تورينگ (=کامپيوتر)» که خودش آن را طراحي کرده بود، پيام‌هايي را که توسط «ماشين انيگما» (پيچيده‌ترين ماشين رمزگذاري آلمان‌ها)، رمزگذاري مي‌شدند، رمزگشايي کند و با دسترسي به اطلاعات و پيام‌هاي محرمانه، باعث ناکام‌ماندن بسياري از حملات کليدي آنها شود. مورخان تخمين مي‌زنند با اين کار، جنگ بيش از دو سال کوتاه‌تر و جان بيش از 14 ميليون نفر، نجات داده شده است.

فعاليت‌ها و نظريات تورينگ، به‌عنوان پايه‌هاي اصلي حوزه‌هاي «علوم کامپيوتر» و «هوش مصنوعي»، الهام‌بخش محققان ديگر اين حوزه بوده و هست. تورينگ، در سال 1954 ميلادي و در 41سالگي دست به خودکشي زد و به حيات خود پايان داد.

فعاليت‌هاي جدي علمي و عملي در حوزه ماشين‌هاي هوشمند و هوش مصنوعي، با فعاليت‌هاي تورينگ آغاز شدند و پس از او همچنان ادامه مي‌يابند. دو سال بعد از مرگ تورينگ يعني در سال 1956، «جان مک کارتي» از دانشگاه دارموث، «ماروين مينسکي» از دانشگاه هاروارد، «ناتانيل روچستر» از IBM و «کلاود شنون»، واژه «هوش مصنوعي» را براي اولين‌بار و در مفهوم امروزي آن، در کنفرانس دارموث به کار بردند.

طي اين سال‌ها، تعاريف متعددي براي «هوش مصنوعي» مطرح شده که البته با توجه به اينکه تعريف دقيقي از «هوش» نداريم، بالطبع نمي‌توانيم تعريف دقيقي از «هوش مصنوعي» ارائه دهيم، اما در حالت کلي، هوش مصنوعي، مطالعه و جست‌وجوي راه‌هاي وادار کردن «ماشين ـ رايانه»، به انجام کارها و حل مشکلاتي است که در حال حاضر، انسان‌ها آن را بهتر انجام مي‌دهند.

به‌طور کلي مي‌توانيم هوش مصنوعي را در قالب دو رويکرد عمده بررسي کنيم؛ «هوش مصنوعي ضعيف  (Weak)» و «هوش مصنوعي قوي  (Strong)». در رويکرد «هوش مصنوعي ضعيف»، ماشين ـ رايانه، صرفا ويژگي‌هاي «يک جنبه خاص» از هوش انسان را نشان مي‌دهد (مثلا، تشخيص چهره که امروزه روي گوشي‌هاي تلفن همراه وجود دارد و…)، اما در رويکرد «هوش مصنوعي قوي» هدف، طراحي و ساخت ماشيني است که تمامي قابليت‌هاي شناختي انسان را يکجا داشته باشد؛ ويژگي‌هايي مثل آگاهي، اراده، يادگيري، فهم زبان، همدردي، تصميم‌گيري و… .


سوال مهم؛ ماشين مي‌فهمد؟


سوال اصلي اين است که آيا ماشين، واقعا «مي‌فهمد» و «فکر مي‌کند»؟ تورينگ معتقد است اگر انسان نتواند تشخيص دهد پاسخ‌هايي که در جواب به سوال‌هايش دريافت مي‌کند، به‌وسيله يک انسان ديگر نوشته شده‌اند، يا يک ماشين ـ در حالي که پاسخ‌ها به‌وسيله يک ماشين ارائه شده باشند ـ مي‌توان گفت آن ماشين «فکر مي‌کند». به اين آزمون، «تست تورينگ» مي‌گوييم.

مک کارتي، پا را کمي فراتر مي‌گذارد. او مي‌گويد: «حتي درباره ماشين‌هايي که به اندازه ترموستات‌ها ساده‌اند، مي‌توان گفت که داراي باورند.» ترموستات مدنظر مک کارتي سه باور دارد؛ اينجا خيلي گرم است، اينجا خيلي سرد است، اينجا خوب است، اما عده‌اي با اين نوع نگرش مخالف‌اند؛ آنها معتقدند ماشين‌ها صرفا داراي نحو (Syntax) و فاقد معناشناسي (Semantics) هستند.



«جان سرل» يکي از اين افراد است. استدلالي که او براي اين موضوع مطرح مي‌کند «‌آزمايش فکري»اي است که با نام «استدلال اتاق چيني» شهرت يافته است؛ فرض کنيد در يک اتاق دربسته حضور داريد و قرار است سوال‌هايي را که به زبان چيني مطرح شده‌اند، به زبان چيني پاسخ دهيد، شما هيچ آشنايي با زبان چيني نداريد و کلمات براي شما صرفا خطوط کج و معوجي روي کاغذ هستند.

شما کتابچه راهنمايي در اختيار داريد که کلمات چيني و قواعد کلي را به «زبان مادري‌تان» برايتان توضيح داده است. شما با کمک اين کتابچه راهنما کلمات را کنار هم مي‌چينيد و به سوالات پاسخ صحيح مي‌دهيد. ناظر بيروني که پاسخ‌هاي شما را بررسي مي‌کند، احساس مي‌کند زبان چيني زبان مادري شماست، اما نکته اينجاست که پاسخ‌هاي صحيح شما، به معناي اين نيست که زبان چيني بلديد. «کتابچه راهنما» در اصل همان «برنامه»اي است که برنامه‌نويسان به کامپيوتر مي‌دهند و کامپيوتر، صرفا بر اساس آن عمل مي‌کند، اما معنا را نمي‌فهمد.


نسبت کلان‌داده‌ها و فساد


فارغ از بحث‌هاي فلسفي و تخصصي، چه بخواهيم چه نخواهيم، امروز در دنيايي زندگي مي‌کنيم که «مجبوريم» هر روز با ماشين‌هايي هوشمند تعامل داشته باشيم. به عبارت بهتر هوش مصنوعي در متن زندگي ما قرار دارد و به نظر مي‌رسد بهترين راه، شناخت کامل پتانسيل‌هاي نهفته آن (از پزشکي تا اقتصاد، از نويسندگي تا رانندگي و…) و تلاش براي مديريت صحيح شرايط است.

يکي از پتانسيل‌هاي هوش مصنوعي، کمک به انسان‌ها در راه مقابله با فساد و جرائم سازمان‌يافته است. «فساد»، استفاده نادرست و غيراخلاقي از قدرت، براي رسيدن به منافع شخصي است. گزارش سال 2019 سازمان «شفافيت بين‌الملل» (Transparency International) نشان مي‌دهد بسياري از کشورها نتوانسته‌اند اقدامي درست و بنيادين براي مقابله با فساد انجام دهند. موضوعي که به‌تازگي مورد توجه کشورهاي صنعتي و در حال توسعه قرار گرفته، استفاده از هوش مصنوعي، داده‌هاي باز و کلان‌‌داده براي شفاف‌سازي امور و مبارزه جدي‌تر با فسادهاي دولتي است.

بررسي‌هاي سازمان Transparency International نشان مي‌دهد ميزان بروز «فساد» در کشورها با سطح دسترسي به «کلان‌داده‌ها»، نسبت عکس دارد، يعني در کشورهايي که دسترسي آزاد به داده‌هاي عظيم وجود ندارد، ميزان فساد بيشتر است؛ کشورهايي مثل زامبيا، ميانمار و نپال در اين گروه جاي مي‌گيرند. البته، صرف دسترسي آزاد به کلان‌داده‌ها، به معني از بين رفتن فساد نيست.

در اين حالت صرفا مي‌توان گفت شرايط و زيرساخت‌ها تا حدود زيادي براي کنترل فساد آماده است. برزيل، آرژانتين، مکزيک و اسلواکي از جمله کشورهايي هستند که با وجود امکان دسترسي آزاد به اطلاعات، ميزان فساد در آنها بالاست. موضوعي که همه در خصوص آن اشتراک نظر داريم، تلاش براي کنترل فساد است؛ چراکه فساد، نه فقط باعث معضلات اقتصادي، بلکه حتي باعث به وجود آمدن مشکلات سياسي و اجتماعي نيز مي‌شود.

افزايش اختلافات طبقاتي، کاهش اعتماد عمومي مردم نسبت به يکديگر و نيز نسبت به دولت‌ها، افزايش ميزان وقوع جرائم سازمان‌يافته و گسترش فقر در جامعه، تنها چند نمونه از «بيماري»هايي است که جامعه با آن دست‌‌وپنجه نرم خواهد کرد.


ربات‌هاي هويداگر


در سال 2014 کارگروه مقابله با فساد گروه «G20»، دسترسي به داده‌هاي باز (Open Data) را لازمه شفافيت و مقابله با فساد عنوان مي‌کند. در سال 2015، در نشست ترکيه، اين کارگروه، اصول و قواعد لازم براي دسترسي آزاد به اطلاعات را مشخص و طي بيانيه‌اي آن را اعلام مي‌کند تا کشورهاي عضو، بتوانند آن را به‌صورت دقيق اجرا کنند.

انتشار اطلاعات به‌صورت داده‌هاي باز، باعث شفاف‌سازي فعاليت دولت‌ها، مشخص‌شدن نحوه هزينه‌کرد بودجه عمومي و تسهيل شرايط همکاري‌هاي بين‌المللي مي‌شود. پرواضح است که بررسي داده‌هاي باز و کلان‌داده‌ها زمانبر است و شايد صحيح‌تر باشد بگوييم عملا غيرممکن است. با کمک هوش مصنوعي و يادگيري ماشين (Machine Learning)، در اينجا مي‌توانيم تعداد زيادي از داده‌ها را در زمان کوتاه بررسي و موارد مشکوکي را که با الگوريتم‌هاي تعريف‌شده‌مان مغايرت دارند، طبقه‌بندي و گزارش کنيم.

با انتشار داده‌هاي باز در کشور برزيل، ربات هوشمندي به نام «Rosie» با بهره‌گيري از يادگيري ماشين، توانست بيش از هشت هزار مورد مشکوک از تخلفات «نمايندگان» کنگره را کشف و گزارش کند. يکي از آنها نماينده‌اي در لاس‌وگاس بود که به رستوران Gordon Ramsay رفته بود.

در چين، اوضاع به گونه ديگري است. Zero Trust، ماشين هوشمندي که با هدف مبارزه با فساد، توسط آکادمي علوم چين طراحي شده، قادر است نقشه ارتباطات اجتماعي کارمندان / مديران دولتي را به‌صورت چندلايه طراحي و رفتارهاي آنها را تجزيه‌وتحليل کند. اين ماشين همچنين قادر است با بررسي قراردادهاي منعقدشده توسط هر کارمند / مدير بر اساس سابقه رفتاري او، احتمال فساد در آينده و پروژه‌هاي مشابه را پيش‌بيني کند.

از سال 2012، Zero Trust‌ توانسته هشت هزار و 721 مورد تخلف انجام‌شده توسط دولتمردان (سوءاستفاده از قدرت، استفاده نابجا از بودجه دولتي و…) را گزارش کند. اين موضوع باعث ايجاد حس ناامني بين دولتمردان در شهرهاي مختلف شده و همگي در تلاشند تا فعاليت‌هاي اين ماشين هوشمند را متوقف کنند.




وضعي که شايد از کنترل خارج شود


هاوکينگ مي‌گويد: «ما انسان‌ها زماني که آتش را کشف کرديم، بارها خرابکاري کرديم تا توانستيم کپسول آتش‌نشاني را اختراع کنيم. ولي به نظر مي‌رسد خرابکاري در حوزه هوش مصنوعي، خسارت‌هاي جبران‌ناپذيري به همراه داشته باشد. در کنار تمام بحث‌ها و موافقت‌ها / مخالفت‌ها با هوش مصنوعي و ماشين‌هاي هوشمند، آنچه واضح است، اين است که «بايد اطمينان حاصل کنيم، ربات‌ها و ماشين‌هاي هوشمند قطعا در خدمت ما خواهند بود».

به عبارت ديگر، آنها بايد موضوعاتي را بياموزند که براي ما ارزش محسوب مي‌شود تا هميشه و در هر حالتي، طرف ما باشند و هيچ‌گاه براي نابودي ما برنامه‌ريزي نکنند، اما آيا «ارزش»ها در فرهنگ‌هاي مختلف يکسان است؟ اطمينان يافتن از اين موضوعات، کار دشواري است، چون ماشيني که «هوشمند» باشد، غيرقابل پيش‌بيني است.

به هيچ‌وجه نبايد فکر کنيم اوضاع تحت کنترل ماست؛ اگرچه هنوز در حال آزمون و خطا و بررسي جوانب مختلف موضوع هستيم، اما امروز به درجه‌اي از علم رسيده‌ايم که مي‌توانيم «الگوريتم»هايي خلق کنيم که «ياد مي‌گيرند»، مثل يک «نوزاد»، تجربه مي‌کنند و ياد مي‌گيرند، پس حتما بايد مقررات دقيقي براي کنترل ساخت ماشين‌هاي هوشمند و ربات‌ها وضع کنيم.

«طمع» پيشرفت، گاهي باعث مي‌شود اين موضوعات را فراموش کنيم، آن وقت ممکن است اهداف الگوريتم‌هايمان، اهدافي نادرست و در «تضاد» با اهداف ما باشد و اين موضوع به قيمت نابودي ما تمام شود.

در افسانه‌هاي يونان باستان آمده است: «در روزگاران دور، پادشاهي به نام «ميداس» (Midas) حکمراني مي‌کرده و آرزو داشته هر چيزي را که لمس مي‌کند، تبديل به طلا شود. اين آرزو لحظه‌اي از ذهن او خارج نمي‌شده و به يکي از خواسته‌هاي اصلي زندگي‌اش تبديل شده بوده است. روزي که اين خواسته توسط «ديونيسوس» (Dionysus) برآورده مي‌شود، ميداس خوشحال مي‌شود و سر از پا نمي‌شناسد.

ابتدا يک ميز را لمس مي‌کند و ميز تبديل به طلا مي‌شود، سپس صندلي و فرش را لمس مي‌کند و آنها هم تبديل به طلا مي‌شوند. وقتي هوس انگور مي‌کند، به محض دست‌زدن، خوشه انگور تبديل به طلا مي‌شود، ناراحت مي‌شود. همين حالت براي نان و آب و غذا هم تکرار مي‌شود. احساس ترس وجود او را فرا مي‌گيرد. دخترش که متوجه حال بد او مي‌شود، نزدش مي‌رود و او را در آغوش مي‌کشد، اما وقتي ميداس او را لمس مي‌کند، او هم تبديل به طلا مي‌شود».

منبع ماهنامه عصر تراکنش شماره ۳۰
نویسنده / مترجم بهرام تیموری درشکی
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.