پایگاه خبری راه پرداخت دارای مجوز به شماره ۷۴۵۷۲ از وزارت فرهنگ و ارشاد اسلامی و بخشی از «شبکه عصر تراکنش» است. راه پرداخت فعالیت خود را از دوم اردیبهشتماه ۱۳۹۰ شروع کرده و اکنون پرمخاطبترین رسانه ایران در زمینه فناوریهای مالی، بانکداری و پرداخت و استارتآپهای فینتک است.
آیا تا ابد هوش مصنوعی به مبارزه با فسادهای نظاممند مالی کمک خواهد کرد؟
بررسیهای سازمان Transparency International نشان میدهد میزان بروز «فساد» در کشورها با سطح دسترسی به «کلاندادهها»، نسبت عکس دارد، یعنی در کشورهایی که دسترسی آزاد به دادههای عظیم وجود ندارد، میزان فساد بیشتر است، هوش مصنوعی در دسترسی به کلاندادهها خدمات بسیاری را برای بشر انجام داده است.
ماهنامه عصر تراکنش شماره ۳۰ / «استیون هاوکینگ» (Stephen Hawking) از جمله افرادی است که پیشرفت افسارگسیخته فناوریهای حوزه هوش مصنوعی را به نفع بشر نمیداند. او معتقد است موفقیت در ساخت هوش مصنوعی را باید بزرگترین و در عین حال «بدترین» رخداد تاریخ تمدن بشر به حساب آورد.
«بزرگترین» از این جهت که در کوتاهمدت، میتواند بسیار کمککننده و مفید باشد؛ البته این موضوع هم تا حدود زیادی بسته به اینکه چه کسی کنترل آن ماشین هوشمند را در دست میگیرد، متغیر است. «بدترین»، از این جهت که اگر این ماشین، در بلندمدت «تکامل» یابد و بتواند بدون کمک بشر، خود را بهبود بخشد و پیشرفت کند، به ماشین «ابرهوشمندی» تبدیل میشود که غیر قابل پیشبینی و کنترل است و احتمالا اگر اهدافش با اهداف اجدادش (انسانها) همراستا نباشد، درصدد نابودی آنها برخواهد آمد.
به قول «ماروین مینسکی»؛ «ما شانس آوردهایم؛ اگر آنها بخواهند ما را در اطراف منزل همچون حیوانات اهلی نگه دارند.» موضوع به قدری جدی و نگرانکننده است که هاوکینگ، در سال 2016 «مرکز Leverhulme» را در کمبریج برای انجام تحقیقات بیشتر و دقیقتر درباره آینده هوش مصنوعی تاسیس میکند. «ایلان ماسک»، «بیل گیتس» و بسیاری از بزرگان حوزه فناوری اطلاعات و کامپیوتر نيز با «هاوکینگ» همعقیدهاند.
زمان زيادي از تعطيلشدن پروژه باتهاي هوشمند فيسبوک، «باب» و «آليس» نميگذرد؛ باتهايي که با ايجاد تغييراتي در زبان پيشفرضشان (انگليسي) به زبان جديدي ميرسند و با اين زبان جديد با يکديگر ارتباط برقرار ميکنند؛ زباني که براي طراحانشان غيرقابل درک است. هدف اصلي فيسبوک، صرفا طراحي باتهاي هوشمندي بود که بتوانند با مردم صحبت کنند، اما نتيجه شگفتانگيز بود و باتها با زباني جديد با يکديگر ارتباط برقرار کردند؛ نکته اين است که باتها براي حصول بهترين نتيجه، هيچ قيدوبند و محدوديتي براي خود قائل نبودند.
«ماکس تگمارک»، رئيس موسسه «آينده حيات» معتقد است اگر با مديريت صحيح، بتوانيم «هوش انسان» را با «هوش مصنوعي» تقويت کنيم، چنان نتايج درخشاني حاصل خواهد شد که قبل از اين فکرش را هم نميکرديم. به نظر ميرسد نکته کليدي، «مديريت صحيح» است، اما سوال اينجاست که آيا «مديريت» صحيح اين چالش امکانپذير است؟ آيا ميتوان با اطمينان کامل گفت «ماشينهاي ابرهوشمند» در آينده، قابل کنترل و مديريت خواهند بود؟
سه قانون مهم
بشر از گذشتههاي دور، روياي طراحي و ساخت موجوداتي هوشمند شبيه به خود را در سر ميپرورانيده است، اما بخش عمده فعاليتهاي حوزه رباتيک و ماشينهاي هوشمند از قرن بيستم آغاز شده است: کلمه «ربات» را اولينبار Karel Čapek در سال 1920 در يکي از نمايشنامههايش به کار برد. در اين نمايشنامه رباتها موجوداتي بودند که از اربابان خود اطاعت ميکردند.
در سال 1950، «آيزاک آسيموف» نويسنده معروف داستانهاي علمي ـ تخيلي در کتاب «من، ربات هستم»، تصويري زيبا از همزيستي رباتهاي هوشمند و انسانها در آينده ارائه ميدهد و پيشبيني ميکند زندگي انسانها و ماشينهاي هوشمند تا حد زيادي با هم گره خواهد خورد. او در اين کتاب سه قانون مهم در خصوص رباتها وضع ميکند که همه رباتها بايد از آن پيروي کنند:
قانون اول: ربات هرگز نبايد به آدمها صدمه بزند يا بگذارد به آنها صدمهاي برسد.
قانون دوم: ربات بايد از هر دستوري که آدمها به او ميدهند، اطاعت کند، مگر دستوري که با قانون اول مغايرت داشته باشد.
قانون سوم: ربات بايد از خودش بهخوبي محافظت کند؛ به شرط آنکه با قانونهاي اول و دوم مغايرت نداشته باشد.
پيشگامي به نام تورينگ
همهچيز از يک سوال بهظاهر ساده شروع ميشود: «آيا ماشينها هم ميتوانند فکر کنند»؟ سوالي که سالها ذهن رياضيدان بريتانيايي، «آلن ماتيسون تورينگ» را به خود مشغول کرده بود.
رياضيداني (احتمالا) مبتلا به «سندروم آسپرگر» که در جنگ جهاني دوم، توانست با «ماشين تورينگ (=کامپيوتر)» که خودش آن را طراحي کرده بود، پيامهايي را که توسط «ماشين انيگما» (پيچيدهترين ماشين رمزگذاري آلمانها)، رمزگذاري ميشدند، رمزگشايي کند و با دسترسي به اطلاعات و پيامهاي محرمانه، باعث ناکامماندن بسياري از حملات کليدي آنها شود. مورخان تخمين ميزنند با اين کار، جنگ بيش از دو سال کوتاهتر و جان بيش از 14 ميليون نفر، نجات داده شده است.
فعاليتها و نظريات تورينگ، بهعنوان پايههاي اصلي حوزههاي «علوم کامپيوتر» و «هوش مصنوعي»، الهامبخش محققان ديگر اين حوزه بوده و هست. تورينگ، در سال 1954 ميلادي و در 41سالگي دست به خودکشي زد و به حيات خود پايان داد.
فعاليتهاي جدي علمي و عملي در حوزه ماشينهاي هوشمند و هوش مصنوعي، با فعاليتهاي تورينگ آغاز شدند و پس از او همچنان ادامه مييابند. دو سال بعد از مرگ تورينگ يعني در سال 1956، «جان مک کارتي» از دانشگاه دارموث، «ماروين مينسکي» از دانشگاه هاروارد، «ناتانيل روچستر» از IBM و «کلاود شنون»، واژه «هوش مصنوعي» را براي اولينبار و در مفهوم امروزي آن، در کنفرانس دارموث به کار بردند.
طي اين سالها، تعاريف متعددي براي «هوش مصنوعي» مطرح شده که البته با توجه به اينکه تعريف دقيقي از «هوش» نداريم، بالطبع نميتوانيم تعريف دقيقي از «هوش مصنوعي» ارائه دهيم، اما در حالت کلي، هوش مصنوعي، مطالعه و جستوجوي راههاي وادار کردن «ماشين ـ رايانه»، به انجام کارها و حل مشکلاتي است که در حال حاضر، انسانها آن را بهتر انجام ميدهند.
بهطور کلي ميتوانيم هوش مصنوعي را در قالب دو رويکرد عمده بررسي کنيم؛ «هوش مصنوعي ضعيف (Weak)» و «هوش مصنوعي قوي (Strong)». در رويکرد «هوش مصنوعي ضعيف»، ماشين ـ رايانه، صرفا ويژگيهاي «يک جنبه خاص» از هوش انسان را نشان ميدهد (مثلا، تشخيص چهره که امروزه روي گوشيهاي تلفن همراه وجود دارد و…)، اما در رويکرد «هوش مصنوعي قوي» هدف، طراحي و ساخت ماشيني است که تمامي قابليتهاي شناختي انسان را يکجا داشته باشد؛ ويژگيهايي مثل آگاهي، اراده، يادگيري، فهم زبان، همدردي، تصميمگيري و… .
سوال مهم؛ ماشين ميفهمد؟
سوال اصلي اين است که آيا ماشين، واقعا «ميفهمد» و «فکر ميکند»؟ تورينگ معتقد است اگر انسان نتواند تشخيص دهد پاسخهايي که در جواب به سوالهايش دريافت ميکند، بهوسيله يک انسان ديگر نوشته شدهاند، يا يک ماشين ـ در حالي که پاسخها بهوسيله يک ماشين ارائه شده باشند ـ ميتوان گفت آن ماشين «فکر ميکند». به اين آزمون، «تست تورينگ» ميگوييم.
مک کارتي، پا را کمي فراتر ميگذارد. او ميگويد: «حتي درباره ماشينهايي که به اندازه ترموستاتها سادهاند، ميتوان گفت که داراي باورند.» ترموستات مدنظر مک کارتي سه باور دارد؛ اينجا خيلي گرم است، اينجا خيلي سرد است، اينجا خوب است، اما عدهاي با اين نوع نگرش مخالفاند؛ آنها معتقدند ماشينها صرفا داراي نحو (Syntax) و فاقد معناشناسي (Semantics) هستند.
«جان سرل» يکي از اين افراد است. استدلالي که او براي اين موضوع مطرح ميکند «آزمايش فکري»اي است که با نام «استدلال اتاق چيني» شهرت يافته است؛ فرض کنيد در يک اتاق دربسته حضور داريد و قرار است سوالهايي را که به زبان چيني مطرح شدهاند، به زبان چيني پاسخ دهيد، شما هيچ آشنايي با زبان چيني نداريد و کلمات براي شما صرفا خطوط کج و معوجي روي کاغذ هستند.
شما کتابچه راهنمايي در اختيار داريد که کلمات چيني و قواعد کلي را به «زبان مادريتان» برايتان توضيح داده است. شما با کمک اين کتابچه راهنما کلمات را کنار هم ميچينيد و به سوالات پاسخ صحيح ميدهيد. ناظر بيروني که پاسخهاي شما را بررسي ميکند، احساس ميکند زبان چيني زبان مادري شماست، اما نکته اينجاست که پاسخهاي صحيح شما، به معناي اين نيست که زبان چيني بلديد. «کتابچه راهنما» در اصل همان «برنامه»اي است که برنامهنويسان به کامپيوتر ميدهند و کامپيوتر، صرفا بر اساس آن عمل ميکند، اما معنا را نميفهمد.
نسبت کلاندادهها و فساد
فارغ از بحثهاي فلسفي و تخصصي، چه بخواهيم چه نخواهيم، امروز در دنيايي زندگي ميکنيم که «مجبوريم» هر روز با ماشينهايي هوشمند تعامل داشته باشيم. به عبارت بهتر هوش مصنوعي در متن زندگي ما قرار دارد و به نظر ميرسد بهترين راه، شناخت کامل پتانسيلهاي نهفته آن (از پزشکي تا اقتصاد، از نويسندگي تا رانندگي و…) و تلاش براي مديريت صحيح شرايط است.
يکي از پتانسيلهاي هوش مصنوعي، کمک به انسانها در راه مقابله با فساد و جرائم سازمانيافته است. «فساد»، استفاده نادرست و غيراخلاقي از قدرت، براي رسيدن به منافع شخصي است. گزارش سال 2019 سازمان «شفافيت بينالملل» (Transparency International) نشان ميدهد بسياري از کشورها نتوانستهاند اقدامي درست و بنيادين براي مقابله با فساد انجام دهند. موضوعي که بهتازگي مورد توجه کشورهاي صنعتي و در حال توسعه قرار گرفته، استفاده از هوش مصنوعي، دادههاي باز و کلانداده براي شفافسازي امور و مبارزه جديتر با فسادهاي دولتي است.
بررسيهاي سازمان Transparency International نشان ميدهد ميزان بروز «فساد» در کشورها با سطح دسترسي به «کلاندادهها»، نسبت عکس دارد، يعني در کشورهايي که دسترسي آزاد به دادههاي عظيم وجود ندارد، ميزان فساد بيشتر است؛ کشورهايي مثل زامبيا، ميانمار و نپال در اين گروه جاي ميگيرند. البته، صرف دسترسي آزاد به کلاندادهها، به معني از بين رفتن فساد نيست.
در اين حالت صرفا ميتوان گفت شرايط و زيرساختها تا حدود زيادي براي کنترل فساد آماده است. برزيل، آرژانتين، مکزيک و اسلواکي از جمله کشورهايي هستند که با وجود امکان دسترسي آزاد به اطلاعات، ميزان فساد در آنها بالاست. موضوعي که همه در خصوص آن اشتراک نظر داريم، تلاش براي کنترل فساد است؛ چراکه فساد، نه فقط باعث معضلات اقتصادي، بلکه حتي باعث به وجود آمدن مشکلات سياسي و اجتماعي نيز ميشود.
افزايش اختلافات طبقاتي، کاهش اعتماد عمومي مردم نسبت به يکديگر و نيز نسبت به دولتها، افزايش ميزان وقوع جرائم سازمانيافته و گسترش فقر در جامعه، تنها چند نمونه از «بيماري»هايي است که جامعه با آن دستوپنجه نرم خواهد کرد.
رباتهاي هويداگر
در سال 2014 کارگروه مقابله با فساد گروه «G20»، دسترسي به دادههاي باز (Open Data) را لازمه شفافيت و مقابله با فساد عنوان ميکند. در سال 2015، در نشست ترکيه، اين کارگروه، اصول و قواعد لازم براي دسترسي آزاد به اطلاعات را مشخص و طي بيانيهاي آن را اعلام ميکند تا کشورهاي عضو، بتوانند آن را بهصورت دقيق اجرا کنند.
انتشار اطلاعات بهصورت دادههاي باز، باعث شفافسازي فعاليت دولتها، مشخصشدن نحوه هزينهکرد بودجه عمومي و تسهيل شرايط همکاريهاي بينالمللي ميشود. پرواضح است که بررسي دادههاي باز و کلاندادهها زمانبر است و شايد صحيحتر باشد بگوييم عملا غيرممکن است. با کمک هوش مصنوعي و يادگيري ماشين (Machine Learning)، در اينجا ميتوانيم تعداد زيادي از دادهها را در زمان کوتاه بررسي و موارد مشکوکي را که با الگوريتمهاي تعريفشدهمان مغايرت دارند، طبقهبندي و گزارش کنيم.
با انتشار دادههاي باز در کشور برزيل، ربات هوشمندي به نام «Rosie» با بهرهگيري از يادگيري ماشين، توانست بيش از هشت هزار مورد مشکوک از تخلفات «نمايندگان» کنگره را کشف و گزارش کند. يکي از آنها نمايندهاي در لاسوگاس بود که به رستوران Gordon Ramsay رفته بود.
در چين، اوضاع به گونه ديگري است. Zero Trust، ماشين هوشمندي که با هدف مبارزه با فساد، توسط آکادمي علوم چين طراحي شده، قادر است نقشه ارتباطات اجتماعي کارمندان / مديران دولتي را بهصورت چندلايه طراحي و رفتارهاي آنها را تجزيهوتحليل کند. اين ماشين همچنين قادر است با بررسي قراردادهاي منعقدشده توسط هر کارمند / مدير بر اساس سابقه رفتاري او، احتمال فساد در آينده و پروژههاي مشابه را پيشبيني کند.
از سال 2012، Zero Trust توانسته هشت هزار و 721 مورد تخلف انجامشده توسط دولتمردان (سوءاستفاده از قدرت، استفاده نابجا از بودجه دولتي و…) را گزارش کند. اين موضوع باعث ايجاد حس ناامني بين دولتمردان در شهرهاي مختلف شده و همگي در تلاشند تا فعاليتهاي اين ماشين هوشمند را متوقف کنند.
وضعي که شايد از کنترل خارج شود
هاوکينگ ميگويد: «ما انسانها زماني که آتش را کشف کرديم، بارها خرابکاري کرديم تا توانستيم کپسول آتشنشاني را اختراع کنيم. ولي به نظر ميرسد خرابکاري در حوزه هوش مصنوعي، خسارتهاي جبرانناپذيري به همراه داشته باشد. در کنار تمام بحثها و موافقتها / مخالفتها با هوش مصنوعي و ماشينهاي هوشمند، آنچه واضح است، اين است که «بايد اطمينان حاصل کنيم، رباتها و ماشينهاي هوشمند قطعا در خدمت ما خواهند بود».
به عبارت ديگر، آنها بايد موضوعاتي را بياموزند که براي ما ارزش محسوب ميشود تا هميشه و در هر حالتي، طرف ما باشند و هيچگاه براي نابودي ما برنامهريزي نکنند، اما آيا «ارزش»ها در فرهنگهاي مختلف يکسان است؟ اطمينان يافتن از اين موضوعات، کار دشواري است، چون ماشيني که «هوشمند» باشد، غيرقابل پيشبيني است.
به هيچوجه نبايد فکر کنيم اوضاع تحت کنترل ماست؛ اگرچه هنوز در حال آزمون و خطا و بررسي جوانب مختلف موضوع هستيم، اما امروز به درجهاي از علم رسيدهايم که ميتوانيم «الگوريتم»هايي خلق کنيم که «ياد ميگيرند»، مثل يک «نوزاد»، تجربه ميکنند و ياد ميگيرند، پس حتما بايد مقررات دقيقي براي کنترل ساخت ماشينهاي هوشمند و رباتها وضع کنيم.
«طمع» پيشرفت، گاهي باعث ميشود اين موضوعات را فراموش کنيم، آن وقت ممکن است اهداف الگوريتمهايمان، اهدافي نادرست و در «تضاد» با اهداف ما باشد و اين موضوع به قيمت نابودي ما تمام شود.
در افسانههاي يونان باستان آمده است: «در روزگاران دور، پادشاهي به نام «ميداس» (Midas) حکمراني ميکرده و آرزو داشته هر چيزي را که لمس ميکند، تبديل به طلا شود. اين آرزو لحظهاي از ذهن او خارج نميشده و به يکي از خواستههاي اصلي زندگياش تبديل شده بوده است. روزي که اين خواسته توسط «ديونيسوس» (Dionysus) برآورده ميشود، ميداس خوشحال ميشود و سر از پا نميشناسد.
ابتدا يک ميز را لمس ميکند و ميز تبديل به طلا ميشود، سپس صندلي و فرش را لمس ميکند و آنها هم تبديل به طلا ميشوند. وقتي هوس انگور ميکند، به محض دستزدن، خوشه انگور تبديل به طلا ميشود، ناراحت ميشود. همين حالت براي نان و آب و غذا هم تکرار ميشود. احساس ترس وجود او را فرا ميگيرد. دخترش که متوجه حال بد او ميشود، نزدش ميرود و او را در آغوش ميکشد، اما وقتي ميداس او را لمس ميکند، او هم تبديل به طلا ميشود».