پایگاه خبری راه پرداخت دارای مجوز به شماره ۷۴۵۷۲ از وزارت فرهنگ و ارشاد اسلامی و بخشی از «شبکه عصر تراکنش» است. راه پرداخت فعالیت خود را از دوم اردیبهشتماه ۱۳۹۰ شروع کرده و اکنون پرمخاطبترین رسانه ایران در زمینه فناوریهای مالی، بانکداری و پرداخت و استارتآپهای فینتک است.
آیا ChatGPT قادر به کلاهبرداری است؟
چت جی پی تی رباتی است که حسابی نقل محافل شده است. این فناوری در هفته اول راهاندازی توانسته است بیش از یک میلیون کاربر را با خود همراه کند. یوآیدی به عنوان یک سرویس به فراخور فعالیت خود در حوزه احراز هویت دیجیتال این موضوع را بررسی کرده که آیا فناوریهای جدید هوش مصنوعی میتواند ابزاری برای کلاهبرداری باشد یا نه؟
آرتور سی کلارک، نویسنده، مخترع و دانشمند فقید بریتانیایی، یک جمله معروفی دارد که میگوید: «هر فناوری پیشرفتهای، از جادو قابل تشخیص نیست». چت جیپیتی (ChatGPT)، مصداق بارز این جمله است و بسیار نزدیک به جادو است یا حداقل میتوان آن را مانند اولین گام در مسیری جادویی دانست. ChatGPT که به عنوان انقلابی در نحوه دسترسی ما به دادهها، ارتباط با فناوری و تولید اطلاعات اعلام شده است، نویسندگان، هنرمندان، برنامهنویسان و هر فرد دیگری که شغل و حرفه او به ایجاد یک دارایی دیجیتال بستگی دارد، این سؤال برایش پیش میآید که “ChatGPT چگونه به من کمک میکند؟” یا در حالت بدبینانهتر، ” ChatGPT چگونه شغل من را به خطر میاندازد؟” در این مطلب به طور کامل با چت جی پی تی و سوالاتی که در مورد آن دارید، آشنا خواهید شد.
ChatGPT چیست؟
ابزارهای تولید هوش مصنوعی در 5 سال گذشته پیشرفتهای چشمگیری داشتهاند. ChatGPT یکی از این ابزارهای هوش مصنوعی تولید شرکت OpenAI است که به تازگی منتشر شده و هنوز در نسخه بتا است. کاربر یک «پیام» را به زبان انگلیسی یا زبان فارسی ساده به این ربات میدهد و هوش مصنوعی یک پاراگراف کامل به او میدهد که از نظر گرامری صحیح است. نوشتار این هوش مصنوعی محاورهای است و به طرز چشمگیری دقیق است. در نگارش این مقاله که منبع آن انگلیسی است هم از این ربات استفاده شده که مؤثر بود. در حال حاضر هیچ مانعی برای ورود در حالت بتا وجود ندارد، اگرچه به احتمال زیاد پس از انتشار نسخه اصلی، این ربات پولی خواهد شد.
ChatGPT میتواند به سؤالات فلسفه، ادبیات، تاریخ و برنامهنویسی کامپیوتر پاسخ دهد. افرادی هستند که با استفاده از این ربات بهترین پاسخها و بهترین رویکردها را دریافت میکنند و بیشترین استخراج را از آن دارند. سؤال اصلی این است که چگونه کلاهبرداران میتوانند از این هوش مصنوعی برای جعل هویت دیگران استفاده کنند. از ChatGPT همین سؤال پرسیده شده است.
چگونه میتوان از ChatGPT برای انجام کلاهبرداری و جعل هویت استفاده کرد؟
توجه به این نکته ضروری است که ChatGPT یک مدل زبان است و به تنهایی توانایی انجام کلاهبرداری هویت را ندارد. با این حال، اگر شخصی از ChatGPT برای تولید اطلاعات یا اسناد جعلی استفاده کند، به طور بالقوه میتواند از آن اطلاعات برای ارتکاب کلاهبرداری هویت استفاده کند. برای مثال، کلاهبرداران میتوانند از ChatGPT برای تولید یک سند هویت جعلی، مانند گواهینامه رانندگی یا پاسپورت، استفاده کنند و سپس از آن سند برای جعل هویت به عنوان شخص دیگری استفاده کنند. این ربات میتواند به کلاهبردارها امکان دسترسی به اطلاعات حساس یا حسابهای مالی را بدهد. مهم است که همیشه صحت اسناد یا اطلاعاتی را که دریافت میکنید تأیید کنید و هرگز اطلاعات شخصی خود را با کسی به اشتراک نگذارید مگر اینکه از هویت او مطمئن باشید.
در کل، این ربات هوش مصنوعی بسیار جالب و چشمگیر است. این ربات خود را با پیشبینیهای ما همسو میکند و احتمالاً روزی میرسد که یک ابزار مبتنی بر هوش مصنوعی اسناد جعلی تولید میکند. نکته جالب این است که خود ChatGPT در حال حاضر از ساخت تصویر پشتیبانی نمیکند. برای این منظور باید به ابزار دیگری برای تولید هوش مصنوعی که اخیراً جهان را تحت تأثیر قرار داده است، رجوع کنیم، یعنی DALL-E. این ابزار نیز از طرف شرکت OpenAI تهیه شده است.
DALL-E چیست؟
DALL-E یک مدل زبانی بزرگ است که توسط شرکت OpenAI توسعه یافته است. این نام از هنرمند مشهور، سالوادور دالی، و شخصیت کارتونی Wall-E گرفته شده است. DALL-E با استفاده از یک شبکه عصبی با 12 میلیارد پارامتر قادر به تولید تصاویر از توضیحات متنی است که به او میدهید. این هوش مصنوعی با مجموعه دادههایی از جفتهای متن و تصویر آموزش داده شده است که به آن اجازه میدهد تا رابطه بین متن و دادههای بصری را بیاموزد. DALL-E برای نشان دادن قابلیت مدلهای زبانی پیشرفته و کاربردهای بالقوه آنها در تولید خروجیهای متنوع و خلاقانه طراحی شده است و میتوان از آن برای ایجاد طیف گستردهای از تصاویر، از سبکهای واقعبینانه گرفته تا بسیار سبک، بر اساس متن ورودی استفاده کرد.
یکی از بزرگترین محدودیتهای سیستم فعلی DALL-E (و دیگر موارد مشابه آن) نحوه مدیریت تولید متن است. حتی دادن خاصترین دادهها به این سیستم، مانند دستور «تیشرتی که روی آن نوشته شده «هوش مصنوعی خوب است»، نتایج نامشخصی را نشان میدهد.
یکی دیگر از محدودیتهای کلیدی، توانایی سیستم در ارائه دقیق چهره انسان است. بنابراین میتوان گفت که شاید چندین سال مانده تا کلاهبرداران با سیستمهایی مانند ChatGPT یا DALL-E بتوانند جعلیات پیچیده و اسناد جعلی، یا بیومتریکهای عمیق جعلی را ایجاد کنند. اما باید گفت که روزی آنها این کار را خواهند کرد. به هر حال، تقلب یک تجارت بزرگ است و بازار، آن را میطلبد.
در سالهای اخیر شاهد انفجار فناوریهای جعل بهعنوان سرویس و خدمات بودهایم که ابزارهای سفارشیسازی شده را به کلاهبرداران میفروشند؛ امروزه این خدمات از ابزارهای خاص مانند رباتهای رهگیری تأیید هویت دوعاملی تا بستههای مجموعه کامل که شامل کپی کردن کل وبسایتها در URL های مشابه. تردیدی وجود ندارد که روزی ابزارهای تولید هوش مصنوعی متمرکز بر تقلب در لیست ارائه خدمات کلاهبرداران قرار خواهند گرفت.
تأثیر ChatGPT چیست؟
ChatGPT به نظر بصریترین دایرهالمعارفی است که تاکنون نگارش شده است (شاید بهتر است بگوییم برنامهنویسی شده است). چشمگیرترین چیز در مورد آن دقت اطلاعاتی نیست که برگردان میشود، بلکه نحوه بازگرداندن این اطلاعات است. استفاده از ChatGPT به جای یافتن اطلاعات در ویکیپدیا طبیعی است. این ربات هوش مصنوعی، شبیه به صفحه نمایش لمسی آیفون، مانند یک انقلاب در نحوه دسترسی ما به اطلاعات به نظر میرسد که باعث میشود تحقیق، پیشنویس و ایجاد متن سریعتر انجام شود. اما این ربات در حال حاضر، هنوز به کمک انسانی نیاز دارد.
وقتی صحبت از تقلب میشود، کاربردهای آن (در حال حاضر) محدود است. به عنوان مثال، اکنون برای افراد بسیار سریعتر است که لاگ جعلی چت، کپی وبسایت و نمایههای اجتماعی ایجاد کنند تا اینکه به صورت دستی این کار را انجام دهند. اما این بدان معنا نیست که برنامههای پیچیدهتر کلاهبرداری توسعه نخواهند یافت.
با نگاه کردن به آینده، متوجه میشویم که همه چیز سخت و مشکل نیست. با پیشرفتهایی که در فناوری تشخیص جعل حاصل شده میتوان مانع از کلاهبرداریها شد. برای پاسخ به سؤال اصلی ما که آیا ابزارهای مولد هوش مصنوعی، کلاهبرداری را به همراه خواهند داشت؟ باید بگوییم خیر. اما آنها نحوه ساخت ابزارهای تشخیص تقلب را در آینده تغییر خواهند داد.