راه پرداخت
رسانه فناوری‌های مالی ایران

آیا ChatGPT قادر به کلاهبرداری است؟

چت جی پی تی رباتی است که حسابی نقل محافل شده است. این فناوری در هفته اول راه‌­اندازی توانسته است بیش از یک میلیون کاربر را با خود همراه کند. یوآیدی به عنوان یک سرویس به فراخور فعالیت خود در حوزه احراز هویت دیجیتال این موضوع را بررسی کرده که آیا فناوری‌­های جدید هوش مصنوعی می­‌تواند ابزاری برای کلاهبرداری باشد یا نه؟

آرتور سی کلارک، نویسنده، مخترع و دانشمند فقید بریتانیایی، یک جمله معروفی دارد که می‌گوید: «هر فناوری پیشرفته‌ای، از جادو قابل تشخیص نیست». چت جی‌پی‌تی (ChatGPT)، مصداق بارز این جمله است و بسیار نزدیک به جادو است یا حداقل می‌توان آن را مانند اولین گام در مسیری جادویی دانست. ChatGPT که به عنوان انقلابی در نحوه دسترسی ما به داده‌ها، ارتباط با فناوری و تولید اطلاعات اعلام شده است، نویسندگان، هنرمندان، برنامه‌نویسان و هر فرد دیگری که شغل و حرفه او به ایجاد یک دارایی دیجیتال بستگی دارد، این سؤال برایش پیش می‌آید که “ChatGPT چگونه به من کمک می‌کند؟” یا در حالت بدبینانه‌تر، ” ChatGPT چگونه شغل من را به خطر می‌اندازد؟” در این مطلب به طور کامل با چت جی پی تی و سوالاتی که در مورد آن دارید، آشنا خواهید شد.


ChatGPT چیست؟


ابزارهای تولید هوش مصنوعی در 5 سال گذشته پیشرفت‌های چشمگیری داشته‌اند. ChatGPT یکی از این ابزارهای هوش مصنوعی تولید شرکت OpenAI است که به تازگی منتشر شده و هنوز در نسخه بتا است. کاربر یک «پیام» را به زبان انگلیسی یا زبان فارسی ساده به این ربات می‌دهد و هوش مصنوعی یک پاراگراف کامل به او می‌دهد که از نظر گرامری صحیح است. نوشتار این هوش مصنوعی محاوره‌ای است و به طرز چشمگیری دقیق است. در نگارش این مقاله که منبع آن انگلیسی است هم از این ربات استفاده شده که مؤثر بود. در حال حاضر هیچ مانعی برای ورود در حالت بتا وجود ندارد، اگرچه به احتمال زیاد پس از انتشار نسخه اصلی، این ربات پولی خواهد شد.

ChatGPT می‌تواند به سؤالات فلسفه، ادبیات، تاریخ و برنامه‌نویسی کامپیوتر پاسخ دهد. افرادی هستند که با استفاده از این ربات بهترین پاسخ‌ها و بهترین رویکردها را دریافت می‌کنند و بیشترین استخراج را از آن دارند. سؤال اصلی این است که چگونه کلاهبرداران می­‌توانند از این هوش مصنوعی برای جعل هویت دیگران استفاده کنند. از ChatGPT همین سؤال پرسیده شده است.


چگونه می‌­توان از ChatGPT برای انجام کلاهبرداری و جعل هویت استفاده کرد؟


توجه به این نکته ضروری است که ChatGPT یک مدل زبان است و به تنهایی توانایی انجام کلاهبرداری هویت را ندارد. با این حال، اگر شخصی از ChatGPT برای تولید اطلاعات یا اسناد جعلی استفاده کند، به طور بالقوه می‌تواند از آن اطلاعات برای ارتکاب کلاهبرداری هویت استفاده کند. برای مثال، کلاهبرداران می‌توانند از ChatGPT برای تولید یک سند هویت جعلی، مانند گواهینامه رانندگی یا پاسپورت، استفاده کنند و سپس از آن سند برای جعل هویت به عنوان شخص دیگری استفاده کنند. این ربات می‌تواند به کلاهبردارها امکان دسترسی به اطلاعات حساس یا حساب‌های مالی را بدهد. مهم است که همیشه صحت اسناد یا اطلاعاتی را که دریافت می‌کنید تأیید کنید و هرگز اطلاعات شخصی خود را با کسی به اشتراک نگذارید مگر اینکه از هویت او مطمئن باشید.

در کل، این ربات هوش مصنوعی بسیار جالب و چشمگیر است. این ربات خود را با پیش‌بینی‌های ما همسو می‌کند و احتمالاً روزی می‌رسد که یک ابزار مبتنی بر هوش مصنوعی اسناد جعلی تولید می‌کند. نکته جالب این است که خود ChatGPT در حال حاضر از ساخت تصویر پشتیبانی نمی‌کند. برای این منظور باید به ابزار دیگری برای تولید هوش مصنوعی که اخیراً جهان را تحت تأثیر قرار داده است، رجوع کنیم، یعنی DALL-E. این ابزار نیز از طرف شرکت OpenAI تهیه شده است.


DALL-E چیست؟


DALL-E یک مدل زبانی بزرگ است که توسط شرکت OpenAI توسعه یافته است. این نام از هنرمند مشهور، سالوادور دالی، و شخصیت کارتونی Wall-E گرفته شده است. DALL-E با استفاده از یک شبکه عصبی با 12 میلیارد پارامتر قادر به تولید تصاویر از توضیحات متنی است که به او می‌دهید. این هوش مصنوعی با مجموعه داده‌هایی از جفت‌های متن و تصویر آموزش داده شده است که به آن اجازه می‌دهد تا رابطه بین متن و داده‌های بصری را بیاموزد. DALL-E برای نشان دادن قابلیت مدل‌های زبانی پیشرفته و کاربردهای بالقوه آنها در تولید خروجی‌های متنوع و خلاقانه طراحی شده است و می‌توان از آن برای ایجاد طیف گسترده‌ای از تصاویر، از سبک‌های واقع‌بینانه گرفته تا بسیار سبک، بر اساس متن ورودی استفاده کرد.

یکی از بزرگترین محدودیت‌های سیستم فعلی DALL-E  (و دیگر موارد مشابه آن) نحوه مدیریت تولید متن است. حتی دادن خاص‌ترین داده‌ها به این سیستم، مانند دستور «تی‌شرتی که روی آن نوشته شده «هوش مصنوعی خوب است»، نتایج نامشخصی را نشان می‌دهد.

یکی دیگر از محدودیت‌های کلیدی، توانایی سیستم در ارائه دقیق چهره انسان است. بنابراین می‌توان گفت که شاید چندین سال مانده تا کلاهبرداران با سیستم‌هایی مانند ChatGPT یا DALL-E بتوانند جعلیات پیچیده و اسناد جعلی، یا بیومتریک‌های عمیق جعلی را ایجاد کنند. اما باید گفت که روزی آن‌ها این کار را خواهند کرد. به هر حال، تقلب یک تجارت بزرگ است و بازار، آن را می‌طلبد.

در سال‌های اخیر شاهد انفجار فناوری‌های جعل به‌عنوان سرویس و خدمات بوده‌ایم که ابزارهای سفارشی‌سازی شده را به کلاهبرداران می‌فروشند؛ امروزه این خدمات از ابزارهای خاص مانند ربات‌های رهگیری تأیید هویت دوعاملی تا بسته‌های مجموعه کامل که شامل کپی کردن کل وب‌سایت‌ها در URL های مشابه. تردیدی وجود ندارد که روزی ابزارهای تولید هوش مصنوعی متمرکز بر تقلب در لیست ارائه خدمات کلاهبرداران قرار خواهند گرفت.


تأثیر ChatGPT چیست؟


ChatGPT به نظر بصری‌ترین دایره‌المعارفی است که تاکنون نگارش شده است (شاید بهتر است بگوییم برنامه‌نویسی شده است). چشمگیرترین چیز در مورد آن دقت اطلاعاتی نیست که برگردان می‌شود، بلکه نحوه بازگرداندن این اطلاعات است. استفاده از ChatGPT به جای یافتن اطلاعات در ویکی‌پدیا طبیعی است. این ربات هوش مصنوعی، شبیه به صفحه نمایش لمسی آیفون، مانند یک انقلاب در نحوه دسترسی ما به اطلاعات به نظر می‌رسد که باعث می‌شود تحقیق، پیش‌نویس و ایجاد متن سریعتر انجام شود. اما این ربات در حال حاضر، هنوز به کمک انسانی نیاز دارد.

وقتی صحبت از تقلب می‌شود، کاربردهای آن (در حال حاضر) محدود است. به عنوان مثال، اکنون برای افراد بسیار سریع‌تر است که لاگ جعلی چت، کپی وب‌سایت و نمایه‌های اجتماعی ایجاد کنند تا اینکه به صورت دستی این کار را انجام دهند. اما این بدان معنا نیست که برنامه‌های پیچیده‌تر کلاهبرداری توسعه نخواهند یافت.

با نگاه کردن به آینده، متوجه می‌شویم که همه چیز سخت و مشکل نیست. با پیشرفت‌هایی که در فناوری تشخیص جعل حاصل شده می‌توان مانع از کلاهبرداری‌ها شد. برای پاسخ به سؤال اصلی ما که آیا ابزارهای مولد هوش مصنوعی، کلاهبرداری را به همراه خواهند داشت؟ باید بگوییم خیر. اما آنها نحوه ساخت ابزارهای تشخیص تقلب را در آینده تغییر خواهند داد.

ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.