پایگاه خبری راه پرداخت دارای مجوز به شماره ۷۴۵۷۲ از وزارت فرهنگ و ارشاد اسلامی و بخشی از «شبکه عصر تراکنش» است. راه پرداخت فعالیت خود را از دوم اردیبهشتماه ۱۳۹۰ شروع کرده و اکنون پرمخاطبترین رسانه ایران در زمینه فناوریهای مالی، بانکداری و پرداخت و استارتآپهای فینتک است.
ویتالیک بوترین نسبت به AI خوشبین است/ امکان رفع ریسکهای فنی اتریوم توسط هوش مصنوعی
ویتالیک بوترین، همبنیانگذار اتریوم، اشتیاق خود را برای هوش مصنوعی در کمک به شناسایی نقصهای احتمالی در پایگاه کد اتریوم به اشتراک گذاشته است. ویتالیک بوترین، همبنیانگذار اتریوم، میگوید هوش مصنوعی (AI) میتواند برای حل یکی از «بزرگترین خطرات فنی» اتریوم حیاتی باشد؛ اشکالهایی که در اعماق کد آن دفن شدهاند.
بوترین در تاریخ ۱۸ فوریه در پستی در شبکه اجتماعی ایکس، هیجان خود را نسبت به پیگیری مبتنی بر هوش مصنوعی در شناسایی و رفع اشکال باگ در شبکه اتریوم به اشتراک گذاشت و آن را بهعنوان کمک به «بزرگترین خطر فنی» برای شبکه توصیف کرد.
اتریوم در انتظار ارتقای جدید
نظرات بوترین در حالی بیان میشود که اتریوم به اجرای ارتقای Dencun که مدتها انتظارش را میکشید نزدیک میشود که در حال حاضر برای راهاندازی در ۱۳ مارس برنامهریزی شده است. Dencun در ۱۷ ژانویه در شبکه آزمایشی Goerli پیادهسازی شد، اما یک اشکال در Prsym مانع از نهایی شدن آن در شبکه شد. شبکه تست به مدت چهار ساعت ارتقای شبکه اتریوم برای نقشه راه بلندمدت بلاکچین بسیار مهم است. با این حال همه موافق نیستند که هوش مصنوعی ابزاری قابل اعتماد برای شناسایی اشکالات در کدهای مبتنی بر اتریوم است.
سابقه استفاده از هوش مصنوعی در شبکه اتریوم
در جولای ۲۰۲۳ OpenZeppelin یکسری آزمایش انجام داد که از GPT-4 OpenAI برای شناسایی مسائل امنیتی در قراردادهای هوشمند Solidity – زبان مادری کد اتریوم – استفاده کرد. طی این آزمایشها GPT-4 با موفقیت آسیبپذیریها را در ۲۰ مورد از ۲۸ چالش شناسایی کرد.
زمانی که GPT-4 نتواند نقصها را شناسایی کند، اغلب از آن خواسته میشود اشتباهات خود را بهسرعت اصلاح کند. با این حال در زمانهای دیگر OpenZeppelin متوجه شد که هوش مصنوعی در واقع آسیبپذیریای را شناسایی کرده که از ابتدا هرگز وجود نداشته است.
به طور مشابه، کانگ لی، مدیر ارشد امنیتی CertiK به کوینتلگراف گفت که استفاده از ابزارهای مبتنی بر هوش مصنوعی مانند ChatGPT در کدنویسی اغلب بیش از آنکه حل کند، مشکلات امنیتی ایجاد میکند.
به طور کلی لی توصیه میکند که دستیاران هوش مصنوعی باید فقط بهعنوان دستیار کدنویسهای باتجربه استفاده شوند، زیرا میتوانند در توضیح سریع به توسعهدهندگان مفید باشند که معنای خط کد چیست.
او گفت: «من فکر میکنم ChatGPT یک ابزار مفید عالی برای افرادی است که تجزیهوتحلیل کد و مهندسی معکوس را انجام میدهند. مطمئناً دستیار خوبی است و کارایی ما را بهشدت بهبود میبخشد.»
در حالی که بوترین تا حد زیادی به آینده هوش مصنوعی خوشبین است، او قبلاً به توسعهدهندگان هشدار داده بود که هنگام پیادهسازی هوش مصنوعی با فناوری بلاکچین، بهویژه هنگام استقرار آن در کنار برنامههای پرخطر مانند اوراکل، احتیاط کنند.
او گفت: «مهم است که مراقب باشید. اگر کسی بهعنوان مثال یک بازار پیشبینی یا یک استیبلکوین بسازد که از یک اوراکل هوش مصنوعی استفاده میکند و معلوم شود که این اوراکل قابل حمله است، این مقدار زیادی پول است که میتواند در یک لحظه ناپدید شود.»