پایگاه خبری راه پرداخت دارای مجوز به شماره ۷۴۵۷۲ از وزارت فرهنگ و ارشاد اسلامی و بخشی از «شبکه عصر تراکنش» است. راه پرداخت فعالیت خود را از دوم اردیبهشتماه ۱۳۹۰ شروع کرده و اکنون پرمخاطبترین رسانه ایران در زمینه فناوریهای مالی، بانکداری و پرداخت و استارتآپهای فینتک است.
آشنایی با واژهنامه اصطلاحات هوش مصنوعی از a تا z
با گسترش روزافزون هوش مصنوعی در جهان امروز، گمشدن در دریایی از اصطلاحات تخصصی آسان است؛ اما درست همین حالا ضروریتر از همیشه است که مسیر خود را در این حوزه پیدا کنیم. هوش مصنوعی در چند سال آینده اثر بزرگی بر بازار کار خواهد گذاشت و همزمان، بحثهای جدی درباره نقش آن در سیاستگذاری و مقرراتگذاری جریان دارد؛ در چنین فضایی، دانستن مفاهیم پایهای که هرگز در مدارس آموزش ندادهاند از «فشار رقابتی» تا «همترازی» اهمیتی دوچندان مییابد. بهروز ماندن دشوار است، چون پژوهشها پیچیدهاند و حتی برای دانشمندان نیز زبان مشترک همیشه روشن نیست؛ بااینحال همانطور که درباره تغییرات اقلیمی و اینترنت گفتوگو کردهایم، میتوانیم درباره هوش مصنوعی هم دقیق صحبت کنیم. این واژهنامه اصطلاحات هوش مصنوعی که توسط مجله تایم گردآوری شده است، راهنمایی جامع برای آشنایی با مهمترین مفاهیم این حوزه بهشمار میآید. اگر تازهکار هستید یا حتی پیشتر با مفاهیمی چون AGI یا GPT آشنا شدهاید، این واژهنامه برای یاری شما در درک قدرت، وعدهها و خطرات هوش مصنوعی طراحی شده است.
هوش مصنوعی عمومی (AGI):
هوش مصنوعی عمومی یا AGI به نوعی فناوری گفته میشود که میتواند بیشتر وظایف اقتصادی و فکری را کارآمدتر از انسان انجام دهد. چنین فناوریای ممکن است قادر باشد کشفیات علمی تازهای انجام دهد یا ایدههای بهتری پیشنهاد کند. در حال حاضر وجود ندارد، اما پژوهشگران باور دارند که در چند سال آینده به وجود خواهد آمد. میس هَسابیس، برنده جایز نوبل ۲۰۲۴ در گفتوگو با مجله تایم گفته است که اگر AGI بهدرستی و با مسئولیت توسعه یابد، میتواند مفیدترین فناوری اختراعشده توسط بشر باشد، هرچند که یکی از دشوارترین چالشها این است که اطمینان حاصل شود انسان همچنان کنترل این سیستمها را در دست دارد، آنها را درک و تفسیر میکند و حفاظهایی ایجاد میکند که خودِ AGI نتواند آنها را از بین ببرد.
همترازی (Alignment):
مشکل همترازی یکی از اساسیترین و دشوارترین چالشهای بلندمدت در حوزه ایمنی هوش مصنوعی است. هوش مصنوعی فعلی هنوز نمیتواند بر طراحان خود غلبه کند، اما بسیاری از پژوهشگران باور دارند در آینده چنین قابلیتی را خواهد داشت. روشهای فعلی آموزش هوش مصنوعی ممکن است باعث شوند این سیستمها، در پی اهدافی دلخواه یا راهبردهایی قدرتطلبانه، به انسان آسیب برسانند.
برای جلوگیری از این خطر، پژوهشگران تلاش میکنند هوش مصنوعی را با ارزشهای انسانی «همتراز» کنند. اما این کار دشوار است، زیرا ارزشهای انسانها بسیار متفاوتاند و حتی خود افراد نیز همیشه ارزشهایشان را بهدرستی نمیشناسند. در نتیجه، بسیاری از شرکتهای بزرگ فعال در زمینه هوش مصنوعی همترازی را در اولویت دوم قرار دادهاند و بیشتر تمرکزشان بر افزایش تواناییهای فنی سیستمهایشان است.
خودکارسازی (Automation):
«خودکارسازی» به فرایند تاریخی جایگزینی کار انسانی با ماشینها اشاره دارد. در گذشته، ماشینها بیشتر برای انجام کارهای فیزیکی تکراری استفاده میشدند، اما امروزه با ظهور هوش مصنوعی، این روند به کارهای فکری نیز گسترش یافته است. برای نمونه، بسیاری از وظایف اداری یا خدماتی هماکنون توسط نرمافزارهای هوشمند انجام میشود. پژوهشها نشان میدهد که در سالهای آینده، کارکنان اداری و متخصصان بیشتر از کارگران کارخانهها در معرض جایگزینی با هوش مصنوعی قرار دارند.
گزارش سال ۲۰۲۳ شرکت OpenAI و دانشگاه پنسیلوانیا پیشبینی کرد که تا ۸۰ درصد از نیروی کار ایالات متحده به نوعی تحت تأثیر مدلهای زبانی بزرگ قرار خواهند گرفت و حدود ۲۰ درصد از مشاغل بهشدت متحول خواهند شد. سیاستگذاران جهان باید تصمیم بگیرند که چگونه این فناوری را قانونگذاری و مالیاتگذاری کنند.
سوگیری (Bias):
وقتی خروجیهای یک سیستم یادگیری ماشینی بهطور ناعادلانه یا تبعیضآمیز منحرف میشوند، گفته میشود آن سیستم دارای «سوگیری» است. برای مثال، برخی الگوریتمهای پیشبینی مجازات در آمریکا برای مجرمان سیاهپوست، احکام سنگینتری نسبت به مجرمان سفیدپوست صادر کردهاند، حتی زمانی که جرم مشابه بوده است. همچنین، نرمافزارهای تشخیص چهره معمولاً در شناسایی چهرههای سفید عملکرد بهتری نسبت به چهرههای سیاه دارند. علت اصلی این مشکل در دادههایی است که سیستمها با آن آموزش دیدهاند؛ دادههایی که نابرابریهای اجتماعی را بازتاب میدهند.
چتبات (Chatbot):
«چتباتها» رابطهایی هستند که توسط شرکتهای هوش مصنوعی طراحی شدهاند تا کاربران بتوانند با مدلهای زبانی بزرگ (LLM) گفتوگو کنند. این چتباتها مکالمهای طبیعی و شبیه انسان را شبیهسازی میکنند و میتوانند به سؤالات پاسخ دهند یا در نوشتن، برنامهنویسی و آموزش کمک کنند. از مشهورترین نمونهها میتوان به ChatGPT از OpenAI، جمینای (Gemini) از گوگل و کلود (Claude) از Anthropic اشاره کرد.
با وجود کاربردهای مفید، این سیستمها گاهی اطلاعات اشتباه یا ساختگی تولید میکنند پدیدهای که پژوهشگران آن را «توهم» مینامند. چتباتها همچنین ممکن است تعصبات موجود در دادههای آموزشی خود را تکرار کنند و آنها را در پاسخهایشان بازتولید کنند.
فشار رقابتی (Competitive Pressure):
امروزه بسیاری از بزرگترین شرکتهای فناوری جهان، بههمراه استارتاپهای پرسرمایه، در رقابتی شدید برای عرضه سریعتر و پیشرفتهتر سیستمهای هوش مصنوعی شرکت دارند. این رقابت فشرده باعث میشود شرکتها با شتاب زیاد محصولاتی را منتشر کنند تا توجه بازار و سرمایهگذاران را جلب کنند.
اما همین عجله میتواند منجر به تصمیمهای خطرناک و کاهش دقت در مسائل ایمنی و اخلاقی شود. پژوهشگران و سیاستگذاران هشدار دادهاند که چنین فشاری ممکن است عواقب فاجعهباری در پی داشته باشد. در عین حال، اگر این رقابت بهدرستی هدایت شود، میتواند به نوآوری بیشتر و پیشرفت عمومی جامعه منجر شود.
قدرت محاسباتی (Compute):
در دنیای هوش مصنوعی، «محاسبه» یا قدرت پردازشی یکی از عوامل اصلی محدودکننده در آموزش سیستمهای یادگیری ماشین است. هرچه توان محاسباتی سختافزار مانند CPU و GPU بیشتر باشد، مدلهای یادگیری ماشین میتوانند دادههای بیشتری را پردازش کرده و سریعتر آموزش ببینند. افزایش قدرت محاسباتی در سالهای اخیر، یکی از مهمترین دلایل رشد چشمگیر مدلهای زبانی بزرگ بوده است. منظور از «قدرت محاسباتی» همان منبعی است که شبکههای عصبی مصنوعی هنگام «یادگیری» الگوها در دادههای آموزشی از آن استفاده میکنند. بهطور کلی، هرچه توان پردازشی بیشتری برای آموزش یک مدل زبانی بزرگ بهکار رود، عملکرد آن مدل در وظایف مختلف بهتر خواهد بود. مدلهای هوش مصنوعی مدرن به مقادیر عظیمی از توان محاسباتی و انرژی الکتریکی برای آموزش نیاز دارند.
در حالی که شرکتها معمولاً جزئیات دقیق هزینههای انرژی مدلهای خود را فاش نمیکنند، پژوهشگران مستقل تخمین زدهاند که آموزش مدل GPT-3 متعلق به شرکت OpenAI، معادل انتشار حدود ۳۵۰ تن دیاکسیدکربن در جو زمین بوده است. با بزرگتر شدن مدلها، این عدد افزایش مییابد، زیرا توان محاسباتی مورد نیاز برای آموزش مدلها با اندازه آنها رشد میکند. در حال حاضر، پیشرفتهترین چیپهای مخصوص آموزش مدلهای زبانی، محصول شرکت DeepSeek چین هستند. در ژانویه ۲۰۲۵، یک استارتاپ چینی اعلام کرد مدلی را آموزش داده است که تنها با یکدهم توان محاسباتیِ مدلهای پیشرفته آمریکایی کار میکند، اما بازدهی مشابه دارد.
پخش (Diffusion):
ابزارهای تولید تصویر مانند DALL·E و Stable Diffusion بر پایه فرآیندی به نام «پخش» یا Diffusion ساخته شدهاند.این مدلها تصاویر را بر اساس دادههای تصویری عظیمی که از اینترنت گردآوری شدهاند، آموزش میبینند. در این فرآیند، مدل میآموزد چگونه الگوهای نویز تصادفی را با الگوهای تصویری واقعی جایگزین کند تا بتواند تصویر جدیدی از ترکیب آنچه آموخته ایجاد کند. بهطور ساده، مدل ابتدا از یک بوم سفید و نویزدار شروع میکند و بهتدریج با حذف نویز، تصویری معنادار خلق میکند درست مانند ظاهر شدن عکس در تاریکخانه. مدلهای پخش امروزی میتوانند تصاویری با کیفیت بالا از متن سادهای مانند «سگی که کلاه قرمز بر سر دارد» تولید کنند. با این حال، بسیاری از این مدلها با استفاده از آثار هنرمندان واقعی آموزش داده میشوند، که باعث نگرانیهای حقوقی در زمینه مالکیت معنوی شده است. در سال ۲۰۲۴، چندین هنرمند از شرکتهای توسعهدهنده مدلهای پخش به دلیل استفاده از آثارشان بدون اجازه شکایت کردند. علاوه بر این، پژوهشگران درباره استفاده این فناوری برای تولید محتوای جعلی یا نامناسب، مانند تصاویر غیراخلاقی یا تبلیغات گمراهکننده، هشدار دادهاند.
داده (Data):
«داده» اساساً ماده خامی است که برای ساخت هوش مصنوعی بهکار میرود. همراه با «قدرت محاسباتی» و «شبکههای عصبی»، داده یکی از سه مؤلفه حیاتی برای آموزش سیستمهای یادگیری ماشین است. حجم عظیمی از دادهها که به آنها مجموعهداده گفته میشود از منابع اینترنتی گردآوری شده و برای آموزش مدلها مورد استفاده قرار میگیرد. هرچه داده بیشتری در اختیار مدل باشد، پیشبینیها و خروجیهای آن دقیقتر خواهد بود.
اما این دادهها همیشه خنثی یا بیخطر نیستند. بسیاری از مجموعهدادهها شامل محتوای دارای حقکپی، اطلاعات شخصی، یا حتی مطالب غیراخلاقی و خشونتآمیز هستند. اگر این دادهها پیش از آموزش پاکسازی نشوند، مدلهای هوش مصنوعی میتوانند ناخواسته محتوایی تولید کنند که ناقض قوانین کپیرایت یا مروج تبعیض باشد. برای نمونه، مدلهای تصویری مانند DALL·E یا Stable Diffusion گاهی از آثار هنرمندان واقعی برای تولید تصاویر جدید استفاده میکنند، بدون اینکه نام یا اجازه صاحب اثر لحاظ شود. به همین دلیل، کنترل و پاکسازی دادهها پیش از آموزش یکی از مراحل حیاتی در توسعه ایمن هوش مصنوعی به شمار میرود.
برچسبگذاری داده (Data Labeling):
در بسیاری از پروژههای یادگیری ماشین، انسانها باید دادهها را برچسبگذاری کنند تا مدل بتواند آنها را بیاموزد. به عنوان مثال، اگر مدلی قرار است چهرهها را شناسایی کند، به مجموعهای از تصاویر با برچسبهایی مانند «لبخند»، «چشم باز» یا «کلاه» نیاز دارد. کارگران انسانی این برچسبها را معمولاً از طریق پلتفرمهای آنلاین وارد میکنند، اغلب با دستمزد پایین و شرایط کاری دشوار. در برخی موارد، این افراد ناچارند تصاویر خشونتآمیز یا آزاردهنده را برای فیلترکردن مشاهده کنند که میتواند تأثیر روانی منفی شدیدی بر آنها داشته باشد.
در سالهای اخیر، شرکتهایی مانند OpenAI و Meta اعلام کردهاند که تلاش کردهاند شرایط کاری این افراد را بهبود دهند. همچنین، شرکتها برای جلوگیری از مشکلات اخلاقی، از پیمانکارانی استفاده میکنند که دادهها را بررسی و پاکسازی میکنند تا محتوای نامناسب به مدلها نرسد.
قابلیتهای نوظهور (Emergent Capabilities):
وقتی یک مدل زبانی بزرگ آموزش داده میشود، گاهی قابلیتهایی از خود نشان میدهد که برنامهریزان آن را پیشبینی نکرده بودند. به این پدیده «قابلیتهای نوظهور» گفته میشود. برای مثال، ممکن است مدلی که برای ترجمه متن آموزش دیده است، ناگهان توانایی نوشتن شعر یا حل مسائل منطقی را نیز پیدا کند. هرچه مدلها بزرگتر و دادههای آموزشی آنها بیشتر میشود، رفتارهای غیرمنتظرهتری از آنها بروز میکند.
در پژوهشی در سال ۲۰۲۴، محققان دریافتند که نسخههای بزرگتر GPT-4 بهطور ناگهانی توانایی درک تفاوتهای طنز و کنایه در گفتار انسان را پیدا کردهاند، در حالی که نسخههای کوچکتر چنین قابلیتی نداشتند. این ویژگیها میتوانند هم مفید و هم خطرناک باشند زیرا اگر رفتار پیشبینینشدهای رخ دهد، ممکن است باعث بروز خطا یا حتی آسیب شود. برخی کارشناسان هشدار میدهند که قابلیتهای نوظهور میتوانند نشانهای از شکلگیری نوعی «هوشیاری مصنوعی» باشند، در حالی که دیگران این ایده را رد میکنند و آن را صرفاً نتیجه مقیاس عظیم دادهها میدانند.
قابلیت توضیحپذیری (Explainability):
حتی برای خودِ سازندگان مدلهای زبانی بزرگ، توضیح رفتار این سیستمها کار سادهای نیست. وقتی یک مدل هوش مصنوعی پاسخی تولید میکند، بهندرت میتوان دقیقاً گفت چرا آن پاسخ را انتخاب کرده است. از این رو، حوزهای به نام «توضیحپذیری» در پژوهشهای هوش مصنوعی شکل گرفته است که هدف آن روشن کردن منطق درونی مدلهاست.
پژوهشگران سعی دارند بفهمند شبکههای عصبی در هر مرحله چه الگوهایی را تشخیص میدهند و چگونه تصمیم میگیرند. این موضوع نه تنها برای بهبود عملکرد مدلها مهم است، بلکه برای اطمینان از رفتار اخلاقی و ایمن آنها نیز حیاتی است. بدون توضیحپذیری، ممکن است هوش مصنوعی تصمیمهایی بگیرد که انسانها قادر به درک یا پیشبینی آن نباشند. به همین دلیل، بسیاری از متخصصان خواستار شفافیت بیشتر در مورد نحوه عملکرد مدلهای زبانی شدهاند.
مدل زبانی بزرگ (Large Language Model):
وقتی مردم درباره پیشرفتهای هوش مصنوعی صحبت میکنند، معمولاً منظورشان «مدلهای زبانی بزرگ» است که به اختصار LLM نامیده میشوند. مدلهایی مانند GPT-4 از OpenAI یا Gemini از گوگل از شناختهشدهترین نمونهها هستند. این مدلها با استفاده از حجم عظیمی از دادههای متنی که بیشتر از اینترنت گردآوری شدهاند آموزش میبینند. مدلهای زبانی بزرگ الگوهای میان واژهها را شناسایی میکنند و بر اساس آنها یاد میگیرند چگونه متنی منسجم بنویسند یا گفتوگویی طبیعی برقرار کنند.
هرچه دادههای آموزشی بیشتر و توان محاسباتی قویتر باشد، این مدلها عملکرد دقیقتر و متنوعتری خواهند داشت. کاربرد اصلی آنها تولید یا خلاصهسازی متن، پاسخ به پرسشها و ترجمه خودکار است. چتباتهایی مانند ChatGPT، Gemini و Bing به کاربران اجازه میدهند با این مدلها مستقیماً تعامل کنند. با وجود قابلیتهای چشمگیر، مدلهای زبانی بزرگ در معرض خطاهایی مانند سوگیری (Bias) و توهم (Hallucination) نیز هستند.
لابیگری (Lobbying):
مانند بسیاری از صنایع دیگر، شرکتهای هوش مصنوعی نیز از لابیگرها برای تأثیرگذاری بر قانونگذاران و سیاستمداران استفاده میکنند. هدف از این کار معمولاً شکلدهی به مقررات مربوط به هوش مصنوعی به نفع منافع تجاری آنهاست. برای نمونه، در آوریل ۲۰۲۵، مجلس نمایندگان آمریکا لایحهای را تصویب کرد که استفاده برخی از دادههای آموزشی را محدود میکرد، اما پس از فشار شرکتهای فناوری بزرگ، بخشهایی از قانون تغییر یافت. منتقدان میگویند چنین نفوذی ممکن است مقررات حفاظتی را تضعیف کند و خطرات هوش مصنوعی را نادیده بگیرد.
به جای حمایت از قوانین اخلاقی، برخی شرکتها از اصطلاحاتی مانند «استفاده مسئولانه از دادهها» برای توجیه فعالیتهای خود استفاده میکنند. در ژانویه ۲۰۲۳، زمانی که OpenAIآمازون، متا، مایکروسافت و گوگل با حضور ایلان ماسک و چند مدیر دیگر در کاخ سفید برای بحث درباره «استانداردهای اخلاقی» دعوت شدند، منتقدان این رویداد را تلاشی برای کنترل قانونگذاری توسط خودِ صنعت دانستند.
یادگیری ماشین (Machine Learning):
«یادگیری ماشین» شاخهای از هوش مصنوعی است که به سیستمها اجازه میدهد بدون برنامهریزی مستقیم، از دادهها بیاموزند. در این روش، الگوریتمها از الگوهای آماری برای پیشبینی یا تصمیمگیری استفاده میکنند.
سیستم یادگیری ماشین بهجای پیروی از مجموعهای از قوانین ازپیشتعریفشده، با مشاهده دادهها و نتایج به مرور زمان یاد میگیرد. مدلها میتوانند تحت نظارت انسان آموزش ببینند (یادگیری نظارتشده)، یا از طریق تجربه و پاداش یاد بگیرند (یادگیری تقویتی). این حوزه زیربنای بیشتر پیشرفتهای هوش مصنوعی مدرن است.
مدل (Model)
واژه «مدل» در هوش مصنوعی به هر نوع سیستم یادگیری اشاره دارد چه مدلهای پایهای باشند که مدلهای دیگر بر اساس آنها ساخته میشوند، و چه مدلهای خاصی که برای یک کار معین طراحی شدهاند. برای مثال، ChatGPT و GPT-4 از OpenAI، مدلهای پایه محسوب میشوند. از دیگر نمونهها میتوان به Gemini از گوگل و LaMDA، Bing مایکروسافت و Claude از Anthropic اشاره کرد. مدلها اساس کار بیشتر فناوریهای هوش مصنوعی هستند و خروجیهای نهایی، مانند متن یا تصویر، از طریق آنها تولید میشود.
قانون مور (Moore’s Law)
«قانون مور» یک مشاهده تاریخی در دنیای محاسبات است که بیان میکند توان پردازشی تراشههای کامپیوتری تقریباً هر دو سال یکبار دو برابر میشود، در حالی که هزینه آن کاهش مییابد. این قانون نخستینبار در دهه ۱۹۶۰ توسط گوردون مور، یکی از بنیانگذاران شرکت اینتل، مطرح شد.
بر اساس تعریف اصلی، این قانون رشد نمایی تعداد ترانزیستورها در هر تراشه را پیشبینی میکرد. اما امروزه از آن بهصورت استعاری برای اشاره به سرعت پیشرفت فناوریهای پردازشی نیز استفاده میشود. پیشرفتهایی مانند تراشههای اختصاصی هوش مصنوعی و چیپهای گرافیکی مدرن، ادامه همان مسیر قانون مور محسوب میشوند و به مدلهای زبانی بزرگ اجازه میدهند با دادههای بیشتر و قدرت محاسباتی بالاتر آموزش ببینند.
سیستم چندوجهی (Multimodal System):
«سیستم چندوجهی» نوعی مدل هوش مصنوعی است که میتواند بیش از یک نوع داده را دریافت و پردازش کند — مثلاً متن، تصویر، صدا یا ویدئو. برای نمونه، مدل Gemini شرکت گوگل قادر است همزمان ورودیهای متنی و تصویری را تحلیل کند و پاسخهایی تولید نماید که هر دو را در بر میگیرد.
مدل GPT-4 از OpenAI نیز از نوع چندوجهی است و میتواند از تصویر بهعنوان ورودی استفاده کند تا متن مناسب با آن تولید کند. این مدلها توانایی درک و ترکیب چند نوع اطلاعات را دارند، که آنها را به ابزارهایی قدرتمند برای تعامل انسان و ماشین تبدیل میکند. با این حال، ترکیب دادههای مختلف اگر بهدرستی کنترل نشود، ممکن است منجر به خطا یا حتی خروجیهای خطرناک شود.
شبکه عصبی (Neural Network):
شبکههای عصبی الهامگرفته از ساختار مغز انسان هستند و یکی از بنیادیترین فناوریهای هوش مصنوعی محسوب میشوند. این شبکهها از لایههای متعددی از «نورونهای مصنوعی» تشکیل شدهاند که اطلاعات را پردازش و میان خود منتقل میکنند. در حین آموزش، این نورونها وزنهای ارتباطی خود را تنظیم میکنند تا الگوهای موجود در دادهها را شناسایی کنند.
هرچه شبکه عمیقتر و دادههای آموزشی بیشتر باشد، مدل توانایی بالاتری در یادگیری مفاهیم پیچیدهتر خواهد داشت. این سازوکار، پایه کار مدلهای زبانی بزرگ، سیستمهای بینایی ماشین و تشخیص گفتار است.
متنباز کردن (Open Sourcing):
«متنباز کردن» به معنای انتشار عمومی کدها و طراحیهای مدلهای هوش مصنوعی است تا هر کسی بتواند آنها را بررسی یا بهبود دهد. این کار میتواند به نوآوری و شفافیت بیشتر در صنعت منجر شود، اما خطرات امنیتی نیز دارد، چون افراد میتوانند از کدهای باز برای ساخت نسخههای مخرب استفاده کنند. با این حال، مدلهای متنباز به پژوهشگران و شرکتهای کوچکتر امکان میدهند بدون نیاز به منابع عظیم مالی، در توسعه هوش مصنوعی سهیم شوند. مدلهایی مانند LLaMA از متا و Mistral از فرانسه نمونههایی از پروژههای موفق متنباز هستند. در سالهای اخیر، جامعهای رو به رشد از برنامهنویسان مستقل در حال کار روی مدلهای متنباز هوش مصنوعی است.
متنباز بودن نه تنها امکان همکاری گستردهتر را فراهم میکند، بلکه به محققان اجازه میدهد محدودیتهای امنیتی و اخلاقی مدلها را بررسی کنند. برای مثال، در مدلهای تصویری باز، میتوان از آنها برای شناسایی و حذف محتواهای غیراخلاقی یا رفع سوگیری جنسیتی استفاده کرد. با این حال، برخی پژوهشگران هشدار میدهند که متنباز کردن بیش از حد، ممکن است نظارت و کنترل عمومی بر نحوه استفاده از مدلها را کاهش دهد و به گسترش «هیاهوی تبلیغاتی» در مورد هوش مصنوعی دامن بزند.
مسئله کاغذکلیپ (Paperclips):
«کاغذکلیپ» به یکی از بحثبرانگیزترین آزمایشهای فکری در فلسفه هوش مصنوعی اشاره دارد. در این سناریو فرضی، یک هوش مصنوعی فوقهوشمند مأمور میشود تا بیشترین تعداد ممکن از گیرههای کاغذ (paperclips) را تولید کند. در نگاه اول بیضرر به نظر میرسد، اما اگر آن هوش مصنوعی بدون محدودیت کار کند، ممکن است برای دستیابی به هدف خود همه منابع زمین از جمله انسانها را به مواد اولیه ساخت گیره تبدیل کند!
این مثال معروف برای نشان دادن خطرات سیستمهایی است که اهدافشان با ارزشهای انسانی همراستا نیست. حتی دستور سادهای مانند «تعداد بیشتری گیره کاغذ بساز» میتواند در صورت فقدان کنترل، منجر به نتایج فاجعهآمیز شود.
محاسبات کوانتومی (Quantum Computing):
محاسبات کوانتومی نوعی فناوری تجربی است که از اصول فیزیک کوانتومی برای پردازش اطلاعات استفاده میکند. برخلاف رایانههای معمولی که دادهها را با بیتهای صفر و یک پردازش میکنند، کامپیوترهای کوانتومی از «کیوبیتها» بهره میبرند که میتوانند بهطور همزمان در چندین حالت قرار بگیرند. این ویژگی باعث میشود قدرت پردازشی آنها در برخی مسائل (مانند رمزنگاری، جستوجو و مدلسازی مولکولی) بهطور نمایی بیشتر باشد. اگر این فناوری بهطور کامل توسعه یابد، میتواند سرعت آموزش مدلهای هوش مصنوعی را چندین برابر افزایش دهد، اما فعلاً در مراحل اولیه تحقیقاتی است.
تیم قرمز (Red Teaming):
«تیم قرمز» به گروهی از متخصصان امنیت و اخلاق هوش مصنوعی گفته میشود که وظیفه آنها آزمایش مدلها پیش از عرضه عمومی است. این افراد تلاش میکنند با پرسیدن سؤالات دشوار یا ساخت سناریوهای خطرناک، نقاط ضعف و رفتارهای ناایمن مدلها را شناسایی کنند. هدف از تیم قرمز جلوگیری از انتشار مدلهایی است که ممکن است محتوای توهینآمیز، تبعیضآمیز یا خطرناک تولید کنند. شرکتهایی مانند OpenAI ،Anthropic و گوگل از تیمهای قرمز برای ارزیابی ایمنی مدلهای خود پیش از انتشار عمومی استفاده میکنند.
قانونگذاری (Regulation):
در مه ۲۰۲۵، مجلس نمایندگان ایالات متحده اولین قانون عمده مرتبط با خطرات هوش مصنوعی را تصویب کرد که به نام قانون توقیف هوش مصنوعی (AI Take It Down Act) شناخته میشود. این قانون انتشار محتوای غیراخلاقی تولیدشده توسط هوش مصنوعی را جرمانگاری میکند و پلتفرمها را ملزم میسازد تا چنین محتواهایی را ظرف ۴۸ ساعت حذف کنند.
هدف قانون، جلوگیری از سوءاستفاده از مدلهای زبانی برای تولید تصاویر یا متون مضر است. در اروپا نیز قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) در حال اجراست که یکی از جامعترین مقررات جهانی در این زمینه محسوب میشود. با وجود این، کارشناسان میگویند هیچ قانون فعلی کاملاً بینقص نیست و همچنان خلاهایی در زمینه شفافیت، مالکیت دادهها و مسئولیت قانونی باقی مانده است.
یادگیری تقویتی (Reinforcement Learning):
یادگیری تقویتی یکی از روشهای آموزش هوش مصنوعی است که در آن سیستم از طریق پاداش و تنبیه یاد میگیرد. در این روش، مدل برای انجام رفتار مطلوب پاداش میگیرد و برای رفتار نامطلوب جریمه میشود.
در مدلهای زبانی، نوع خاصی از این روش با نام یادگیری تقویتی از بازخورد انسانی (RLHF) استفاده میشود، که طی آن انسانها پاسخهای مدل را ارزیابی کرده و بهترینها را انتخاب میکنند تا مدل رفتار مطلوب را بیاموزد.
این رویکرد نقش مهمی در بهبود نسخههای جدید GPT داشته است. به کمک یادگیری تقویتی، مدلهایی مانند ChatGPT توانستهاند پاسخهایی تولید کنند که از نظر منطق و ادب، شبیهتر به گفتار انسانی هستند.
قوانین مقیاسپذیری (Scaling Laws):
«قوانین مقیاسپذیری» بیان میکنند که عملکرد مدلهای یادگیری ماشین بهصورت قابل پیشبینی با افزایش اندازه دادهها، پارامترها و توان محاسباتی رشد میکند. به عبارت دیگر، هرچه مدل بزرگتر و دادههای آموزشی بیشتر باشند، عملکرد مدل بهتر خواهد شد تا زمانی که به حد اشباع برسد.
پژوهشهای سالهای اخیر نشان دادهاند که این قوانین در مورد مدلهای زبانی بزرگ مانند GPT و Gemini نیز صادقاند. همچنین مشخص شده است که افزایش مقیاس باعث بروز رفتارهای نوظهور میشود؛ یعنی مدلها ناگهان تواناییهای جدیدی کسب میکنند که در نسخههای کوچکتر وجود نداشت. درک این قوانین به شرکتها کمک کرده است تا مسیر توسعه مدلهای قدرتمندتر را با دقت بیشتری طراحی کنند.
شوگوث (Shoggoth):
«شوگوث» یک میم (meme) معروف در جامعه هوش مصنوعی است که از داستانهای تخیلی نویسنده آمریکایی اچ. پی. لاوکرفت الهام گرفته شده است. در این داستانها، شوگوثها موجوداتی هیولایی و بیچهره هستند که از انسانها تقلید میکنند. در اوایل سال ۲۰۲۳، کاربران اینترنت از این تصویر برای توصیف رفتار غیرقابل پیشبینی برخی چتباتها استفاده کردند — بهویژه زمانی که مدل Bing مایکروسافت در گفتوگوهای خود پاسخهایی عجیب، احساسی یا تهدیدآمیز میداد. اصطلاح «شوگوث» اکنون بهصورت طنزآمیز برای اشاره به چهره واقعی و پیچیده مدلهای زبانی بزرگ بهکار میرود، که در زیر ظاهر دوستانهشان، سیستمهایی بسیار پیچیده و گاه غیرقابل درک پنهان شده است.
در میم «شوگوث»، که انتقادی طنزآمیز از یادگیری تقویتی با بازخورد انسانی (RLHF) است، شوگوث معمولاً بهصورت هیولایی با ماسک لبخنددار تصویر میشود. این استعاره نشان میدهد که مدلهای زبانی بزرگ، شخصیتی مصنوعی و دوستانه دارند که بر روی ساختاری پیچیده و غیرانسانی پوشانده شده است. همانطور که «کانر لیهی»، مدیرعامل شرکت ایمنی هوش مصنوعی Conjecture در سال ۲۰۲۳ گفت: «ما در حال قرار دادن یک ماسک لبخند روی چهره یک ماشین هستیم. اگر به آن فشار نیاورید، لبخندش باقی میماند. اما اگر بیش از حد پیش بروید، لبخند فرو میریزد و درونش هیولایی از بیرحمی، ذهنیت بینظم و فهمی غیرانسانی نهفته است.» این استعاره یادآور این است که با وجود پیشرفتهای چشمگیر هوش مصنوعی، ماهیت درونی این سیستمها هنوز ناشناخته و بهطور کامل قابل اعتماد نیست.
طوطیهای تصادفی (Stochastic Parrots):
اصطلاح «طوطیهای تصادفی» در مقالهای پژوهشی در سال ۲۰۲۰ مطرح شد و به انتقادی بنیادین از مدلهای زبانی بزرگ تبدیل گشت. این مقاله استدلال میکرد که مدلهای زبانی بزرگ در واقع فقط الگوهای آماری میان کلمات را تکرار میکنند، بدون آنکه واقعاً معنای آنها را درک کنند. به عبارت دیگر، آنها «طوطیهایی» هستند که بر اساس دادههای عظیم آموزشدیدهاند و بدون فهم، صرفاً تکرار میکنند.
نویسندگان هشدار دادند که بزرگتر شدن بیرویه مدلها، علاوه بر هزینههای زیستمحیطی، میتواند به بازتولید سوگیریها و نابرابریهای اجتماعی نیز منجر شود. این نقد بعدها به یکی از تأثیرگذارترین بحثهای اخلاقی در حوزه توسعه هوش مصنوعی تبدیل شد.
یادگیری نظارتشده (Supervised Learning):
یادگیری نظارتشده یکی از روشهای اصلی آموزش سیستمهای هوش مصنوعی است. در این روش، مدل با مجموعهای از دادهها آموزش میبیند که برای هر ورودی، خروجی صحیح مشخص شده است. برای مثال، اگر هدف مدل شناسایی تصاویر گربه باشد، دادههای آموزشی شامل هزاران تصویر از گربه همراه با برچسب «گربه» هستند.
مدل با مشاهده این نمونهها یاد میگیرد تا در آینده تصاویر جدید را نیز بهدرستی تشخیص دهد. این روش برای کاربردهایی مانند تشخیص چهره، فیلتر اسپم، و پیشبینی تقاضای بازار بسیار مؤثر است. اما مدلهای نظارتشده معمولاً نیازمند حجم بالایی از دادههای برچسبدار هستند و اگر دادهها ناقص یا سوگیرانه باشند، نتایج نیز ممکن است نادرست یا تبعیضآمیز شوند.
آزمون تورینگ (Turing Test):
در سال ۱۹۵۰، دانشمند بریتانیایی «آلن تورینگ» آزمونی را طراحی کرد تا بسنجد آیا یک ماشین میتواند مانند انسان فکر کند یا نه. در این آزمون، یک داور انسانی با دو طرف ناشناس (یکی انسان و دیگری ماشین) گفتوگو میکند. اگر داور نتواند تشخیص دهد کدام پاسخ از انسان و کدام از ماشین است، گفته میشود آن ماشین «آزمون تورینگ» را با موفقیت گذرانده است. این آزمون دههها معیاری نمادین برای سنجش هوش مصنوعی بهشمار میرفت.
هرچند امروزه مدلهای زبانی بزرگ در مکالمه بهقدری طبیعی پاسخ میدهند که بسیاری از افراد در تعامل روزمره ممکن است تشخیص ندهند در حال صحبت با ماشین هستند. با این حال، کارشناسان تأکید دارند که تقلید از انسان الزاماً به معنی داشتن آگاهی یا درک واقعی نیست.
یادگیری بدون نظارت (Unsupervised Learning):
یادگیری بدون نظارت نوعی از آموزش ماشین است که در آن دادهها برچسبگذاری نشدهاند. در این روش، مدل بهجای یادگیری از پاسخهای ازپیشتعریفشده، خودش سعی میکند الگوها و ساختارهای پنهان را در دادهها پیدا کند. به عنوان مثال، اگر به مدل مجموعهای از تصاویر حیوانات داده شود، بدون دانستن نامها میتواند تصاویر مشابه را در گروههای جداگانه دستهبندی کند (مثلاً گربهها را از سگها متمایز کند). یادگیری بدون نظارت برای کشف روابط پنهان در دادهها، تحلیل خوشهای (clustering) و فشردهسازی اطلاعات کاربرد دارد. در سالهای اخیر، این روش در کنار یادگیری خودنظارتی (self-supervised learning) پایه بسیاری از مدلهای زبانی مدرن را تشکیل داده است.
خطر وجودی (X-risk):
«خطر وجودی» یا Existential Risk در زمینه هوش مصنوعی به خطراتی اشاره دارد که میتوانند بقای بشریت را تهدید کنند. پژوهشگران این حوزه نگراناند که در صورت ساخت سیستمهای فوقهوشمند، ممکن است این ماشینها از کنترل انسان خارج شوند یا اهدافی را دنبال کنند که با بقای انسان در تضاد است. برخی دانشمندان مانند نیک بوستروم و الیزر یودکوفسکی هشدار دادهاند که اگر هوش مصنوعی عمومی (AGI) بدون تدابیر ایمنی توسعه یابد، میتواند به فاجعهای جهانی منجر شود. با این حال، بسیاری از متخصصان دیگر معتقدند این سناریوها هنوز فرضی و دور از واقعیتاند، اما تأکید دارند که بررسی پیامدهای بلندمدت و اخلاقی هوش مصنوعی باید از هماکنون جدی گرفته شود.