راه پرداخت
رسانه فناوری‌های مالی ایران

آشنایی با واژه‌نامه اصطلاحات هوش مصنوعی از a تا z

با گسترش روزافزون هوش مصنوعی در جهان امروز، گم‌شدن در دریایی از اصطلاحات تخصصی آسان است؛ اما درست همین حالا ضروری‌تر از همیشه است که مسیر خود را در این حوزه پیدا کنیم. هوش مصنوعی در چند سال آینده اثر بزرگی بر بازار کار خواهد گذاشت و هم‌زمان، بحث‌های جدی درباره نقش آن در سیاست‌گذاری و مقررات‌گذاری جریان دارد؛ در چنین فضایی، دانستن مفاهیم پایه‌ای که هرگز در مدارس آموزش نداده‌اند از «فشار رقابتی» تا «هم‌ترازی» اهمیتی دوچندان می‌یابد. به‌روز ماندن دشوار است، چون پژوهش‌ها پیچیده‌اند و حتی برای دانشمندان نیز زبان مشترک همیشه روشن نیست؛ بااین‌حال همان‌طور که درباره تغییرات اقلیمی و اینترنت گفت‌وگو کرده‌ایم، می‌توانیم درباره هوش مصنوعی هم دقیق صحبت کنیم. این واژه‌نامه اصطلاحات هوش مصنوعی که توسط مجله تایم گردآوری شده است، راهنمایی جامع برای آشنایی با مهم‌ترین مفاهیم این حوزه به‌شمار می‌آید. اگر تازه‌کار هستید یا حتی پیش‌تر با مفاهیمی چون AGI یا GPT آشنا شده‌اید، این واژه‌نامه برای یاری شما در درک قدرت، وعده‌ها و خطرات هوش مصنوعی طراحی شده است.


هوش مصنوعی عمومی (AGI):

هوش مصنوعی عمومی یا AGI به نوعی فناوری گفته می‌شود که می‌تواند بیشتر وظایف اقتصادی و فکری را کارآمدتر از انسان انجام دهد. چنین فناوری‌ای ممکن است قادر باشد کشفیات علمی تازه‌ای انجام دهد یا ایده‌های بهتری پیشنهاد کند. در حال حاضر وجود ندارد، اما پژوهشگران باور دارند که در چند سال آینده به وجود خواهد آمد. میس هَسابیس، برنده جایز نوبل ۲۰۲۴ در گفت‌وگو با مجله‌ تایم گفته است که اگر AGI به‌درستی و با مسئولیت توسعه یابد، می‌تواند مفیدترین فناوری اختراع‌شده توسط بشر باشد، هرچند که یکی از دشوارترین چالش‌ها این است که اطمینان حاصل شود انسان همچنان کنترل این سیستم‌ها را در دست دارد، آن‌ها را درک و تفسیر می‌کند و حفاظ‌هایی ایجاد می‌کند که خودِ AGI نتواند آن‌ها را از بین ببرد.


هم‌ترازی (Alignment):

مشکل هم‌ترازی یکی از اساسی‌ترین و دشوارترین چالش‌های بلندمدت در حوزه ایمنی هوش مصنوعی است. هوش مصنوعی فعلی هنوز نمی‌تواند بر طراحان خود غلبه کند، اما بسیاری از پژوهشگران باور دارند در آینده چنین قابلیتی را خواهد داشت. روش‌های فعلی آموزش هوش مصنوعی ممکن است باعث شوند این سیستم‌ها، در پی اهدافی دلخواه یا راهبردهایی قدرت‌طلبانه، به انسان آسیب برسانند.

برای جلوگیری از این خطر، پژوهشگران تلاش می‌کنند هوش مصنوعی را با ارزش‌های انسانی «هم‌تراز» کنند. اما این کار دشوار است، زیرا ارزش‌های انسان‌ها بسیار متفاوت‌اند و حتی خود افراد نیز همیشه ارزش‌هایشان را به‌درستی نمی‌شناسند. در نتیجه، بسیاری از شرکت‌های بزرگ فعال در زمینه هوش مصنوعی هم‌ترازی را در اولویت دوم قرار داده‌اند و بیشتر تمرکزشان بر افزایش توانایی‌های فنی سیستم‌هایشان است.


خودکارسازی (Automation):

«خودکارسازی» به فرایند تاریخی جایگزینی کار انسانی با ماشین‌ها اشاره دارد. در گذشته، ماشین‌ها بیشتر برای انجام کارهای فیزیکی تکراری استفاده می‌شدند، اما امروزه با ظهور هوش مصنوعی، این روند به کارهای فکری نیز گسترش یافته است. برای نمونه، بسیاری از وظایف اداری یا خدماتی هم‌اکنون توسط نرم‌افزارهای هوشمند انجام می‌شود. پژوهش‌ها نشان می‌دهد که در سال‌های آینده، کارکنان اداری و متخصصان بیشتر از کارگران کارخانه‌ها در معرض جایگزینی با هوش مصنوعی قرار دارند.

گزارش سال ۲۰۲۳ شرکت OpenAI و دانشگاه پنسیلوانیا پیش‌بینی کرد که تا ۸۰ درصد از نیروی کار ایالات متحده به نوعی تحت تأثیر مدل‌های زبانی بزرگ قرار خواهند گرفت و حدود ۲۰ درصد از مشاغل به‌شدت متحول خواهند شد. سیاست‌گذاران جهان باید تصمیم بگیرند که چگونه این فناوری را قانون‌گذاری و مالیات‌گذاری کنند.


سوگیری (Bias):

وقتی خروجی‌های یک سیستم یادگیری ماشینی به‌طور ناعادلانه یا تبعیض‌آمیز منحرف می‌شوند، گفته می‌شود آن سیستم دارای «سوگیری» است. برای مثال، برخی الگوریتم‌های پیش‌بینی مجازات در آمریکا برای مجرمان سیاه‌پوست، احکام سنگین‌تری نسبت به مجرمان سفیدپوست صادر کرده‌اند، حتی زمانی که جرم مشابه بوده است. همچنین، نرم‌افزارهای تشخیص چهره معمولاً در شناسایی چهره‌های سفید عملکرد بهتری نسبت به چهره‌های سیاه دارند. علت اصلی این مشکل در داده‌هایی است که سیستم‌ها با آن آموزش دیده‌اند؛ داده‌هایی که نابرابری‌های اجتماعی را بازتاب می‌دهند.


چت‌بات (Chatbot):

«چت‌بات‌ها» رابط‌هایی هستند که توسط شرکت‌های هوش مصنوعی طراحی شده‌اند تا کاربران بتوانند با مدل‌های زبانی بزرگ (LLM) گفت‌وگو کنند. این چت‌بات‌ها مکالمه‌ای طبیعی و شبیه انسان را شبیه‌سازی می‌کنند و می‌توانند به سؤالات پاسخ دهند یا در نوشتن، برنامه‌نویسی و آموزش کمک کنند. از مشهورترین نمونه‌ها می‌توان به ChatGPT از OpenAI، جمینای (Gemini) از گوگل و کلود (Claude) از Anthropic اشاره کرد.

با وجود کاربردهای مفید، این سیستم‌ها گاهی اطلاعات اشتباه یا ساختگی تولید می‌کنند پدیده‌ای که پژوهشگران آن را «توهم» می‌نامند. چت‌بات‌ها همچنین ممکن است تعصبات موجود در داده‌های آموزشی خود را تکرار کنند و آنها را در پاسخ‌هایشان بازتولید کنند.


فشار رقابتی (Competitive Pressure):

امروزه بسیاری از بزرگ‌ترین شرکت‌های فناوری جهان، به‌همراه استارتاپ‌های پرسرمایه، در رقابتی شدید برای عرضه سریع‌تر و پیشرفته‌تر سیستم‌های هوش مصنوعی شرکت دارند. این رقابت فشرده باعث می‌شود شرکت‌ها با شتاب زیاد محصولاتی را منتشر کنند تا توجه بازار و سرمایه‌گذاران را جلب کنند.

اما همین عجله می‌تواند منجر به تصمیم‌های خطرناک و کاهش دقت در مسائل ایمنی و اخلاقی شود. پژوهشگران و سیاست‌گذاران هشدار داده‌اند که چنین فشاری ممکن است عواقب فاجعه‌باری در پی داشته باشد. در عین حال، اگر این رقابت به‌درستی هدایت شود، می‌تواند به نوآوری بیشتر و پیشرفت عمومی جامعه منجر شود.


قدرت محاسباتی (Compute):

در دنیای هوش مصنوعی، «محاسبه» یا قدرت پردازشی یکی از عوامل اصلی محدودکننده در آموزش سیستم‌های یادگیری ماشین است. هرچه توان محاسباتی سخت‌افزار مانند CPU و GPU بیشتر باشد، مدل‌های یادگیری ماشین می‌توانند داده‌های بیشتری را پردازش کرده و سریع‌تر آموزش ببینند. افزایش قدرت محاسباتی در سال‌های اخیر، یکی از مهم‌ترین دلایل رشد چشمگیر مدل‌های زبانی بزرگ بوده است. منظور از «قدرت محاسباتی» همان منبعی است که شبکه‌های عصبی مصنوعی هنگام «یادگیری» الگوها در داده‌های آموزشی از آن استفاده می‌کنند. به‌طور کلی، هرچه توان پردازشی بیشتری برای آموزش یک مدل زبانی بزرگ به‌کار رود، عملکرد آن مدل در وظایف مختلف بهتر خواهد بود. مدل‌های هوش مصنوعی مدرن به مقادیر عظیمی از توان محاسباتی و انرژی الکتریکی برای آموزش نیاز دارند.

در حالی که شرکت‌ها معمولاً جزئیات دقیق هزینه‌های انرژی مدل‌های خود را فاش نمی‌کنند، پژوهشگران مستقل تخمین زده‌اند که آموزش مدل GPT-3 متعلق به شرکت OpenAI، معادل انتشار حدود ۳۵۰ تن دی‌اکسیدکربن در جو زمین بوده است. با بزرگ‌تر شدن مدل‌ها، این عدد افزایش می‌یابد، زیرا توان محاسباتی مورد نیاز برای آموزش مدل‌ها با اندازه آن‌ها رشد می‌کند. در حال حاضر، پیشرفته‌ترین چیپ‌های مخصوص آموزش مدل‌های زبانی، محصول شرکت DeepSeek چین هستند. در ژانویه ۲۰۲۵، یک استارتاپ چینی اعلام کرد مدلی را آموزش داده است که تنها با یک‌دهم توان محاسباتیِ مدل‌های پیشرفته آمریکایی کار می‌کند، اما بازدهی مشابه دارد.


پخش (Diffusion):

ابزارهای تولید تصویر مانند DALL·E و Stable Diffusion بر پایه فرآیندی به نام «پخش» یا Diffusion ساخته شده‌اند.این مدل‌ها تصاویر را بر اساس داده‌های تصویری عظیمی که از اینترنت گردآوری شده‌اند، آموزش می‌بینند. در این فرآیند، مدل می‌آموزد چگونه الگوهای نویز تصادفی را با الگوهای تصویری واقعی جایگزین کند تا بتواند تصویر جدیدی از ترکیب آنچه آموخته ایجاد کند. به‌طور ساده، مدل ابتدا از یک بوم سفید و نویزدار شروع می‌کند و به‌تدریج با حذف نویز، تصویری معنادار خلق می‌کند درست مانند ظاهر شدن عکس در تاریکخانه. مدل‌های پخش امروزی می‌توانند تصاویری با کیفیت بالا از متن ساده‌ای مانند «سگی که کلاه قرمز بر سر دارد» تولید کنند. با این حال، بسیاری از این مدل‌ها با استفاده از آثار هنرمندان واقعی آموزش داده می‌شوند، که باعث نگرانی‌های حقوقی در زمینه مالکیت معنوی شده است. در سال ۲۰۲۴، چندین هنرمند از شرکت‌های توسعه‌دهنده مدل‌های پخش به دلیل استفاده از آثارشان بدون اجازه شکایت کردند. علاوه بر این، پژوهشگران درباره استفاده این فناوری برای تولید محتوای جعلی یا نامناسب، مانند تصاویر غیراخلاقی یا تبلیغات گمراه‌کننده، هشدار داده‌اند.


داده (Data):

«داده» اساساً ماده خامی است که برای ساخت هوش مصنوعی به‌کار می‌رود. همراه با «قدرت محاسباتی» و «شبکه‌های عصبی»، داده یکی از سه مؤلفه حیاتی برای آموزش سیستم‌های یادگیری ماشین است. حجم عظیمی از داده‌ها که به آن‌ها مجموعه‌داده گفته می‌شود از منابع اینترنتی گردآوری شده و برای آموزش مدل‌ها مورد استفاده قرار می‌گیرد. هرچه داده بیشتری در اختیار مدل باشد، پیش‌بینی‌ها و خروجی‌های آن دقیق‌تر خواهد بود.

اما این داده‌ها همیشه خنثی یا بی‌خطر نیستند. بسیاری از مجموعه‌داده‌ها شامل محتوای دارای حق‌کپی، اطلاعات شخصی، یا حتی مطالب غیراخلاقی و خشونت‌آمیز هستند. اگر این داده‌ها پیش از آموزش پاک‌سازی نشوند، مدل‌های هوش مصنوعی می‌توانند ناخواسته محتوایی تولید کنند که ناقض قوانین کپی‌رایت یا مروج تبعیض باشد. برای نمونه، مدل‌های تصویری مانند DALL·E یا Stable Diffusion گاهی از آثار هنرمندان واقعی برای تولید تصاویر جدید استفاده می‌کنند، بدون اینکه نام یا اجازه صاحب اثر لحاظ شود. به همین دلیل، کنترل و پاک‌سازی داده‌ها پیش از آموزش یکی از مراحل حیاتی در توسعه ایمن هوش مصنوعی به شمار می‌رود.


برچسب‌گذاری داده (Data Labeling):

در بسیاری از پروژه‌های یادگیری ماشین، انسان‌ها باید داده‌ها را برچسب‌گذاری کنند تا مدل بتواند آنها را بیاموزد. به عنوان مثال، اگر مدلی قرار است چهره‌ها را شناسایی کند، به مجموعه‌ای از تصاویر با برچسب‌هایی مانند «لبخند»، «چشم باز» یا «کلاه» نیاز دارد. کارگران انسانی این برچسب‌ها را معمولاً از طریق پلتفرم‌های آنلاین وارد می‌کنند، اغلب با دستمزد پایین و شرایط کاری دشوار. در برخی موارد، این افراد ناچارند تصاویر خشونت‌آمیز یا آزاردهنده را برای فیلترکردن مشاهده کنند که می‌تواند تأثیر روانی منفی شدیدی بر آن‌ها داشته باشد.

در سال‌های اخیر، شرکت‌هایی مانند OpenAI و Meta اعلام کرده‌اند که تلاش کرده‌اند شرایط کاری این افراد را بهبود دهند. همچنین، شرکت‌ها برای جلوگیری از مشکلات اخلاقی، از پیمانکارانی استفاده می‌کنند که داده‌ها را بررسی و پاک‌سازی می‌کنند تا محتوای نامناسب به مدل‌ها نرسد.


قابلیت‌های نوظهور (Emergent Capabilities):

وقتی یک مدل زبانی بزرگ آموزش داده می‌شود، گاهی قابلیت‌هایی از خود نشان می‌دهد که برنامه‌ریزان آن را پیش‌بینی نکرده بودند. به این پدیده «قابلیت‌های نوظهور» گفته می‌شود. برای مثال، ممکن است مدلی که برای ترجمه متن آموزش دیده است، ناگهان توانایی نوشتن شعر یا حل مسائل منطقی را نیز پیدا کند. هرچه مدل‌ها بزرگ‌تر و داده‌های آموزشی آن‌ها بیشتر می‌شود، رفتارهای غیرمنتظره‌تری از آن‌ها بروز می‌کند.

در پژوهشی در سال ۲۰۲۴، محققان دریافتند که نسخه‌های بزرگ‌تر GPT-4 به‌طور ناگهانی توانایی درک تفاوت‌های طنز و کنایه در گفتار انسان را پیدا کرده‌اند، در حالی که نسخه‌های کوچک‌تر چنین قابلیتی نداشتند. این ویژگی‌ها می‌توانند هم مفید و هم خطرناک باشند زیرا اگر رفتار پیش‌بینی‌نشده‌ای رخ دهد، ممکن است باعث بروز خطا یا حتی آسیب شود. برخی کارشناسان هشدار می‌دهند که قابلیت‌های نوظهور می‌توانند نشانه‌ای از شکل‌گیری نوعی «هوشیاری مصنوعی» باشند، در حالی که دیگران این ایده را رد می‌کنند و آن را صرفاً نتیجه مقیاس عظیم داده‌ها می‌دانند.


قابلیت توضیح‌پذیری (Explainability):

حتی برای خودِ سازندگان مدل‌های زبانی بزرگ، توضیح رفتار این سیستم‌ها کار ساده‌ای نیست. وقتی یک مدل هوش مصنوعی پاسخی تولید می‌کند، به‌ندرت می‌توان دقیقاً گفت چرا آن پاسخ را انتخاب کرده است. از این رو، حوزه‌ای به نام «توضیح‌پذیری» در پژوهش‌های هوش مصنوعی شکل گرفته است که هدف آن روشن کردن منطق درونی مدل‌هاست.

پژوهشگران سعی دارند بفهمند شبکه‌های عصبی در هر مرحله چه الگوهایی را تشخیص می‌دهند و چگونه تصمیم می‌گیرند. این موضوع نه تنها برای بهبود عملکرد مدل‌ها مهم است، بلکه برای اطمینان از رفتار اخلاقی و ایمن آن‌ها نیز حیاتی است. بدون توضیح‌پذیری، ممکن است هوش مصنوعی تصمیم‌هایی بگیرد که انسان‌ها قادر به درک یا پیش‌بینی آن نباشند. به همین دلیل، بسیاری از متخصصان خواستار شفافیت بیشتر در مورد نحوه عملکرد مدل‌های زبانی شده‌اند.


مدل زبانی بزرگ (Large Language Model):

وقتی مردم درباره پیشرفت‌های هوش مصنوعی صحبت می‌کنند، معمولاً منظورشان «مدل‌های زبانی بزرگ» است که به اختصار LLM نامیده می‌شوند. مدل‌هایی مانند GPT-4 از OpenAI یا Gemini از گوگل از شناخته‌شده‌ترین نمونه‌ها هستند. این مدل‌ها با استفاده از حجم عظیمی از داده‌های متنی که بیشتر از اینترنت گردآوری شده‌اند آموزش می‌بینند. مدل‌های زبانی بزرگ الگوهای میان واژه‌ها را شناسایی می‌کنند و بر اساس آن‌ها یاد می‌گیرند چگونه متنی منسجم بنویسند یا گفت‌وگویی طبیعی برقرار کنند.

هرچه داده‌های آموزشی بیشتر و توان محاسباتی قوی‌تر باشد، این مدل‌ها عملکرد دقیق‌تر و متنوع‌تری خواهند داشت. کاربرد اصلی آن‌ها تولید یا خلاصه‌سازی متن، پاسخ به پرسش‌ها و ترجمه خودکار است. چت‌بات‌هایی مانند ChatGPT، Gemini و Bing به کاربران اجازه می‌دهند با این مدل‌ها مستقیماً تعامل کنند. با وجود قابلیت‌های چشمگیر، مدل‌های زبانی بزرگ در معرض خطاهایی مانند سوگیری (Bias) و توهم (Hallucination) نیز هستند.


لابی‌گری (Lobbying):

مانند بسیاری از صنایع دیگر، شرکت‌های هوش مصنوعی نیز از لابی‌گرها برای تأثیرگذاری بر قانون‌گذاران و سیاست‌مداران استفاده می‌کنند. هدف از این کار معمولاً شکل‌دهی به مقررات مربوط به هوش مصنوعی به نفع منافع تجاری آن‌هاست. برای نمونه، در آوریل ۲۰۲۵، مجلس نمایندگان آمریکا لایحه‌ای را تصویب کرد که استفاده برخی از داده‌های آموزشی را محدود می‌کرد، اما پس از فشار شرکت‌های فناوری بزرگ، بخش‌هایی از قانون تغییر یافت. منتقدان می‌گویند چنین نفوذی ممکن است مقررات حفاظتی را تضعیف کند و خطرات هوش مصنوعی را نادیده بگیرد.

به جای حمایت از قوانین اخلاقی، برخی شرکت‌ها از اصطلاحاتی مانند «استفاده مسئولانه از داده‌ها» برای توجیه فعالیت‌های خود استفاده می‌کنند. در ژانویه ۲۰۲۳، زمانی که OpenAIآمازون، متا، مایکروسافت و گوگل با حضور ایلان ماسک و چند مدیر دیگر در کاخ سفید برای بحث درباره «استانداردهای اخلاقی» دعوت شدند، منتقدان این رویداد را تلاشی برای کنترل قانون‌گذاری توسط خودِ صنعت دانستند.


یادگیری ماشین (Machine Learning):

«یادگیری ماشین» شاخه‌ای از هوش مصنوعی است که به سیستم‌ها اجازه می‌دهد بدون برنامه‌ریزی مستقیم، از داده‌ها بیاموزند. در این روش، الگوریتم‌ها از الگوهای آماری برای پیش‌بینی یا تصمیم‌گیری استفاده می‌کنند.

سیستم یادگیری ماشین به‌جای پیروی از مجموعه‌ای از قوانین ازپیش‌تعریف‌شده، با مشاهده داده‌ها و نتایج به مرور زمان یاد می‌گیرد. مدل‌ها می‌توانند تحت نظارت انسان آموزش ببینند (یادگیری نظارت‌شده)، یا از طریق تجربه و پاداش یاد بگیرند (یادگیری تقویتی). این حوزه زیربنای بیشتر پیشرفت‌های هوش مصنوعی مدرن است.


مدل (Model)

واژه «مدل» در هوش مصنوعی به هر نوع سیستم یادگیری اشاره دارد چه مدل‌های پایه‌ای باشند که مدل‌های دیگر بر اساس آن‌ها ساخته می‌شوند، و چه مدل‌های خاصی که برای یک کار معین طراحی شده‌اند. برای مثال، ChatGPT و GPT-4 از OpenAI، مدل‌های پایه محسوب می‌شوند. از دیگر نمونه‌ها می‌توان به Gemini از گوگل و LaMDA، Bing مایکروسافت و Claude از Anthropic اشاره کرد. مدل‌ها اساس کار بیشتر فناوری‌های هوش مصنوعی هستند و خروجی‌های نهایی، مانند متن یا تصویر، از طریق آن‌ها تولید می‌شود.


قانون مور (Moore’s Law)

«قانون مور» یک مشاهده تاریخی در دنیای محاسبات است که بیان می‌کند توان پردازشی تراشه‌های کامپیوتری تقریباً هر دو سال یک‌بار دو برابر می‌شود، در حالی که هزینه آن کاهش می‌یابد. این قانون نخستین‌بار در دهه ۱۹۶۰ توسط گوردون مور، یکی از بنیان‌گذاران شرکت اینتل، مطرح شد.

بر اساس تعریف اصلی، این قانون رشد نمایی تعداد ترانزیستورها در هر تراشه را پیش‌بینی می‌کرد. اما امروزه از آن به‌صورت استعاری برای اشاره به سرعت پیشرفت فناوری‌های پردازشی نیز استفاده می‌شود. پیشرفت‌هایی مانند تراشه‌های اختصاصی هوش مصنوعی و چیپ‌های گرافیکی مدرن، ادامه همان مسیر قانون مور محسوب می‌شوند و به مدل‌های زبانی بزرگ اجازه می‌دهند با داده‌های بیشتر و قدرت محاسباتی بالاتر آموزش ببینند.


سیستم چندوجهی (Multimodal System):

«سیستم چندوجهی» نوعی مدل هوش مصنوعی است که می‌تواند بیش از یک نوع داده را دریافت و پردازش کند — مثلاً متن، تصویر، صدا یا ویدئو. برای نمونه، مدل Gemini شرکت گوگل قادر است هم‌زمان ورودی‌های متنی و تصویری را تحلیل کند و پاسخ‌هایی تولید نماید که هر دو را در بر می‌گیرد.

مدل GPT-4 از OpenAI نیز از نوع چندوجهی است و می‌تواند از تصویر به‌عنوان ورودی استفاده کند تا متن مناسب با آن تولید کند. این مدل‌ها توانایی درک و ترکیب چند نوع اطلاعات را دارند، که آن‌ها را به ابزارهایی قدرتمند برای تعامل انسان و ماشین تبدیل می‌کند. با این حال، ترکیب داده‌های مختلف اگر به‌درستی کنترل نشود، ممکن است منجر به خطا یا حتی خروجی‌های خطرناک ‌شود.


شبکه عصبی (Neural Network):

شبکه‌های عصبی الهام‌گرفته از ساختار مغز انسان هستند و یکی از بنیادی‌ترین فناوری‌های هوش مصنوعی محسوب می‌شوند. این شبکه‌ها از لایه‌های متعددی از «نورون‌های مصنوعی» تشکیل شده‌اند که اطلاعات را پردازش و میان خود منتقل می‌کنند. در حین آموزش، این نورون‌ها وزن‌های ارتباطی خود را تنظیم می‌کنند تا الگوهای موجود در داده‌ها را شناسایی کنند.

هرچه شبکه عمیق‌تر و داده‌های آموزشی بیشتر باشد، مدل توانایی بالاتری در یادگیری مفاهیم پیچیده‌تر خواهد داشت. این سازوکار، پایه کار مدل‌های زبانی بزرگ، سیستم‌های بینایی ماشین و تشخیص گفتار است.


متن‌باز کردن (Open Sourcing):

«متن‌باز کردن» به معنای انتشار عمومی کدها و طراحی‌های مدل‌های هوش مصنوعی است تا هر کسی بتواند آن‌ها را بررسی یا بهبود دهد. این کار می‌تواند به نوآوری و شفافیت بیشتر در صنعت منجر شود، اما خطرات امنیتی نیز دارد، چون افراد می‌توانند از کدهای باز برای ساخت نسخه‌های مخرب استفاده کنند. با این حال، مدل‌های متن‌باز به پژوهشگران و شرکت‌های کوچک‌تر امکان می‌دهند بدون نیاز به منابع عظیم مالی، در توسعه هوش مصنوعی سهیم شوند. مدل‌هایی مانند LLaMA از متا و Mistral از فرانسه نمونه‌هایی از پروژه‌های موفق متن‌باز هستند. در سال‌های اخیر، جامعه‌ای رو به رشد از برنامه‌نویسان مستقل در حال کار روی مدل‌های متن‌باز هوش مصنوعی است.

متن‌باز بودن نه تنها امکان همکاری گسترده‌تر را فراهم می‌کند، بلکه به محققان اجازه می‌دهد محدودیت‌های امنیتی و اخلاقی مدل‌ها را بررسی کنند. برای مثال، در مدل‌های تصویری باز، می‌توان از آن‌ها برای شناسایی و حذف محتواهای غیراخلاقی یا رفع سوگیری جنسیتی استفاده کرد. با این حال، برخی پژوهشگران هشدار می‌دهند که متن‌باز کردن بیش از حد، ممکن است نظارت و کنترل عمومی بر نحوه استفاده از مدل‌ها را کاهش دهد و به گسترش «هیاهوی تبلیغاتی» در مورد هوش مصنوعی دامن بزند.


مسئله کاغذکلیپ (Paperclips):
«کاغذکلیپ» به یکی از بحث‌برانگیزترین آزمایش‌های فکری در فلسفه هوش مصنوعی اشاره دارد. در این سناریو فرضی، یک هوش مصنوعی فوق‌هوشمند مأمور می‌شود تا بیشترین تعداد ممکن از گیره‌های کاغذ (paperclips) را تولید کند. در نگاه اول بی‌ضرر به نظر می‌رسد، اما اگر آن هوش مصنوعی بدون محدودیت کار کند، ممکن است برای دستیابی به هدف خود همه منابع زمین از جمله انسان‌ها را به مواد اولیه ساخت گیره تبدیل کند!

این مثال معروف برای نشان دادن خطرات سیستم‌هایی است که اهدافشان با ارزش‌های انسانی هم‌راستا نیست. حتی دستور ساده‌ای مانند «تعداد بیشتری گیره کاغذ بساز» می‌تواند در صورت فقدان کنترل، منجر به نتایج فاجعه‌آمیز شود.


محاسبات کوانتومی (Quantum Computing):

محاسبات کوانتومی نوعی فناوری تجربی است که از اصول فیزیک کوانتومی برای پردازش اطلاعات استفاده می‌کند. برخلاف رایانه‌های معمولی که داده‌ها را با بیت‌های صفر و یک پردازش می‌کنند، کامپیوترهای کوانتومی از «کیوبیت‌ها» بهره می‌برند که می‌توانند به‌طور هم‌زمان در چندین حالت قرار بگیرند. این ویژگی باعث می‌شود قدرت پردازشی آن‌ها در برخی مسائل (مانند رمزنگاری، جست‌وجو و مدل‌سازی مولکولی) به‌طور نمایی بیشتر باشد. اگر این فناوری به‌طور کامل توسعه یابد، می‌تواند سرعت آموزش مدل‌های هوش مصنوعی را چندین برابر افزایش دهد، اما فعلاً در مراحل اولیه تحقیقاتی است.


تیم قرمز (Red Teaming):

«تیم قرمز» به گروهی از متخصصان امنیت و اخلاق هوش مصنوعی گفته می‌شود که وظیفه آن‌ها آزمایش مدل‌ها پیش از عرضه عمومی است. این افراد تلاش می‌کنند با پرسیدن سؤالات دشوار یا ساخت سناریوهای خطرناک، نقاط ضعف و رفتارهای ناایمن مدل‌ها را شناسایی کنند. هدف از تیم قرمز جلوگیری از انتشار مدل‌هایی است که ممکن است محتوای توهین‌آمیز، تبعیض‌آمیز یا خطرناک تولید کنند. شرکت‌هایی مانند OpenAI ،Anthropic و گوگل از تیم‌های قرمز برای ارزیابی ایمنی مدل‌های خود پیش از انتشار عمومی استفاده می‌کنند.


قانون‌گذاری (Regulation):

در مه ۲۰۲۵، مجلس نمایندگان ایالات متحده اولین قانون عمده مرتبط با خطرات هوش مصنوعی را تصویب کرد که به نام قانون توقیف هوش مصنوعی (AI Take It Down Act) شناخته می‌شود. این قانون انتشار محتوای غیراخلاقی تولیدشده توسط هوش مصنوعی را جرم‌انگاری می‌کند و پلتفرم‌ها را ملزم می‌سازد تا چنین محتواهایی را ظرف ۴۸ ساعت حذف کنند.

هدف قانون، جلوگیری از سوءاستفاده از مدل‌های زبانی برای تولید تصاویر یا متون مضر است. در اروپا نیز قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) در حال اجراست که یکی از جامع‌ترین مقررات جهانی در این زمینه محسوب می‌شود. با وجود این، کارشناسان می‌گویند هیچ قانون فعلی کاملاً بی‌نقص نیست و همچنان خلاهایی در زمینه شفافیت، مالکیت داده‌ها و مسئولیت قانونی باقی مانده است.


یادگیری تقویتی (Reinforcement Learning):

یادگیری تقویتی یکی از روش‌های آموزش هوش مصنوعی است که در آن سیستم از طریق پاداش و تنبیه یاد می‌گیرد. در این روش، مدل برای انجام رفتار مطلوب پاداش می‌گیرد و برای رفتار نامطلوب جریمه می‌شود.
در مدل‌های زبانی، نوع خاصی از این روش با نام یادگیری تقویتی از بازخورد انسانی (RLHF) استفاده می‌شود، که طی آن انسان‌ها پاسخ‌های مدل را ارزیابی کرده و بهترین‌ها را انتخاب می‌کنند تا مدل رفتار مطلوب را بیاموزد.

این رویکرد نقش مهمی در بهبود نسخه‌های جدید GPT داشته است. به کمک یادگیری تقویتی، مدل‌هایی مانند ChatGPT توانسته‌اند پاسخ‌هایی تولید کنند که از نظر منطق و ادب، شبیه‌تر به گفتار انسانی هستند.


قوانین مقیاس‌پذیری (Scaling Laws):

«قوانین مقیاس‌پذیری» بیان می‌کنند که عملکرد مدل‌های یادگیری ماشین به‌صورت قابل پیش‌بینی با افزایش اندازه داده‌ها، پارامترها و توان محاسباتی رشد می‌کند. به عبارت دیگر، هرچه مدل بزرگ‌تر و داده‌های آموزشی بیشتر باشند، عملکرد مدل بهتر خواهد شد تا زمانی که به حد اشباع برسد.

پژوهش‌های سال‌های اخیر نشان داده‌اند که این قوانین در مورد مدل‌های زبانی بزرگ مانند GPT و Gemini نیز صادق‌اند. همچنین مشخص شده است که افزایش مقیاس باعث بروز رفتارهای نوظهور می‌شود؛ یعنی مدل‌ها ناگهان توانایی‌های جدیدی کسب می‌کنند که در نسخه‌های کوچک‌تر وجود نداشت. درک این قوانین به شرکت‌ها کمک کرده است تا مسیر توسعه مدل‌های قدرتمندتر را با دقت بیشتری طراحی کنند.


شوگوث (Shoggoth):

«شوگوث» یک میم (meme) معروف در جامعه هوش مصنوعی است که از داستان‌های تخیلی نویسنده آمریکایی اچ. پی. لاوکرفت الهام گرفته شده است. در این داستان‌ها، شوگوث‌ها موجوداتی هیولایی و بی‌چهره هستند که از انسان‌ها تقلید می‌کنند. در اوایل سال ۲۰۲۳، کاربران اینترنت از این تصویر برای توصیف رفتار غیرقابل پیش‌بینی برخی چت‌بات‌ها استفاده کردند — به‌ویژه زمانی که مدل Bing مایکروسافت در گفت‌وگوهای خود پاسخ‌هایی عجیب، احساسی یا تهدیدآمیز می‌داد. اصطلاح «شوگوث» اکنون به‌صورت طنزآمیز برای اشاره به چهره واقعی و پیچیده مدل‌های زبانی بزرگ به‌کار می‌رود، که در زیر ظاهر دوستانه‌شان، سیستم‌هایی بسیار پیچیده و گاه غیرقابل درک پنهان شده است.

در میم «شوگوث»، که انتقادی طنزآمیز از یادگیری تقویتی با بازخورد انسانی (RLHF) است، شوگوث معمولاً به‌صورت هیولایی با ماسک لبخنددار تصویر می‌شود. این استعاره نشان می‌دهد که مدل‌های زبانی بزرگ، شخصیتی مصنوعی و دوستانه دارند که بر روی ساختاری پیچیده و غیرانسانی پوشانده شده است. همان‌طور که «کانر لیهی»، مدیرعامل شرکت ایمنی هوش مصنوعی Conjecture در سال ۲۰۲۳ گفت: «ما در حال قرار دادن یک ماسک لبخند روی چهره یک ماشین هستیم. اگر به آن فشار نیاورید، لبخندش باقی می‌ماند. اما اگر بیش از حد پیش بروید، لبخند فرو می‌ریزد و درونش هیولایی از بی‌رحمی، ذهنیت بی‌نظم و فهمی غیرانسانی نهفته است.» این استعاره یادآور این است که با وجود پیشرفت‌های چشمگیر هوش مصنوعی، ماهیت درونی این سیستم‌ها هنوز ناشناخته و به‌طور کامل قابل اعتماد نیست.


طوطی‌های تصادفی (Stochastic Parrots):

اصطلاح «طوطی‌های تصادفی» در مقاله‌ای پژوهشی در سال ۲۰۲۰ مطرح شد و به انتقادی بنیادین از مدل‌های زبانی بزرگ تبدیل گشت. این مقاله استدلال می‌کرد که مدل‌های زبانی بزرگ در واقع فقط الگوهای آماری میان کلمات را تکرار می‌کنند، بدون آنکه واقعاً معنای آن‌ها را درک کنند. به عبارت دیگر، آن‌ها «طوطی‌هایی» هستند که بر اساس داده‌های عظیم آموزش‌دیده‌اند و بدون فهم، صرفاً تکرار می‌کنند.

نویسندگان هشدار دادند که بزرگ‌تر شدن بی‌رویه مدل‌ها، علاوه بر هزینه‌های زیست‌محیطی، می‌تواند به بازتولید سوگیری‌ها و نابرابری‌های اجتماعی نیز منجر شود. این نقد بعدها به یکی از تأثیرگذارترین بحث‌های اخلاقی در حوزه توسعه هوش مصنوعی تبدیل شد.


یادگیری نظارت‌شده (Supervised Learning):

یادگیری نظارت‌شده یکی از روش‌های اصلی آموزش سیستم‌های هوش مصنوعی است. در این روش، مدل با مجموعه‌ای از داده‌ها آموزش می‌بیند که برای هر ورودی، خروجی صحیح مشخص شده است. برای مثال، اگر هدف مدل شناسایی تصاویر گربه باشد، داده‌های آموزشی شامل هزاران تصویر از گربه همراه با برچسب «گربه» هستند.

مدل با مشاهده این نمونه‌ها یاد می‌گیرد تا در آینده تصاویر جدید را نیز به‌درستی تشخیص دهد. این روش برای کاربردهایی مانند تشخیص چهره، فیلتر اسپم، و پیش‌بینی تقاضای بازار بسیار مؤثر است. اما مدل‌های نظارت‌شده معمولاً نیازمند حجم بالایی از داده‌های برچسب‌دار هستند و اگر داده‌ها ناقص یا سوگیرانه باشند، نتایج نیز ممکن است نادرست یا تبعیض‌آمیز شوند.


آزمون تورینگ (Turing Test):

در سال ۱۹۵۰، دانشمند بریتانیایی «آلن تورینگ» آزمونی را طراحی کرد تا بسنجد آیا یک ماشین می‌تواند مانند انسان فکر کند یا نه. در این آزمون، یک داور انسانی با دو طرف ناشناس (یکی انسان و دیگری ماشین) گفت‌وگو می‌کند. اگر داور نتواند تشخیص دهد کدام پاسخ از انسان و کدام از ماشین است، گفته می‌شود آن ماشین «آزمون تورینگ» را با موفقیت گذرانده است. این آزمون دهه‌ها معیاری نمادین برای سنجش هوش مصنوعی به‌شمار می‌رفت.

هرچند امروزه مدل‌های زبانی بزرگ در مکالمه به‌قدری طبیعی پاسخ می‌دهند که بسیاری از افراد در تعامل روزمره ممکن است تشخیص ندهند در حال صحبت با ماشین هستند. با این حال، کارشناسان تأکید دارند که تقلید از انسان الزاماً به معنی داشتن آگاهی یا درک واقعی نیست.


یادگیری بدون نظارت (Unsupervised Learning):

یادگیری بدون نظارت نوعی از آموزش ماشین است که در آن داده‌ها برچسب‌گذاری نشده‌اند. در این روش، مدل به‌جای یادگیری از پاسخ‌های ازپیش‌تعریف‌شده، خودش سعی می‌کند الگوها و ساختارهای پنهان را در داده‌ها پیدا کند. به عنوان مثال، اگر به مدل مجموعه‌ای از تصاویر حیوانات داده شود، بدون دانستن نام‌ها می‌تواند تصاویر مشابه را در گروه‌های جداگانه دسته‌بندی کند (مثلاً گربه‌ها را از سگ‌ها متمایز کند). یادگیری بدون نظارت برای کشف روابط پنهان در داده‌ها، تحلیل خوشه‌ای (clustering) و فشرده‌سازی اطلاعات کاربرد دارد. در سال‌های اخیر، این روش در کنار یادگیری خودنظارتی (self-supervised learning) پایه بسیاری از مدل‌های زبانی مدرن را تشکیل داده است.


خطر وجودی (X-risk):

«خطر وجودی» یا Existential Risk در زمینه هوش مصنوعی به خطراتی اشاره دارد که می‌توانند بقای بشریت را تهدید کنند. پژوهشگران این حوزه نگران‌اند که در صورت ساخت سیستم‌های فوق‌هوشمند، ممکن است این ماشین‌ها از کنترل انسان خارج شوند یا اهدافی را دنبال کنند که با بقای انسان در تضاد است. برخی دانشمندان مانند نیک بوستروم و الیزر یودکوفسکی هشدار داده‌اند که اگر هوش مصنوعی عمومی (AGI) بدون تدابیر ایمنی توسعه یابد، می‌تواند به فاجعه‌ای جهانی منجر شود. با این حال، بسیاری از متخصصان دیگر معتقدند این سناریوها هنوز فرضی و دور از واقعیت‌اند، اما تأکید دارند که بررسی پیامدهای بلندمدت و اخلاقی هوش مصنوعی باید از هم‌اکنون جدی گرفته شود.

منبع time
نویسنده همکار بیلی پریگو
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.