مطالعه‌ای تطبیقی درباره تولید پرسش عصبی و مدل‌های زبانی در مقیاس بزرگ
کد مقاله : 1031-CYSP2025 (R1)
نویسندگان
علی کریمی *
دانشگاه آزاد اسلامی
چکیده مقاله
تولید خودکار پرسش (QG) و مدل‌های زبانی از پیش‌آموزش‌دیده در مقیاس بزرگ (LMs) دو مسیر غالب در NLP برای ساخت پرسش‌های آموزشی‌اند. پژوهش QG از الگوهای قاعده‌محور به شبکه‌های عصبی گذار کرده و اکنون بر کنترل دشواری، پاسخ‌پذیری و تنوع تمرکز دارد [Kurdi2019, Srikanth2020]. پیشرفت‌های اخیر شامل برچسب‌گذاری دشواریِ صریح [Du2017, D19-5821]، یادگیری تقویتی برای موازنهٔ روانی/ارتباط [P17-1123] و تولید چندپرسشی با هدف اثر آموزشی بیشتر است [2022.bea-1.26].
در موازات، LMs مانند GPT-2، T5 و BART با پیش‌آموزش وسیع بر WebText، C4 و Wikipedia در سناریوهای بی‌نمونه و ریزتنظیم‌شده نتایج برجسته‌ای در SQuAD و GLUE/SuperGLUE کسب کرده‌اند [Radford2019, Raffel2020, Lewis2020, Rajpurkar2016].
این مقاله مقایسه‌ای نظام‌مند بین این دو خط انجام می‌دهد: معماری‌ها (رمزگذار–رمزگشا در برابر صرفاً رمزگشا)، اهداف پیش‌آموزش (علّی، نویززدایی، متن‌به‌متن) و منابع داده؛ سپس ظرفیت آن‌ها برای کنترل‌پذیری، تبیین‌پذیری و مقیاس‌پذیری سنجیده می‌شود.
یافته‌ها نشان می‌دهد سامانه‌های تخصصی QG در کنترل ریزدانه (مانند دشواری‌آگاهی) و هم‌سوسازی با اهداف درسی برترند؛ در مقابل، LMs تعمیم‌پذیری، انتقال میان‌وظیفه‌ای و تاب‌آوری بهتری عرضه می‌کنند و نیاز به مهندسی ویژهٔ وظیفه را کاهش می‌دهند.
جمع‌بندی، وجود یک مبادلهٔ پایدار میان تبیین‌پذیری و مقیاس‌پذیری را برجسته می‌کند و مسیر آینده را ادغامِ کنترل دشواری و نشانه‌گذاری اهداف آموزشی درون LMs (یا اعمال کنترلرهای بیرونی به‌کمک پرامپت/تنظیم سبک) می‌داند؛ رویکردی که سودمندی آموزشی را با توان مولد ترنسفورمرهای مدرن پیوند می‌زند.
کلیدواژه ها
تولید خودکار پرسش، مدل‌های زبانی بزرگ، کنترل دشواریِ پرسش، یادگیری تقویتی، یادگیری تقویتی برای تولید خودکار پرسش، تولید چندپرسشی و تنوعِ پاسخ‌پذیری، ترنسفورمرِ رمزگذار–رمزگشا، ترنسفورمر صرفا رمزگشا، پارادایم متن‌به‌متن، تبیین‌پذیری در برابر مقیاس‌پذیری، تعیین دشوار، روان‌سنجی، پرامپت‌دهی و تنظیم دستورالعمل
وضعیت: پذیرفته شده برای ارائه شفاهی