در سالهای اخیر، مدلهای زبانی بزرگ به ابزارهایی قدرتمند در پردازش زبان طبیعی تبدیل شدهاند. با این حال، تنظیم کامل[1] این مدلها برای وظایف خاص بهدلیل مقیاس بزرگ، نیازمند منابع محاسباتی بسیار زیاد است. برای کاهش بار محاسباتی و بهینهسازی مصرف حافظه، مجموعهای از روشهای تنظیم کارآمد پارامتر[2] (یا PEFT) توسعه یافتهاند که تنها بخشی از مدل را آموزش میدهند یا پارامترهای اضافی کوچکی به آن اضافه میکنند. این روشها نه تنها حافظه و زمان آموزش را کاهش میدهند، بلکه امکان تنظیم مدلهای بسیار بزرگ را در دستگاههایی با منابع محدود فراهم میسازند.
در ادامه، روشهای رایج تنظیم مدلهای زبانی شامل Full Fine-tuning، LoRA، Adapter Tuning، Prefix Tuning و Prompt Tuning بهاختصار معرفی و مقایسه میشوند.
- Full Fine-tuning
در تنظیم کامل، کلیه پارامترهای مدل روی دادههای جدید بازآموزی میشوند. این روش، بالاترین کیفیت تطبیق با دادهها را دارد و بیشترین دقت را ارائه میدهد. اما در عین حال، به دلیل نیاز به ذخیره و پردازش تمام وزنها، به منابع سختافزاری بسیار قدرتمند نیاز دارد. همچنین، برای هر وظیفه جدید باید یک نسخه کامل از مدل ذخیره شود که از نظر حافظه و مقیاسپذیری ناکارآمد است.
- LoRA( Low-Rank Adaptation(
LoRA یکی از موفقترین روشهای PEFT است که با افزودن دو ماتریس کمرتبه به وزنهای مدل، تغییرات لازم را اعمال میکند. در این روش، پارامترهای مدل اصلی ثابت باقی میمانند و تنها ماتریسهای کمحجم یادگیری میشوند. به همین دلیل، LoRA با وجود مصرف بسیار پایین منابع، عملکردی همتراز با تنظیم کامل ارائه میدهد. یکی از مزیت های این روش آموزش، این مورد است که می توان برای ترکیب کردن LoRA های متفاوت بر روی آنها عملیات ریاضی انجام داد.
- Adapter Tuning
در این روش، ماژولهای کوچکی به نام آداپتور بین لایههای مدل اضافه میشوند. فقط این ماژولها آموزش داده شده و وزنهای اصلی مدل بدون تغییر باقی میمانند. مزیت اصلی این روش، امکان استفاده مشترک از مدل پایه برای چندین وظیفه و ذخیره تنها وزنهای آداپتور برای هر وظیفه است. آداپتورها تعادل خوبی میان کارایی، حافظه و دقت ایجاد میکنند.
- Prefix Tuning
در تنظیم پیشوندی، تعدادی بردار قابلآموزش به عنوان “پیشوند” به ورودی هر لایه مدل تزریق میشوند. این پیشوندها بدون تغییر در وزنهای اصلی مدل، میتوانند رفتار شبکه را برای وظیفه خاصی تغییر دهند. این روش در مدلهای بسیار بزرگ، عملکردی نزدیک به تنظیم کامل دارد، اما پیادهسازی آن به مداخله در ساختار لایهها نیاز دارد.
- Prompt Tuning
در سادهترین روش تنظیم، تنها چند بردار به ابتدای ورودی مدل اضافه میشوند که در طی آموزش، مقدار آنها تنظیم میگردد. این توکنهای مجازی باعث هدایت مدل به سمت انجام وظیفه خاص میشوند. روش Prompt Tuning بسیار سبک است و به هیچگونه تغییر در ساختار مدل نیاز ندارد، اما عملکرد آن در مدلهای کوچکتر معمولاً پایینتر از سایر روشهاست.
جدول مقایسه روشها
| روش | درصد پارامترهای آموزشپذیر | مصرف حافظه | دقت نهایی | پیچیدگی پیادهسازی | سرعت آموزش | مناسب برای |
| Full Fine-tuning | بسیار بالا (~100٪) | بسیار زیاد | بسیار بالا (معیار) | ساده | پایین | زمانی که منابع محاسباتی کافی در دسترس است |
| LoRA | بسیار کم (~0.1٪ یا کمتر) | پایین | بسیار خوب | متوسط | بالا | مدلهای بزرگ، تنظیم روی داده خصوصی |
| Adapter Tuning | کم (~1–5٪) | پایین | خوب تا بسیار خوب | متوسط | بالا | وظایف چندگانه، محیطهای محدود از نظر حافظه |
| Prefix Tuning | بسیار کم (~0.1–0.3٪) | کم تا متوسط | خوب تا عالی | نسبتاً پیچیده | بالا | مدلهای بسیار بزرگ، وظایف تولید متن |
| Prompt Tuning | بسیار کم (~0.01٪) | بسیار پایین | متوسط (وابسته به مدل) | بسیار ساده | بسیار بالا | تنظیم سبک، مدلهای بزرگ، داده کم |
[1] Full Fine-tuning
[2] Parameter-Efficient Fine-Tuning
