Encoder و Decoder چه نقشی دارند؟

AUتحریریه
۱۴۰۴/۰۷/۱۲
6 دقیقه مطالعه
Transformer از دو بخش Encoder و Decoder تشکیل شده است. Encoder ورودی را پردازش و ویژگی‌ها را استخراج می‌کند، در حالی که Decoder از آن برای تولید خروجی استفاده می‌کند. در ترجمه ماشینی، این ساختار فوق‌العاده مؤثر است.
برای مشاهدهٔ ادامه، خرید کنید
دسترسی سریع و فوری
راهنمای معماری Transformer و BERT
مقدمه
مدل‌های Transformer پایه‌گذار نسل جدید هوش مصنوعی هستند. از ترجمه ماشینی تا ChatGPT، همه بر اساس همین معماری ساخته شده‌اند. در این کتابچه یاد می‌گیری سازوکار Transformer، مکانیزم Attention و مدل معروف BERT چگونه کار می‌کنند.
دسترسی سریع پس از خرید

دسترسی سریع پس از خرید