چرا Transformer از RNN بهتر است؟

AUتحریریه
۱۴۰۴/۰۷/۱۲
6 دقیقه مطالعه
Transformer برخلاف RNN توالی‌ها را به‌صورت موازی پردازش می‌کند، بنابراین سریع‌تر و مقیاس‌پذیرتر است. همچنین با Self-Attention می‌تواند وابستگی‌های طولانی را دقیق‌تر مدل کند.
برای مشاهدهٔ ادامه، خرید کنید
دسترسی سریع و فوری
راهنمای معماری Transformer و BERT
مقدمه
مدل‌های Transformer پایه‌گذار نسل جدید هوش مصنوعی هستند. از ترجمه ماشینی تا ChatGPT، همه بر اساس همین معماری ساخته شده‌اند. در این کتابچه یاد می‌گیری سازوکار Transformer، مکانیزم Attention و مدل معروف BERT چگونه کار می‌کنند.
دسترسی سریع پس از خرید

دسترسی سریع پس از خرید