Transformer برخلاف RNN توالیها را بهصورت موازی پردازش میکند، بنابراین سریعتر و مقیاسپذیرتر است. همچنین با Self-Attention میتواند وابستگیهای طولانی را دقیقتر مدل کند.
برای مشاهدهٔ ادامه، خرید کنید
دسترسی سریع و فوری
راهنمای معماری Transformer و BERT
مقدمه
مدلهای Transformer پایهگذار نسل جدید هوش مصنوعی هستند. از ترجمه ماشینی تا ChatGPT، همه بر اساس همین معماری ساخته شدهاند. در این کتابچه یاد میگیری سازوکار Transformer، مکانیزم Attention و مدل معروف BERT چگونه کار میکنند.