Transformer در سال ۲۰۱۷ معرفی شد و بهجای استفاده از RNN، از مکانیزم توجه برای پردازش دادههای ترتیبی بهره میبرد. این مدل میتواند وابستگیهای بلندمدت را بدون نیاز به توالی زمانی حفظ کند و موازیسازی را ممکن سازد.
برای مشاهدهٔ ادامه، خرید کنید
دسترسی سریع و فوری
