O'z-o'ziga e'tibor qanday ishlaydi?
O'z-o'ziga e'tibor qanday ishlaydi?

Video: O'z-o'ziga e'tibor qanday ishlaydi?

Video: O'z-o'ziga e'tibor qanday ishlaydi?
Video: Avtomobilni o’zi yuvadiganlar diqqatiga 2024, May
Anonim

Oddiy til bilan aytganda, o'zini - diqqat mexanizm kirishlarning bir-biri bilan o'zaro ta'siriga imkon beradi (" o'zini ”) va kimga ko'proq to'lash kerakligini bilib oling diqqat (" diqqat ”). Chiqishlar bor bu o'zaro ta'sirlarning yig'indisi va diqqat ball.

Shuningdek, o'z-o'ziga e'tibor nima?

O'zini - diqqat , ba'zan ichki deb ataladi diqqat hisoblanadi diqqat ketma-ketlikning tasvirini hisoblash uchun bitta ketma-ketlikning turli pozitsiyalarini bog'laydigan mexanizm.

Bundan tashqari, chuqur o'rganishda o'ziga e'tibor nima? Birinchidan, nimani aniqlaymiz " o'zini - Diqqat ”dir. Cheng va boshqalar o'zlarining maqolalarida "Uzoq qisqa muddatli xotira uchun tarmoqlar Mashina O'qish" deb belgilangan o'zini - Diqqat yanada yorqinroq tasavvurga ega bo'lish uchun bitta ketma-ketlik yoki jumlaning turli pozitsiyalarini bog'lash mexanizmi sifatida.

Bu borada Diqqat mexanizmi nima?

Diqqat mexanizmi dekoderga chiqish ishlab chiqarishning har bir bosqichida manba jumlaning turli qismlariga qatnashish imkonini beradi. Kirish ketma-ketligini bitta sobit kontekst vektoriga kodlash o'rniga, biz modelga har bir chiqish vaqti uchun kontekst vektorini yaratishni o'rganishga imkon beramiz.

Diqqatga asoslangan model nima?

Diqqat - asoslangan modellar sinfiga kiradi modellar odatda ketma-ketlik deb ataladi modellar . Bularning maqsadi modellar , nomidan ko'rinib turibdiki, u, odatda, turli uzunlikdagi kirish ketma-ketligi berilgan chiqish ketma-ketligini ishlab chiqarish uchun.

Tavsiya: