Jednosměrná pozornost

Jednosměrná pozornost, známá také jako kauzální nebo maskovaná pozornost, je specifickou variantou mechanismu pozornosti, která omezuje tok informací pouze jedním směrem. Při výpočtu kontextové reprezentace pro daný prvek v sekvenci se model může ohlížet pouze na předchozí prvky a na prvek samotný, nikoli na ty následující. Technicky se toto omezení implementuje pomocí masky, která efektivně nuluje váhy pozornosti pro všechny budoucí pozice v sekvenci. Tento přístup je základním stavebním kamenem autoregresivních modelů, zejména Dekodér„>Dekodérů v architektuře Transformer, jelikož zajišťuje kauzalitu – predikce budoucího prvku závisí výhradně na informacích z minulosti.


Představte si, že píšete větu slovo po slovu. Když se rozhodujete, jaké bude čtvrté slovo, můžete se podívat na první tři slova, která jste již napsali. Nemůžete se ale podívat na páté nebo šesté slovo, protože ta ještě neexistují. Jednosměrná pozornost nutí umělou inteligenci pracovat přesně tímto způsobem. Při generování textu jí dovoluje „ohlédnout se“ na začátek věty, ale striktně jí zakazuje „nahlížet do budoucnosti“, kterou teprve tvoří. Tím je zajištěno, že model postupuje logicky a nevymýšlí si na základě informací, které by v reálné situaci neměl k dispozici.