Site icon Trí tuệ nhân tạo

Multi-headed attention

« Quay trở lại Từ điển

Là cơ chế sử dụng nhiều đầu self-attention để có thể học ra những tầng ý nghĩa khác nhau của các tổ hợp tạo bởi các từ trong câu.

« Quay trở lại Từ điển
Exit mobile version