Là cơ chế sử dụng nhiều đầu self-attention để có thể học ra những tầng ý nghĩa khác nhau của các tổ hợp tạo bởi các từ trong câu.
Bạn muốn trích dẫn bài này:
-----
« Back to Glossary Index -----
"Multi-headed attention," Trí tuệ nhân tạo, Ngày xuất bản: 24/12/2019, URL: https://trituenhantao.io/glossary/multi-headed-attention/, Ngày truy cập: 01/04/2023.