Là cơ chế sử dụng nhiều đầu self-attention để có thể học ra những tầng ý nghĩa khác nhau của các tổ hợp tạo bởi các từ trong câu.
Bạn muốn trích dẫn bài này:
-----
« Quay trở lại Từ điển -----
"Multi-headed attention," Trí tuệ nhân tạo, Ngày xuất bản: 24/12/2019, URL: https://trituenhantao.io/tu-dien-thuat-ngu/multi-headed-attention/, Ngày truy cập: 07/06/2023.