Multi-headed attention

« Quay trở lại Từ điển

Là cơ chế sử dụng nhiều đầu self-attention để có thể học ra những tầng ý nghĩa khác nhau của các tổ hợp tạo bởi các từ trong câu.

Bạn muốn trích dẫn bài này:
-----
"Multi-headed attention," Trí tuệ nhân tạo, Ngày xuất bản: 24/12/2019, URL: https://trituenhantao.io/tu-dien-thuat-ngu/multi-headed-attention/, Ngày truy cập: 13/04/2024.
« Quay trở lại Từ điển