Multi-headed attention

Là cơ chế sử dụng nhiều đầu self-attention để có thể học ra những tầng ý nghĩa khác nhau của các tổ hợp tạo bởi các từ trong câu.

Bạn muốn trích dẫn bài này:
-----
"Multi-headed attention," Trí tuệ nhân tạo, Ngày xuất bản: 24/12/2019, URL: https://trituenhantao.io/tu-dien-thuat-ngu/multi-headed-attention/, Ngày truy cập: 01/04/2020.



Về trituenhantao.io

Trituenhantao.io là trang web chia sẻ thông tin, kiến thức, kinh nghiệm học tập và triển khai các chương trình và dự án sử dụng trí tuệ nhân tạo trên thế giới.
Xem tất cả các bài viết của trituenhantao.io →