Knowledge distillation

Knowledge distillation (dịch thô là Chưng cất tri ​thức) là phương pháp nén mô hình trong đó một mô hình nhỏ được huấn luyện để bắt chước mô hình lớn hơn được huấn luyện trước đó.

Bạn muốn trích dẫn bài này:
-----
"Knowledge distillation," Trí tuệ nhân tạo, Ngày xuất bản: 18/05/2020, URL: https://trituenhantao.io/tu-dien-thuat-ngu/knowledge-distillation/, Ngày truy cập: 29/05/2020.



Về trituenhantao.io

Trituenhantao.io là trang web chia sẻ thông tin, kiến thức, kinh nghiệm học tập và triển khai các chương trình và dự án sử dụng trí tuệ nhân tạo trên thế giới.
Xem tất cả các bài viết của trituenhantao.io →