Knowledge distillation

« Quay trở lại Từ điển

Knowledge distillation (dịch thô là Chưng cất tri ​thức) là phương pháp nén mô hình trong đó một mô hình nhỏ được huấn luyện để bắt chước mô hình lớn hơn được huấn luyện trước đó.

Bạn muốn trích dẫn bài này:
-----
"Knowledge distillation," Trí tuệ nhân tạo, Ngày xuất bản: 18/05/2020, URL: https://trituenhantao.io/tu-dien-thuat-ngu/knowledge-distillation/, Ngày truy cập: 24/04/2024.
« Quay trở lại Từ điển