distillation

Distillation (có thể dịch với cụm từ hoa mỹ là Chưng cất tri thức) là một kỹ thuật nén mô hình, theo đó một mạng nơ ron nhỏ (student – học sinh) được huấn luyện bởi một mạng lớn hơn (teacher – giáo viên).

Bạn muốn trích dẫn bài này:
-----
"distillation," Trí tuệ nhân tạo, Ngày xuất bản: 29/04/2020, URL: https://trituenhantao.io/tu-dien-thuat-ngu/distillation/, Ngày truy cập: 29/05/2020.



Về trituenhantao.io

Trituenhantao.io là trang web chia sẻ thông tin, kiến thức, kinh nghiệm học tập và triển khai các chương trình và dự án sử dụng trí tuệ nhân tạo trên thế giới.
Xem tất cả các bài viết của trituenhantao.io →