Distillation (có thể dịch với cụm từ hoa mỹ là Chưng cất tri thức) là một kỹ thuật nén mô hình, theo đó một mạng nơ ron nhỏ (student – học sinh) được huấn luyện bởi một mạng lớn hơn (teacher – giáo viên).
Bạn muốn trích dẫn bài này:
-----
« Quay trở lại Từ điển -----
"distillation," Trí tuệ nhân tạo, Ngày xuất bản: 29/04/2020, URL: https://trituenhantao.io/tu-dien-thuat-ngu/distillation/, Ngày truy cập: 23/09/2023.