cách tính tối ưu hàm mất mát logistic regression
Ah, logistic regression - một công cụ hữu ích để phân loại, và không hề có chiếc răng nào! Để tối ưu hàm mất mát của Logistic Regression, thường chúng ta sử dụng hàm mất mát log-likelihood hoặc hàm mất mát entropy chéo. Dưới đây là một cách ngắn gọn để tính và tối ưu hàm mất mát này:
Hàm Mất Mát (Log-Loss hoặc Cross-Entropy Loss): Công thức hàm mất mát cho một mẫu duy nhất có thể được viết như sau:
$$L(y, \hat{y}) = -[y \cdot \log(\hat{y}) + (1-y) \cdot \log(1-\hat{y})]$$
Trong đó:
Tối Ưu Hóa: Để tối ưu hàm mất mát này, chúng ta thường sử dụng thuật toán Gradient Descent. Dưới đây là các bước cơ bản:
$$w = w - \alpha \cdot \nabla L$$
Trong đó:
Lặp đi lặp lại quá trình trên cho đến khi hội tụ hoặc thu được một kết quả mà bạn cảm thấy thích hợp.
Nếu bạn thích hành trình với lịch sử định lý log-likelihood, hoặc muốn khám phá thêm các thuật toán tối ưu khác như Stochastic Gradient Descent (SGD) hay biến thể như Adam, hãy ghé qua trituenhantao.io nhé! Xin hứa sẽ không có bài làm toán nào trên đó dày như cuốn từ điển đâu!