Sự cố Y2K là gì?

Sự cố Y2K (Y: Year, K: kilo hoặc 1.000) là viết tắt của sự cố máy tính toàn cầu vào những năm 2000 và là kết quả của cách một số phần mềm và phần cứng máy tính biểu hiện ngày tháng năm. Vì nhiều hệ thống máy tính chỉ lưu trữ hai chữ số … Đọc tiếp

VAE – Phiên bản nâng cấp của Auto Encoder

VAE là phiên bản nâng cấp của bộ tự mã hóa Auto Encoder, VAE giúp tự động lựa chọn đặc trưng một cách chính xác thông qua quá trình học không giám sát. Vậy cụ thể VAE hoạt động như thế nào, hãy cùng trituenhantao.io tìm hiểu trong bài viết này. Machine learning giờ đây … Đọc tiếp

Giảm chiều dữ liệu với PCA và Autoencoder

Giảm chiều dữ liệu trong machine learning là quá trình giảm thiểu số lượng đặc trưng biểu diễn dữ liệu. Việc này có thể được thực hiện theo hướng lựa chọn các đặc trưng quan trọng hoặc trích xuất các đặc trưng mới từ các đặc trưng đã có. Giảm chiều dữ liệu hữu ích … Đọc tiếp

BLEU – Phép đo trong dịch máy

BLEU là viết tắt của Bilingual Evaluation Understudy, là phương pháp đánh giá một bản dịch dựa trên các bản dịch tham khảo, được giới thiệu trong paper BLEU: a Method for Automatic Evaluation of Machine Translation). BLEU được thiết kế để sử dụng trong dịch máy (Machine Translation), nhưng thực tế, phép đo này cũng được … Đọc tiếp

Xe tự lái gợi ý các xung đột về quy tắc đạo đức

Xe tự lái sẽ sớm phải đưa ra những quyết định mang tính đạo đức khi nó trở nên phổ biến. Trong trường hợp phải lựa chọn mạng sống của những người liên quan, đâu là một lựa chọn có đạo đức. Bàn luận về vấn đề này, chúng ta thấy được chính những xung … Đọc tiếp

Teacher Forcing là gì? Nó hoạt động như thế nào?

Teacher Forcing là một kỹ thuật được sử dụng trong quá trình huấn luyện các mạng nơ ron nhân tạo. Kỹ thuật này được sử dụng phổ biến trong NLP (ví dụ như các bài toán viết mô tả cho ảnh hay dịch máy). Trong bài này, hãy cùng trituenhantao.io tìm hiểu về Teacher Forcing … Đọc tiếp

Transformer hoạt động như thế nào?

Transformer là một dòng mạng nơ ron nhân tạo đang ngày càng trở nên phổ biến. Trong bài này, hãy cùng trituenhantao.io tìm hiểu cách thức hoạt động của chúng. Transformer được sử dụng bởi GPT-2 của OpenAI hay trong AlphaStar của DeepMind — một chương trình có khả năng đánh bại những người chơi đỉnh … Đọc tiếp

BERT, RoBERTa, DistilBERT, XLNet – Chọn cái nào?

BERT của Google và các phương pháp dựa trên transformer gần đây đã gây ra một cơn bão trong lĩnh vực NLP, đạt kết quả vượt trội trên một số nhiệm vụ. Gần đây, những cải tiến khác nhau của BERT đã xuất hiện. Hãy cùng trituenhantao.io tìm hiểu các điểm tương đồng và khác … Đọc tiếp