Kiểm chứng giả thuyết (Hypothesis testing) là công cụ quan trọng để các nhà khoa học dữ liệu có được các kết luận tin cậy về mặt thống kê. Trong…
Kiến thức
Thảm họa thông tin là gì?
Thảm họa thông tin là vấn đề mọi người cần sớm quan tâm. Chúng ta đang sống trong thời đại giàu thông tin, điện thoại thông minh ở khắp mọi…
Kỹ năng mềm quan trọng trong thời đại AI
Kỹ năng công nghệ và kiến thức dữ liệu là không thể thiếu trong thời đại AI, big data và tự động hóa. Mặc dù vậy chúng ta cũng không…
ELECTRA – Thành viên mới của dòng họ Transformer
ELECTRA — Efficiently Learning an Encoder that Classifies Token Replacements Accurately — là phương pháp pretrain mới được công bố bởi Google AI vượt trội hơn các kỹ thuật hiện tại với cùng nguồn lực tính toán.…
xAI và tham vọng giải thích AI
xAI là viết tắt của Explainable AI là tập hợp các kỹ thuật giúp tạo ra các mô hình có thể giải thích được. Thành công đáng kể trong lĩnh…
Sự cố Y2K là gì?
Sự cố Y2K (Y: Year, K: kilo hoặc 1.000) là viết tắt của sự cố máy tính toàn cầu vào những năm 2000 và là kết quả của cách một…
VAE – Phiên bản nâng cấp của Auto Encoder
VAE là phiên bản nâng cấp của bộ tự mã hóa Auto Encoder, VAE giúp tự động lựa chọn đặc trưng một cách chính xác thông qua quá trình học…
Giảm chiều dữ liệu với PCA và Autoencoder
Giảm chiều dữ liệu trong machine learning là quá trình giảm thiểu số lượng đặc trưng biểu diễn dữ liệu. Việc này có thể được thực hiện theo hướng lựa…
BLEU – Phép đo trong dịch máy
BLEU là viết tắt của Bilingual Evaluation Understudy, là phương pháp đánh giá một bản dịch dựa trên các bản dịch tham khảo, được giới thiệu trong paper BLEU: a Method for…
Ứng dụng của NLP – 7 thành tựu nổi bật
NLP là hướng nghiên cứu quan trọng trong AI. Những nhiệm vụ nào có thể hoàn thành với NLP? Hãy cùng Trí tuệ nhân tạo tìm hiểu 7 ứng dụng…