Thuật ngữ về Deep Learning cho “lính mới” – Phần 1

Nếu một người ở thế kỷ 20 không hiểu gì về điện thì khả năng họ sẽ gặp phải rất nhiều khó khăn. Tương tự như vậy ở thế kỷ 21, nếu bạn không biết đến sự tồn tại của Deep Learning thì bạn đang đánh mất một lợi thế cạnh tranh rất lớn. Nếu bạn là một người bắt đầu làm quen với Deep Learning hoặc một người mong muốn cập nhật thêm hiểu biết về lĩnh vực này thì loạt bài viết của trituenhantao.io sẽ giúp bạn “giải ngố” thông qua các thuật ngữ quan trọng nhé. Trong phần 1, chúng ta sẽ tìm hiểu các thuật ngữ cơ bản của mạng nơ ron nhân tạo.

1. Tham số (Parameter)

Tham số là đại lượng ảnh hưởng đến đầu ra của một đối tượng toán học. Đối với học máy, việc huấn luyện mô hình bản chất là việc tìm ra các tham số để mô hình có thể biểu diễn tốt nhất dữ liệu của bài toán. Ví dụ trong bài toán dự đoán giá nhà, nếu chúng ta dự đoán giá nhà được biểu diễn bằng một hàm F có dạng F(giá)=a*diện tích, a ở đây là tham số cần tìm.

2. Nơ-ron (Neuron)

Giống như tế bào thần kinh hình thành nên não bộ của chúng ta, mạng nơ-ron nhân tạo cũng sở hữu các thành phần như vậy. Khi chúng ta nhận được thông tin, chúng ta xử lý nó và sau đó tạo ra phản hồi. Tương tự, các nơ-ron nhận thông tin đầu vào, xử lý nó và cho các phản hồi được gửi đến các nơ-ron khác trong mạng.

Hình ảnh một nơ-ron trong hệ thần kinh

3. Trọng số (Weight)

Thông tin đi vào các nơ-ron đều được nhân trọng số. Ví dụ, nếu một nơ-ron có hai đầu vào, thì mỗi đầu vào sẽ có một trọng số riêng biệt được gán cho chúng. Chúng ta khởi tạo các trọng số trong mạng một cách ngẫu nhiên và các trọng số này được cập nhật trong quá trình huấn luyện mô hình. Mạng nơ-ron nhân tạo sau khi được huấn luyện sẽ gán trọng số cao hơn cho đầu vào mà nó coi là quan trọng. Nếu trọng số bằng 0, điều đó có nghĩa là đặc trưng tương ứng không phải là thông tin quan trọng. Trọng số là một tham số của mô hình mạng nơ ron nhân tạo.

Thông tin đầu vào được nhân với trọng số và cộng với bias.

4. Bias

Ngoài các trọng số, một thành phần tuyến tính khác được áp cho thông tin đầu vào, được gọi là bias. Nó được thêm vào kết quả của phép nhân trọng số với đầu vào. Kết quả của phép nhân luôn là một hàm tuyến tính đi qua gốc tọa độ, sử dụng bias giúp mạng nơ ron có thể dịch chuyển hàm tuyến tính này một cách linh hoạt. Bias cũng là một tham số được học trong quá trình huấn luyện mạng nơ-ron.

Hàm có bias có thể không đi qua gốc tọa độ

5. Hàm kích hoạt – Activation Function

Đây là một hàm quan trọng trong mô hình mạng nơ-ron. Phản ứng của một nơ-ron sẽ dựa trên kết hợp của các tín hiệu đầu vào mà nó nhân được từ các nơ-ron trước đó. Hàm kích hoạt có nhiệm vụ đưa tổ hợp tuyến tính của đầu vào trở thành phản ứng tại đầu ra của mỗi nơ-ron. Hàm này giúp mạng nơ-ron mô hình hóa được các dữ liệu phức tạp như hình ảnh, tiếng nói, ngôn ngữ …

Ví dụ một số hàm kích hoạt

6. Lớp đầu vào / lớp đầu ra / lớp ẩn – Input / Output / Hidden Layer

Kiến trúc của mạng nơ-ron nhân tạo được hình thành bởi nhiều lớp với nhiệm vụ tìm ra các tham số để xấp xỉ một hàm chưa biết. Đơn giản như tên gọi của chúng, lớp đầu vào là lớp đầu tiên của mạng nơi nhận các thông tin. Lớp đầu ra là lớp cuối cùng của mạng trả về giá trị của hàm. Ở giữa hai lớp này là các lớp xử lý hay còn gọi là các lớp ẩn.

Lớp đầu vào, đầu ra và lớp ẩn của một mạng nơ ron

Hi vọng thông qua bài viết này, các bạn đã hiểu thêm một chút về các thuật ngữ cơ bản của mạng nơ ron nhân tạo. Trong phần 2, chúng ta sẽ cùng tìm hiểu tiếp các thuật ngữ liên quan đến các kiến trúc mạng nơ ron khác nhau.

Bạn muốn trích dẫn bài này:
-----
"Thuật ngữ về Deep Learning cho “lính mới” – Phần 1," Trí tuệ nhân tạo, Ngày xuất bản: 06/07/2019, URL: https://trituenhantao.io/kien-thuc/thuat-ngu-ve-deep-learning-cho-linh-moi-phan-1/, Ngày truy cập: 28/03/2024.