OpenAI đã công bố việc ra mắt fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
cho mô hình GPT-3.5 Turbo (gọi tắt là fine-tune ChatGPT), và dự kiến sẽ hỗ trợ cho GPT-4 vào mùa thu này. Fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
giúp các nhà phát triển tùy chỉnh mô hình để có hiệu suất tốt hơn cho các ứng dụng của họ và hoạt động ở quy mô lớn. Theo kết quả thử nghiệm sơ bộ, phiên bản fine-tuned của GPT-3.5 Turbo có thể đạt hoặc vượt qua khả năng của GPT-4 cơ sở trong một số tác vụ hẹp. Đáng chú ý là hệ thống API của OpenAI đảm bảo dữ liệu được gửi và nhận từ fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
là của khách hàng, không được sử dụng bởi OpenAI hay tổ chức nào khác để huấn luyện mô hình.
Fine-tuning ChatGPT trong các trường hợp sử dụng
Từ khi ra mắt GPT-3.5 Turbo, các nhà phát triển và doanh nghiệp đã mong muốn có khả năng tùy chỉnh mô hình để tạo ra trải nghiệm độc đáo và khác biệt cho người dùng. Với việc này, nhà phát triển có thể sử dụng fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
kiểm soát mô hình tốt hơn, ví dụ:
- Cải thiện khả năng điều khiển: Fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
giúp các doanh nghiệp làm cho mô hình tuân theo hướng dẫn tốt hơn, ví dụ như đưa ra đáp án ngắn gọn hoặc luôn trả lời bằng một ngôn ngữ nhất định.
- Định dạng đầu ra đáng tin cậy: Fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
cải thiện khả năng định dạng đáp án một cách nhất quán, điều quan trọng cho các ứng dụng đòi hỏi định dạng đáp án cụ thể.
- Tone giọng tùy chỉnh: Fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
giúp sửa đổi chất lượng cảm giác đầu ra mô hình, giúp đảm bảo giọng nói phù hợp với thương hiệu của doanh nghiệp.
Kết hợp fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
, các kỹ thuật khác như prompt
Prompt
Prmpt engineering hay prompt (tạm dịch: lời nhắc) là một khái niệm về cách giao tiếp với một hệ thống AI như ChatGPT và nhận được phản hồi mong muốn. Ví dụ: thay vì đưa cho AI một lời nhắc đơn giản như "miêu tả ngôi nhà", bạn có thể thêm thông tin bổ sung vào lời nhắc để có kết quả tốt hơn.
engineering (kỹ thuật hiệu chỉnh lời nhắc), information retrieval (truy xuất thông tin), và function calling (gọi hàm) sẽ phát huy hiệu quả hơn nữa. Để tìm hiểu thêm, bạn có thể xem hướng dẫn fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
của OpenAI.
Các bước thực hiện fine-tuning ChatGPT
Bước 1: Chuẩn bị dữ liệu của bạn
{
"messages": [
{ "role": "system", "content": "You are an assistant that occasionally misspells words" },
{ "role": "user", "content": "Tell me a story." },
{ "role": "assistant", "content": "One day a student went to schoool." }
]
}
Bước 2: Tải lên tệp
curl -https://api.openai.com/v1/files \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-F "purpose=fine-tune" \
-F "file=@path_to_your_file"
Bước 3: Tạo job để fine-tune ChatGPT
curl https://api.openai.com/v1/fine_tuning/jobs \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-d '{
"training_file": "TRAINING_FILE_ID",
"model": "gpt-3.5-turbo-0613",
}'
Sau khi hoàn thành quá trình fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
, mô hình được tạo sẵn để sử dụng ngay lập tức và chung giới hạn tốc độ của mô hình gốc.
Bước 4: Sử dụng mô hình fine-tuned
curl https://api.openai.com/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-d '{
"model": "ft:gpt-3.5-turbo:org_id",
"messages": [
{
"role": "system",
"content": "You are an assistant that occasionally misspells words"
},
{
"role": "user",
"content": "Hello! What is fine-tuning?"
}
]
}'
OpenAI cũng sắp ra mắt giao diện người dùng fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
, giúp các nhà phát triển dễ dàng truy cập thông tin về công việc fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
hiện tại, bản chụp mô hình đã hoàn thành và hơn thế nữa. Low-code no-code là đây chứ đâu!
Tính bảo mật trong quá trình Fine-tune ChatGPT
OpenAI coi trọng việc triển khai fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
một cách an toàn. Để giữ nguyên các tính năng bảo mật mặc định của mô hình thông qua quá trình fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
, dữ liệu đào tạo fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
được xử lý thông qua API kiểm duyệt và một hệ thống kiểm duyệt chạy trên GPT-4 để phát hiện dữ liệu đào tạo không an toàn.
Chi phí fine-tune ChatGPT
Chi phí fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
được chia thành hai phần: chi phí đào tạo ban đầu và chi phí sử dụng:
- Đào tạo: 0.008 USD / 1K token
Token
NLP - Một chuỗi gồm một hoặc nhiều ký tự được ánh xạ làm đầu vào cho các mô hình trong NLP. Trong word embedding, token là chuỗi các ký tự liền kề giữa hai khoảng trắng hoặc giữa dấu cách và dấu chấm.
Blockchain - Token là một loại tài sản kỹ thuật số được phát hành và hoạt động trên một nền tảng Blockchain của các dự án có sẵn mà không sở hữu Blockchain riêng.
- Sử dụng đầu vào: 0.012 USD / 1K token
Token
NLP - Một chuỗi gồm một hoặc nhiều ký tự được ánh xạ làm đầu vào cho các mô hình trong NLP. Trong word embedding, token là chuỗi các ký tự liền kề giữa hai khoảng trắng hoặc giữa dấu cách và dấu chấm.
Blockchain - Token là một loại tài sản kỹ thuật số được phát hành và hoạt động trên một nền tảng Blockchain của các dự án có sẵn mà không sở hữu Blockchain riêng.
- Sử dụng đầu ra: 0.016 USD / 1K token
Token
NLP - Một chuỗi gồm một hoặc nhiều ký tự được ánh xạ làm đầu vào cho các mô hình trong NLP. Trong word embedding, token là chuỗi các ký tự liền kề giữa hai khoảng trắng hoặc giữa dấu cách và dấu chấm.
Blockchain - Token là một loại tài sản kỹ thuật số được phát hành và hoạt động trên một nền tảng Blockchain của các dự án có sẵn mà không sở hữu Blockchain riêng.
Ví dụ, một công việc fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
GPT-3.5 Turbo với tệp đào tạo 100.000 token
Token
NLP - Một chuỗi gồm một hoặc nhiều ký tự được ánh xạ làm đầu vào cho các mô hình trong NLP. Trong word embedding, token là chuỗi các ký tự liền kề giữa hai khoảng trắng hoặc giữa dấu cách và dấu chấm.
Blockchain - Token là một loại tài sản kỹ thuật số được phát hành và hoạt động trên một nền tảng Blockchain của các dự án có sẵn mà không sở hữu Blockchain riêng.
và đào tạo trong 3 epoch
Epoch
Một epoch được định nghĩa là một lần đi qua toàn bộ tập huấn luyện trong khi huấn luyện một mô hình học máy.
có chi phí dự kiến là 2,40 USD.
Như vậy, fine-tuning
Fine-tuning
Thuật ngữ này có thể được dịch là "Tinh chỉnh" - là một quá trình sử dụng một mô hình mạng đã được huấn luyện cho một nhiệm vụ nhất định để thực hiện một nhiệm vụ tương tự.
ChatGPT là một bước tiến quan trọng trong việc tùy chỉnh mô hình AI để phù hợp với yêu cầu của các ứng dụng và doanh nghiệp. Hãy chia sẻ thông tin này cho những người quan tâm, để họ biết thêm về những tiến bộ trong lĩnh vực trí tuệ nhân tạo. Đừng quên thường xuyên truy cập trituenhantao.io để cập nhật xu hướng AI mới nhất trên thế giới, và khám phá những ứng dụng tiềm năng của AI trong đời sống và kinh doanh. Bạn không chỉ được truy cập vào kiến thức chuyên sâu về AI, mà còn có cơ hội tìm hiểu cách ứng dụng chúng cho các dự án và giải pháp của mình. Hãy cùng chung tay chia sẻ và lan tỏa tri thức về AI để cùng nhau tiến bộ!