LLM Size (7B, 13B)
LLM Size (7B, 13B) đề cập đến số lượng tham số trong một Mô hình Ngôn ngữ Lớn (LLM). 'B' là viết tắt của tỷ. Vì vậy, mô hình 7B có 7 tỷ tham số, còn mô hình 13B có 13 tỷ tham số. Nói chung, các mô hình lớn hơn có thể xử lý các tác vụ phức tạp hơn. Kích thước mô hình rất quan trọng, nhưng nó không phải là yếu tố duy nhất quyết định trí thông minh của AI. Chất lượng và số lượng dữ liệu đào tạo, cũng như hiệu quả của quá trình đào tạo, cũng đóng vai trò quan trọng. Trong khóa học này, bạn sẽ tìm hiểu thêm về kích thước mô hình và các yếu tố khác ảnh hưởng đến hiệu suất của LLM. Bạn cũng sẽ tìm hiểu về LLM Quantization, một kỹ thuật giúp giảm kích thước mô hình và tăng tốc độ xử lý.
Các thuật ngữ liên quan
Chào mừng bạn đến với HocCodeAI 👋
Hãy ghé thăm trang chủ hoccodeai.com để khám phá thêm nhiều bài viết hữu ích.
Nhớ xem thử khóa học Generative AI của bọn mình để nâng cao kỹ năng của bạn nhé!