Logohoccodeai.com
Đổi server VN (nếu load chậm)

Những điều bạn cần biết về Local LLM - Phần 1

Ở bài trước, chúng ta đã học cách viết prompt, sử dụng AI/LLM trong công việc hàng ngày, bằng cách sử dụng các dịch vụ online như ChatGPT/Claude/Bard.

Tuy nhiên, có những trường hợp bạn cần bảo mật dữ liệu khách hàng, muốn tiết kiệm chi phí, hoặc không muốn dùng các dịch vụ online. Trong trường hợp đó, bạn có thể sử dụng Local LLM.

Local LLM là gì?

Local LLM là một mô hình ngôn ngữ lớn chạy ở local, tức là một phần mềm nằm trong máy tính của bạn, mà không cần kết nối internet!

Giống như Google Docs cần kết nối mạng còn Microsoft Word thì không cần, Local LLM giúp bạn sử dụng AI mà không cần kết nối internet.

Một số model LLM có thể bạn đã nghe nhắc đến:

  • LLama: Được phát triển bởi Facebook/Meta. Phiên bản mới nhất là Llama3 vừa được ra mắt vào tháng 4
  • Gemma: Được phát triển bởi Google, một trong những LLM mạnh và ổn nhất hiện nay
  • Mistral: Được tạo ra bởi MistralAI, một startup AI gần đây
  • QWenLM: Được tạo ra bởi Alibaba Cloud, một trong những LLM open source mạnh nhất hiện nay
  • Yi: Một LLM khá mạnh, 200k context size do 01-ai phát triển

meta

Tại sao bạn nên sử dụng Local LLM, các ưu nhược điểm của chúng

Vậy, tại sao bạn nên chạy LLM trên máy tính của mình thay vì dùng OpenAI/Claude...?

Việc này có khá nhiều ưu điểm:

  • Bạn hoàn toàn kiểm soát và bảo mật dữ liệu của mình. Với một số công ty, dữ liệu quan trọng như thông tin tài chính, dữ liệu y tế, khách hàng... không thể đăng lên các bên thứ ba.
  • Bạn không cần lo lắng khi không có Internet, tiết kiệm được tiền dịch vụ hoặc tiền API mỗi tháng
  • Local LLM thường không bị kiểm duyệt hoặc hoàn toàn uncensor nên bạn có thể sử dụng nó cho mọi mục đích.
  • Thời gian phản hồi có thể sẽ nhanh hơn vì mọi thứ đều chạy trên máy của bạn.

Bên cạnh đó, chúng cũng có một vài nhược điểm:

  • Bạn cần một máy tính mạnh, RAM ngon, GPU tạm ổn để chạy được các LLM này.
  • Cài đặt và sử dụng LLM có thể khá phức tạp, đặc biệt là với người không chuyên. (Không sao, bọn mình sẽ giải thích ở các phần sau.)
  • Tuỳ thuộc vào độ lớn của LLM local, nhưng đa phần các mô hình này sẽ không được thông minh bằng các LLM lớn như GPT-4, Claude, Gemini (Vì chúng được chạy trên các server khủng, vài chục card đồ hoạ)

Các local LLM thường ít bị kiểm duyệt (uncensored), nên bạn có thể sử dụng chúng cho nhiều mục đích như viết lách, nghiên cứu security, tạo test data độc hại để huấn luyện bộ lọc...

Censored ✅ Uncensored
Censored Uncensored

Nói chung, nếu bạn cần làm việc với dữ liệu nhạy cảm, không muốn dùng dịch vụ online, hoặc muốn tiết kiệm chi phí và ghét mấy cái model từ chối trả lời, Local LLM là lựa chọn tốt cho bạn.

Cấu hình máy để chạy Local LLM

Trước khi bắt đầu chạy LLM trên máy tính của mình, hãy nói về phần cứng mà bạn cần có!

Có một sự thật đắng lòng là chạy mấy cái LLM này cần máy từ tầm trung tới mạnh:

  • Ít nhất là 6GB VRAM tới 16GB VRAM cho các mô hình lớn. Nếu không thì cần 8-16-24GB RAM, nhưng sẽ chậm hơn VRAM.
  • Tốt nhất là card NVIDIA, dòng 2XXX trở lên vì chúng hỗ trợ tốt hơn
  • Cá nhân mình thấy dùng card NVIDIA RTX 3060 - 8GB VRAM trở lên là đủ để chạy các LLM vừa vừa, còn nếu sang hơn thì bạn hãy sắm RTX 3090 hoặc 4090 có 24GB VRAM chạy cho thoải mái.

Nhiều con máy gaming có thể chơi game FullHD, 60fps nhưng chạy LLM thì sẽ lết vài chục token/s như thế này nhé! inference

Nếu máy của bạn không có card đồ hoạ, hoặc chỉ có RAM khoẻ, hoặc bạn dùng Macbook Chip M (Apple silicon) thì đừng cũng đừng lo! Mình sẽ hướng dẫn thêm ở bài sau. (Macbook ChipM chạy LLM cũng trâu lắm nhé!)

Còn nếu máy bạn chỉ có CPU từ đời Tống, RAM chỉ 4-8GB thì... xin chia buồn, bạn nên bỏ qua phần này, mua máy mới hoặc sử dụng API online nha!


Tóm tắt bài học

  • Local LLM là mô hình ngôn ngữ lớn chạy trên máy tính cá nhân mà không cần kết nối internet, giúp bảo mật thông tin và tiết kiệm chi phí.
  • Một số mô hình nổi bật như LLama, Gemma, Mistral, QWenLM, và Yi đều có khả năng cung cấp dịch vụ AI mạnh mẽ.
  • Ưu điểm của Local LLM bao gồm: kiểm soát dữ liệu, không phụ thuộc vào internet, có thể hoạt động uncensored, và thời gian phản hồi nhanh hơn.
  • Nhược điểm gồm yêu cầu về phần cứng mạnh mẽ, cài đặt phức tạp, và khả năng thông minh có thể thấp hơn so với các LLM lớn như GPT-4.
  • Để chạy Local LLM, máy tính cần có 6GB đến 16GB VRAM, card NVIDIA từ dòng 2XXX trở lên, và RAM tối thiểu từ 8GB trở lên.
  • Local LLM là giải pháp lý tưởng cho những ai làm việc với dữ liệu nhạy cảm và không muốn sử dụng dịch vụ trực tuyến.

Câu hỏi ôn tập

  1. Tại sao Local LLM lại được coi là giải pháp tốt cho việc bảo mật dữ liệu doanh nghiệp?

    Local LLM cho phép người dùng hoàn toàn kiểm soát và bảo mật dữ liệu vì mô hình chạy trực tiếp trên máy tính cá nhân, không cần kết nối internet và không phải đưa dữ liệu lên các bên thứ ba. Điều này đặc biệt quan trọng với các thông tin nhạy cảm như dữ liệu tài chính, y tế hay thông tin khách hàng.

  2. Cấu hình tối thiểu để chạy Local LLM hiệu quả là gì?

    Để chạy Local LLM hiệu quả, máy tính cần có:

  • VRAM: 6GB đến 16GB (tốt nhất)
  • Card đồ họa: NVIDIA dòng 2XXX trở lên
  • Khuyến nghị: RTX 3060 (8GB VRAM) trở lên
  • Nếu không có VRAM thì cần 8-16-24GB RAM nhưng sẽ chạy chậm hơn
  1. So với các dịch vụ AI online như ChatGPT/Claude/Bard, Local LLM có những ưu điểm và nhược điểm gì?

    Ưu điểm:

  • Kiểm soát và bảo mật dữ liệu tốt hơn
  • Không phụ thuộc Internet
  • Tiết kiệm chi phí dịch vụ/API
  • Không bị kiểm duyệt
  • Thời gian phản hồi có thể nhanh hơn

Nhược điểm:

  • Yêu cầu máy tính mạnh
  • Cài đặt và sử dụng phức tạp
  • Độ thông minh thường không bằng các LLM lớn
  1. Các mô hình Local LLM phổ biến hiện nay là gì?

    Các mô hình Local LLM phổ biến bao gồm:

  • LLama (Meta/Facebook)
  • Gemma (Google)
  • Mistral (MistralAI)
  • QWenLM (Alibaba Cloud)
  • Yi (01-ai)
  1. Tại sao Local LLM thường ít bị kiểm duyệt (uncensored) hơn so với các dịch vụ AI online?

    Local LLM ít bị kiểm duyệt vì chúng chạy trực tiếp trên máy người dùng, không phải tuân theo các quy định và chính sách của các nền tảng online. Điều này cho phép người dùng sử dụng cho nhiều mục đích đa dạng như viết lách, nghiên cứu bảo mật, tạo test data độc hại để huấn luyện bộ lọc mà không bị giới hạn bởi các quy tắc kiểm duyệt.

Facebook Messenger

fb.com/toidicodedao

Email Support

[email protected]

Telegram

t.me/hoccodeai