Jailbreaking
Jailbreaking (Vượt ngục) đề cập đến việc vượt qua các hạn chế hoặc guardrails được áp đặt lên LLM để tạo ra các phản hồi nằm ngoài các nguyên tắc hoặc chính sách đã định trước. Điều này thường liên quan đến việc sử dụng các prompt được chế tạo cẩn thận để thao túng LLM, khiến nó tạo ra nội dung có hại, thiên vị hoặc không phù hợp. Jailbreaking có thể gây ra rủi ro đáng kể cho tính toàn vẹn và độ tin cậy của các ứng dụng LLM.
Các thuật ngữ liên quan
Chào mừng bạn đến với HocCodeAI 👋
Bài viết này là một phần của Danh sách thuật ngữ HocCodeAI.
Hãy ghé thăm trang chủ hoccodeai.com để khám phá thêm nhiều bài viết hữu ích.
Nhớ xem thử khóa học Generative AI của bọn mình để nâng cao kỹ năng của bạn nhé!
Hãy ghé thăm trang chủ hoccodeai.com để khám phá thêm nhiều bài viết hữu ích.
Nhớ xem thử khóa học Generative AI của bọn mình để nâng cao kỹ năng của bạn nhé!