Prompt Leaking
Prompt Leaking (Rò rỉ prompt) là một hình thức tấn công Prompt Injection, trong đó kẻ tấn công cố gắng trích xuất prompt ban đầu hoặc các hướng dẫn được sử dụng để điều chỉnh LLM. Điều này có thể dẫn đến việc tiết lộ thông tin nhạy cảm hoặc độc quyền được nhúng trong prompt. Kẻ tấn công có thể sử dụng các kỹ thuật khác nhau để đạt được điều này, chẳng hạn như đưa ra các câu hỏi được thiết kế để dụ LLM tiết lộ thông tin về prompt của chính nó.
Các thuật ngữ liên quan
Chào mừng bạn đến với HocCodeAI 👋
Bài viết này là một phần của Danh sách thuật ngữ HocCodeAI.
Hãy ghé thăm trang chủ hoccodeai.com để khám phá thêm nhiều bài viết hữu ích.
Nhớ xem thử khóa học Generative AI của bọn mình để nâng cao kỹ năng của bạn nhé!
Hãy ghé thăm trang chủ hoccodeai.com để khám phá thêm nhiều bài viết hữu ích.
Nhớ xem thử khóa học Generative AI của bọn mình để nâng cao kỹ năng của bạn nhé!