Prompt Injection
Prompt Injection (Chèn prompt) là một kỹ thuật tấn công nhắm vào các ứng dụng LLM bằng cách chèn các prompt độc hại hoặc gây hiểu lầm vào đầu vào của người dùng. Mục tiêu của prompt injection là thao túng LLM để tạo ra các phản hồi không mong muốn hoặc có hại, vượt qua các guardrails và kiểm duyệt. Kỹ thuật này tận dụng bản chất dễ bị tổn thương của LLM đối với các đầu vào được chế tạo cẩn thận, có thể lừa mô hình thực hiện các hành động không mong muốn hoặc tiết lộ thông tin nhạy cảm.
Các thuật ngữ liên quan
Chào mừng bạn đến với HocCodeAI 👋
Bài viết này là một phần của Danh sách thuật ngữ HocCodeAI.
Hãy ghé thăm trang chủ hoccodeai.com để khám phá thêm nhiều bài viết hữu ích.
Nhớ xem thử khóa học Generative AI của bọn mình để nâng cao kỹ năng của bạn nhé!
Hãy ghé thăm trang chủ hoccodeai.com để khám phá thêm nhiều bài viết hữu ích.
Nhớ xem thử khóa học Generative AI của bọn mình để nâng cao kỹ năng của bạn nhé!