Adversarial Prompting
Adversarial Prompting (Gợi ý đối kháng) đề cập đến việc sử dụng các prompt được chế tạo cẩn thận để thao túng hoặc đánh lừa LLM tạo ra các phản hồi không mong muốn hoặc có hại. Nó là một kỹ thuật tấn công nhắm vào các điểm yếu của LLM và có thể được sử dụng để vượt qua các guardrails, kiểm duyệt hoặc tạo ra nội dung độc hại. Adversarial Prompting là một mối quan tâm bảo mật quan trọng trong phát triển ứng dụng LLM.
Các thuật ngữ liên quan
Chào mừng bạn đến với HocCodeAI 👋
Bài viết này là một phần của Danh sách thuật ngữ HocCodeAI.
Hãy ghé thăm trang chủ hoccodeai.com để khám phá thêm nhiều bài viết hữu ích.
Nhớ xem thử khóa học Generative AI của bọn mình để nâng cao kỹ năng của bạn nhé!
Hãy ghé thăm trang chủ hoccodeai.com để khám phá thêm nhiều bài viết hữu ích.
Nhớ xem thử khóa học Generative AI của bọn mình để nâng cao kỹ năng của bạn nhé!