OpenCloud
AI

AI Security

Cấu hình chính sách bảo mật, guardrails và kiểm soát truy cập cho triển khai AI trên OpenCloud.

AI Security

Trang AI Security cho phép bạn cấu hình chính sách bảo mật và kiểm soát truy cập cho các triển khai AI. Giúp bạn bảo vệ API key AI, kiểm soát chi phí và đảm bảo sử dụng mô hình AI an toàn.

Hướng dẫn tích hợp với OpenClaw từng bước, xem Kết nối OpenClaw với AI GuardRails.

OpenCloud sử dụng LiteLLM làm nền tảng cho AI Security. LiteLLM là phần mềm trung gian bảo mật AI mã nguồn mở, hoạt động như một cổng bảo vệ giữa ứng dụng và mô hình AI, cung cấp API thống nhất để truy cập 100+ mô hình AI đồng thời thêm các guardrails an toàn.

Ứng dụng của bạn → AI Security (LiteLLM) → OpenAI, Anthropic, Google, v.v.
Tài liệu chính thức: Để cấu hình nâng cao và tham khảo đầy đủ tính năng, xem Tài liệu LiteLLM.

Tại sao AI Security quan trọng

Khi sử dụng dịch vụ AI:

  • API key rất có giá trị — Nếu bị đánh cắp, ai đó có thể tạo ra chi phí lớn trên tài khoản nhà cung cấp AI của bạn
  • Chi phí có thể tăng nhanh — Không có giới hạn, một ứng dụng mất kiểm soát có thể tiêu tốn hàng nghìn đô la credit AI
  • An toàn là quan trọng — Bạn có thể muốn giới hạn mô hình AI nào được sử dụng và chúng có thể làm gì

Tính năng chính

Tính năngMô tả
API thống nhấtMột endpoint API để truy cập 100+ mô hình AI từ bất kỳ nhà cung cấp nào
Phát hiện bí mậtTự động phát hiện và ẩn API key, mật khẩu và token trong prompt
Từ khóa bị chặnChặn yêu cầu chứa từ khóa nguy hiểm (hack, exploit, jailbreak)
Kiểm duyệt nội dungLọc nội dung bạo lực, có hại hoặc không phù hợp
Phát hiện prompt injectionPhát hiện và chặn các nỗ lực jailbreak
Giới hạn tốc độKiểm soát số yêu cầu AI mỗi ứng dụng có thể thực hiện
Định tuyến mô hìnhĐịnh tuyến các yêu cầu khác nhau đến các mô hình AI khác nhau
Xác thực master keyMột master key duy nhất để xác thực API
Logic thử lạiTự động thử lại yêu cầu thất bại (tối đa 3 lần)

Guardrails tích hợp sẵn

AI Security được cấu hình sẵn với bốn guardrails bảo mật:

Phát hiện bí mật

Quét các prompt gửi đi để tìm API key, mật khẩu và token. Tự động ẩn chúng trước khi gửi đến mô hình AI.

Từ khóa bị chặn

Chặn yêu cầu chứa từ khóa nguy hiểm như "hack", "exploit", "jailbreak" và các từ khác.

Kiểm duyệt nội dung

Lọc nội dung bạo lực, có hại hoặc không phù hợp bằng phân tích heuristic.

Phát hiện Prompt Injection

Phát hiện các mẫu thường được sử dụng để vượt qua biện pháp an toàn AI và chặn chúng.

Tính năng bảo mật

Kiểm soát truy cập

  • Kiểm soát ứng dụng nào có thể truy cập dịch vụ AI
  • Đặt quyền theo người dùng hoặc theo ứng dụng
  • Giới hạn truy cập vào các mô hình AI cụ thể

Giới hạn tốc độ

  • Đặt giới hạn số yêu cầu AI có thể thực hiện mỗi phút/giờ/ngày
  • Ngăn chi phí phát sinh từ ứng dụng hoạt động sai
  • Sử dụng công bằng giữa nhiều ứng dụng

Giám sát

  • Theo dõi mức sử dụng AI API trên tất cả ứng dụng
  • Xem ứng dụng nào thực hiện nhiều yêu cầu AI nhất
  • Giám sát chi phí theo thời gian thực

Yêu cầu trên OpenCloud

Yêu cầuChi tiết
LoạiAddon (dịch vụ hệ thống)
Cơ sở dữ liệuKhông yêu cầu
GóiGói addon cố định (1 CPU, 2 GB RAM, ~$1/tháng)
Cổng mặc định4000
Network aliaslitellm.proxy (dùng bởi các ứng dụng khác để tìm AI Security)

Cài đặt

Triển khai từng bước

  1. Triển khai AI Security (LiteLLM)
    • Từ sidebar dự án, vào Bảo mật AI
    • Chọn Bật GuardRails để triển khai addon LiteLLM
    • Chờ 3-5 phút cho đến khi AI Security hoạt động
    • Sau khi triển khai, bạn sẽ thấy trạng thái "GuardRails đang hoạt động"
    • Ghi chú: AI Security hoạt động như một proxy — tất cả yêu cầu AI từ các ứng dụng khác sẽ đi qua nó để được bảo vệ
  2. Lấy master key
    • Vào ứng dụng LiteLLM > Environment Variables
    • Tìm LITELLM_MASTER_KEY — đây là API key mà ứng dụng dùng để kết nối
  3. Truy cập bảng điều khiển quản trị
    Mở liên kết LiteLLM để truy cập bảng điều khiển quản trị.

Kết nối ứng dụng

Các ứng dụng khác trong project có thể kết nối với AI Security qua network alias nội bộ:

Thiết lậpGiá trị
API Base URLhttp://<project-id>.runopen.cloud (nội bộ) hoặc URL công khai của LiteLLM
API KeyGiá trị LITELLM_MASTER_KEY của bạn

Thêm mô hình AI

Cấu hình mô hình AI nào khả dụng:

  1. Mở Cấu hình
  2. Thêm mô hình:
     model_list:
      - model_name: "*"
        litellm_params:
          model: "openai/*"
          api_base: "YOUR_LLM_ENDPOINT"
          api_key: "YOUR_LLM_API_KEY"
    
  3. Lưu cấu hình

Cấu hình Guardrails

Bốn guardrails được kích hoạt mặc định:

GuardrailChế độChức năng
Secret DetectionPre-callẨn API key và mật khẩu trước khi gửi đến AI
Banned KeywordsPre-callChặn từ khóa nguy hiểm
Content ModerationPre-callLọc nội dung có hại
Prompt InjectionPre-callChặn các nỗ lực jailbreak

Để tùy chỉnh guardrails, cập nhật biến môi trường LITELLM_GUARDRAILS hoặc chỉnh sửa cấu hình qua bảng điều khiển quản trị.

Cấu hình

Thiết lậpMặc địnhMô tả
LITELLM_MASTER_KEYTự động tạoMaster API key để xác thực
LITELLM_GUARDRAILS[] (dùng mặc định từ file cấu hình)Cấu hình guardrail tùy chỉnh
Request timeout120 giâyThời gian tối đa cho yêu cầu AI
Retries3Số lần tự động thử lại khi thất bại

Cách các ứng dụng OpenCloud khác sử dụng AI Security

Ứng dụngTự động?Cách kết nối
CoPawTự động cấu hình làm nhà cung cấp LLM mặc định
OpenClawThủ côngĐặt tiền tố mô hình thành litellm/ (xem hướng dẫn tích hợp)
n8nThủ côngĐặt OPENAI_API_BASE thành URL LiteLLM trong workflow credentials

Khắc phục sự cố

Vấn đềGiải pháp
Ứng dụng không kết nối đượcKiểm tra LITELLM_MASTER_KEY khớp ở cả hai ứng dụng
Yêu cầu AI thất bạiXác minh API key nhà cung cấp AI trong cấu hình
Guardrails chặn yêu cầu hợp lệTùy chỉnh thiết lập guardrail để giảm false positive
Độ trễ caoAI Security thêm rất ít overhead; kiểm tra nhà cung cấp AI phía dưới
Copyright © 2026