Skip to content

环境变量

GuardClaw 通过存储在工作目录 .env 文件中的环境变量进行配置。所有变量都可以通过 guardclaw config set 设置或直接编辑 .env

快速参考

bash
# 查看所有当前设置
guardclaw config show

# 设置变量
guardclaw config set <KEY> <VALUE>

LLM 后端

变量默认值说明
SAFEGUARD_BACKENDlmstudio活动的风险评分 LLM 后端
LMSTUDIO_URLhttp://localhost:1234/v1LM Studio / OpenAI 兼容 API URL
LMSTUDIO_MODELauto模型名称(auto 使用已加载的模型)
LMSTUDIO_API_KEYLM Studio API 密钥(可选)
LLM_API_KEY通用 LLM API 密钥
OLLAMA_URLhttp://localhost:11434Ollama API URL
OLLAMA_MODELllama3Ollama 模型名称
ANTHROPIC_API_KEYAnthropic API 密钥
OPENROUTER_API_KEYOpenRouter API 密钥
OPENROUTER_MODELOpenRouter 模型 ID
OPENAI_API_KEYOpenAI API 密钥
GEMINI_API_KEYGoogle Gemini API 密钥
KIMI_API_KEYKimi(Moonshot)API 密钥
MINIMAX_API_KEYMiniMax API 密钥

后端取值

说明
lmstudio本地 LLM via LM Studio(推荐)
ollama本地 LLM via Ollama
anthropicClaude API
openrouterOpenRouter(400+ 模型)
minimaxMiniMax API
built-inApple Silicon MLX 模型
fallback仅规则匹配,无 LLM

云端评估

变量默认值说明
CLOUD_JUDGE_ENABLEDfalse启用云端升级评估
CLOUD_JUDGE_MODElocal-only评估模式
CLOUD_JUDGE_PROVIDER云端升级提供商

评估模式

模式说明
local-only所有评估在本地 LLM
mixed本地优先,高风险调用升级到云端
cloud-only所有评估通过云端 API

云端提供商

提供商说明
claudeAnthropic Claude(OAuth 或 API 密钥)
openai-codexOpenAI Codex / ChatGPT(OAuth 或 API 密钥)
minimaxMiniMax(OAuth 或 API 密钥)
kimiKimi / Moonshot(API 密钥)
openrouterOpenRouter(API 密钥)
geminiGoogle Gemini(API 密钥)
openaiOpenAI(API 密钥)

审批策略

变量默认值说明
GUARDCLAW_APPROVAL_MODEauto如何响应高风险工具调用
GUARDCLAW_AUTO_ALLOW_THRESHOLD6评分 ≤ 此值则自动允许
GUARDCLAW_ASK_THRESHOLD8评分 ≤ 此值(prompt 模式)触发用户确认
GUARDCLAW_AUTO_BLOCK_THRESHOLD9评分 ≥ 此值则自动阻断

审批模式

模式说明
auto评分、警告 Agent 并标记高风险调用(推荐)
prompt暂停执行,请求用户批准
monitor-only仅评分和记录,不干预

阈值行为

风险评分范围 1-10。三个阈值控制决策流程:

评分: 1 ──── 3 ──── 6 ──── 8 ──── 9 ──── 10
      │ 安全 │ 警告 │ 询问 │ 阻断 │
      └──────┘──────┘──────┘──────┘
         自动允许   询问  自动阻断
  • 评分 ≤ 自动允许(默认 ≤ 6):自动允许
  • 评分 ≤ 询问(默认 ≤ 8):prompt 模式下询问用户;auto 模式下警告 Agent
  • 评分 ≥ 自动阻断(默认 ≥ 9):自动阻断

连接

变量默认值说明
BACKENDauto网关连接模式
OPENCLAW_TOKENOpenClaw 网关认证 Token
QCLAW_TOKENQclaw 网关认证 Token
PORT3002GuardClaw 服务器端口

网关模式

模式说明
auto连接到检测到的任意网关
openclaw仅连接 OpenClaw 网关
qclaw仅连接 Qclaw 网关
nanobot仅连接 nanobot 网关

通知

变量默认值说明
TELEGRAM_BOT_TOKENTelegram 告警机器人 Token
TELEGRAM_CHAT_ID接收告警的 Telegram 聊天 ID
DISCORD_WEBHOOK_URLDiscord 告警 Webhook URL

.env 文件位置

.env 文件在启动 GuardClaw 时从当前工作目录加载。这允许每个项目独立配置。

bash
# 在项目 A 中
cd ~/projects/project-a
guardclaw start
# 读取 ~/projects/project-a/.env

# 在项目 B 中
cd ~/projects/project-b
guardclaw start
# 读取 ~/projects/project-b/.env

.env 示例

ini
# LLM 后端
SAFEGUARD_BACKEND=lmstudio
LMSTUDIO_URL=http://localhost:1234/v1
LMSTUDIO_MODEL=auto

# 云端评估(混合模式)
CLOUD_JUDGE_ENABLED=true
CLOUD_JUDGE_MODE=mixed
CLOUD_JUDGE_PROVIDER=claude

# 审批策略
GUARDCLAW_APPROVAL_MODE=auto
GUARDCLAW_AUTO_ALLOW_THRESHOLD=6
GUARDCLAW_ASK_THRESHOLD=8
GUARDCLAW_AUTO_BLOCK_THRESHOLD=9

# 服务器
PORT=3002

# Agent 连接
OPENCLAW_TOKEN=eyJ0eXAiOiJKV1Qi...

Released under the MIT License.