驱动一切的 规范 。
AI-Protocol 将「做什么」与「怎么做」分离。V2 规范采用三层架构:核心协议 → 能力扩展 → 环境配置。供应商清单声明端点、认证、参数映射、流式解码器和错误处理 — 全部使用 YAML,全部由 JSON Schema 验证。
V2 三层架构
V2 将规范组织为三层:核心协议(基础聊天、流式、错误)→ 能力扩展(工具、视觉、结构化输出)→ 环境配置(供应商特定配置)。V2-alpha 清单已支持 OpenAI、Anthropic 和 Gemini。
协议内容
核心规范
定义标准参数(temperature、max_tokens)、流式事件(PartialContentDelta、ToolCallStarted)、错误类型(13 种)和重试策略。
37 供应商清单
每个 YAML 文件声明供应商的端点、认证、参数映射、SSE 解码器配置、错误分类、限速响应头和能力。
模型注册表
模型实例包含供应商引用、上下文窗口、能力标志和按 token 计价。支持 GPT、Claude、Gemini、DeepSeek、Qwen 等。
JSON Schema 验证
JSON Schema 2020-12 定义验证每个清单。CI 流程确保配置正确。零运行时意外。
供应商清单示例
每个供应商由一个 YAML 清单描述。它声明运行时与供应商通信所需的一切 — 端点、认证、参数映射、流式解码器、错误处理与能力。
运行时读取这些清单,将用户请求「编译」为供应商特定的 HTTP 调用。无需任何 if provider == "openai" 分支。
- 端点与认证 — 基础 URL、协议、Bearer 令牌、API 密钥头
- 参数映射 — 标准名称到供应商特定 JSON 字段
- 流式解码器 — SSE/NDJSON 格式、JSONPath 事件提取规则
- 错误分类 — HTTP 状态码到 13 种标准错误类型
id: anthropic
protocol_version: "0.7.0"
endpoint:
base_url: "https://api.anthropic.com/v1"
chat_path: "/messages"
auth:
type: bearer
token_env: "ANTHROPIC_API_KEY"
parameter_mappings:
temperature: "temperature"
max_tokens: "max_tokens"
stream: "stream"
streaming:
decoder:
format: "anthropic_sse"
event_map:
- match: "$.type == 'content_block_delta'"
emit: "PartialContentDelta"
error_classification:
by_http_status:
"429": "rate_limited"
"401": "authentication"
capabilities:
streaming: true
tools: true
vision: true 协议所处位置
AI-Protocol 是基础层。运行时消费它,应用消费运行时。
支持的供应商
每个供应商都有完整的 YAML 清单,包含端点、认证、参数映射、流式解码器、错误处理与能力标志。