规范 v0.5.0 · 35+ 供应商
驱动一切的 规范 。
AI-Protocol 将「做什么」与「怎么做」分离。V2 规范采用三层架构:核心协议 → 能力扩展 → 环境配置。供应商清单声明端点、认证、参数映射、流式解码器和错误处理 — 全部使用 YAML,全部由 JSON Schema 验证。
V2 三层架构
V2 将规范组织为三层:核心协议(基础聊天、流式、错误)→ 能力扩展(工具、视觉、结构化输出)→ 环境配置(供应商特定配置)。V2-alpha 清单已支持 OpenAI、Anthropic 和 Gemini。
协议内容
spec.yaml
核心规范
定义标准参数(temperature、max_tokens)、流式事件(PartialContentDelta、ToolCallStarted)、错误类型(13 种)和重试策略。
providers/
35+ 供应商清单
每个 YAML 文件声明供应商的端点、认证、参数映射、SSE 解码器配置、错误分类、限速响应头和能力。
models/
模型注册表
模型实例包含供应商引用、上下文窗口、能力标志和按 token 计价。支持 GPT、Claude、Gemini、DeepSeek、Qwen 等。
schemas/
JSON Schema 验证
JSON Schema 2020-12 定义验证每个清单。CI 流程确保配置正确。零运行时意外。
供应商清单示例
每个供应商由一个 YAML 清单描述。它声明运行时与供应商通信所需的一切 — 端点、认证、参数映射、流式解码器、错误处理与能力。
运行时读取这些清单,将用户请求「编译」为供应商特定的 HTTP 调用。无需任何 if provider == "openai" 分支。
- 端点与认证 — 基础 URL、协议、Bearer 令牌、API 密钥头
- 参数映射 — 标准名称到供应商特定 JSON 字段
- 流式解码器 — SSE/NDJSON 格式、JSONPath 事件提取规则
- 错误分类 — HTTP 状态码到 13 种标准错误类型
id: anthropic
protocol_version: "0.5.0"
endpoint:
base_url: "https://api.anthropic.com/v1"
chat_path: "/messages"
auth:
type: bearer
token_env: "ANTHROPIC_API_KEY"
parameter_mappings:
temperature: "temperature"
max_tokens: "max_tokens"
stream: "stream"
streaming:
decoder:
format: "anthropic_sse"
event_map:
- match: "$.type == 'content_block_delta'"
emit: "PartialContentDelta"
error_classification:
by_http_status:
"429": "rate_limited"
"401": "authentication"
capabilities:
streaming: true
tools: true
vision: true 协议所处位置
AI-Protocol 是基础层。运行时消费它,应用消费运行时。
支持的供应商
每个供应商都有完整的 YAML 清单,包含端点、认证、参数映射、流式解码器、错误处理与能力标志。
OpenAI
Anthropic
Google Gemini
Groq
Mistral
DeepSeek
Qwen
Cohere
Azure OpenAI
Together AI
Perplexity
NVIDIA
Fireworks AI
Replicate
OpenRouter
DeepInfra
AI21 Labs
Cerebras
Lepton AI
Zhipu GLM
Doubao
Baidu ERNIE
Tencent Hunyuan
iFlytek Spark
Moonshot
MiniMax
Baichuan
Yi / 01.AI
SiliconFlow
SenseNova