AI-Lib AI-Lib
オープンソースエコシステム

ワンプロトコル、
すべてのAIプロバイダー。

AI-Lib はAIモデルのインタラクションを標準化するオープンソースエコシステムです。一つの仕様が Rust と Python ランタイムを駆動し、35以上のプロバイダーをハードコードロジックゼロでサポートします。

35+
AIプロバイダー
3
プロジェクト
0
ハードコード
2
ランタイム

3つのプロジェクト、1つのエコシステム

仕様レイヤーがルールを定義し、2つのランタイム実装がそれを実現します。

プロトコル駆動設計

「すべてのロジックはオペレータ、すべての設定はプロトコル。」すべてのプロバイダーの挙動はYAMLで宣言——ランタイムにはハードコードされたプロバイダーロジックはゼロです。

宣言的設定

プロバイダーエンドポイント、認証、パラメータマッピング、ストリーミングデコーダー、エラーハンドリング——すべてYAMLマニフェストで宣言され、JSON Schemaで検証されます。

オペレータベースパイプライン

ストリーミングレスポンスは構成可能なオペレータを通過します:Decoder、Selector、Accumulator、FanOut、EventMapper。各オペレータはプロトコル駆動です。

ホットリロード対応

再起動なしでプロバイダー設定を更新。プロトコル変更はランタイムに自動伝播。設定で新プロバイダーを追加、コードは不要。

エコシステムアーキテクチャ

3つのレイヤーが連携——仕様がルールを定義し、ランタイムが実行し、アプリケーションが統一インターフェースを消費します。

AI-Lib Ecosystem Architecture APPLICATION RUNTIME PROTOCOL Web Apps / API Services Rust / Python Your application code AI Agents Multi-turn / Tool Calling CLI Tools Batch / Data Pipelines ai-lib-rust v0.6.6 AiClient Pipeline Transport Resilience Embeddings Cache / Batch Crates.io · tokio + reqwest · <1ms overhead ai-lib-python v0.5.0 AiClient Pipeline Transport Resilience Telemetry Routing PyPI · httpx + Pydantic v2 · async/await Load Manifests AI-Protocol v1.5 spec.yaml Core Specification providers/*.yaml 35+ Provider Manifests models/*.yaml Model Registry schemas/ JSON Schema YAML definitions → JSON compilation → Runtime consumption · Vendor neutral

しくみ

ユーザーリクエストから統一ストリーミングイベントまで——すべてのステップがプロトコル駆動です。

Request-Response Data Flow REQUEST FLOW → User chat() AiClient UnifiedRequest Protocol compile_request() Transport HTTP POST AI Provider OpenAI, etc. ← RESPONSE FLOW (SSE/JSON) Byte Stream SSE / NDJSON Decoder JSON Frames Pipeline Select → Accumulate → Map EventMapper StreamingEvent Application Unified Events All parameter mapping and event normalization driven by protocol manifests — zero hardcoded logic Unified events: PartialContentDelta · ToolCallStarted · PartialToolCall · StreamEnd

ランタイムを選ぶ

同じプロトコル、異なる強み。スタックに合うランタイムを選んでください。

機能 AI-Protocol Rust SDK Python SDK
型システム JSON Schema コンパイル時(Rust) 実行時(Pydantic v2)
ストリーミング SSE/NDJSON 仕様 tokio async streams async generators
レジリエンス リトライポリシー仕様 サーキットブレーカー、レートリミッター、バックプレッシャー 全パターン対応 ResilientExecutor
埋め込み ベクトル演算、類似度 ベクトル演算、類似度
配布 GitHub / npm Crates.io PyPI
最適な用途 仕様と標準 システム、パフォーマンス重視 ML、データサイエンス、プロトタイピング

35以上のAIプロバイダーに対応

すべてプロトコル構成で駆動 — プロバイダーへのハードコードロジックはゼロ

グローバルプロバイダー

OpenAI OpenAI
Anthropic Anthropic
Google Gemini Google Gemini
Groq Groq
Mistral Mistral
Cohere Cohere
Azure OpenAI Azure OpenAI
Together AI Together AI
Hugging Face Hugging Face
Grok Grok
Ollama Ollama
D
DeepInfra
O
OpenRouter
N
NVIDIA
F
Fireworks
R
Replicate
A
AI21 Labs
C
Cerebras
P
Perplexity
L
Lepton AI

中国リージョン

DeepSeek DeepSeek
Qwen Qwen
D
Doubao
Z
Zhipu GLM
Baidu ERNIE Baidu ERNIE
Tencent Hunyuan Tencent Hunyuan
iFlytek Spark iFlytek Spark
Moonshot Moonshot
M
MiniMax
B
Baichuan
Y
Yi / 01.AI
S
SiliconFlow
S
SenseNova
T
Tiangong

始める準備はできましたか?

ドキュメントを読み、ランタイムを選び、今日から35以上のAIプロバイダーで開発を始めましょう。