ワンプロトコル、
すべてのAIプロバイダー。
AI-Lib はAIモデルのインタラクションを標準化するオープンソースエコシステムです。一つの仕様が Rust と Python ランタイムを駆動し、35以上のプロバイダーをハードコードロジックゼロでサポートします。
3つのプロジェクト、1つのエコシステム
仕様レイヤーがルールを定義し、2つのランタイム実装がそれを実現します。
AI-Protocol
プロバイダーに依存しない仕様。YAMLマニフェストがすべてのAIプロバイダーとの通信方法を定義——ハードコードされたロジックは一切ありません。
- 35以上のプロバイダーマニフェスト
- JSON Schemaで検証
- ストリーミングイベント正規化
- エラー分類標準
- ホットリロード可能な設定
ai-lib-rust
高性能Rustランタイム。V2標準エラーコード、機能フラグ、オペレータベースのストリーミングパイプライン、コンパイル時安全性、サブミリ秒オーバーヘッド。
- オペレータベースパイプライン
- V2標準エラーコード
- 機能ゲート付きモジュール
- サーキットブレーカーとレートリミッター
- 埋め込みとキャッシュ
- プラグインシステム
- Crates.ioで公開
ai-lib-python
開発者フレンドリーなPythonランタイム。V2標準エラーコード、機能ベースのエクストラ、完全な非同期サポート、Pydantic v2型、本番グレードのテレメトリ。
- ネイティブ async/await
- V2標準エラーコード
- 機能ベースのエクストラ
- Pydantic v2型安全性
- OpenTelemetry統合
- モデルルーティングとロードバランシング
- PyPIで公開
プロトコル駆動設計
「すべてのロジックはオペレータ、すべての設定はプロトコル。」すべてのプロバイダーの挙動はYAMLで宣言——ランタイムにはハードコードされたプロバイダーロジックはゼロです。
宣言的設定
プロバイダーエンドポイント、認証、パラメータマッピング、ストリーミングデコーダー、エラーハンドリング——すべてYAMLマニフェストで宣言され、JSON Schemaで検証されます。
オペレータベースパイプライン
ストリーミングレスポンスは構成可能なオペレータを通過します:Decoder、Selector、Accumulator、FanOut、EventMapper。各オペレータはプロトコル駆動です。
ホットリロード対応
再起動なしでプロバイダー設定を更新。プロトコル変更はランタイムに自動伝播。設定で新プロバイダーを追加、コードは不要。
エコシステムアーキテクチャ
3つのレイヤーが連携——仕様がルールを定義し、ランタイムが実行し、アプリケーションが統一インターフェースを消費します。
しくみ
ユーザーリクエストから統一ストリーミングイベントまで——すべてのステップがプロトコル駆動です。
ランタイムを選ぶ
同じプロトコル、異なる強み。スタックに合うランタイムを選んでください。
| 機能 | AI-Protocol | Rust SDK | Python SDK |
|---|---|---|---|
| 型システム | JSON Schema | コンパイル時(Rust) | 実行時(Pydantic v2) |
| ストリーミング | SSE/NDJSON 仕様 | tokio async streams | async generators |
| レジリエンス | リトライポリシー仕様 | サーキットブレーカー、レートリミッター、バックプレッシャー | 全パターン対応 ResilientExecutor |
| 埋め込み | — | ベクトル演算、類似度 | ベクトル演算、類似度 |
| 配布 | GitHub / npm | Crates.io | PyPI |
| 最適な用途 | 仕様と標準 | システム、パフォーマンス重視 | ML、データサイエンス、プロトタイピング |
35以上のAIプロバイダーに対応
すべてプロトコル構成で駆動 — プロバイダーへのハードコードロジックはゼロ