コンテンツにスキップ

はじめに

AI-Lib は、アプリケーションが AI モデルとやり取りする方法を標準化するオープンソースのエコシステムです。各 AI サービス用にプロバイダー固有のコードを書く代わりに、単一の統合 API を使用し、プロトコル設定が残りを処理します。

すべてのロジックはオペレーター、すべての設定はプロトコル。

従来の AI SDK は、プロバイダー固有のロジックをコードに組み込んでいます。異なる HTTP エンドポイント、異なるパラメータ名、異なるストリーミング形式、異なるエラーコード。プロバイダーを切り替えると、コードを書き直すことになります。

AI-Lib は別のアプローチを取ります:

  • AI-Protocol は YAML マニフェストで各プロバイダーとの通信方法を定義します
  • ランタイム実装(Rust、Python)はこれらのマニフェストを読み取り、リクエストを実行します
  • ハードコーディングされたロジックはゼロif provider == "openai" のような分岐はどこにもありません

3 つのプロジェクト、1 つのエコシステム

Section titled “3 つのプロジェクト、1 つのエコシステム”
プロジェクト役割言語バージョン配布
AI-Protocol仕様レイヤーYAML/JSONv0.5.0GitHub
ai-lib-rustランタイム実装Rustv0.7.1Crates.io
ai-lib-pythonランタイム実装Pythonv0.6.0PyPI

プロトコル v0.5.0 リリースでは V2 プロトコル機能 を導入しています:3 層アーキテクチャ、標準化されたエラーコード、機能拡張用のフィーチャーフラグ、ランタイム間で同一の動作を保証するコンプライアンステストスイート。

基盤となるものです。YAML マニフェストは 35 以上の AI プロバイダーを記述します:エンドポイント、認証、パラメータマッピング、ストリーミングデコーダー設定、エラー分類ルール、機能。

高性能ランタイムです。オペレーターベースのストリーミングパイプラインが、構成可能なステージ(Decoder → Selector → Accumulator → EventMapper)を通じてレスポンスを処理します。サーキットブレーカー、レートリミッター、バックプレッシャーによる組み込みの耐障害性。Crates.io で公開されています。

開発者フレンドリーなランタイムです。完全な async/await サポート、Pydantic v2 による型安全性、本番グレードのテレメトリ(OpenTelemetry + Prometheus)、インテリジェントなモデルルーティング。PyPI で公開されています。

  • 35 以上のプロバイダー — OpenAI、Anthropic、Gemini、DeepSeek、Qwen など
  • 統合ストリーミング — プロバイダーに関係なく同じ StreamingEvent
  • プロトコル駆動 — すべての動作は YAML で定義され、コードには記述しません
  • ホットリロード — 再起動せずにプロバイダー設定を更新可能
  • 耐障害性 — サーキットブレーカー、レート制限、リトライ、フォールバック
  • ツール呼び出し — プロバイダー間で統一された function calling
  • 埋め込み — ベクトル操作と類似検索
  • 型安全性 — コンパイル時(Rust)およびランタイム(Pydantic)検証