SelfReason AI Gateway
1回の実装で、用途に応じて最適な実行先を選べます。通常はローカル優先、必要なときだけクラウドへエスカレーションし、障害時は自動フォールバックで安定運用できます。
このゲートウェイを作った理由
- ローカルとクラウドを分けて実装しなくていい、OpenAI互換の単一インターフェース
- プライバシー重視・低遅延の処理をローカル優先で実行
- 私たちのクライアントアプリ(Web、Desktop、Android、拡張機能、Bot)でも同じゲートウェイを利用
- セッション、プロンプト、ツール、スキーマを複数プラットフォームで統一
- モデル障害時に自動で切り替え、ユーザー影響を最小化
できること
ルーティング
local: SelfReasonのオンデバイス実行を強制auto: まずローカル、制約がある場合のみクラウドへ切り替えcloud: 大規模コンテキストや複雑推論をクラウドで処理fallback: バックアップモデルを定義して可用性を向上
共通の呼び出し契約
- OpenAI互換のチャット呼び出しパターン
- リアルタイムストリーミング
- ツール呼び出しによる業務連携
- 型付きJSONの構造化出力
- レイテンシやルート理由の可観測性
実装イメージ
次に読む
- オンデバイス推論中心なら SelfReason ローカル AI API
- プロダクト全体像は SelfReason
必要なモデルや機能があれば、リクエストを送ってください。SelfReason AI Gateway の改善に反映します。
