SelfReason ローカル AI API
速度とプライバシーを優先するなら、ローカル API が最適です。モデルを端末上で実行できるため、日常的な処理をネットワークなしで完結できます。
得意なユースケース
- テキスト分類や意図判定
- 文面の書き換え(トーン、長さ、明瞭性)
- 会話や記事、チケットの要約
- 言語判定と軽量翻訳
- 出力前の安全チェックとマスキング
- オフラインまたは不安定な回線環境
ローカル優先の流れ
- 初期設定やアイドル時にモデルを事前ダウンロード
- アプリ側ランタイムと API を接続
- まずローカルで推論
- 必要時のみゲートウェイ経由でクラウドへ切り替え
クラウドへ切り替える目安
- 入力がローカルのコンテキスト窓を超える
- より高品質な推論が必要
- 監査や統制のために集中管理が必要
よくあるエラー
MODEL_UNAVAILABLE: モデル未準備LIMIT_CONTEXT: コンテキスト超過SAFETY_BLOCK: 安全ポリシーでブロックDEVICE_CAPACITY: 端末リソース不足
関連ページ
- ルーティングとフォールバックは SelfReason AI Gateway
- プロダクト全体は SelfReason
ローカルの速さとクラウドの保険を両立したい場合は、このローカル API とゲートウェイの組み合わせが最も実用的です。
