SelfReason ローカル AI API

速度とプライバシーを優先するなら、ローカル API が最適です。モデルを端末上で実行できるため、日常的な処理をネットワークなしで完結できます。

得意なユースケース

  • テキスト分類や意図判定
  • 文面の書き換え(トーン、長さ、明瞭性)
  • 会話や記事、チケットの要約
  • 言語判定と軽量翻訳
  • 出力前の安全チェックとマスキング
  • オフラインまたは不安定な回線環境

ローカル優先の流れ

  1. 初期設定やアイドル時にモデルを事前ダウンロード
  2. アプリ側ランタイムと API を接続
  3. まずローカルで推論
  4. 必要時のみゲートウェイ経由でクラウドへ切り替え

クラウドへ切り替える目安

  • 入力がローカルのコンテキスト窓を超える
  • より高品質な推論が必要
  • 監査や統制のために集中管理が必要

よくあるエラー

  • MODEL_UNAVAILABLE: モデル未準備
  • LIMIT_CONTEXT: コンテキスト超過
  • SAFETY_BLOCK: 安全ポリシーでブロック
  • DEVICE_CAPACITY: 端末リソース不足

関連ページ

ローカルの速さとクラウドの保険を両立したい場合は、このローカル API とゲートウェイの組み合わせが最も実用的です。