胡浏览器 AI API 总览
胡浏览器 AI 让你在应用、扩展、内部工具中快速嵌入「本地优先 + 云端补强」的智能能力:绝大多数请求本地毫秒级响应,只有确实带来价值时才最小化升级云端。核心机制:LLM 模型直接下载到设备本地,通过优化的浏览器 API 高速调用,大量场景完全不走网络,既快又更私密。
🔑 核心价值
- 🔒 隐私优先:敏感文本留在本地;仅升级时发送最小、经策略脱敏后的片段
- ⚡ 极致低延迟:本地 LLM 省去网络往返,分类和流式输出"秒回"
- 💰 成本可控:智能路由把大部分任务留在本地,避免不必要的云端调用
- 🧩 统一抽象层:会话、提示、记忆跨 Web、桌面、安卓、扩展、机器人一致
- 🛡 内建安全护栏:预输出审核 + 安全过滤,敏感内容不出设备
- ♻️ 节省与可持续:增量加载 + 缓存命中,减少重复下载
🛠 自定义 API
构建专属 AI 端点:
- 🌐 创建:用自然语言描述你的目标
- 🧩 Schema:自动生成类型化输入输出
- 🚀 运行:通过 UI 或 API 快速重复执行
🧱 能力分组
⚡ 即时本地推理
- 文本分类:无需网络的瞬时标签
- 内容理解:本地解析意图 / 主题 / 情绪
- 语言检测:多语场景快速识别
🔄 高级文本处理
- 文本生成:结构化提示 → 邮件 / 回复 / 营销文案草稿
- 文本改写:语气 / 长度 / 清晰度 / 去冗余
- 翻译与语言桥接:UI & 聊天双语辅助
- 摘要:要点 / TL;DR / 高亮 / 结构化摘要
🧩 集成功能
- 会话上下文:跨端共享对话记忆和任务上下文对象
- 混合路由:本地 vs 云端动态决策
- 审核与防护:启发式 + 模型过滤、短语脱敏、策略标记
- 向量嵌入(规划中):本地语义索引,用于语义搜索和聚类
🏗 架构模式
1️⃣ 纯本地(Local Only)
所有推理在胡浏览器运行时内完成,使用下载到本地的 LLM 模型,通过浏览器 API 直接访问:
- 最快性能:所有操作零网络延迟
- 最大隐私:数据永不离开设备
- 离线可用:无网络也能完整使用
- 即时分类:文本分析通过本地处理瞬间完成
2️⃣ 智能混合(Hybrid Smart Fallback)
先尝试本地,必要时再升级云端:
- 主要处理通过浏览器 API 调用本地 LLM
- 仅在窗口溢出、策略要求、质量标志时升级云端
- 90%+ 操作无需网络
- 两全其美:速度 + 需要时的高级能力
3️⃣ 纯云端(Cloud Only)
企业级直连用法:
- 集中日志和配额管理
- 复杂任务的高级模型能力
- 依赖网络但质量最高
路由决策信号示例(参考现代浏览器本地 AI 模式)
- token 长度 vs 本地窗口
- 安全/分类需要高级模型
- 用户质量覆盖("润色"、"进一步优化")
- 设备能力(内存、电量提示)用于模型大小选择
- 配额/限流态势(接近限额时降低升级频率)
🔌 集成界面(Surfaces)
- Web:浏览器内 API(特性探测 → 渐进增强)
- 桌面:Bridge 暴露类 Node 异步接口
- Android:Kotlin Helper + WebView 一致行为;大模型拆分交付
- 浏览器扩展:content script 安全包装 + background 持久层
- 聊天 / Bot:会话态映射(Telegram / 内部 IM)
- CLI & REST:批量摘要 / 翻译流水线 / 运营脚本
⚡ 技术架构:免网络 AI
🧠 核心创新
胡浏览器 AI 的突破在于大部分 AI 操作完全不走网络:
- 小型 LLM 模型一次下载,本地存储
- 浏览器 API 访问直连模型,即时通信
- 零网络延迟用于分类、分析、文本处理
- 完全离线能力不牺牲 AI 功能
🔧 工作流程
- 模型下载:轻量 LLM 模型初始化时获取一次
- 浏览器集成:模型直接对接浏览器 API
- 本地处理:文本分析在设备上即时完成
- 即时结果:无网络往返 = 立刻响应
🎯 速度对比
- 传统云端 AI:单请求 200-500ms+ 网络延迟
- 胡浏览器本地 AI:通过浏览器 API < 10ms 处理时间
- 结果:分类和文本分析快 20-50 倍
🧠 本地智能原则
胡浏览器 AI 利用直接下载到设备的轻量 LLM 模型,通过浏览器 API 访问实现前所未有的速度和隐私,无需网络依赖。
🚀 免网络处理
- 零延迟分类:文本分析通过浏览器 API 即时完成
- 离线能力:无网络也能完整使用
- 无数据传输:基础操作敏感内容不离开设备
🎯 模型架构
- 紧凑高效:小型 LLM 模型针对本地性能优化
- 浏览器原生:通过标准浏览器 API 直接集成
- 快速加载:轻量模型启动迅速
- 渐进增强:探测模型可用性;缺失则降级到简单规则
- 用户同意:升级时显示原因 + 最小数据披露
- 沙箱执行:严格内存边界
- 能耗感知:省电模式延后大模型预热
🚦 混合路由策略(Policy)
- 本地优先,价值明确再升级
- 策略函数:输入统计 + 设备态 + 用户意图 → route + reason
- 产出审计字符串(可调试 / 可埋点)
- Reason Codes:length_overflow / safety_advanced / user_quality / model_cold / quota_pressure
🛡 审核与防护(Moderation & Guardrails)
- 预输出拦截:密码 / 凭证 / 个人敏感片段 → 脱敏或遮盖
- 分类维度:自伤 / 暴力 / 个人信息 / 受限话题
- 动作矩阵:block | soften | mask | escalate
- 审计缓冲:环形内存(默认不落盘)
📦 部署模式
- Web:空闲懒加载 + 版本化校验和缓存
- 桌面:预打包快照(0 冷启动)+ 周期差分更新
- Android:Split Install / Asset Delivery;启用前哈希比对
- 扩展:持久缓存 + 完整性二次校验
- 可选中继:企业集中签名 / 合规日志
🔍 可观测性(Observability)
- 本地 token 使用:session / total
- 升级次数 + 归因标签
- 延迟 p50 / p95(local vs cloud)
- 防护触发直方图(类别 / 动作)
- 模型缓存命中 / 热启动时间
🔒 安全与隐私
- 默认短暂(ephemeral)对话缓冲;应用自行决定持久化
- 升级最小字段 + 加盐哈希用户标识
- 可选加密封装持久存储
- Origin 绑定:防跨站调用 / 注入
📜 错误分类
- AUTH_MISSING:缺少密钥 → 传入或改走本地
- MODEL_UNAVAILABLE:未下载 → 触发预加载后重试
- LIMIT_CONTEXT:超窗口 → 分块 / 升级
- SAFETY_BLOCK:被安全策略拦截 → 改写提示
- NETWORK_FAIL:云升级失败 → 退避 + 本地降级
🚀 性能优化建议
🔥 加速本地
- 空闲预热模型:系统不忙时下载 LLM 模型
- 尽早流式输出:通过浏览器 API 流式传输实现即时感知响应
- 缓存常用模型:保持热门模型预热状态,零延迟启动
📊 优化处理
- 滚动摘要旧上下文(语义压缩)回收窗口
- 超大文档分块(摘要的摘要策略)
- 缓存向量结果(规划中)避免重复语义查询
- 高峰期前预热关键模型
⚡ 网络消除收益
- 分类任务:100% 本地处理,无需网络
- 文本分析:浏览器 API 直连即时结果
- 内容过滤:无外部调用的实时审核
🧪 测试策略
- 黄金提示快照(简短稳定行)
- temperature=0 保证回归可重复
- 覆盖集:空输入 / 超长 / 多语言 / emoji / 噪声
- 安全 fuzz:注入敏感片段验证脱敏
📅 指示性路线图
- Q4:本地向量检索 + 语义搜索助手
- Q1:轻量多模态(图 → 文)解析
- Q2:可插拔 Adapter 微调套件
✅ 模式选择参考
- 极致隐私 / 断网场景 → Local
- 性能 + 质量平衡 → Hybrid
- 结果质量绝对优先 → Cloud
🛠 CLI(预览概念)
- 将文件摘要为要点列表
- 将文本文件翻译为目标语言代码
- 查看最近 N 条提示的路由统计
🌟 集成检查清单
- 模型预加载路径已验证
- 升级策略用合成提示回放测试
- 安全钩子触发 + 结果复核
- 延迟预算对比(满足要求)
- 回退体验(加载动画 → 流式文本)已打磨
🚀 实例体验
想现在就体验胡浏览器 AI 的本地能力?看看 自由一号 - 我们的边缘 AI 引擎,展示同样的极速、隐私优先技术:
- 📱 100% 离线安卓 AI - 体验真正的本地处理
- 🌐 多平台同步 - 跨 Web、桌面、移动端的统一 AI 会话
- 🔒 零追踪 - 可信赖的隐私优先 AI
还有想要的能力?欢迎联系,一起共建胡浏览器 AI 平台。
