为开发者打造

为每台设备赋予智能定义。

即将推出

我们正在加紧打磨产品,力求为开发者带来最极致的端侧 AI 体验。下方是我们最新的真机实测数据 — 每一个数字都来自真实设备,不是模拟器。

1
优化Edge Studio压缩与优化模型
2
集成Edge Runtime端侧推理 SDK
3
发布Edge Scaffold生成可发布应用
真机实测

在你的 iPhone 上,20 轮深度对话不掉速

9B 参数大模型、20 轮连续对话、超过 20,000 tokens 上下文 — 相当于一本小书的篇幅。

20
连续深度对话不中断、不重置
26K+
上下文容量一本小书的篇幅
7.5tok/s
T20 持续速度iPhone 第 20 轮
0
崩溃8GB 设备全程稳定

Edge Runtime vs 标准方案 — iPad Air M3, Qwen3.5-9B

tok/s = 每秒生成 token 数,越高越流畅。标准方案指开源 MLX 原版实现。

对话轮次上下文Edge Runtime标准方案提升
T11K16.517.8-7%
T55K9.66.8+41%
T1010K6.95.4+28%
T1516K4.83.6+33%
T2021K3.51.8+94%

生成速度曲线 (tok/s)

Qwen3.5-9B · 20 轮深度技术对话 · Edge Runtime

181260
T1T5T10T15T20
iPad Air M3
iPhone 17 Pro
iPhone Air
iPhone 17e
iPhone 15 PM
标准方案 (iPad)
iPad Air M3M3 · 8GB
20/20
T116.5
T203.5
tok/s
首轮最快
iPhone 17 ProA19 Pro · 12GB
20/20
T112.6
T2010.8
tok/s
旗舰级体验
iPhone AirA19 · 12GB
20/20
T19.5
T207.5
tok/s
零衰减标杆
iPhone 15 PMA17 Pro · 8GB
17/20
T17.4
T172.9
tok/s
上一代旗舰
iPhone 17eA19 · 8GB
20/20
T19.2
T202.7
tok/s
入门级也能跑
!

标准方案在 iPhone 上第 2 轮即崩溃

没有核心推理算法的原版实现,在 iPhone 17 Pro 和 iPhone 17e 上均于第 2 轮崩溃。Edge Runtime 的核心推理算法让同一设备流畅完成全部 20 轮对话。

20 轮实测上下文 21,000+ tokens。以我们当前的算法能力,可支撑约 26,000 tokens 的连续对话 — 相当于阅读并记忆一整本书的内容,全部在你的手机上完成。

Note: iPhone Air、iPhone 17 Pro 和 Pro Max 均拥有 12GB 物理内存,但 iOS 限制单个 App 最多只能使用约 6GB。我们不清楚苹果设置这一限制的原因。如果未来 Apple 放开更多内存给应用,我们相信端侧 AI 的表现将会更加出色。

Edge 产品系列

一个品牌,三个工具,完整闭环

Edge Studio

预览版

AI 驱动的模型智能分析与精准优化

智能分析引擎,自动检测冗余层、低效神经元和优化机会。独创 7 步渐进式优化管线,执行神经元级精准剪枝——而非粗粒度压缩——配合实时 Perplexity 监控,确保每一步优化都不损失质量。

  • 智能模型分析:自动识别冗余层与低效神经元
  • 神经元级精准剪枝 + Perplexity 质量守护
  • 7 步渐进优化:词表 → 神经元 → 层 → 量化
  • 每步内置基准验证(磁盘、内存、tok/s、PPL)

Edge Runtime

预览版

自研推理算法,为 Apple Silicon 而生

自研推理引擎,具备独创的 ANE-GPU 协同调度、分离式推理架构和零拷贝模型加载。不是接口封装——原创算法通过 ANE 批量调度和并发管线执行,实现 11.3x Prefill 加速和 79% GPU 功耗降低。

  • 自研 ANE-GPU 协同调度:11.3x Prefill 加速
  • 分离式推理:ANE 预填充 + GPU 解码并行执行
  • 零拷贝模型加载:20x 提速,无内存峰值
  • 原生支持 Edge Studio 非标准优化架构

Edge Scaffold

预览版

终极端侧 AI 部署方案

业界唯一从优化模型到上架 App Store 的端到端管线。集成 Edge Runtime 自研推理引擎、ODR 智能模型分发和 ESG 碳排放追踪——其他平台无法提供的完整部署方案。

  • 端到端:优化模型 → App Store 应用,一条管线完成
  • ODR 智能模型分发(无需打包大文件)
  • 一个配置文件:应用名、模型、System Prompt,分钟级发布
  • 内置 ESG 碳排放追踪,满足可持续发展合规

更多产品

Vanilla

Vanilla

已发布

大模型推理可视化与交互式探索

快速开始

import EdgeInference

let engine = LLMEngine()
try await engine.load(config: .find(modelID: "qwen3.5-0.8b")!)

for try await chunk in engine.generate(
    messages: [.user("What is edge AI?")]
) {
    print(chunk.text, terminator: "")
}

5 行 Swift 代码——加载模型,流式生成。就这么简单。

获取早期访问

注册以获得 AtomGradient Edge 系列产品公开发布时的通知。我们会发送配置指南并邀请你加入开发者预览计划。

已有数百位开发者加入等待名单

AtomGradient 致力于在每个边缘侧部署智能,不仅仅是 Apple — 请保持关注。