将 AI 带到边缘设备

我们专注于将 AI 模型直接部署在消费级设备上——让 AI 更快、更私密,人人可用。

研究

swift-qwen3-tts

端侧文本转语音

Qwen3 TTS 0.6B 的原生 Swift 实现,支持实时端侧语音合成。

  • 67% 模型压缩 (2.35 GB → 808 MB)
  • 实时合成 (RTF 0.68x)
  • 支持 12 种语言
Gemma-Prune

端侧视觉语言模型

多阶段压缩管线,将 Gemma 3 4B VLM 部署到消费级硬件。

  • 25% 模型压缩 (2.8 GB → 2.1 GB)
  • 110 tok/s 文本生成
  • 3.4x 图像处理加速
OptMLX

MLX 内存优化研究

探索 Apple Silicon 上 MLX 框架的内存优化技术。

  • mmap 加载速度提升高达 20 倍
  • 零拷贝模型加载
  • 全面的性能基准测试

关于

AtomGradient 是一个独立研究团队,致力于让 AI 在边缘设备上高效运行。我们相信强大的 AI 应该是私密的、可及的,并且不依赖云端。我们所有的研究都是开源的。

我们的研究驱动着 EchoStream AI ——一条将端侧 AI 能力带入实际应用的产品线。

边缘 AI隐私开放研究

与我们一起构建

我们正在寻找想要突破端侧 AI 边界的研究人员和工程师。

查看开放职位