用交互式可视化,从 Token 到推理引擎,拆解大模型核心概念。
从零开始理解大模型的核心构件——Token、向量、注意力、量化、训练与推理。
探索推理加速、模型压缩、硬件架构和 AI Agent——从原理到 AtomGradient 的研究成果。
大模型生成文字的两个阶段:「理解」和「输出」
为什么长对话的 Token 会更便宜?缓存命中的秘密
为什么 DeepSeek 有 671B 参数却跑得飞快?
大模型如何「教」小模型?知识迁移的艺术
AI 怎么学会「说人话」?从预训练到对齐
Apple 芯片的秘密武器:ANE+GPU 协同推理
如何用「小模型猜、大模型验」让推理速度翻倍?
为什么 Apple Silicon 特别适合跑 AI?
如何让模型加载快 20 倍?mmap 的魔法
67% 压缩后手机怎么实时「说话」?
让手机「看懂」照片需要几步?
不上传数据也能获得个性化 AI?跨域数据的涌现智能
为什么「想一想再回答」能让 AI 变聪明?
AI 怎么从「聊天」进化到「干活」?
AI 怎么写代码、跑测试、修 Bug?从 Copilot 到 Claude Code