Part I · 问题与诊断
1
问题定义:我们在回答什么问题
核心问题
在AI技术快速发展的3-5年内,什么样的产品架构能够成为AI产品的主流形态?
这不是一个技术问题("用什么模型"),也不是一个功能问题("做什么功能"),而是一个架构问题——决定了产品的可扩展性、护城河和长期价值。
约束条件
| 约束 | 说明 |
| 时间窗口 | 3-5年,不是遥远的未来,也不是当下 |
| 技术基础 | 基于当前可见的技术趋势(LLM、Agent、MCP等) |
| 价值导向 | 能真正创造用户价值,而非技术展示 |
| 商业可行 | 能形成可持续的商业模式 |
2
现状诊断:GenAI悖论与LLM局限
GenAI悖论:人人在用,但无人真用
LLM的四大局限
| 局限 | 表现 | 后果 |
| 无记忆 | 每次对话都是全新开始 | 无法积累对用户的理解 |
| 无主动 | 只能被动响应 | 无法主动发起任务或预判需求 |
| 无行动 | 只能输出文本 | 无法执行真正的操作 |
| 无成长 | 能力不会提升 | 用100次和用1次能力一样 |
工具割裂问题
ChatGPT、Cursor、Perplexity、Notion AI、Claude... 每个场景一个工具。用户需要的不是一堆"工具",而是一个能帮他处理各种事务的"伙伴"。
3
终态判断:什么是"终极形态"
终态定义
终态 = 用户认知中的"必需品" + 难以被替代
终态的三个标准
智能手机不是"更好的功能机",而是"个人计算中心"。同样,AI产品的终极形态不是"更好的搜索引擎",而是"个人AI中心"。
4
核心思考:AgentCore + Skills 架构
AgentCore 六大能力
┌──────────────────────────────────────────────────────────────────┐
│ AgentCore 架构 │
├──────────────────────────────────────────────────────────────────┤
│ ┌───────────────┐ ┌───────────────┐ ┌───────────────┐ │
│ │ Memory │ │ Reasoning │ │ Planning │ │
│ │ 长期记忆 │ │ 推理引擎 │ │ 规划引擎 │ │
│ └───────────────┘ └───────────────┘ └───────────────┘ │
│ ┌───────────────┐ ┌───────────────┐ ┌───────────────┐ │
│ │Orchestration │ │ Reflection │ │ Integration │ │
│ │ 调度编排 │ │ 反思优化 │ │ MCP/API │ │
│ └───────────────┘ └───────────────┘ └───────────────┘ │
└──────────────────────────────────────────────────────────────────┘
| 能力 | 说明 | 解决什么问题 |
| Memory 记忆 | 长期记忆系统 | 解决LLM"无记忆"问题 |
| Reasoning 推理 | 推理引擎 | 复杂问题分析和决策 |
| Planning 规划 | 规划引擎 | 多步骤任务分解和安排 |
| Orchestration 编排 | 调度编排 | 多能力组合、并行执行 |
| Reflection 反思 | 反思优化 | 自我改进、策略调整 |
| Integration 集成 | 工具集成 | 连接外部系统(MCP/API) |
概念关系:AgentCore · Skills · Tools · MCP
| 概念 | 定义 | 类比 |
| AgentCore | 统一认知内核,六大能力基座 | 人的大脑 |
| Skills | 程序性知识包,封装领域方法论 | 人学会的技能 |
| Tools | 原子化函数调用,单一功能单元 | 人使用的工具 |
| MCP | 统一外部服务连接标准 | USB接口 |
一句话记住
AgentCore是大脑,Skills是技能,Tools是工具,MCP是接口。大脑调度技能,技能使用工具,工具通过接口连接外部世界。
Part II · 关键抉择
5
关键抉择:为什么从Code Agent出发
T型人才模型
没有人是"一开始就什么都做"然后成功的:
Elon Musk:物理+编程 → 支付 → 火箭 → 汽车 → AI
比尔·盖茨:编程 → 操作系统 → 办公软件 → 云服务
任正非:通信技术 → 设备 → 手机 → 云 → 汽车
成功路径总是:先在一个领域做到极致,然后以此为根基扩展。
为什么是Code Agent
🔧
代码是"元技能"
会写代码的AI可以"造"其他能力:自动写脚本、创建工具、生成报告
🧠
推理优势
结构化思维、精确性、可验证性——代码能跑通就是最好的验证
🔄
自我扩展
Code Agent可以为自己开发新Skill,实现能力自增长
技术层面的必然性
代码能力是Agent得以"自我进化"的根基。Claude Code、Cursor、Windsurf都从代码场景出发,因为代码是唯一可以"自己验证自己"的输出(跑通=正确),这让Agent有了闭环学习的能力。
产品路线对比
| 产品类型 | 起点 | 问题 | 预测 |
| Manus/小龙虾 | 通用能力 | 什么都做一点,什么都不精通 | 无法建立深度护城河 |
| Cursor/Windsurf | 代码能力 | 代码精通,正在向通用扩展 | 有深度根基,扩展更稳固 |
6
产品形态:为什么是"养成类游戏"
核心洞察
AI产品的终极形态,本质上是一个"养成类游戏"——用户在其中培养一个"AI人",持续增强其能力,最终为用户工作。
心理学基础
用户心态转变
传统工具用户
- "这个工具不好用,换一个"
- "有更好的替代品,试试看"
- "它只是个工具"
养成游戏用户
- "我的AI还不够强,继续培养"
- "花了这么多时间培养,舍不得换"
- "它是我的助手/伙伴/分身"
游戏化要素映射
| 养成游戏要素 | AI产品映射 |
| 角色等级/成长曲线 | Agent能力等级(新手→专家→大师) |
| 技能树 | Skill系统(可解锁/学习新技能) |
| 装备/道具 | 工具集成(MCP连接、API调用) |
| 经验值 | 使用频率+任务完成度 |
| 成就系统 | 里程碑(第一次写PPT、第一次调研...) |
7
架构设计:Agent模板 + 分身机制
核心设计
一个非常强的Agent模板,可以派生出Agent分身并行干活。
分身架构
┌─────────────────────────────────────────────────────────────────┐
│ Agent模板 + 分身架构 │
├─────────────────────────────────────────────────────────────────┤
│ ┌─────────────────┐ │
│ │ 主Agent模板 │ │
│ │ (AgentCore) │ │
│ │ • 全部能力 │ │
│ │ • 全部记忆 │ │
│ └────────┬────────┘ │
│ 派生(共享核心,独立执行) │
│ ┌─────────────────┼─────────────────┐ │
│ ▼ ▼ ▼ │
│ ┌──────────┐ ┌──────────┐ ┌──────────┐ │
│ │ 分身 A │ │ 分身 B │ │ 分身 C │ │
│ │ 独立上下文│ │ 独立上下文│ │ 独立上下文│ │
│ │ 共享Memory│ │ 共享Memory│ │ 共享Memory│ │
│ └────┬─────┘ └────┬─────┘ └────┬─────┘ │
│ └────────────────┼────────────────┘ │
│ 经验回流/统一沉淀 │
└─────────────────────────────────────────────────────────────────┘
核心设计原则
| 设计要点 | 说明 |
| 共享Memory | 所有分身共享主Agent的记忆,知道用户偏好 |
| 独立上下文 | 每个分身有独立的任务上下文,互不干扰 |
| 能力继承 | 分身继承主Agent的所有Skill |
| 经验回流 | 分身执行的结果和经验沉淀回主Agent |
| 按需创建 | 分身是临时的执行实例,任务完成即销毁 |
用户不需要知道"分身"的存在。从用户视角看:"我只是让AI同时做几件事,它都能并行处理好"——产品界面体现为:"正在执行3个任务..."的进度面板。
Part III · 验证分析
8
反面思考:为什么不是其他方案
一个完整的思考,必须回应可能的反对意见。
为什么不是 Multi-Agent 系统?
| 维度 | Multi-Agent | 单Agent + Skills |
| 协作成本 | Agent间需要复杂通信 | 天然协调 |
| 上下文一致 | 上下文传递会丢失 | 天然共享 |
| 人格统一 | 每个Agent有自己人格 | 统一人格 |
| 用户体验 | 不知道在和谁对话 | 始终同一伙伴 |
结论:Multi-Agent是技术实现方式,但从用户体验看,应该呈现为"单一Agent"。
为什么不是纯工具流(Workflow)?
纯工具流
- 固定流程,难以处理异常
- 场景变化需要重新设计
- 无学习能力
Agent + Skills
- 动态规划,灵活应变
- 同一Agent适应多场景
- 可以从执行中学习优化
本质差异:工具流是"程序",Agent是"人"。
Skills vs Tools
| 维度 | Tools | Skills |
| 定义 | 函数调用 | 程序性知识包 |
| 使用方式 | 调用执行 | 学习后执行 |
| 灵活性 | 参数固定 | 可根据上下文调整 |
| 可学习性 | 工具是固定的 | Agent可学习新Skill |
9
可行性分析:技术、商业、风险
技术可行性
| 能力模块 | 成熟度 | 当前方案 |
| Memory 记忆 | ✓ 成熟 | 向量数据库、知识图谱 |
| Reasoning 推理 | ✓ 成熟 | Claude、GPT-4等 |
| Planning 规划 | ⚠️ 基本可用 | CoT、ReAct框架 |
| Orchestration 编排 | ⚠️ 发展中 | LangGraph、CrewAI |
| Reflection 反思 | ⚠️ 早期 | Self-Refinement机制 |
| Integration 集成 | ✓ 成熟 | MCP协议、Function Calling |
护城河分析
风险分析
| 风险 | 概率 | 影响 | 应对 |
| 模型能力瓶颈 | 中 | 高 | 保持架构灵活,可切换模型 |
| 大厂碾压 | 高 | 中 | 聚焦差异化,建立数据护城河 |
| 技术路线变化 | 低 | 高 | 模块化架构可适应变化 |
10
行业验证:Anthropic 的 Skills 实践
"We used to think agents in different domains will look very different. The agent underneath is actually more universal than we thought."
"The industry doesn't need a flurry of agent-building. Instead, 'skills' can equip a general agent with domain expertise."
— Barry Zhang, Head of Applied AI, Anthropic
实际采用数据
与我们思路的对照
| 我们的架构设计 | Anthropic 的实践 |
| AgentCore + Skills | Claude Code + Skills |
| Code Agent 为核心 | "Claude Code is a general-purpose agent" |
| Skill 可插拔/可组合 | Skills 按需加载、Token 高效 |
| Agent 自主进化 | Agent 为 Agent 写 Skills |
结论
我们的思路与全球顶尖AI实验室的方向完全一致。这不是巧合,而是对AI产品本质的共同认知。