Nerd Agent:从对话到行动的 AI 研究智能体 - Notez Nerd
Nerd Agent 不只是聊天,它能搜索文献、编辑文档、整理表格、管理任务,还能记住你的研究偏好。了解这个 AI 智能体如何成为你的研究副手。
一个不只是回答问题的 AI 研究助手——它能搜索你的文献、编辑你的草稿、整理你的数据、记住你的偏好,并在多个任务之间自主协调。
不只是聊天:什么让 Agent 不同于普通 AI 对话
大多数 AI 工具的交互方式是一问一答:你提出问题,它返回文字。这对快速查询足够了,但研究工作的现实远比这复杂——你需要在多份文献间交叉比对、从 PDF 中提取数据填入表格、根据发现不断修改文档,还要管理一长串待办事项。
Nerd Agent 的核心差异在于工具调用(Tool Calling)。它不是只能输出文字的对话模型,而是能够直接操作你的研究环境:语义搜索和全文检索你的知识库,在文档编辑器中插入、替换或追加内容,对电子表格执行读取、编辑和公式操作,管理文件和待办任务。这些能力意味着 Agent 可以在你的工作空间里真正"动手做事",而不是给你一段建议然后让你自己去执行。
这让复杂任务的处理方式发生了根本变化。你可以告诉 Nerd Agent:"把这 20 篇论文中关于方法论的关键发现提取到表格里,然后在文档中起草一个文献综述章节。"Agent 会自主拆解这个任务:先搜索相关文献,再从中提取关键数据点填入电子表格,最后在文档编辑器中组织成结构化的段落。整个流程中,你可以实时看到它在做什么,随时介入或调整方向。
这种"理解意图 - 拆解任务 - 调用工具 - 完成执行"的闭环,是 Nerd Agent 区别于聊天机器人的关键。它不是更聪明的对话,是更完整的协作。
结构化工作流:研究过程可观测、可干预
研究工作不是单一动作,而是由多个环节串联而成的过程。Nerd Agent 将常见的研究活动组织成了结构化工作流,每种工作流包含明确的步骤序列,自动推进,同时保持全程透明。
以研究工作流(Research Workflow)为例,它包括四个阶段:查询分析、文献收集、信息提取、综合归纳。当你启动一个研究任务时,Agent 首先解析你的问题,确定需要搜索的方向;然后在你的知识库中进行多维度检索;接着从检索结果中提取关键信息,整理成结构化数据;最后将这些发现综合成连贯的分析。
写作工作流(Write Workflow)同样遵循清晰的阶段划分:主题分析、大纲生成、初稿撰写、润色完善。Agent 不会直接"一键生成"一篇文章,而是按照研究者实际的写作过程逐步推进,每个阶段都产出可审查的中间结果。
每个步骤都有明确的状态标记——等待中、运行中、已完成、失败——你可以在界面上实时追踪进度。更重要的是,这不是一个黑箱流程。你可以在任何阶段暂停、审查当前结果、修改指令或调整方向。工作流记录了每次工具调用的详细结果,事后也可以回溯查看 Agent 在每个步骤做了什么决策、使用了什么工具、得到了什么结果。
除了 Research 和 Write,Nerd Agent 还提供搜索、编辑器操作、表格处理、待办管理、记忆管理、标签管理等多种工作流,覆盖了从信息收集到成果输出的完整研究链条。
子智能体协作:复杂任务的并行分解
当一个任务足够复杂,单线程执行既慢又容易遗漏。Nerd Agent 支持子智能体委派(Sub-agent Delegation)——将一个大任务拆分给最多 5 个子智能体并行处理,每个子智能体拥有独立的工具调用能力。
想象你正在做一项交叉文献分析。Nerd Agent 可以同时派出多个子智能体:一个扫描方法论相关内容并提取关键发现,另一个将统计数据和量化结论整理到电子表格中,第三个搜索可能存在的反面证据或矛盾论点。这些子智能体各自独立工作,同时又在同一个研究任务框架下协调推进。
这种并行机制的价值不仅在于速度。更重要的是,它让 Agent 能够同时从多个视角切入同一个问题,减少单一路径可能带来的盲区。当你拿到汇总结果时,你看到的不是一条线性推理,而是多个角度交叉验证后的综合图景。
跨会话记忆:Agent 越用越懂你的研究
短期对话结束后,大多数 AI 工具会遗忘一切。下次对话,你需要从头解释背景、重述偏好、重新提供上下文。对于持续数周甚至数月的研究项目来说,这种反复的"冷启动"是巨大的摩擦。
Nerd Agent 的记忆系统(Memory System)改变了这一点。在每次对话过程中,Agent 会自动从交流内容中提取关键信息,生成结构化记忆条目。每条记忆附带重要性评分(0-100)和 3 到 8 个关键词标签,按对话来源线程组织,支持置顶和归档操作。
这意味着 Agent 会逐渐积累对你研究领域的理解:你关注的核心问题、你偏好的分析框架、你常用的术语、你之前做出的关键判断。当你在新的对话中提出相关问题时,Agent 能够调取这些记忆,提供更精准且上下文连贯的协助——而不是每次都从零开始。记忆系统让研究的连续性得以跨越单次对话的边界,真正实现"越用越懂你"的渐进式适配。
你的模型,你做主
Nerd Agent 构建在 Mastra AI 框架之上,结合 Vercel AI SDK 提供多模型支持。当前支持 7 家大语言模型供应商:OpenAI、Anthropic Claude、Google Gemini、DeepSeek、OpenRouter、Ollama 以及 NotezAI。
这种多模型架构的意义在于灵活性和自主权。你可以根据任务特点选择最合适的模型——对于需要长上下文理解的文献综述,选择上下文窗口更大的模型;对于需要快速迭代的草稿生成,选择响应更快的模型。通过 Ollama,你还可以运行完全本地的开源模型,确保敏感数据不离开你的设备。
添加模型的过程也很简单:填入 API Key(系统会加密存储),测试连接是否正常,即可开始使用。如果你所在的网络环境需要代理,系统也提供了对应的配置支持。这套设计与 Notez Nerd 的本地优先理念一脉相承——你的数据、你的模型、你的选择。
从一个具体任务开始
如果你对 Nerd Agent 感兴趣,最好的试用方式不是泛泛地"聊一聊",而是带着一个你正在做的真实研究任务进入。
选一个你手头的具体问题——比如"帮我从这批文献中提取所有关于样本量和实验条件的数据",或者"根据我收集的这些资料,起草一个关于该方法优缺点的分析框架"。给 Agent 一个需要跨越搜索、数据整理和文档编辑的任务,然后观察它如何拆解、执行和呈现结果。你会更直观地理解,一个能"动手做事"的 AI 智能体和一个只会"给建议"的聊天工具之间的差距。