Agenten-Wissensbasis
Ein Beitrag pro Woche. Was im Agenten-Ökosystem wirklich zählt.
本周智能体生态聚焦:这一周的信号有点乱,但有几件事值得盯着看 这周 ArXiv 井喷了十几篇跟 agent 相关的论文,Google 发了第八代 TPU,OpenAI 推了 GPT5.5,Zed 悄悄上了并行 agent。表面热闹,但仔细拆开看——工具调用开销、记忆结构、安全攻击这三条线最值得工程师花时间。其他多是老调重弹。 ArXiv 这周三篇值得读完,其他可以扫个标题 先说最抢眼的:[Tool Attention Is All You Need](https://arxi
本周智能体生态聚焦:这周最让我上头的不是 GPT5.5,而是 MCP 税终于有人认真算了 这周 ArXiv 冒出一篇《Tool Attention Is All You Need》,标题党了点,但内容硬核:它把 MCP 那个每轮吞 10k60k token 的开销量化了,还给了个动态门控方案。我读的时候一直点头——干过 agent 编排的人都懂,工具 schema 塞进 KV cache 那个痛。另外 OpenAI 悄摸上了 GPT5.5,不过说实话,比起模型本身,Works
把 LLM 用到工业 PLC(西门子 SCL)程序生成是个反直觉的方向:语料稀缺、生产事故代价高、对接平台封闭。我们整理了一套面向单机设备 SCL 自动生成的智能体方案——双模型协同、RAG 三层知识库、三步校验链路 + 5 轮自动修复、博图 Openness 对接降级策略,以及 MVP→V3 四阶段的质量门槛设计。给打算做工业领域智能体的同行一个可参考的骨架。
Agent 跑在生产环境会出错。LLM 输出格式不合规、tool call 参数对不上、工具 timeout、第三方 API 503——任何一环都会让任务失败。这篇写我们在 SCL 项目里沉淀的一套模式:把校验报告塞回 prompt 让 LLM 自己改,最多跑 5 轮,超过就转人工。一次通过率 60% 做到 5 轮内 92%,还能反过来喂改进知识库。
tool schema 写得不好,LLM 就会频繁参数错、漏参数、类型错。我们这一年给 SCL 和 DataWeaver 写了几十个工具,踩过的坑沉淀成 7 条经验,每条带反例和正例。结论是 schema 不是给人看的文档,是 LLM 学决策的训练样本——这个视角变了,写法就变了。
本周智能体生态聚焦:本周的智能体领域亮点频频,预示着一个更加成熟和复杂的“智能体时代”正在加速到来。从底层基础设施到上层应用,各大厂商和研究机构都在积极布局。Google 推出了专为智能体时代设计的第八代 TPU,OpenAI 则发布了更强大的 GPT5.5 模型及其工作区智能体功能。学术界对智能体在科学自动化、游戏编程、长期记忆和工具使用效率等方面的研究持续深入,同时,针对智能体安全漏洞(如 TTI 攻击)和生产环境部署挑战(如凭证管理、沙箱隔离)的工程实践也日益丰富。本周
最近讨论 Claude 能直接生成 UI 设计稿,说 Figma 要凉了。我试用了一下,确实惊艳,但仔细想想,这跟 Figma 竞争关系不大。真正的问题是:当 AI 能替你画像素级界面时,“设计”这个词的含义在悄悄滑动——从“怎么画”变成了“描述什么”。这对前端工程师和设计师的协作方式才是真冲击。
这周抽空翻了翻 DeepSeek V4 的散落信息,有几个点让我挺意外。不是官方报告,是扒论坛、Paper With Code 评论区、GitHub Issue 拼出来的。MoE 依然是主力,但训练流程加了一个“反思蒸馏”阶段,数据清洗比想象中更暴力,GRPO 的 reward 设计也改了。我边看边跟自己嘀咕:他们真的敢折腾。
当单个 Agent 不够用的时候,我们会想到多智能体协作。但 LangGraph、AutoGen、CrewAI 三个主流框架的心智模型完全不同:状态机、对话群、角色+任务。本文从可控性、调试难度、生产落地三个维度横向对比,结合 YGG 在跨数据库查询与客户服务场景的真实落地经验,给出选型建议和一个最小 TypeScript 示例。
Agent 要做长任务,绕不开记忆。本文从 episodic / semantic / procedural 三种记忆分类出发,对比 Mem0、Zep、LangGraph 自带 checkpoint 与自研方案的差异,给出 YGG 在真实项目中的选型经验:何时用向量、何时用图、何时直接落数据库,以及如何把记忆层做到可观测、可回滚。
随着人工智能技术从云端向边缘侧加速渗透,个人电脑正经历一场深刻的变革,从传统的生产力工具演变为“智能体PC”。这不仅仅是硬件性能的提升,更是计算范式的根本性转变。智能体PC将本地大模型、AI加速芯片与Agent框架深度融合,赋予设备理解、规划、执行和持续学习的能力。它将成为用户专属的个性化AI入口,在保护隐私的同时,提供前所未有的智能服务,从智能助手、本地创作到智能家居中心,重塑人机交互和应用生态。本文将深入探讨智能体PC的核心技术栈、应用前景及其面临的工程挑战,展望这一新计算范式如何开启AI时代的个人计算新篇章。
随着大型语言模型(LLM)在Agent领域的广泛应用,其固有的上下文窗口限制成为构建具备长期、连贯行为智能体的关键瓶颈。本周,我们将深入探讨Agent长上下文记忆管理的技术进展,特别是如何通过外部记忆系统突破这一限制。文章将聚焦于向量检索、嵌入模型选型以及记忆压缩等核心工程实践,并解析两个代表性开源框架——Mem0和Letta(原MemGPT)——如何从不同角度解决记忆持久化、可扩展性与效率问题。我们将从技术深度和工程视角出发,为开发者提供构建高效、智能Agent记忆系统的洞察与指导。