评论
分享

Think Long就够?你可能想多了!

零售威观察

2026-04-12 14:38 北京

13129 0 0

从 Think Long 到Think to Act:

真正跑进生产的,往往是 Workflow,而不是 Agent

文/王子威@零售威观察


昨天有个朋友兴冲冲地给我发消息,说他用龙虾做了一个特别厉害的Agent系统。

这个系统能干吗呢?能自动帮他读邮件、读文档、然后自己决定怎么回复,自动执行各种任务。他给我录了个屏,我看了大概三分钟,内心就是一个感觉。

你敢信???

一个LLM在那边疯狂输出,一会儿读邮件,一会儿查日历,一会儿又要写回复,整个流程跑了大概七八步,最后给出了一个回复草稿。他激动地跟我说,你看,这就是未来的办公方式,AI替你干活,你只要最后点个发送就行了。

我说,等一下,你这三分钟的视频里,它出错了几次你知道吗。

他沉默了一下,说,两次。

我说不对,你再看一遍。漏掉了一封重要邮件,还有一个日期搞错了。他有点不服气,说那都是小问题,优化一下Prompt就好了。

我看着他那个兴奋劲儿,一时间不知道该说什么。

怎么说呢,这种场景我过去见到太多次了。每次有人跟我说他做了一个特别厉害的Agent,我内心都是同一个反应,就是你想想看,这个东西跑起来了吗,真的跑起来了吗,还是说只是在你本地跑了一个Demo,你觉得它很厉害?

Plan-and-Pray,是的,这就是我想说的第一个问题。

大家现在一窝蜂地在做Agent,做推理模型,做各种各样听起来很厉害的系统,但有一个最基本的问题很少有人认真问过,就是,你的系统是真的在替你做决策,还是你只是在祈祷它这次能不出错?

Plan-and-Pray,这个词我觉得形容得特别准确。很多人做的所谓Agent,其实就是Plan了一遍,然后祈祷它这次能work。下次遇到类似的场景,再Plan一遍,再Pray一遍。周而复始。

我不是说这没用,我是说,这个模式的本质是什么,你心里得清楚。

Think Long就够了?

好,说回我这篇文章想聊的,Think Long vs Think to Act。

这个话题最近在圈子里讨论得挺多的,但我发现很多人聊着聊着就聊歪了,变成了一个技术讨论,就是你的模型够不够强,你的上下文(Context)够不够长,你的推理(Reasoning)步骤够不够多。

这些当然重要,但今天我想聊一个更底层的东西,就是你做AI应用的时候,你的出发点应该是什么。

你是在想,我要让模型想得更深、更全面、更像一个真正的专家。还是在想,我要让模型能真的做成一件事,哪怕它想得没那么深,但每一步都能落地。

这两个出发点的差异,看起来好像只是程度上的,但实际上是本质上的不同。

真正值钱的,是Think to Act,不是Think Long。

你可能觉得我是在否定推理模型的价值,恰恰相反,我觉得推理模型很重要,它让模型能够处理更复杂的任务,能够做多步骤的规划,能够在回答之前先想一想。这些都是好的,都是有用的。

但问题在于,很多人把推理模型当成了一个终点,而不是一个起点。

什么意思呢,就是他们觉得,只要我的模型能够想得更深、更全面、更像一个专家,那它就应该能自动地把事情做好。你给它一个任务,它思考完了,事情就成了。

事情真的这么简单吗。

我跟你说,不是的。

我见过太多这样的案例了。有人在做一个客服Agent,请注意我这里用的是Agent这个词,但这个Agent做的事情,其实就是一个LLM加一堆Prompt,加一个简单的RAG流程。它能回答用户的问题,但它做不到的事情是什么,它做不到真正帮用户解决问题。它能告诉你退款流程是什么,但它没办法真的帮你退掉那笔订单。它能告诉你产品有什么功能,但它没办法帮你配置好你需要的那个功能组合。

为什么,因为帮用户解决一个问题,需要的可不只是理解问题,还需要执行能力。执行能力包括什么,包括访问各种系统,包括调用各种API,包括在多个系统之间切换,包括处理各种异常情况。

这些事情,不是你想得深就能解决的。

好,这里就引出了我想说的第一个核心观点。

要把Planner、Validator、Executor拆开。

这句话我最近跟很多做AI应用的朋友说过,今天我把它写出来,希望更多人能看到。

当你设计一个复杂任务处理系统的时候,不要想着用一个模型,一个Prompt,一个Agent去完成所有的事情。你应该把这三个角色分开,Planner负责规划,Validator负责校验,Executor负责执行。

为什么,因为这三个角色做的事情,本质上是不同的。


Planner需要的是推理能力,是把一个模糊的任务拆解成具体的步骤。你要让它想清楚,我要做什么,先做什么,后做什么,每一步的目标是什么。

Validator需要的是判断能力,是在执行的过程中不断地检查,当前这一步做得对不对,符不符合预期,需不需要调整。

Executor需要的是执行能力,是真正地、正确地调用工具、调用API、操作各种系统。


你让一个模型同时做这三件事会发生什么,你就是在逼着你的数学家去当会计,逼着你的会计去做销售。结果大概率是,每件事都做得勉勉强强,没有一件事做得特别出色。

我不是说不能用同一个模型,我是说,即使你用同一个模型,你也要在心里把这三个职责分开,Prompt要分开,评价标准要分开,失败处理要分开。

这是一个设计模式的问题,不是技术问题。但我发现很多人根本没想清楚这个问题,就一头扎进去开始做了。

做出来的东西,你说他没做出来吧,它确实跑通了。你说它做出来了吧,它距离真正能用,还差着十万八千里。

我有时候觉得,做AI应用最难的事情,不是让模型变强,而是让人的思维跟上模型的能力。

就是大家看到模型能思考了,能推理了,就觉得它什么都能做了。但实际上,模型能思考,只是说明它有了处理复杂任务的潜力。怎么把这种潜力变成真正能用的东西,这是需要一个系统设计的。

这里就引出了我第二个想聊的点。

你要Workflow还是Agent?

很多生产系统,先做成工作流(workflow)而不是智能体(Agent)。

workflow是什么,是一个定义好的执行路径,你知道这一步做完会到下一步,下一步做完会到下下一步。每一步做什么,怎么做,谁来做,都是定义好的。

Agent是什么,是模型自己做决策,下一步做什么,由模型自己决定。

这两个东西的边界在哪儿,就是谁在决定下一步。

workflow的下一步是定义好的,或者至少是有明确的规则可以遵循的;Agent的下一步是模型自己推理出来的。

换句话说,如果你的系统做的事情,是可以提前定义好的,你为什么要用Agent?

很多人会觉得,用Agent更高级,更先进,更像未来的样子。但你有没有想过,workflow能给你什么,workflow能给你确定性。

在生产环境里,确定性是极其重要的。

我跟你说一个我自己的经历。去年朋友的电商公司要做AI客服系统,最初他们想做一个Agent,让Agent自己决定怎么回答用户的问题,怎么转接,怎么处理投诉。团队大概两周做了一个原型,跑了一下,发现问题很多。Agent有时候会说出一些奇怪的回复,有时候会转错部门,有时候会把用户引导到错误的方向。

我说,这个东西距离生产还差很远。朋友问,那怎么办。

我说,我们先做一个workflow吧。

朋友有点失望,觉得workflow不够高级。我说,你听我解释。

我们把常见的用户问题分成二十个类别,每一个类别定义一个处理流程。模型在这个流程里负责理解用户的问题,负责生成回复的草稿,但具体怎么回复,转到哪个部门,是否需要升级给人工,这些都是workflow控制的。

这样一来,这个系统的行为是可控的,你永远知道它在做什么,如果出了问题,你知道问题出在哪一步。

朋友接受了我的建议。后来那个系统上线了,运行了大半年,效果非常好。

这个案例不是说Agent不好,而是说,你要根据你的业务场景来选择合适的技术方案。如果你的业务是复杂的、多变的、需要大量灵活判断的,那Agent是合适的。如果你的业务是可以标准化的、是能够定义清楚流程的,那workflow可能是更好的选择。

workflow和Agent之间,不是谁优谁劣的问题,是适用场景的问题。

你能不能分清楚什么时候该用workflow,什么时候该用Agent,这个事情看起来很简单,但其实很考验你对业务的理解,对AI能力的理解。

说到这儿,我想稍微展开一下第三点。

什么时候不该做Agent?

这个话题我很少看到有人聊,大家都在说要AI Agent化,要让AI替你做更多的事情。但什么时候不该Agent化,好像就成了一个政治不正确的话题。

我不一样,我有话直说。

不该Agent化的时候,就不要Agent化。

什么样的情况不该Agent化呢。


第一种,业务流程还不稳定的。你连这个业务是怎么跑的都还没搞清楚,你就想用一个Agent去跑,这不是在用AI提升效率,这是在用AI制造混乱。

第二种,对错误容忍度极低的。比如金融交易、医疗诊断、法律咨询,这些领域一旦出错,后果非常严重。这种场景下,你用一个Agent去做决策,是非常危险的。你需要的是人在回路,需要的是人工审核,需要的是可解释性。这些东西,Agent给不了你。

第三种,数据和工具准备不充分的。Agent的核心能力之一,是调用各种工具和系统。如果你的系统没有API,如果你的数据没有结构化,如果你连基础的IT建设都没做好,那Agent来了也没用,它没有东西可以调用。

第四种,成本结构不合理的。有些任务,看起来可以用Agent完成,但实际上用Agent完成的成本,比用人工完成的成本还要高。这种时候,做Agent化就是一个伪需求。记住,不要被技术带着走,要让业务需求带着你走。


你做的是AI应用,不是AI技术展览。你要解决的,是真实的业务问题,不是展示最新的模型能力。

Think Long→Think To Act

回到Think Long vs Think to Act这个话题。


Think Long的意思是,让模型想得更深、更全面、更像一个专家。

Think to Act的意思是,让模型能够真正地做成一件具体的事情,哪怕它想得没那么深。


这两个东西,有时候是冲突的。

你让模型想得太深,它就会花太多的时间在思考上,而不是在行动上。你让模型马上行动,它可能想得不够周全,会有遗漏,会有偏差。

怎么办,我的建议是,Think to Act优先。

为什么,因为在一个快速变化的环境里,行动比思考更值钱。

你思考得再周全,也不可能想到所有的情况。真正的洞察,来自于你行动之后得到的反馈,而不是你在行动之前想出来的推演。

这其实是一个很反常识的观点。很多人会觉得,我要先把事情想清楚,再去做事情。但问题是,在AI领域,事情的变化太快了,你可能还没想清楚,新的模型就出来了,新的技术就出来了,你之前想的那些东西全都过时了。

我自己的经验是,先做一个能跑的东西,哪怕它很简陋,然后在这个过程中去迭代、去优化、去完善。这比你在脑子里设计一个完美的系统,然后花很长时间去实现它,要靠谱得多。

Think to Act,不是说不思考,而是说思考要服务于行动。你每思考一步,都要问自己,这个思考的结果,能不能帮助我把事情做成。如果不能,那这个思考可能就是无效的思考。

一句话总结

好,写了这么多,我想做一个简单的总结。

Think Long vs Think to Act,我站Think to Act。

不是因为思考不重要,而是因为在当前这个阶段,行动比思考更稀缺,更值钱。

我们不缺会思考的人,我们缺的是能把事情做成的人。

少想一点,多做一点。

做完之后,你会发现自己之前想的很多假设都是错的,而这些错误,才是真正的学习。

# 人工智能
# 智能体
# Agent
本文为凯迪网自媒体“凯迪号”作者上传发布,代表其个人观点与立场,凯迪网仅提供信息发布与储存服务。文章内容之真实性、准确性由用户自行辨别,凯迪网有权利对涉嫌违反相关法律、法规内容进行相应处置。
举报
投喂支持
点赞
发表评论
请先 注册 / 登录后参与评论
推荐阅读