Manus实测:全球首款通用AI Agent工作方式拆解

原创 花生 花叔 2025-03-06 13:39

原文地址: https://mp.weixin.qq.com/s/AlonZfAgkcuG_Cu5_xpaCg

互动数据

  • 阅读:未知
  • 点赞:未知
  • 转发:未知
  • 喜欢:未知
  • 留言:未知

新软件会消耗掉硬件性能提升带来的所有优势。

——安迪-比尔定律

一、AI的安迪-比尔定律

30多年前计算机时代的安迪-比尔定律正在继续上演,那个定律是说不管安迪·格鲁夫(英特尔CEO)带来多大的硬件进步,比尔·盖茨(微软CEO)都会用软件的升级把硬件运算速度提升的进步消耗殆尽。

所以我们似乎用到的总会是卡卡卡的电脑,及时在那期间硬件能力已经提升百倍,甚至千倍了。

而这个定律在AI时代再次发生了,不管大语言模型厂商带来多大程度的模型能力提升,不管如何提升LLM吐出单个token的效率,降低LLM单token成本,总会不断有新的AI应用把这部分的能力提升吃干。

在2024年7、8月的时候,因为Claude 3.5 Sonnet的发布,我们获得了真正可用的AI编程工具Cursor。半年后的今天,Manus出现了,它在以十倍、百倍的速率消耗最强大的LLM的token,然后帮用户更好完成复杂任务。

实际上,AI Agent的概念在2023年3月GPT-4发布的时候就爆火过一波,AutoGPT的概念被炒得相当热闹,但喧嚣过后,大家发现那个Agent除了一次任务消耗掉你10几美金,什么都没给你留下。

Agent的概念是对的,但模型能力还没真正ready。

现在的Manus确实让我看到了不太一样的情况,模型能力到了,他们的工程能力去挤压出了模型可完成的最复杂的任务,并且用他们自己的话说是:

Less structure, more intelligence.

我很认可这句话,因为你更少用架构限制大模型,你就有机会去更充分的利用大模型所展示出来的能力。而且这个概念很性感的点在于,他们是在利用大语言模型的intelligence,是在和LLM的进步站在一起的。你可以预期模型能力越提升,Manus可完成的任务范围就会更广,效果也会更好。