登陆

颠覆OpenAI?硅谷大佬力推“USB-C”协议,AI世界要变天!

author 2025-03-27 19人围观 ,发现0个评论 以太坊EthereumAI人工智能AIGC

AI 领域的“USB-C 时刻”:MCP 协议引领去中心化之路

2024 年 11 月,Anthropic 发布的 Model Context Protocol (MCP) 正在硅谷掀起一场变革,被誉为 AI 领域的“USB-C 时刻”。这一开放标准,不仅重新定义了大模型与物理世界的连接方式,更蕴含着破解 AI 垄断、重塑数字文明生产关系的巨大潜力。当人们还在热议 GPT-5 的参数规模时,MCP 已悄然铺设了一条通往 AGI 时代的去中心化之路。

Bruce 阐述 MCP:解决 AI 领域的三大核心问题

Bruce 近期专注于研究 MCP,他认为这是继 ChatGPT 之后,AI 领域又一个令人振奋的创新,有望解决其长期思考的三个核心问题:

普通人如何参与 AI 行业并获得收入?

如何让非科学家和天才也能参与到 AI 行业中,并从中获得经济收益?

AI 与 Ethereum 如何实现双赢?

AI 技术与 Ethereum 区块链技术之间,存在哪些可以互相促进、共同发展的结合点?

如何实现 AI d/acc?避免中心化垄断与 AGI 风险?

如何实现 AI 的去中心化加速发展 (d/acc),避免中心化的大公司垄断、审查,以及 AGI 可能带来的潜在风险?

MCP 详解:LLM 的开放标准接口

MCP 是一个开放标准框架,旨在简化大型语言模型 (LLM) 与外部数据源和工具的集成。可以将 LLM 视为 Windows 操作系统,将 Cursor 等应用程序视为键盘和硬件,那么 MCP 就是 USB 接口,允许外部数据和工具灵活插入,供用户读取和使用。

MCP 主要提供以下三种能力来扩展 LLM:

  • Resources(知识扩展): 提供额外的知识库,扩展 LLM 的知识范围。
  • Tools(执行函数,调用外部系统): 使 LLM 能够调用外部系统和工具,执行特定任务。
  • Prompts(预编写提示词模板): 提供预先编写好的提示词模板,帮助用户更有效地与 LLM 交互。

MCP 可以由任何人开发和托管,以 Server 的形式提供服务,并且可以随时下线停止服务,具有高度的灵活性和开放性。

为何需要 MCP:解决传统 LLM 的局限性

目前,大型语言模型 (LLM) 依赖于尽可能多的数据进行大量运算,并将知识融入到模型参数中,从而实现对话输出相应的知识。 然而,这种方法存在一些显著的问题:

  1. 高昂的成本和时效性问题: 大量的数据和运算需要耗费大量的时间和硬件资源,而且用于训练的知识通常会过时。
  2. 本地部署困难: 大量参数的模型难以在本地设备上部署和使用,但实际上,用户在大多数场景下可能并不需要全部信息来完成需求。
  3. 信息质量和误导性风险: 部分模型采用爬虫方式读取外部信息以实现时效性,但由于爬虫的限制和外部数据的质量问题,可能产生更具误导性的内容。
  4. 创作者激励缺失: 由于 AI 并没有很好地为创作者带来利益,许多网站和内容开始实施反 AI 措施,生成大量垃圾信息,这将导致 LLM 的质量逐步下降。
  5. 功能扩展受限: LLM 难以扩展到方方面面的外部功能和操作,例如准确调用 GitHub 接口实现某些操作,它可能会按照可能过时的文档生成代码,但无法确保可以精准执行。

架构演进:从胖 LLM 到瘦 LLM + MCP

我们可以将目前的超大规模模型视为“胖 LLM”,其架构可以用下图简单表示:

用户输入信息之后,通过 Perception & Reasoning 层对输入进行拆解和推理,然后调用庞大的参数进行结果生成。

而基于 MCP 之后,LLM 可以聚焦于语言解析本身,剥离出去知识和能力,变成“瘦 LLM”:

在瘦 LLM 的架构下,Perception & Reasoning 层将关注如何将全方位的人类物理环境信息解析成为 tokens,包括但不限于:语音、语调、气味、图像、文字、重力、气温等,然后通过 MCP Coordinator 编排和协调多达数百个 MCP Servers 完成任务。 瘦 LLM 的训练成本和速度将极速提升,对于部署设备的要求也会变得很低。

MCP 如何逐一击破三大难题

赋能普通人:开创 AI 创作者经济

任何拥有独特才能的人,都可以创建自己的 MCP Server,为 LLM 提供服务。 例如,一位鸟类爱好者可以将自己多年的鸟类笔记通过 MCP 对外提供服务。 当有人使用 LLM 搜索与鸟类相关的信息时,就会调用到该鸟类笔记 MCP 服务,创作者也会因此获得收入分成。

这是一种更为精准和自动化的创作者经济循环,服务内容更加标准化,调用的次数、输出的 token 都可以被精确地统计。 LLM 提供商甚至可以同时调用多个鸟类笔记 MCP Servers,让用户选择和评分,从而确定谁的质量更好,并获得更高的匹配权重。

AI 与 Ethereum 的深度融合:构建 OpenMCP.Network

  • 构建 OpenMCP.Network 创作者激励网络: 可以基于 Ethereum 构建一个 OpenMCP.Network 创作者激励网络。 MCP Server 需要托管和提供稳定的服务,用户对 LLM 提供商付费,LLM 提供商将实际的激励通过网络分配到被调用的 MCP Servers 上,从而维持整个网络的可持续性和稳定性,激发 MCP 的创作者持续创作和提供高质量的内容。 这一套网络将需要使用智能合约实现激励的自动化、透明、可信和抗审查。运行过程中的签名、权限验证、隐私保护都可以使用以太坊钱包、ZK 等技术实现。
  • 开发 Ethereum 链上操作相关的 MCP Servers: 例如 AA 钱包调用服务,用户将可以在 LLM 里面通过语言实现钱包付款,而不暴露相关私钥和权限给 LLM。
  • 简化 Ethereum 智能合约开发: 提供各种开发者工具,进一步简化 Ethereum 智能合约开发和代码生成。

实现 AI 去中心化:打破垄断,降低 AGI 风险

  • 知识和能力的去中心化: MCP Servers 将 AI 的知识和能力去中心化,任何人都可以创建和托管 MCP Servers,注册到例如 OpenMCP.Network 这样的平台上面之后,按照调用获得激励。 没有任何一家公司可以掌握全部的 MCP Servers。 如果一个 LLM 提供商给予不公平的激励到 MCP Servers,创作者将可以屏蔽该公司,用户得不到优质结果后将会更换其他 LLM 提供商,从而实现更公平的竞争。

  • 细粒度的权限控制: 创作者可以对自己的 MCP Servers 实现细粒度的权限控制,以保护隐私和版权。 瘦 LLM 提供商应该通过提供合理的激励来吸引创作者贡献高质量的 MCP Servers。

  • 抹平 LLM 能力差距: 瘦 LLM 的能力差距将慢慢抹平,因为人类的语言是有遍历上限的,演进也很缓慢。 LLM 提供商将需要把目光和资金瞄向高质量的 MCP Servers,而非重复使用更多显卡进行训练。

  • 分散 AGI 能力: AGI 的能力将得到分散和降权,LLM 仅作为语言处理和用户交互的平台,具体能力分布在各个 MCP Servers 里面。 AGI 将不会威胁到人类,因为关闭 MCP Servers 之后,AGI 就只能进行基础的语言对话。

    总结:MCP 的核心价值与潜力

  1. AI 能力的去中心化: LLM + MCP Servers 的架构演进,本质上是将 AI 能力去中心化,降低了 AGI 毁灭人类的风险。

  2. AI 创作者经济的基础: LLM 的使用方式,使其对 MCP Servers 的调用次数和输入输出可以做到 token 级别的统计和自动化,为 AI 创作者经济系统的搭建奠定了基础。

  3. 正向飞轮效应: 好的经济系统可以驱动创作者主动贡献创作高质量的 MCP Servers,从而带动整个人类的发展,实现正向飞轮。 创作者不再抵御 AI,AI 也会提供更多岗位和收入,将类似 OpenAI 这样的垄断商业公司的利润合理分配。

  4. 与 Ethereum 的天然契合: 这一套经济系统,结合其特性和创作者的需求,非常适合基于 Ethereum 实现。

    未来展望:MCP 的发展蓝图

  5. 协议标准之争: MCP 或者类 MCP 的协议将会层出不穷,几家大公司将开始竞争标准的定义。

  6. MCP Based LLM 的涌现: 专注于解析和处理人类语言的小模型,附带 MCP Coordinator 接入 MCP 网络。LLM 将支持自动发现和调度 MCP Servers,无需复杂的手工配置。

  7. MCP Network 服务提供商的出现: 每家有自己的经济激励系统,MCP 创作者将自己的 Server 注册和托管即可得到收入。

  8. Ethereum 网络的巨大潜力: 如果 MCP Network 的经济激励系统使用 Ethereum 构建,基于智能合约,那么 Ethereum 网络的 transactions 保守估计将增加约 150 倍(按照非常保守的每天 1 亿次 MCP Servers 的调用量,目前 12s 一个 Block 包括 100 txs 计算)。

请发表您的评论
Powered By sibibit.com