
Geth 源码系列:存储设计及实现
在区块链的世界中,状态存储是每一个节点的「记忆核心」 — — 它记录着亿万账户的余额、合约的代码、交易的痕迹,甚至决定着一笔交易能否被正确执行。作为以太坊生态的基石,Geth 客户端如何以精密的架构设计承载海量状态数据?其存储系统如何在性能、安全与可扩展性之间找到平衡? 这篇文章是 Geth 源码系列的第二篇,通过这个系列,我们将搭建一个研究 Geth 实现的框架,开发者可以根据这个框架深入自己感兴趣的部分研究。这个系列共有六篇文章,在这第二篇文章中,将系统讲解 Geth 的存储结构设计与相关源码,介绍其数据库层次划分并详细分析各个层次中相应模块的核心功能。 以太坊作为全球最大的区块链平台,其主流客户端 Geth(Go-Ethereum)承担了绝大部分节点运行与状态管理的职责。Geth 的状态存储系统,是理解以太坊运行机制、优化节点性能、以及推动未来客户端创新的基础。 本文作者: po Web3buidler.tech Core Contributor, EthStorage Engineer Geth 底层数据库总览 自 Geth v1.9.0 版本起,Geth 将其数据库分为...

以太坊单独质押实战教程:手把手教你完成部署
内容丨Ray 编辑 & 排版丨Yewlne、环环 以太坊的单独质押(Solo Staking)是保护网络安全和去中心化的黄金标准。通过运行自己的验证者节点,您可以直接参与网络共识,获得完整的质押奖励,并保持对资金的完全控制。本教程将为您提供详细的指导,帮助您在家中部署以太坊单独质押节点,确保安全性和稳定性。前提概要首先,我们需要有这样的一个基本概念:要处理来自执行层的传入验证器存款,您需要运行执行客户端以及共识客户端。这意味着我们至少需要部署两个客户端程序(在本教程中,为三个,共识客户端按照功能进行了拆分)。如果想了解更多执行客户端和共识客户端的差异及功能职责,可以点击阅读: https://ethereum.org/zh/developers/docs/networking-layer/一、选择执行客户端以太坊生态的客户端种类非常丰富,执行客户端和共识客户端都有多种不同语言的实现,如使用 Go 语言实现的 Geth, 使用 Rust 语言实现的 Reth 等。你可以根据自己喜好,选择不同的客户端,整体流程是类似的,只是不同客户端实现涉及的命令不同。在这里,我们不能对所有的客户端...

重磅 | LXDAO 中文名正式从“良心 DAO”改为“蓝翔 DAO”!
撰文 | Bruce 编辑&排版 | Connie 图片 | Ache、Connie、Cikey重磅消息! LXDAO 今日起中文名正式从“良心 DAO”改为“蓝翔 DAO”! 让我们抓紧看看到底怎么个事儿——Web3 技术哪家强?中国就找 LXDAO!LXDAO 创办于 2022 年 6 月,至今已有快 2 年的历史,是由几位喜欢开源的开发者联合发起的一所现代化、综合性的产学研一体的 DAO 组织,主要从事 Web3 公共物品相关的教育、研发和维护。 LXDAO 以创办历史不太悠久,但实训项目齐全、师资力量雄厚、培养模式先进而闻名全国。LXDAO 超过一半的同学为程序员,是现代化 Web3 技师、高级技工的摇篮。学院概况LXDAO 现有 0 个校区(正在筹备在清迈四海搭建第一个线下校区)。我们主要在 Internet 远程学习和工作交流。面向全球 13810 个城市招生,不限语言、地区和种族,能同时容纳上百万人。 LXDAO 拥有丰富的实训项目,涵盖了 Web3 的多种主题,包括但不限于教育、公共物品、全链游戏、开源、开发者关系维护、商务合作等。 我们也跟许多国际单位联合开展一...
LXDAO 是一个专注研发的 DAO 组织,致力于构建支持有价值的公共物品和开源项目的无限循环。 LXDAO is an R&D-focused DAO dedicated to building an Infinite Cycle that supports valuable

Geth 源码系列:存储设计及实现
在区块链的世界中,状态存储是每一个节点的「记忆核心」 — — 它记录着亿万账户的余额、合约的代码、交易的痕迹,甚至决定着一笔交易能否被正确执行。作为以太坊生态的基石,Geth 客户端如何以精密的架构设计承载海量状态数据?其存储系统如何在性能、安全与可扩展性之间找到平衡? 这篇文章是 Geth 源码系列的第二篇,通过这个系列,我们将搭建一个研究 Geth 实现的框架,开发者可以根据这个框架深入自己感兴趣的部分研究。这个系列共有六篇文章,在这第二篇文章中,将系统讲解 Geth 的存储结构设计与相关源码,介绍其数据库层次划分并详细分析各个层次中相应模块的核心功能。 以太坊作为全球最大的区块链平台,其主流客户端 Geth(Go-Ethereum)承担了绝大部分节点运行与状态管理的职责。Geth 的状态存储系统,是理解以太坊运行机制、优化节点性能、以及推动未来客户端创新的基础。 本文作者: po Web3buidler.tech Core Contributor, EthStorage Engineer Geth 底层数据库总览 自 Geth v1.9.0 版本起,Geth 将其数据库分为...

以太坊单独质押实战教程:手把手教你完成部署
内容丨Ray 编辑 & 排版丨Yewlne、环环 以太坊的单独质押(Solo Staking)是保护网络安全和去中心化的黄金标准。通过运行自己的验证者节点,您可以直接参与网络共识,获得完整的质押奖励,并保持对资金的完全控制。本教程将为您提供详细的指导,帮助您在家中部署以太坊单独质押节点,确保安全性和稳定性。前提概要首先,我们需要有这样的一个基本概念:要处理来自执行层的传入验证器存款,您需要运行执行客户端以及共识客户端。这意味着我们至少需要部署两个客户端程序(在本教程中,为三个,共识客户端按照功能进行了拆分)。如果想了解更多执行客户端和共识客户端的差异及功能职责,可以点击阅读: https://ethereum.org/zh/developers/docs/networking-layer/一、选择执行客户端以太坊生态的客户端种类非常丰富,执行客户端和共识客户端都有多种不同语言的实现,如使用 Go 语言实现的 Geth, 使用 Rust 语言实现的 Reth 等。你可以根据自己喜好,选择不同的客户端,整体流程是类似的,只是不同客户端实现涉及的命令不同。在这里,我们不能对所有的客户端...

重磅 | LXDAO 中文名正式从“良心 DAO”改为“蓝翔 DAO”!
撰文 | Bruce 编辑&排版 | Connie 图片 | Ache、Connie、Cikey重磅消息! LXDAO 今日起中文名正式从“良心 DAO”改为“蓝翔 DAO”! 让我们抓紧看看到底怎么个事儿——Web3 技术哪家强?中国就找 LXDAO!LXDAO 创办于 2022 年 6 月,至今已有快 2 年的历史,是由几位喜欢开源的开发者联合发起的一所现代化、综合性的产学研一体的 DAO 组织,主要从事 Web3 公共物品相关的教育、研发和维护。 LXDAO 以创办历史不太悠久,但实训项目齐全、师资力量雄厚、培养模式先进而闻名全国。LXDAO 超过一半的同学为程序员,是现代化 Web3 技师、高级技工的摇篮。学院概况LXDAO 现有 0 个校区(正在筹备在清迈四海搭建第一个线下校区)。我们主要在 Internet 远程学习和工作交流。面向全球 13810 个城市招生,不限语言、地区和种族,能同时容纳上百万人。 LXDAO 拥有丰富的实训项目,涵盖了 Web3 的多种主题,包括但不限于教育、公共物品、全链游戏、开源、开发者关系维护、商务合作等。 我们也跟许多国际单位联合开展一...
LXDAO 是一个专注研发的 DAO 组织,致力于构建支持有价值的公共物品和开源项目的无限循环。 LXDAO is an R&D-focused DAO dedicated to building an Infinite Cycle that supports valuable

Subscribe to LXDAO

Subscribe to LXDAO
Share Dialog
Share Dialog


<100 subscribers
<100 subscribers
AI 进化史上的 “USB-C 时刻”,2024 年 11 月,Anthropic 发布的 MCP 协议正在引发硅谷地震。这个被喻为”AI 界 USB-C”的开放标准,不仅重构了大模型与物理世界的连接方式,更暗藏着破解 AI 垄断困局、重构数字文明生产关系的密码。当我们还在争论 GPT-5 的参数规模时,MCP 已悄然铺就通向 AGI 时代的去中心化之路……
LXDAO 联合发起人 Bruce 最近就 MCP 分享他最新的思考成果,原文:
https://x.com/brucexu_eth/status/1901555983111110994
Bruce:最近在研究 Model Context Protocol(MCP)。这是继 ChatGPT 之后,在 AI 领域第二个让我非常兴奋的东西,因为它有希望解决我思考多年的三个问题:
非科学家和天才,普通人如何参与 AI 行业并获得收入? AI 和 Ethereum 有什么双赢的结合之处? 如何实现 AI d/acc?避免中心化的大公司垄断、审查,AGI 毁灭人类? MCP 是什么? MCP 是一个开放标准框架,可以简化 LLM 与外部数据源和工具的集成。如果我们把 LLM 比作 Windows 操作系统,Cursor 等应用是键盘和硬件,那么 MCP 就是 USB 接口,支持将外部数据和工具灵活插入,然后用户可以读取使用这些外部数据和工具。
MCP 提供了三种能力对 LLM 进行扩展:
Resources(知识扩展)
Tools(执行函数,调用外部系统)
Prompts(预编写提示词模板)
MCP 可以由任何人进行开发和托管,以 Server 的方式提供,可以随时下线停止服务。
目前 LLM 使用尽可能多的数据进行大量的运算并生成大量的参数,将知识融入到模型里面,从而实现对话输出相应知识。但是存在比较大的几个问题:
大量的数据和运算需要大量的时间和硬件,用于训练的知识通常是过时的。
大量参数的模型,很难在本地设备进行部署和使用,但实际上使用者大部分场景可能并不需要全部信息完成需求。
部分模型采用爬虫的方式读取外部信息进行运算以实现时效性,但是由于爬虫的限制和外部数据的质量,可能产出误导性更强的内容。
由于 AI 并没有很好的给创作者带来利益,很多网站和内容开始实施反 AI 措施,生成大量垃圾信息,将会导致 LLM 的质量逐步下降。
LLM 很难扩展到方方面面的外部功能和操作,例如准确调用 GitHub 接口实现一些操作,它会按照可能过时的文档生成代码,但无法确保可以精准执行。
胖 LLM 和瘦 LLM + MCP 的架构演进 我们可以将目前的超大规模模型视为胖 LLM,其架构可以以下面简单图示表示:

用户输入信息之后,通过 Perception & Reasoning 层对输入进行拆解和推理,然后调用庞大的参数进行结果生成。
基于 MCP 之后,LLM 可能聚焦在语言解析本身,剥离出去知识和能力,变成瘦 LLM:

瘦 LLM 的架构下,Perception & Reasoning 层将会关注如何将全方面的人类物理环境信息解析成为 tokens,包括但不限于:语音、语气、气味、图像、文字、重力、气温等,然后通过 MCP Coordinator 编排和协调多达数百的 MCP Servers 完成任务。瘦 LLM 的训练成本和速度将会极速提升,对于部署设备的要求变得很低。
任何有独特才能的人,都可以创建自己的 MCP Server 对 LLM 提供服务。例如一个鸟类爱好者可以将自己多年的鸟类笔记通过 MCP 对外提供服务。当有人使用 LLM 搜索跟鸟类相关的信息,就会调用到当前鸟类笔记 MCP 服务。创作者也会因此获得收入分成。
这是一种更为精准和自动化的创作者经济循环,服务内容更加标准化,调用的次数、输出的 token 都可以很精准的统计。LLM 提供商甚至可以同时调用多个鸟类笔记 MCP Servers 让用户选择和评分来确定谁的质量更好获得更高匹配权重。
a. 我们可以基于 Ethereum 构建一个 OpenMCP.Network 创作者激励网络。MCP Server 需要托管和提供稳定的服务,用户对 LLM 提供商付费,LLM 提供商将实际的激励通过网络分配到被调用的 MCP Servers 上从而维持整个网络的可持续性和稳定性,激发 MCP 的创作者持续创作和提供高质量内容。这一套网络将需要使用智能合约实现激励的自动化、透明、可信和抗审查。运行过程中的签名、权限验证、隐私保护都可以使用以太坊钱包、ZK 等技术实现。
b. 开发 Ethereum 链上操作相关的 MCP Servers,例如 AA 钱包调用服务,用户将支持在 LLM 里面通过语言实现钱包付款而不暴露相关私钥和权限给 LLM。
c. 还有各种开发者工具,进一步简化 Ethereum 智能合约开发和代码生成。
a. MCP Servers 将 AI 的知识和能力去中心化,任何人都可以创建和托管 MCP Servers,注册到例如 OpenMCP.Network 这样的平台上面之后按照调用获得激励。没有任何一个公司可以掌握全部的 MCP Servers。如果一个 LLM 提供商给予不公平的激励到 MCP Servers,创作者将支持屏蔽该公司,用户得不到优质结果后将会更换其他 LLM 提供商实现更公平的竞争。
b. 创作者可以对自己的 MCP Servers 实现细粒度的权限控制以保护隐私和版权。瘦 LLM 提供商应该通过提供合理的激励来让创作者贡献高质量的 MCP Servers。
c. 瘦 LLM 能力差距将慢慢抹平,因为人类的语言是有遍历上限的,演进也很缓慢。LLM 提供商将需要把目光、资金瞄向高质量的 MCP Servers,而非重复使用更多显卡炼丹。
d. AGI 的能力将得到分散和降权,LLM 仅作为语言处理和用户交互,具体能力分布在各个 MCP Servers 里面。AGI 将不会威胁到人类,因为关闭 MCP Servers 之后就只能进行基础语言对话。
LLM + MCP Servers 的架构演进,本质上是将 AI 能力的去中心化,降低了 AGI 毁灭人类的风险。 LLM 的使用方式,使其对 MCP Servers 的调用次数和输入输出可以做到 token 级别的统计和自动化,为 AI 创作者经济系统的搭建奠定了基础。 好的经济系统可以驱动创作者主动贡献创作高质量 MCP Servers,从而带动整个人类的发展,实现正向飞轮。创作者不再抵御 AI,AI 也会提供更多岗位和收入,将类似 OpenAI 这样的垄断商业公司的利润合理分配。 这一套经济系统,结合其特性和创作者的需求,非常适合基于 Ethereum 实现。
下一步的剧本演进 MCP 或者类 MCP 的协议将会层出不穷,几家大公司将开始竞争标准的定义。 MCP Based LLM 将会出现,专注于解析和处理人类语言的小模型,附带 MCP Coordinator 接入 MCP 网络。LLM 将支持自动发现和调度 MCP Servers,无需复杂手工配置。 MCP Network 服务提供商将出现,每家有自己的经济激励系统,MCP 创作者将自己的 Server 注册和托管即可得到收入。 如果 MCP Network 的经济激励系统使用 Ethereum 构建,基于智能合约,那么 Ethereum 网络的 transactions 保守估计将增加约 150 倍(按照非常保守的每天 1 亿次 MCP Servers 的调用量,目前 12s 一个 Block 包括 100 txs 计算)。
内容 | Bruce
编辑 & 排版 | 环环
AI 进化史上的 “USB-C 时刻”,2024 年 11 月,Anthropic 发布的 MCP 协议正在引发硅谷地震。这个被喻为”AI 界 USB-C”的开放标准,不仅重构了大模型与物理世界的连接方式,更暗藏着破解 AI 垄断困局、重构数字文明生产关系的密码。当我们还在争论 GPT-5 的参数规模时,MCP 已悄然铺就通向 AGI 时代的去中心化之路……
LXDAO 联合发起人 Bruce 最近就 MCP 分享他最新的思考成果,原文:
https://x.com/brucexu_eth/status/1901555983111110994
Bruce:最近在研究 Model Context Protocol(MCP)。这是继 ChatGPT 之后,在 AI 领域第二个让我非常兴奋的东西,因为它有希望解决我思考多年的三个问题:
非科学家和天才,普通人如何参与 AI 行业并获得收入? AI 和 Ethereum 有什么双赢的结合之处? 如何实现 AI d/acc?避免中心化的大公司垄断、审查,AGI 毁灭人类? MCP 是什么? MCP 是一个开放标准框架,可以简化 LLM 与外部数据源和工具的集成。如果我们把 LLM 比作 Windows 操作系统,Cursor 等应用是键盘和硬件,那么 MCP 就是 USB 接口,支持将外部数据和工具灵活插入,然后用户可以读取使用这些外部数据和工具。
MCP 提供了三种能力对 LLM 进行扩展:
Resources(知识扩展)
Tools(执行函数,调用外部系统)
Prompts(预编写提示词模板)
MCP 可以由任何人进行开发和托管,以 Server 的方式提供,可以随时下线停止服务。
目前 LLM 使用尽可能多的数据进行大量的运算并生成大量的参数,将知识融入到模型里面,从而实现对话输出相应知识。但是存在比较大的几个问题:
大量的数据和运算需要大量的时间和硬件,用于训练的知识通常是过时的。
大量参数的模型,很难在本地设备进行部署和使用,但实际上使用者大部分场景可能并不需要全部信息完成需求。
部分模型采用爬虫的方式读取外部信息进行运算以实现时效性,但是由于爬虫的限制和外部数据的质量,可能产出误导性更强的内容。
由于 AI 并没有很好的给创作者带来利益,很多网站和内容开始实施反 AI 措施,生成大量垃圾信息,将会导致 LLM 的质量逐步下降。
LLM 很难扩展到方方面面的外部功能和操作,例如准确调用 GitHub 接口实现一些操作,它会按照可能过时的文档生成代码,但无法确保可以精准执行。
胖 LLM 和瘦 LLM + MCP 的架构演进 我们可以将目前的超大规模模型视为胖 LLM,其架构可以以下面简单图示表示:

用户输入信息之后,通过 Perception & Reasoning 层对输入进行拆解和推理,然后调用庞大的参数进行结果生成。
基于 MCP 之后,LLM 可能聚焦在语言解析本身,剥离出去知识和能力,变成瘦 LLM:

瘦 LLM 的架构下,Perception & Reasoning 层将会关注如何将全方面的人类物理环境信息解析成为 tokens,包括但不限于:语音、语气、气味、图像、文字、重力、气温等,然后通过 MCP Coordinator 编排和协调多达数百的 MCP Servers 完成任务。瘦 LLM 的训练成本和速度将会极速提升,对于部署设备的要求变得很低。
任何有独特才能的人,都可以创建自己的 MCP Server 对 LLM 提供服务。例如一个鸟类爱好者可以将自己多年的鸟类笔记通过 MCP 对外提供服务。当有人使用 LLM 搜索跟鸟类相关的信息,就会调用到当前鸟类笔记 MCP 服务。创作者也会因此获得收入分成。
这是一种更为精准和自动化的创作者经济循环,服务内容更加标准化,调用的次数、输出的 token 都可以很精准的统计。LLM 提供商甚至可以同时调用多个鸟类笔记 MCP Servers 让用户选择和评分来确定谁的质量更好获得更高匹配权重。
a. 我们可以基于 Ethereum 构建一个 OpenMCP.Network 创作者激励网络。MCP Server 需要托管和提供稳定的服务,用户对 LLM 提供商付费,LLM 提供商将实际的激励通过网络分配到被调用的 MCP Servers 上从而维持整个网络的可持续性和稳定性,激发 MCP 的创作者持续创作和提供高质量内容。这一套网络将需要使用智能合约实现激励的自动化、透明、可信和抗审查。运行过程中的签名、权限验证、隐私保护都可以使用以太坊钱包、ZK 等技术实现。
b. 开发 Ethereum 链上操作相关的 MCP Servers,例如 AA 钱包调用服务,用户将支持在 LLM 里面通过语言实现钱包付款而不暴露相关私钥和权限给 LLM。
c. 还有各种开发者工具,进一步简化 Ethereum 智能合约开发和代码生成。
a. MCP Servers 将 AI 的知识和能力去中心化,任何人都可以创建和托管 MCP Servers,注册到例如 OpenMCP.Network 这样的平台上面之后按照调用获得激励。没有任何一个公司可以掌握全部的 MCP Servers。如果一个 LLM 提供商给予不公平的激励到 MCP Servers,创作者将支持屏蔽该公司,用户得不到优质结果后将会更换其他 LLM 提供商实现更公平的竞争。
b. 创作者可以对自己的 MCP Servers 实现细粒度的权限控制以保护隐私和版权。瘦 LLM 提供商应该通过提供合理的激励来让创作者贡献高质量的 MCP Servers。
c. 瘦 LLM 能力差距将慢慢抹平,因为人类的语言是有遍历上限的,演进也很缓慢。LLM 提供商将需要把目光、资金瞄向高质量的 MCP Servers,而非重复使用更多显卡炼丹。
d. AGI 的能力将得到分散和降权,LLM 仅作为语言处理和用户交互,具体能力分布在各个 MCP Servers 里面。AGI 将不会威胁到人类,因为关闭 MCP Servers 之后就只能进行基础语言对话。
LLM + MCP Servers 的架构演进,本质上是将 AI 能力的去中心化,降低了 AGI 毁灭人类的风险。 LLM 的使用方式,使其对 MCP Servers 的调用次数和输入输出可以做到 token 级别的统计和自动化,为 AI 创作者经济系统的搭建奠定了基础。 好的经济系统可以驱动创作者主动贡献创作高质量 MCP Servers,从而带动整个人类的发展,实现正向飞轮。创作者不再抵御 AI,AI 也会提供更多岗位和收入,将类似 OpenAI 这样的垄断商业公司的利润合理分配。 这一套经济系统,结合其特性和创作者的需求,非常适合基于 Ethereum 实现。
下一步的剧本演进 MCP 或者类 MCP 的协议将会层出不穷,几家大公司将开始竞争标准的定义。 MCP Based LLM 将会出现,专注于解析和处理人类语言的小模型,附带 MCP Coordinator 接入 MCP 网络。LLM 将支持自动发现和调度 MCP Servers,无需复杂手工配置。 MCP Network 服务提供商将出现,每家有自己的经济激励系统,MCP 创作者将自己的 Server 注册和托管即可得到收入。 如果 MCP Network 的经济激励系统使用 Ethereum 构建,基于智能合约,那么 Ethereum 网络的 transactions 保守估计将增加约 150 倍(按照非常保守的每天 1 亿次 MCP Servers 的调用量,目前 12s 一个 Block 包括 100 txs 计算)。
内容 | Bruce
编辑 & 排版 | 环环
No activity yet