
Vitalik:通过调整 calldata 和增加分片进一步扩容 rollup 的渐进路线图
来源 | notes.ethereum.org 作者 | Vitalik Buterin 在中短期、甚至长期来说,rollup 是以太坊唯一的去信任扩容解决方案。数月以来,L1 上的交易费变得如此高,以至于我们迫切需要做些什么来促进整个生态系统向 rollup 迁移。Rollup 已经为许多以太坊用户极大地降低了交易费: 根据 L2 交易费监测网站 l2fees.info 显示,Optimism 和 Arbitrum 的交易费比以太坊基础层的交易费要低大约 3-8 倍;而 ZK-rollup 拥有更好的数据压缩并且不需要打包签名,费用与基础层相比要低 40-100 倍。 然而,即便有所扩容,这样的费用对于用户来说也还是太昂贵了。关于该问题早就已经写过文章,解决目前形式 rollup 不足的长期解决方案为添加数据分片,这将为 rollup 增加约 1-2 MB/秒的专用数据空间。本文档描述了对该方案的实用操作方法,从而尽快为 rollup 释放充足的数据空间,并逐渐增加额外的空间和提高安全性。第一步:调整交易 calldata 以实现扩容目前现有的 rollup 需要使用交易 ca...

社区新春活动:虎年NFT赏金计划
「天地风霜尽,乾坤气象和; 历添新岁月,春满旧山河。」 转眼我们又来到了辞旧迎新的节点。回望 2021 牛年,我们在虚拟世界 Decentraland 与 Dragon City 联合举办新春活动,并携知名加密艺术家送出实物 NFT,而今虎年将至, ECN 依然将与以太坊社区共度佳节。去年 Vitalik 和以太坊吉祥物 NPC 在 Metaverse 给大家拜年,今年我们将邀请 Vitalik Buterin 于 2 月 4 日 (大年初四) 跟中文社区聊聊天。 此外,今年春节活动的另一个重要环节是——**ECN 正式发起虎年 NFT 赏金计划!**我们希望由社区成员来创作一个纪念虎年春节的 NFT,由其他成员投票选出获胜作品,我们会将其铸造为 NFT 赠与社区。 2021 牛年 NFT (由知名加密艺术家 Ting Song 创作的扎染及蜡染作品,实物随 NFT 赠出)今年的...... ✏️给你,你行你就上。春节活动介绍ECN 邀请了以太坊联合创始人 Vitalik Buterin 来中文社区过年,通过线上访谈和 AMA 的形式与大家互动,主题将聚焦以太坊过去一年的发展以及...

以太七日谈 • 2022/6/28
合并 (The Merge)Gray Glacier 升级即将来临 以太坊网络将在区块高度 15,050,000 进行计划中的推迟难度炸弹升级,时间预计 2022 年 6 月 29 日,周三。由于区块时间和时区是变化的,所以确切日期可能会改变。如果你有运行以太坊节点,记得升级哦! 详情:《Gray Glacier 升级公告》 #7 主网影子分叉测试进行不顺利 于上周五进行的第 141 次以太坊核心开发者会议 (ACD) 上,开发者首先对在上周三进行的第 7 次主网影子分叉测试进行复盘:不顺利。有 20% 的节点在激活合并时掉线,合并后有更多的节点掉线。部分的原因是 Erigon 的节点在影子分叉网络上无法与其他对等点连接。开发者 Alex Sharp@realLedgerwatch 在会上强调问题与影子分叉的工作原理相关,而不在于合并本身。开发者@parithosh_j 补充道,Erigon 节点的简单修复很快就实现了,因此后面的影子分叉不会再出现这个问题。 另一个更重要的问题是 Besu 客户端有一个特殊数据存储格式,他们把它称作“bonsai tries"。Besu 的开发者...

Vitalik:通过调整 calldata 和增加分片进一步扩容 rollup 的渐进路线图
来源 | notes.ethereum.org 作者 | Vitalik Buterin 在中短期、甚至长期来说,rollup 是以太坊唯一的去信任扩容解决方案。数月以来,L1 上的交易费变得如此高,以至于我们迫切需要做些什么来促进整个生态系统向 rollup 迁移。Rollup 已经为许多以太坊用户极大地降低了交易费: 根据 L2 交易费监测网站 l2fees.info 显示,Optimism 和 Arbitrum 的交易费比以太坊基础层的交易费要低大约 3-8 倍;而 ZK-rollup 拥有更好的数据压缩并且不需要打包签名,费用与基础层相比要低 40-100 倍。 然而,即便有所扩容,这样的费用对于用户来说也还是太昂贵了。关于该问题早就已经写过文章,解决目前形式 rollup 不足的长期解决方案为添加数据分片,这将为 rollup 增加约 1-2 MB/秒的专用数据空间。本文档描述了对该方案的实用操作方法,从而尽快为 rollup 释放充足的数据空间,并逐渐增加额外的空间和提高安全性。第一步:调整交易 calldata 以实现扩容目前现有的 rollup 需要使用交易 ca...

社区新春活动:虎年NFT赏金计划
「天地风霜尽,乾坤气象和; 历添新岁月,春满旧山河。」 转眼我们又来到了辞旧迎新的节点。回望 2021 牛年,我们在虚拟世界 Decentraland 与 Dragon City 联合举办新春活动,并携知名加密艺术家送出实物 NFT,而今虎年将至, ECN 依然将与以太坊社区共度佳节。去年 Vitalik 和以太坊吉祥物 NPC 在 Metaverse 给大家拜年,今年我们将邀请 Vitalik Buterin 于 2 月 4 日 (大年初四) 跟中文社区聊聊天。 此外,今年春节活动的另一个重要环节是——**ECN 正式发起虎年 NFT 赏金计划!**我们希望由社区成员来创作一个纪念虎年春节的 NFT,由其他成员投票选出获胜作品,我们会将其铸造为 NFT 赠与社区。 2021 牛年 NFT (由知名加密艺术家 Ting Song 创作的扎染及蜡染作品,实物随 NFT 赠出)今年的...... ✏️给你,你行你就上。春节活动介绍ECN 邀请了以太坊联合创始人 Vitalik Buterin 来中文社区过年,通过线上访谈和 AMA 的形式与大家互动,主题将聚焦以太坊过去一年的发展以及...

以太七日谈 • 2022/6/28
合并 (The Merge)Gray Glacier 升级即将来临 以太坊网络将在区块高度 15,050,000 进行计划中的推迟难度炸弹升级,时间预计 2022 年 6 月 29 日,周三。由于区块时间和时区是变化的,所以确切日期可能会改变。如果你有运行以太坊节点,记得升级哦! 详情:《Gray Glacier 升级公告》 #7 主网影子分叉测试进行不顺利 于上周五进行的第 141 次以太坊核心开发者会议 (ACD) 上,开发者首先对在上周三进行的第 7 次主网影子分叉测试进行复盘:不顺利。有 20% 的节点在激活合并时掉线,合并后有更多的节点掉线。部分的原因是 Erigon 的节点在影子分叉网络上无法与其他对等点连接。开发者 Alex Sharp@realLedgerwatch 在会上强调问题与影子分叉的工作原理相关,而不在于合并本身。开发者@parithosh_j 补充道,Erigon 节点的简单修复很快就实现了,因此后面的影子分叉不会再出现这个问题。 另一个更重要的问题是 Besu 客户端有一个特殊数据存储格式,他们把它称作“bonsai tries"。Besu 的开发者...
Share Dialog
Share Dialog

Subscribe to EthereumCN

Subscribe to EthereumCN


<100 subscribers
<100 subscribers
译者注:EIP-4444 提议把 HISTORY_PRUNE_EPOCHS 设为 82125 个 epoch (即信标链上 1 年),使得在 PoS 以太坊里执行层客户端不再在 p2p 网络上提供超过一年的区块头、区块主体和收据的数据,客户端可以在本地修剪这些历史数据。此 EIP 的作者之一@lightclients 在推特写了简介,本文为该推文的翻译。
以太坊客户端目前存储着 275 GB 的历史数据,这些数据对于验证区块链是不必要的。这个数字正在以每年 140 GB 的速度增长。EIP-4444 提议客户端修剪超过 1 年的数据。那么,为什么我们不直接修剪数据呢?
要理解为什么数据还没被修剪,以及为什么这需要讨论,就需要理解历史数据今天是如何被使用的。有两个主要的使用类别:同步和用户通过 JSON-RPC 请求。
在同步里有两种主要方法:
完全同步 (Full Sync):下载并执行从创世直到区块链顶端的每个区块
状态同步 (State Sync):这里有很多方案,但主要是用工作量证明检查进行区块头同步,并下载最新区块的状态。
在这两种情况下,客户端通过 p2p 网络请求历史数据,以延长它们对链的视域 (view)。信任模型通常是信任创世状态然后验证其他所有东西——要么完全验证,要么通过工作量证明检查进行轻度验证。
权益证明改变了这点。因为它容易遭受远程攻击,我们必须依赖“弱主观性检查点 (Weak Subjectivity Checkpoint)”。这实质上是我们对权威链上一个区块的信任程度等同于对 PoW 里创世区块的信任。
弱主观性检查点使得客户端可以跳过通过 p2p 网络请求历史数据的引导步骤。当然,在检查点后它们将仍然需要同步历史数据——因此检查点应该总是在修剪边界之前。
这听上去像是安全性上的倒退。以前,我们有一个 2015 年 7 月 13 日的哈希值做验证。现在,我们有的是变动着的弱主观性检查点。但事实上,我们一直都依赖弱主观性。
你最后一次验证客户端版本间的代码差异是什么时候?大多数人没有技术背景来做这件事。因此,每次你更新你的客户端,你都依赖你的客户端团队严格地实现以太坊协议。
幸运的是,有很多人盯着像 go-ethereum 这样的软件。只需要一个吹哨者就能揭发代码里的恶意提交。同样,只需要有一个吹哨者指出一个客户端推出一个恶意的弱主观性检查点。
事实上,验证一个客户端推出正确的弱主观性检查点比确保代码正确执行协议要容易得多。
因此,从安全性的角度来看,其实是没有倒退的。这也包括同步——历史数据所需的另一个主要用途类别是为用户请求提供服务。
用户可以请求两种类型的数据:
当前数据,例如存储槽的数值、账户余额、最新的区块高度等
历史数据,例如在区块 N 的存储槽数据、区块 N 的区块头、交易收据等
当前的数据将继续可以被访问,当实现 EIP-4444 后,历史数据能否被访问取决于它是多长时间以前的。
历史数据的主要使用者是 dapp 开发者。很多 dapp 添加历史数据到它们的数据库,通过它们的前端提供给用户。对于他们来说,能够遍历所有交易和日志是很重要的。
支持这个用例有多个方法——现在最受欢迎的方法是客户端发布多路复用器,支持一定范围区块的版本会执行该范围的区块。例如,geth 版本 A 可能支持直到区块高度为 10m 的区块,而 geth 版本 B 则支持 10m 之后的区块。
多路复用器将用版本 A 执行区块高度为 0 到 10m 的区块,输出状态数据库并将其导入 geth 版本 B,然后继续执行10m 之后的区块。JSON-RPC 请求会被导向有合适信息响应的客户端。
但是,如果历史区块在 p2p 网络上不再可得——那谁来提供这些数据?预计会有很多大型、受信任的机构提供这些数据的镜像。由于数据是静态的,所以很容易就其哈希值达成共识并进行验证。这是 1-of-N 的信任模型。
新标准将是不存储历史数据并运行一个客户端多路复用器。这意味着以太坊客户端的标准内存占用会减少 275 GB——但还有最后一个问题需要提及。
当前,当请求的数据不存在时,以太坊的 JSON-RPC 会给一个空响应。假设客户端没有在同步,这会以“这个数据不存在于权威链或最近的分叉”被接受。
一旦客户端开始修剪旧数据,这种不变性就会被打破。当一个用户请求一个特定交易收据时,客户端将不知道该收据是被修剪了还是从来没有存在过。目前,我们期望 RPC 将对这两种情况返回一个空响应。
我很想得到关于这种方法的反馈。JSON-RPC 的使用者对此有什么看法?你们访问超过 1 年的历史数据的频率如何?另一种方法 (尽管更重) 是保持一个被修剪数据哈希值的索引,这样可以向用户返回更多的内容。
275 GB 这个数据是在 geth db inspect 的输出里查到的。下面是截图:

正式的 EIP-4444 (顺便提一下,读作 EIP four 4s) 规范可以在这里找到:
https://eips.ethereum.org/EIPS/eip-4444
ECN的翻译工作旨在为中国以太坊社区传递优质资讯和学习资源,文章版权归原作者所有,转载须注明原文出处以及ethereum.cn,若需长期转载,请联系eth@ecn.co进行授权。
译者注:EIP-4444 提议把 HISTORY_PRUNE_EPOCHS 设为 82125 个 epoch (即信标链上 1 年),使得在 PoS 以太坊里执行层客户端不再在 p2p 网络上提供超过一年的区块头、区块主体和收据的数据,客户端可以在本地修剪这些历史数据。此 EIP 的作者之一@lightclients 在推特写了简介,本文为该推文的翻译。
以太坊客户端目前存储着 275 GB 的历史数据,这些数据对于验证区块链是不必要的。这个数字正在以每年 140 GB 的速度增长。EIP-4444 提议客户端修剪超过 1 年的数据。那么,为什么我们不直接修剪数据呢?
要理解为什么数据还没被修剪,以及为什么这需要讨论,就需要理解历史数据今天是如何被使用的。有两个主要的使用类别:同步和用户通过 JSON-RPC 请求。
在同步里有两种主要方法:
完全同步 (Full Sync):下载并执行从创世直到区块链顶端的每个区块
状态同步 (State Sync):这里有很多方案,但主要是用工作量证明检查进行区块头同步,并下载最新区块的状态。
在这两种情况下,客户端通过 p2p 网络请求历史数据,以延长它们对链的视域 (view)。信任模型通常是信任创世状态然后验证其他所有东西——要么完全验证,要么通过工作量证明检查进行轻度验证。
权益证明改变了这点。因为它容易遭受远程攻击,我们必须依赖“弱主观性检查点 (Weak Subjectivity Checkpoint)”。这实质上是我们对权威链上一个区块的信任程度等同于对 PoW 里创世区块的信任。
弱主观性检查点使得客户端可以跳过通过 p2p 网络请求历史数据的引导步骤。当然,在检查点后它们将仍然需要同步历史数据——因此检查点应该总是在修剪边界之前。
这听上去像是安全性上的倒退。以前,我们有一个 2015 年 7 月 13 日的哈希值做验证。现在,我们有的是变动着的弱主观性检查点。但事实上,我们一直都依赖弱主观性。
你最后一次验证客户端版本间的代码差异是什么时候?大多数人没有技术背景来做这件事。因此,每次你更新你的客户端,你都依赖你的客户端团队严格地实现以太坊协议。
幸运的是,有很多人盯着像 go-ethereum 这样的软件。只需要一个吹哨者就能揭发代码里的恶意提交。同样,只需要有一个吹哨者指出一个客户端推出一个恶意的弱主观性检查点。
事实上,验证一个客户端推出正确的弱主观性检查点比确保代码正确执行协议要容易得多。
因此,从安全性的角度来看,其实是没有倒退的。这也包括同步——历史数据所需的另一个主要用途类别是为用户请求提供服务。
用户可以请求两种类型的数据:
当前数据,例如存储槽的数值、账户余额、最新的区块高度等
历史数据,例如在区块 N 的存储槽数据、区块 N 的区块头、交易收据等
当前的数据将继续可以被访问,当实现 EIP-4444 后,历史数据能否被访问取决于它是多长时间以前的。
历史数据的主要使用者是 dapp 开发者。很多 dapp 添加历史数据到它们的数据库,通过它们的前端提供给用户。对于他们来说,能够遍历所有交易和日志是很重要的。
支持这个用例有多个方法——现在最受欢迎的方法是客户端发布多路复用器,支持一定范围区块的版本会执行该范围的区块。例如,geth 版本 A 可能支持直到区块高度为 10m 的区块,而 geth 版本 B 则支持 10m 之后的区块。
多路复用器将用版本 A 执行区块高度为 0 到 10m 的区块,输出状态数据库并将其导入 geth 版本 B,然后继续执行10m 之后的区块。JSON-RPC 请求会被导向有合适信息响应的客户端。
但是,如果历史区块在 p2p 网络上不再可得——那谁来提供这些数据?预计会有很多大型、受信任的机构提供这些数据的镜像。由于数据是静态的,所以很容易就其哈希值达成共识并进行验证。这是 1-of-N 的信任模型。
新标准将是不存储历史数据并运行一个客户端多路复用器。这意味着以太坊客户端的标准内存占用会减少 275 GB——但还有最后一个问题需要提及。
当前,当请求的数据不存在时,以太坊的 JSON-RPC 会给一个空响应。假设客户端没有在同步,这会以“这个数据不存在于权威链或最近的分叉”被接受。
一旦客户端开始修剪旧数据,这种不变性就会被打破。当一个用户请求一个特定交易收据时,客户端将不知道该收据是被修剪了还是从来没有存在过。目前,我们期望 RPC 将对这两种情况返回一个空响应。
我很想得到关于这种方法的反馈。JSON-RPC 的使用者对此有什么看法?你们访问超过 1 年的历史数据的频率如何?另一种方法 (尽管更重) 是保持一个被修剪数据哈希值的索引,这样可以向用户返回更多的内容。
275 GB 这个数据是在 geth db inspect 的输出里查到的。下面是截图:

正式的 EIP-4444 (顺便提一下,读作 EIP four 4s) 规范可以在这里找到:
https://eips.ethereum.org/EIPS/eip-4444
ECN的翻译工作旨在为中国以太坊社区传递优质资讯和学习资源,文章版权归原作者所有,转载须注明原文出处以及ethereum.cn,若需长期转载,请联系eth@ecn.co进行授权。
No activity yet