# 【认知蝗虫计划】深度剖析下个万亿赛道:零知识证明和分布式计算结合 **Published by:** [Will](https://paragraph.com/@will2000/) **Published on:** 2022-12-08 **URL:** https://paragraph.com/@will2000/XEMMZ6wRVt3pM25hvuTe ## Content 【输出入】will 【主题】深度剖析下个万亿赛道:零知识证明和分布式计算结合 【核心内容介绍】 1.分布式计算发展历史和市场前景 以太坊为代表的智能合约公链,可以抽象理解为去中心化的计算框架,他突破了点对点计算框架的瓶颈,点对点通信、计算结果全网一致性和数据一致性等等问题。 2020年,Defi summer出现,大量Dapp开始涌现。链上数据爆炸,面对越来越多复杂的业务场景,EVM越来越显得无力,随着Dapp高速增长,数据量也在爆炸式增长,这些数据的价值都需要更加复杂的算法来去计算,挖掘其商业价值。 当前整个赛道的现状,处于在学术层面已经验证0到1的突破,一些大型项目在工程实践上,有了较大的进展。例如当前的zkRollup和zkEVM实现上,都是刚刚发布产品的阶段。 未来还有很大空间,理由如下: 1,还需提升验证计算的高效性。 2,还需要补充丰富更多指令集。 3,真正不同业务场景的优化。 4,以往用智能合约无法实现的业务场景,可以通过去中心化计算实现。 2. 去中心化的分布式计算尝试 2.1 云服务模式 用户支付一定费用,按照计算资源使用时间来计算费用。最终这个模式因为没有考虑人性的因素而导致没有广泛应用,大量资源被用于挖矿,以谋取最大利益。导致真正可被利用的资源较少。 2.2 挑战者模式 TrueBit则利用博弈体系,达到全局最优解,来保障下发的计算任务是被正确执行**。**缺点是挑战者可以晚时间提交,只需要完成提交任务就行。这样导致结果是,缺少及时性。 2.3 利用零知识证明验证计算 实现,既保证计算过程可被验证,又能保障验证的及时性。 2.3 零知识证明和分布式计算的结合 在假定条件下,有足够高性能的零知识证明加速硬件和足够被优化的零知识证明算法,通用计算场景可以得到充分发展。大量Web2场景下的计算业务,都可以被零知识证明通用虚拟机进行复现。就如前文所提到可赚钱的业务方向。 ** 3. 零知识证明和分布式计算的结合** 零知识证明在学术层面突飞猛进,具体落地到实际开发时候,有专门的编程语言,多种实现的zkvm,周边配套工具设施及各种明星项目,零知识证明和去中心化计算结合不再是停留在理论层面,在工程实践上逐渐成熟。 4. 遇到的瓶颈以及如何解决 4.1 zkProof生成效率低 拆解整个zkProof生成的流程发现,NTT和MSM计算时间开销居高不下,用户等待时间较长 4.2 硬件资源占用大 目前和一些zkRollup项目接触,最终发现还是大内存和大显存显卡比较适合他们用于软件加速。 4.3 Gas消耗成本 大规模普及后,需要为ETH支付大量Gas。最终由用户承担这个成本,违背技术发展的初衷。 4.4 虚拟机的指令缺失 当前大部分zkvm面向智能合约编程的平台,如果要更加通用的计算场景,对zkvm底层指令集有大量的补齐工作。 【个人思考】 随着web3应用场景的丰富,越来越多复杂的业务会让EVM显得无力,目前更需要去中心化的计算网络去挖掘现在爆炸的数据中的商业价值,以目前的市场规模来看,还有很大的增长空间,很多的业务场景,比如NFT交易过程中的节省Gas费等都存在着很大的商业价值。 【相关链接】 https://mp.weixin.qq.com/s/56hA8LH6YuMWrMEOOIlNhQ ## Publication Information - [Will](https://paragraph.com/@will2000/): Publication homepage - [All Posts](https://paragraph.com/@will2000/): More posts from this publication - [RSS Feed](https://api.paragraph.com/blogs/rss/@will2000): Subscribe to updates