<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/">
    <channel>
        <title>Nirvanada</title>
        <link>https://paragraph.com/@nirvanada</link>
        <description>undefined</description>
        <lastBuildDate>Tue, 05 May 2026 01:50:17 GMT</lastBuildDate>
        <docs>https://validator.w3.org/feed/docs/rss2.html</docs>
        <generator>https://github.com/jpmonette/feed</generator>
        <language>en</language>
        <copyright>All rights reserved</copyright>
        <item>
            <title><![CDATA[StepN && Mirror.xyz]]></title>
            <link>https://paragraph.com/@nirvanada/stepn-mirror-xyz</link>
            <guid>hIw5JjxqXR6L2BKuQJ41</guid>
            <pubDate>Sat, 04 Jun 2022 12:10:26 GMT</pubDate>
            <description><![CDATA[Mirror.xyz平台应用案例作者在平台发布文章对应的NFT，可被交易作者为即将生产的作品/创意发起众筹，创作前发行代币，读者通过ETH购买代币（DAO从此产生，读者享有投票权）。创作完成后铸造NFT售卖，读者同样享受收益分成（案例）ChainETH/Arweave关于分布式储存网络Arweave：平台方自掏腰包存储作者发布的作品（但如果作者要铸造NFT上链需要独立支付Gas费，即ETH）代币$WRITE：是贯穿整个产品的的筹码，见Timeline中的具体描述；还没上交易所，坊间谣传$45000一个TimelineUnknonw ~ 2021.03：产品研发，前期推广/社区运营2021.03：已经铺垫的差不多，官方举办一个活动（竞赛）。每周投出“我心中的的Top10作者”，每个获胜作者获得一枚WRITE，拥有代币者可正式开通Mirror账号2021.04 ~ 2021.08：200人拿到了WRITE，并消耗WRITE开通Mirror账号（Token燃烧机制），然后在Twitter装逼2021.08 ~ 2021.10：AirDrop开始，300+WRITE开始分配给5000名社...]]></description>
            <content:encoded><![CDATA[<p><strong>Mirror.xyz</strong></p><ul><li><p><strong>平台应用案例</strong></p><ul><li><p><strong>作者在平台发布文章对应的NFT，可被交易</strong></p></li><li><p><strong>作者为即将生产的作品/创意发起众筹，创作前发行代币，读者通过ETH购买代币（DAO从此产生，读者享有投票权）。创作完成后铸造NFT售卖，读者同样享受收益分成（</strong><a target="_blank" rel="noopener noreferrer nofollow ugc" class="dont-break-out" href="https://emily.mirror.xyz/0AFENlMKv9amUC1OJIZY26udpISw_raXkoEcvelPvzg"><strong>案例</strong></a><strong>）</strong></p></li></ul></li><li><p><strong>Chain</strong></p><ul><li><p><strong>ETH/Arweave</strong></p></li><li><p><strong>关于分布式储存网络Arweave：平台方自掏腰包存储作者发布的作品（但如果作者要铸造NFT上链需要独立支付Gas费，即ETH）</strong></p></li></ul></li><li><p><strong>代币</strong></p><ul><li><p><strong>$WRITE：是贯穿整个产品的的筹码，见Timeline中的具体描述；还没上交易所，坊间谣传$45000一个</strong></p></li></ul></li><li><p><strong>Timeline</strong></p><ul><li><p><strong>Unknonw ~ 2021.03：产品研发，前期推广/社区运营</strong></p></li><li><p><strong>2021.03：已经铺垫的差不多，官方举办一个活动（竞赛）。每周投出“我心中的的Top10作者”，每个获胜作者获得一枚WRITE，拥有代币者可正式开通Mirror账号</strong></p></li><li><p><strong>2021.04 ~ 2021.08：200人拿到了WRITE，并消耗WRITE开通Mirror账号（Token燃烧机制），然后在Twitter装逼</strong></p></li><li><p><strong>2021.08 ~ 2021.10：AirDrop开始，300+WRITE开始分配给5000名社区忠实信徒</strong></p></li><li><p><strong>2021.10：Mirror正式对外开放，并且此时开通Mirror账号并不再需要消耗代币，但代币产生了新的功能 —— 成为Mirror Dao的成员（微博大V认证），并且获得一个平台分配的Mirror子域名。Mirror Dao可以认为是这个平台的精英群体，享有与官方共同参与生态里其他项目的投票权</strong></p></li><li><p><strong>2021.11：Mirror Spotlight开始，由Mirror Dao成员评选每周优质原创作者，并为他们奖励WRITE</strong></p></li></ul></li><li><p><strong>小结</strong></p><ul><li><p><strong>一个Write-to-Earn的模式，Web3时代的Medium，作者与粉丝之间的关系更加直接（众筹机制）</strong></p></li><li><p><strong>平台不仅仅局限于纯文章，还包括绘画 / 电影项目等等。技术角度上可能只要支持多种模式的富文本就好了，但是如此一来，格局就大了</strong></p></li><li><p><strong>内容的创作者和支持者自成一个小规模DAO；平台本身使用WRITE进行官方DAO的运营治理</strong></p></li><li><p><strong>官方很懂人性，对代币前期分配 / 燃烧的拿捏非常到位（至少现在看是这样）。代币前期的稀缺性造成用户中期的趋之若鹜，未来WRITE一定会有更多的应用点（也说明，未必需要在产品问世前就把所有代币经济的细节完全考虑清楚）</strong></p></li></ul></li></ul><h3 id="h-stepn" class="text-2xl font-header !mt-6 !mb-4 first:!mt-0 first:!mb-0">StepN</h3><ul><li><p><strong>平台应用案例</strong></p><ul><li><p><strong>用户用SOL买鞋子（NFT），在游戏中用鞋子进行现实生活的跑步，从而获取代币，进而升级/保养鞋子，再出售代币/鞋子获利</strong></p></li></ul></li><li><p><strong>Chain</strong></p><ul><li><p><strong>Solana</strong></p></li></ul></li><li><p><strong>代币</strong></p><ul><li><p><strong>双代币经济循环模式（见下图）</strong></p></li><li><p><strong>GST（游戏币，子币）</strong></p><ul><li><p><strong>供应：无限量，通过游戏中的各种活动获取</strong></p></li><li><p><strong>消耗：打造新鞋，修鞋，插宝石等</strong></p></li></ul></li><li><p><strong>GMT（治理代币，母币）</strong></p><ul><li><p><strong>供应：团队设定上限（分配规则见下表），用户达到较高等级后有投放</strong></p></li><li><p><strong>消耗：暂时没看到GMT参与投票功能（社区质疑声音比较大，如果一直不起作用就还是个Web2 App）；今年4月末游戏首次增加GMT消耗用例（一部分升级需要使用 GMT）</strong></p></li></ul></li><li><p><strong>GST/GMT可以和现实世界的经济体系挂钩（交易所），因此团队尝试使游戏中的资产价值动态化（代币价格变化，游戏中打造新鞋所需代币数也会发生变化）</strong></p></li></ul></li></ul><figure float="none" data-type="figure" class="img-center" style="max-width: null;"><img src="https://storage.googleapis.com/papyrus_images/cada6e3831b882bd7c64a8d57a3ae050789194cc69b484f70f6bc0c18acaec4d.png" alt="双代币模式" blurdataurl="data:image/gif;base64,R0lGODlhAQABAIAAAP///wAAACwAAAAAAQABAAACAkQBADs=" nextheight="600" nextwidth="800" class="image-node embed"><figcaption HTMLAttributes="[object Object]" class="">双代币模式</figcaption></figure><figure float="none" data-type="figure" class="img-center" style="max-width: null;"><img src="https://storage.googleapis.com/papyrus_images/827ca36a80e40f252717a3b41fa5b088613cd25457c672ce62596e9b9e89191f.png" alt="GMT 分配规则" blurdataurl="data:image/gif;base64,R0lGODlhAQABAIAAAP///wAAACwAAAAAAQABAAACAkQBADs=" nextheight="600" nextwidth="800" class="image-node embed"><figcaption HTMLAttributes="[object Object]" class="">GMT 分配规则</figcaption></figure><ul><li><p><strong>Timeline</strong></p><ul><li><p><strong>2021.11：测试版上线，吸引1000+用户</strong></p></li><li><p><strong>2021.12：公测版上线</strong></p></li><li><p><strong>2022.01：$500w种子轮完成</strong></p></li><li><p><strong>2022.03：dau超过3w</strong></p></li><li><p><strong>2022.04：获得战略投资，估值1个b；注册用户1m+，dau 20w+</strong></p></li><li><p><strong>2022.05：dau 40w+</strong></p></li><li><p><strong>2022.06：即将开展新一轮融资，估值4个b</strong></p></li></ul></li><li><p><strong>小结</strong></p><ul><li><p><strong>初期有利可图，用户就会蜂拥而至，现在X-to-Earn的web3游戏基本都是这么搞（有很多杀猪盘，也不排除stepN未来成为杀猪盘）</strong></p></li><li><p><strong>双货币系统可能会成为未来Web3应用的经典模式（抛压全部转移给子币）；然而就stepN而言，如果新用户进场速率变慢或者停滞，有可能会出现GST抛压过大币价下跌导致项目陷入死亡螺旋的情况，该情况是否能被解决十分依赖于后续团队的战略发展的GMT的释放策略</strong></p></li></ul></li></ul><h3 id="h-ref" class="text-2xl font-header !mt-6 !mb-4 first:!mt-0 first:!mb-0">Ref</h3><ul><li><p><strong>StepN</strong></p><ul><li><p><strong>stepN白皮书：</strong><a target="_blank" rel="noopener noreferrer nofollow ugc" class="dont-break-out" href="https://whitepaper.stepn.com/"><strong>https://whitepaper.stepn.com/</strong></a></p></li><li><p><strong>stepN的代币模型是否可持续？：</strong><a target="_blank" rel="noopener noreferrer nofollow ugc" class="dont-break-out" href="https://web3caff.com/zh/archives/8625"><strong>https://web3caff.com/zh/archives/8625</strong></a></p></li><li><p><strong>stepN（4-5月份）链上数据报告：</strong><a target="_blank" rel="noopener noreferrer nofollow ugc" class="dont-break-out" href="https://mirror.xyz/snapfingersdao.eth/JPJjsf7GdUgOhyQ9oUxApyHqwaooRG4z1hWXZht2JNk"><strong>https://mirror.xyz/snapfingersdao.eth/JPJjsf7GdUgOhyQ9oUxApyHqwaooRG4z1hWXZht2JNk</strong></a></p></li><li><p><strong>链游双代币模型分析：</strong><a target="_blank" rel="noopener noreferrer nofollow ugc" class="dont-break-out" href="https://mirror.xyz/iamwgg.eth/VHpC5kG5GurbKgC8CsuP5p1lGpz74ho5qNumJgvSY4E"><strong>https://mirror.xyz/iamwgg.eth/VHpC5kG5GurbKgC8CsuP5p1lGpz74ho5qNumJgvSY4E</strong></a></p></li><li><p><strong>stepN深度调研报告：</strong><a target="_blank" rel="noopener noreferrer nofollow ugc" class="dont-break-out" href="https://cryptotradingcafe.com/2467/"><strong>https://cryptotradingcafe.com/2467/</strong></a></p></li></ul></li><li><p><strong>Mirror.xyz</strong></p><ul><li><p><strong>Mirror的创作者经济：</strong><a target="_blank" rel="noopener noreferrer nofollow ugc" class="dont-break-out" href="https://www.gate.io/tw/blog_detail/555/Mirror-s-Creator-Economy-How-does-the-Write-to-Earn-Mode-Work-"><strong>https://www.gate.io/tw/blog_detail/555/Mirror-s-Creator-Economy-How-does-the-Write-to-Earn-Mode-Work-</strong></a></p></li><li><p><strong>Mirror成长史：</strong><a target="_blank" rel="noopener noreferrer nofollow ugc" class="dont-break-out" href="https://shawn.mirror.xyz/bTmcIWqDNfPUX_eGO4746SaCzsbqh_iWYwvLtbN8TtE"><strong>https://shawn.mirror.xyz/bTmcIWqDNfPUX_eGO4746SaCzsbqh_iWYwvLtbN8TtE</strong></a></p></li><li><p><strong>一个作家众筹的案例：</strong><a target="_blank" rel="noopener noreferrer nofollow ugc" class="dont-break-out" href="https://emily.mirror.xyz/0AFENlMKv9amUC1OJIZY26udpISw_raXkoEcvelPvzg"><strong>https://emily.mirror.xyz/0AFENlMKv9amUC1OJIZY26udpISw_raXkoEcvelPvzg</strong></a></p></li></ul></li></ul>]]></content:encoded>
            <author>nirvanada@newsletter.paragraph.com (Nirvanada)</author>
        </item>
        <item>
            <title><![CDATA[Capsule Networks]]></title>
            <link>https://paragraph.com/@nirvanada/capsule-networks</link>
            <guid>HDGTpFUT77SsBSEiKV6x</guid>
            <pubDate>Sat, 04 Jun 2022 08:28:03 GMT</pubDate>
            <description><![CDATA[Hinton上个月在axiv上甩出了一篇文章Dynamic Routing Between Capsules，作者在结构设计上弥补了一些cnn的设计缺陷。虽然作为行业领军人物，研究具有一定权威性，但也依然需要时间的考验和同行的不断推敲。Capsules在与cnn相关的研究中，这些年流行的网络框架都是基于conv+pooling的这种方式搭建的，即使是微软Resnet中引入了residual的概念，子网络依然是以这种方式组织起来。cnn中神经元的概念，无论是否共享权重，其实就是featureMap中的每一个具体的像素，是个标量。而capsules的将神经元扩展了一个维度，变成了一个向量，所以我们可以将capsules简单的理解为向量版的神经元。从网络上来说，cnn的forward过程是神经元与神经元的不断传播关系，而Capsules Network，显然，就是向量神经元之间的传播。Model Structure以mnist数据集为例，step by step看model的每个环节都是怎样的输出（第一个维度为batch_size）Layer OneInput: $[None,28,2...]]></description>
            <content:encoded><![CDATA[<p>Hinton上个月在axiv上甩出了一篇文章<a target="_blank" rel="noopener noreferrer nofollow ugc" class="dont-break-out" href="https://arxiv.org/abs/1710.09829">Dynamic Routing Between Capsules</a>，作者在结构设计上弥补了一些cnn的设计缺陷。虽然作为行业领军人物，研究具有一定权威性，但也依然需要时间的考验和同行的不断推敲。</p><h4 id="h-capsules" class="text-xl font-header !mt-6 !mb-3 first:!mt-0 first:!mb-0">Capsules</h4><p>在与cnn相关的研究中，这些年流行的网络框架都是基于conv+pooling的这种方式搭建的，即使是微软Resnet中引入了residual的概念，子网络依然是以这种方式组织起来。cnn中神经元的概念，无论是否共享权重，其实就是featureMap中的每一个具体的像素，是个标量。而capsules的将神经元扩展了一个维度，变成了一个向量，所以我们可以将capsules简单的理解为向量版的神经元。从网络上来说，cnn的forward过程是神经元与神经元的不断传播关系，而Capsules Network，显然，就是向量神经元之间的传播。</p><h4 id="h-model-structure" class="text-xl font-header !mt-6 !mb-3 first:!mt-0 first:!mb-0">Model Structure</h4><p>以mnist数据集为例，step by step看model的每个环节都是怎样的输出（第一个维度为batch_size）</p><figure float="none" data-type="figure" class="img-center" style="max-width: null;"><img src="https://storage.googleapis.com/papyrus_images/0a58d79939916d9f1458716703335a3ad16accdebb8c4fca9eacc72f2f753a95.jpg" alt="" blurdataurl="data:image/gif;base64,R0lGODlhAQABAIAAAP///wAAACwAAAAAAQABAAACAkQBADs=" nextheight="600" nextwidth="800" class="image-node embed"><figcaption HTMLAttributes="[object Object]" class="hide-figcaption"></figcaption></figure><h5 id="h-layer-one" class="text-lg font-header !mt-6 !mb-3 first:!mt-0 first:!mb-0">Layer One</h5><p><strong>Input</strong>: $[None,28,28,1]$</p><p>经过一层$9*9$，strides为1，通道数为256的conv layer</p><p><strong>Output</strong>:[None,20,20,256]</p><h5 id="h-layer-two" class="text-lg font-header !mt-6 !mb-3 first:!mt-0 first:!mb-0">Layer Two</h5><p><strong>Input</strong>:$[None,20,20,256]$</p><p>经过一层$9*9$的，strides为2，通道数为128的conv layer，按照这种方式的setting下，输出应为$[None,6,6,32]$。但如果我们将这一层的conv layer复制8份，输出就变成了$[None,6,6,8,32]$，如果我们再将这个结果reshape到$[None,6*6*32,8] = [None,1152,8]$的维度，此时capsules的概念就可以体现出来了，即，这一层共有1152个$[1*8]$的capsules向量。</p><p><strong>Output</strong>:$[None,1152,8]$</p><h5 id="h-layer-three" class="text-lg font-header !mt-6 !mb-3 first:!mt-0 first:!mb-0">Layer Three</h5><p><strong>Input</strong>:$[None,1152,8]$</p><p>这一层在维度上的变化略微复杂。对于一个指定index为$i$的$capsule_{i}$，其维度为$[1*8]$，引入一个维度为$[8*16]$的$Weight_{ij}$，那么</p><p>上面的式子输出维度为$[1*16]​$，而$i\in(1,1152)​$，$j\in(1,10)​$，所以共有$1152*10​$个$\hat{capsule_{j|i}}​$。直观上的理解是，上面的操作我们令其进行10次，一次操作代表一个类别，加上这样的capsule一共存在1152个，所以$Weight​$的维度为$[1152,10,8,16]​$，所以截止在$\hat{capsule}​$的输出维度为$[None,1152,10,1,16]​$。</p><p>接着，再引入一个维度为$[1152,10,1,1]$的bias，首先对bias做一次按第二个维度（10）的softmax压缩，维度保持不变</p><p>可以看到，这里的$c_{ij}$就是一个标量，用它将所有capsules建立起联系，做一次对1152个capsules的sum，即</p><p>可以看到，由于是按$i$求和，因此维度与$\hat{capsule_{j|i}}$一致（$[1*16]$），每一个$s_j$也都可以看成是capsule。由于Hinton在文中提到，capsule的模长表示概率，方向表示属性（真的很难理解。。），因此在输出层之前还要将每个capsule做一次非线性压缩</p><p><strong>Output</strong>:$[None,10,16]$</p><p>另外可以注意到，文章的题目中有dynamic routing的关键字，这个思想也穿插在上面的pipeline里。从公式2到公式4，可以概化为一个公式，</p><p>这里其实我们只进行了一次上面的操作，即将layer1的capsule transform到layer2的capsule，所以衍生出可以进行多次循环来获取更高level的capsule，而这个循环capsule高阶表达的过程就成为routing。具体的做法就是不断通过输出的高层capsule回传到低层capsule，从而更新bias（只更新bias，其余参数不更新），即</p><p>剥离上面公式的维度信息，发现$\hat{capsule_{j|i}} v_j$与$v_{ij}$均为$[16*1]$的向量，而$bias_{ij}$为一个标量，完全match，具体routing流程见下图。</p><figure float="none" data-type="figure" class="img-center" style="max-width: null;"><img src="https://storage.googleapis.com/papyrus_images/a30504e913fe45037dcb98754fab93315dd822ca01707ffbea3565b227cc7512.jpg" alt="Routing流程" blurdataurl="data:image/gif;base64,R0lGODlhAQABAIAAAP///wAAACwAAAAAAQABAAACAkQBADs=" nextheight="600" nextwidth="800" class="image-node embed"><figcaption HTMLAttributes="[object Object]" class="">Routing流程</figcaption></figure><p>在这也顺便粘上一句原文的话，说明的是每个layer之间的capsule究竟是用来干嘛的，可以好好体会一下，就一句话已经看的云里雾里了。</p><blockquote><p>In convolutional capsule layers, each capsule outputs a local grid of vectors to each type of capsule in the layer above using different transformation matrices for each member of the grid as well as for each type of capsule.</p></blockquote><h5 id="h-layer-four" class="text-lg font-header !mt-6 !mb-3 first:!mt-0 first:!mb-0">Layer Four</h5><p><strong>Input:</strong>$[None,10,16]$</p><p>上面已经说到了，capsule的模长表示概率，因此直接将上层输入做一次范数即可，输出的维度即为所有类别总数</p><p><strong>Output</strong>:$[None,10]$</p><h5 id="h-reconstruction-layer" class="text-lg font-header !mt-6 !mb-3 first:!mt-0 first:!mb-0">Reconstruction Layer</h5><p><strong>Input</strong>:$[None,10,16]$</p><p>上面所描述的layer均为正向预测的过程，而通过top layer的capsule还原回原始图片质量的好坏也是能证明模型表达能力的一种评价方式，所以作者又引入了reconstruction layer，来对图像进行重构。首先将Layer Four中的输入拿过来，用真实class对张量进行一次掩模，只保留真实类别对应的vector，维度为$[None,16]$，然后连续接上三个Full Connected Layer，大小分别为512，1024和728，激活函数分别为ReLU，ReLU和Sigmoid，最后再讲728维向量reshape到$[28*28]$，从而还原了原始图像。</p><p><strong>Output</strong>:$[None,28,28,1]$</p><figure float="none" data-type="figure" class="img-center" style="max-width: null;"><img src="https://storage.googleapis.com/papyrus_images/cf1a11923fa20902cd4c660f87610e100d2479b58884e06813c5d88bdbda8c73.jpg" alt="" blurdataurl="data:image/gif;base64,R0lGODlhAQABAIAAAP///wAAACwAAAAAAQABAAACAkQBADs=" nextheight="600" nextwidth="800" class="image-node embed"><figcaption HTMLAttributes="[object Object]" class="hide-figcaption"></figcaption></figure><h4 id="h-loss-definition" class="text-xl font-header !mt-6 !mb-3 first:!mt-0 first:!mb-0">Loss Definition</h4><p>说完了上面的结构，应该可以清晰的看出来，loss由两部分构成，一部分为网络正向传播上层capsule模预测为哪个class的loss-1，另一部分为重构网络还原的图片与真实图片的差异loss-2。其中loss-1使用类似于svm的margin loss，加入了一些小trick，而loss-2则使用的是重构与真实pixel-to-pixel的平方损失。形式为</p><p>其中$T_{k} \in (0,1)$表示图像中是否存在第k个类（这里不太一样的是，学习的图片里允许有多个类别，文章在实验中也加入两个类别分离的实验），$m^+$与$m^-$分别表示类比预测的upperBound和lowerBound，引入$\lambda(==0.5)$的作用是为了减弱不存在类capsule在初始阶段的学习，以防止对其他的capsule影响过大？（没太理解），$x_{ri}$和$x_{ti}$分别表示第$i$个重构像素与真实像素。为了尽量不影响正向构造capsule的能力，重构loss稀疏$\alpha$在文章中取得极小（0.0005）。</p><h4 id="h-implementation" class="text-xl font-header !mt-6 !mb-3 first:!mt-0 first:!mb-0">Implementation</h4><p>Keras版本：<a target="_blank" rel="noopener noreferrer nofollow ugc" class="dont-break-out" href="https://github.com/XifengGuo/CapsNet-Keras">https://github.com/XifengGuo/CapsNet-Keras</a></p><figure float="none" data-type="figure" class="img-center" style="max-width: null;"><img src="https://storage.googleapis.com/papyrus_images/9a6f805a15a0cd2f0a8502c51331a1d75769bf86560fdcff000533917baa83f6.jpg" alt="Structure and Parameters" blurdataurl="data:image/gif;base64,R0lGODlhAQABAIAAAP///wAAACwAAAAAAQABAAACAkQBADs=" nextheight="600" nextwidth="800" class="image-node embed"><figcaption HTMLAttributes="[object Object]" class="">Structure and Parameters</figcaption></figure><h4 id="h-questions" class="text-xl font-header !mt-6 !mb-3 first:!mt-0 first:!mb-0">Questions</h4><ol><li><p>squashing的形式为何是这样?</p></li><li><p>多次routing的作用是什么？</p></li><li><p>为什么采用margin loss？</p></li><li><p>包含有capsule的网络结构中，激活函数在哪里？</p></li><li><p>cifar数据集表现不佳的原因？</p></li></ol>]]></content:encoded>
            <author>nirvanada@newsletter.paragraph.com (Nirvanada)</author>
        </item>
    </channel>
</rss>