# 关于 kaito yaps 的六层思考发散：你已被巨网包围！

By [jojonas](https://paragraph.com/@jojonas1) · 2024-12-29

---

kaito这个项目见到倒是比较早，最早是零散几个博主推，当时以为只是个做社媒数据分析的工具。

后来越来越多KOL推，一直到这周，timeline基本被kaito占领。特别是很多平时发的内容都很优质的博主；每多一个，我对它的好奇就会多一分。因为我相信这些博主的眼光不会错。

绝对不会那么简单！我看到的只是皮毛。于是排上研究计划。

kaito到底在做什么事？以及可能要做什么事？接下来基于我对这个项目的了解过程，说说我的理解。

第1层：表面上的kaito，KOL品牌价值排行榜？
-------------------------

从已对用户曝光的部分（ [yaps](https://yaps.kaito.ai/) ）来看，这是一个以某种方式量化twitter账户影响力的产品。这种影响力被用“Yapper Mindshare”表示。mindshare可以理解为“心智份额”，这其实用于表示一个品牌在受众群体中的地位和相对重要性，高心智份额能够带来更多购买行为。

从这里可以看到项目方针对社交账户影响力的定义——品牌价值/商誉。我们可以对比已经是尸体的某朋友科技，后者其实是把影响力定义为一种金融资本。**品牌价值到金融资本的转换，是单向，并且可被控制的**。FT没有这么一个阀，所以兜不住。

在首页可以很清楚地看到twitter账号获取yaps积分的排名数据、热力图、网络图等。

顶部菜单栏可以选择：

1、针对某个话题的yaps，或者某个分类话题（比如针对某个项目）。 2、项目的pre-TGE声量。 3、VC影响力。

暂时没有看到yaps积分的计算规则，事实上，不透露规则也是kaito做的比较好的地方，这个后面说。

这个就是第一层的kaito，看起来似乎只是个平平无奇的社交挖矿项目，而社交挖矿已经是上上轮就已经被玩过的模式了。很多难题解决不了，随手列一列：难以自动化定义内容价值；用户行为激励扭曲；垃圾内容泛滥、刷单划水等；社区氛围恶化，劣币驱逐良币……

第2层：AI辅助分析，让社交挖矿模式可行了起来？
------------------------

在yaps产品页下拉，可以看到还有个具体的展示面板，AI基于用户内容做情绪分析，判断这个账号发的内容是硬核or随意、抄袭or原创、喜欢发垃圾话还是有价值内容。

![](https://storage.googleapis.com/papyrus_images/02805d0803a6b333eccea491947dc333a82a7d117086dc62a46b53db03732c88.png)

目前只有这三个，但这玩意未来可以慢慢加上去很多。就好比隔断时间就会流行的“twitter人格分析”小玩具，MBTI人格测试分分钟给你玩上。btw确实可以加上MBTI，挺好玩的……

这其实反映了一个很重要的点，是上个周期所不具备的：AI在数据分析和量化工作中所能发挥的作用。或者说，NLP（自然语言处理）早已有之，但一直没有被拿来用。有句话怎么说来着？时候未到，杀鸡焉用牛刀？

跳回前面所说的，社交挖矿模式的几个无解问题，这几个其实是一环套一环，最根本就在于，内容价值无法量化。那么借助AI分析一个推文所含信息的价值、博主情绪等，都成为了可能。至于价值本身怎么量化，这个又串到后面PageRank的话题了，先放一下。

一旦内容价值可被相对准确地量化，垃圾内容泛滥的问题就可以缓解；刷单、划水、优质博主被排挤等问题，就可以缓解；用户行为激励扭曲的问题，就可以缓解。反过来，行为激励被导向到：发送优质内容。

当前的yaps积分，本质上还是社交挖矿，这个不用争。但我这么一说，是不是觉得好像有点不一样？

别着急。我的理解是，yaps仅仅是kaito打市场的一步棋。KOL是声量最高、最容易带动裂变的群体，就像我会在第3层说的，KOL只是众多分类角度的其一。

第3层：数据分析工具
----------

前面说到，yaps目前可以能够看到项目的pre-TGE声量、VC影响力。这些都是基于对应的项目/VC在twitter上的官方账号数据得来。

理论上，只要底层数据在埋点/清洗/归类等过程足够精细，类似的菜单功能是可以被无限拓展的，因为只是针对不同特征做分类聚合。比如说哪天可以出个twitter政客影响力排行，出个xx话题分析，出个最受欢迎的av老师，等等。从社媒舆情的角度，kaito比部分单纯计算关键词频率、抓取KOL关键词重合度等简单算法的数据工具效果一定会更好，因为kaito的权重来源于长期的神经网络优化。

话题回到数据分析，twitter这么一个靠死贵死贵的API拿数据的，可以做到这样；链上数据的采集，似乎更容易？包括其他一些常见的平台。链上数据就算不自己做，和 Arkham 之类的合作，推出一些 alpha小工具、监控报警、投研助理 之类的副产品不成问题。

举一个例子吧，链上数据产品绝对做不来的。

运营节奏分析。

正常来说怎么做呢？找到运营主阵地，通常是twitter、discord，去扒每一条公告、推文，内容、互动数据、评论倾向、AMA、dc聊天内容、PR文案等；有发币的，还要结合k线图，有NFT的，去看资产交易记录；去看项目方大的运营周期里的活动填充，去看社区情绪变化和应对方式等。一个项目方会不会运营，这对于做二级投资其实很重要，但目前就是得耗费很多人力精力。

但如果用AI基于现有数据来辅助分析，就只需要一套成熟的算法规则了。同样的逻辑可以化用到：

一个热点事件的发展过程。一个meme币的发展过程。按头CABAL？

美国大选的全过程回顾。

……

这样的产品够不够有竞争力呢？我相信一定有，核心就是yaps背后那套算法的积累，核心就是我能做你不能做。边际成本够低情况下，每个副产品只要精准定位客群就好。

第4层：infoFi？金融化的信息门户
-------------------

还记得我刚入圈的时候写过一篇文章 [我设计了个区块链上的“烂番茄+wiki”项目：如何更好地引导社区治理？](https://jojonas.notion.site/wiki-0981a45b5f7c4578a2b4db653a473e4a?pvs=4) 设想的是一个类似于豆瓣/烂番茄的评分网站，社区去给项目打分，中间有各种机制来维持打分的公平性和准确度。

项目打分不稀奇，随便一个门户网站都能做，可是有意义吗？先不说当前的用户习惯不在这，就算用户习惯看打分，随便就能刷上去的分数有什么意义？

参考已有的一些长线运营打分网站，豆瓣/烂番茄/ProductHunt等，总结来说无外乎几点：

1、通过机器学习剔除可能存在的刷分行为； 2、通过注册用户的活跃度/影响力做不同权重； 3、邀请专业人士进行打分，相当于DPOS了其实；

很多门户网站的分数无意义的原因在于，他们的主业务基于信息归类，不可能无法花费大成本去做机器学习，去计算用户权重。并且用户习惯目前也不在这，成本收益对比很清晰。

但我在想，对很多新人来说，他们看不懂我们说的云里雾里的东西（就好比我这篇文章他们一个屁字都不会看）他们需要一个简单直白的东西告诉他们：这个项目好不好？这个KOL割不割？T、M、D、别、废、话、YES、OR、NO？

一个底层行为模式就是：电影、美食、AI模型，所以直观上难以评价的东西，一定会出现一个评分系统，帮助人们更快更直观获取这个东西的价值程度。这最终会形成用户习惯。好比我看影视作品一定会先开豆瓣，我朋友吃饭一定要先开大众点评一样。

说到这里，你似乎能够联想到什么东西。没错，搜索引擎，这个后面说。

先说说我为什么认为一个标准可用的信息门户很重要。

举几个例子吧。

1、之前老是看到有吐槽400U天团割韭菜，但有什么用呢？不是韭菜没有记忆，而是镰刀太多记不过来。就算你记得这个人了，人家改头换面或者卖号了，完了推倒重来了。用户天生不擅长记这些东西的，就好比前几天 @0x\_Todd 老师说弄混了两位马男一样，没忍住笑，因为大部分人都一样认不清，我也是。

2、现在大多数门户网站会附一个评分，可往往就是简单取个平均数，打分账号根本不知道谁是谁。马斯克给你项目打5分和你自己打能一样吗我就问？

3、请思考一个问题：你认为胡润、福布斯为什么每年要花费大量精力制作排行榜？

全球最大的评级机构之一，穆迪2023全年净利润24亿美元。对于项目方来说，做信息门户服务有很多好处：提升自己的行业地位和话语权；向B端收取服务费；向C端收取订阅费；黑心一点的，收广告费……

光是第一个，话语权。即便我很不喜欢讨论权力这个词，但不可否认，有的时候，权力变现远超任何商业模式，无论这种权力是如何获得的。

第5层：搜索引擎？
---------

前面提到PageRank，这里解释下。

PageRank是谷歌搜索引擎的核心算法之一，PageRank排名简单来说就是衡量一个网页的重要性，如果一个网页被很多其他网页所链接，那么他的排名就更高。某种程度上这个排名就是网络结构中，每个节点（网页）的权重。

假设对于一个网络结构，最初每一个网页的权重都是1；假设有一位随机冲浪者，每次经过一个节点，都会基于该网页上的链接跳转到其他网页，或者极低概率随机跳转到一个无关的新网页（设定一个阻尼系数，然后我们忽略这种情况）。假设这位冲浪者持续在各类网页之间来回跳转，拉长时间线，他停留在每个网页的次数其实就可以看作是节点的权重。

当然，实际的算法肯定没这么简单。再多了我也不懂。咱们就只抽象出这么一个底层模型。

现在就可以回到前面所说的，内容价值的问题了。内容由于是一个带有主观色彩的东西，我没法说人家发了个研报他就是高质量，你整天在那边shitpost就是低质量，不是这样的。或者说，部分是这样的，但一定会有一部分权重，它来源于“PageRank”。

请回到互联网行业常说的、我们炒meme常说的一个词——注意力价值。

形象点说，你这个节点每多被查看一次，就积累一点注意力价值；那么PageRank（在kaito里可能是yaps抽象后的一个内部参数）就是你能捕获的注意力价值相对值。

那么对标到谷歌，如果kaito提供web3信息的搜索服务，你输入一个词，最先搜到的是谁呢？

KOL：妈蛋，本来以为是来嫖你的，绕到最后我反被嫖了？

400U天团正义执行者……

开个玩笑。我们挪开KOL，放到付费能力更强的VC、项目方、CABAL集团、政治利益集团身上，假设kaito能进化到谷歌的地位，这些B端要获客，付钱要付给谁？付多少？嫌多了？那咱竞价排名吧？

……

第6层：机制设计的春天？
------------

老实说，这层和kaito没啥关系，是我从kaito这个项目的研究中得到的一些灵感。如果能让你开心，第0层或者地下室也没问题的。

所有的机制设计，无论事前的演算有多么精巧，一旦实际投入运行，一定会面临来自不同利益群体的的挑战。

俗话说的好，“上有政策，下有对策”，这说的是博弈策略的演进。

更严重的问题是，不同群体的利益可能存在一些根本性的冲突，这意味着其中总有己方会在社区质疑、引战。而作为论据之一，对于难以量化的“事实”的量化规则便是重灾区。针对于此的争论往往最后鸡同鸭讲，沦为无意义。

但是AI评分黑箱不会啊。

AI给你打80分，说你阳气不足，还需努力，你什么想法？

1、感受到冒犯，但冒犯者是AI，算了吧。这是天然的社区包容性。 2、AI为什么给别人打90分只给我打80？我是不是有什么问题？这是AI的技术黑箱，让其时刻站在舆论高点。 3、AI真的会持续自我迭代，你会发现AI说的怎么越来越准了？这是认知接受的温水煮青蛙。

所以，一个好的AI评分模型，能够解决：

1、万物皆可量化了。如果量化效果差，不是不适合量化，是数据还不够。一旦万物都可以转换成明确的数据，很多统计、算法就能跨越性地跑了。 2、AI评分是个黑箱，这意味着不存在完全信息，博弈参与者的最优对策，确定性进一步降低了。 3、最大共识公约数。之前相互瞧不上，都觉得自己的更好；现在都得了吧，AI为准要不就？以和为贵嘛…… 4、随机性乐趣。这个用在炼油会非常合适。

当然，AI的模糊性是双刃剑，使其很容易被拿来作为阴谋的借口。这些相信随着技术发展会慢慢被解决。

差不多就想到这里，最后提一提我对项目的风险认识吧。

**风险认识**

从yaps这个先行产品来看，kaito目前的优势其实基于twitter，crypto大多数社媒活动是发生在twitter上的，如果twitter API成本变化、甚至直接改了提供数据，可能会带来严重影响。至于farcaster，第一生态暂时没那么成熟，裂变转不起来，第二由于成本低，竞品也能轻易塞进来；短期来说，小工具拥有竞争力。

更核心的问题就是权重算法，如果最终效果不够令人满意，比如大多数人都觉得A比B高但其实A比B低很多，这种其实是有问题的。这不是直觉与否，是算法逻辑有问题或者说团队作恶了。包括AI的中立性是需要被证明的。

第三，是能否得到最大采用。yaps可以很贵，吃精英用户，没问题。但后续怎么让更多人认可和采用，其实是做平台最难的事情。B端，排的高的自然高兴，顺水人情背个书；排名偏低的呢，会不会去搞事情？C端，KOL被拉拢了，但同样成为了“负债”，榜上只要有一个人出事，信任度就会大跌，这是单点风险\* N。从yaps推出到最大采用，路还是难走的。

**利益声明**

我没有收kaito一分钱，不认识kaito任何人，甚至由于我个人反社会工程的原则，当初连twitter后不填钱包，错过了空投的大毛。本文所有言论，是我基于这个项目的一些衍生思考，也不代表项目就会这么做。写下此文的目的在文首已经阐明：kaito似乎没有我最初以为的那么简单，我想研究研究。

欢迎关注twitter交流：

：[@jojonas\_xyz](https://x.com/jojonas_xyz)

---

*Originally published on [jojonas](https://paragraph.com/@jojonas1/kaito-yaps)*
