
从manus产品与营销现象思考:产品井喷年代,请尽力捕获注意力
老实说,到现在也没manus的邀请码,所以如果你坚持认为没体验过就没有发言权的话,直接叉掉可以为你节省十分钟。 想聊聊两个大点,一个是有关manus这波营销争议;一个是manus的产品取巧之道。产品:没有突破,但突破了Manus并没有在技术上实现突破,这或许是争议过后最大的共识。最核心的验证案例来源于MetaGPT团队(做编程agent team的)三小时复刻了一个OpenManus。 但毫无疑问,manus带给大家的产品又是震撼的。它把AI作为“人类之手”,自动化实现一系列流程,其中包含了大量的信息自主收集、浏览器交互等内容。这些将最终被封装,用户只需要告诉manus他想要做什么,就可以搬个椅子直接看表演了。 如果你和我一样日常关注AI领域的一些动态,你会发现manus相比于deepseek模型训练方面的革新,更多像是一只缝合怪: 1、任务梳理、知识库调用。大部分模型均具备该能力,并且从prompt engineering的角度,先行将任务拆解梳理会提高AI最终输出的效果。我自己在日常与AI交互中,要么是直接列清单,要么是让AI基于我的需求为我梳理。 2、信息搜集、梳理、分析。...

2024-Week46:meme浪潮侵入
作为周报计划的第一篇,大概介绍下会包括的内容: 【新项目/新游戏】 - 介绍加密行业/游戏行业中感兴趣的新项目(“新”指我本周新看到,而非新上线) 【文章推荐】 - 本周看到的好文推荐,主要包括加密/游戏/AI/开源/经济金融等领域。相对个人化,有些文章会附笔记,也可能会附上一些个人感想的题外话。mirror版本由于产品不具侧边栏,可在 博客站 方便跳转。 【Better to Share】 - 一些好用的工具/网站/开源库分享,并不一定都用过,可能只是其他地方看到觉得不错,mark一下。 【其他】 - 塞一些乱七八糟的东西周报源起由于平时会阅读大量的文章,主要是巧克力(行业更新太快了),商业,游戏,科技方面的,看到不错的会拉取收藏。 但随着文章不断加入,知识库日益臃肿,我却发现两个非常严肃的问题: 1、那些被加入我的知识库的文章,我基本上都没有再打开第二次了; 2、我很难想起我什么时候看了什么文章; 这些问题的存在,让我觉得我原来的策略,对于更新自己的认知框架没有太大意义。 我需要写下自己的理解,以将那些零散的获得真正内化。 突然想到,为何不将这些阅读分享出来? 如果能吸引到不...
Jokenomics02:为什么重视tokenomics?如何判断其好坏?庞氏结构真的是垃圾吗?
注:本文纯个人观点。少打了几个字!什么是tokenomics?提起tokenomics,很多人可能觉得就是项目方发个币,让大家去买,买完之后就完全是二级市场的事情;而一提及tokenomics设计,可能会有人说那有什么好设计的?一个普遍的认知在于,token可以用来奖励用户,用来社区治理,用来模拟股票对项目估值,而水面之下的一个很核心的问题没能被很好地重视——token的价格靠什么支撑? 我们买股票,除去二级市场博弈外,更多地在于看好公司未来的发展,股票持有者的好处无外乎分红与治理;我们买一件商品,则看重其实际的使用效用。同样地,token购买者的目的无非这几点:二级博弈、分红(项目发展红利)、治理、实际效用。基于这几点如何去设计token机制呢?卖个关子。 先为tokenomics下一个定义。 首先,从这个词本身出发,tokenomics=token+economics,即通证与经济学的结合体。 通证。为什么不说代币?因为代币本身被赋予了一部分货币的意思,从实际情况来看,大部分token本身并不具有货币的属性;而大家经常使用代币代指“fungible token”,导致同为代币...
<100 subscribers

从manus产品与营销现象思考:产品井喷年代,请尽力捕获注意力
老实说,到现在也没manus的邀请码,所以如果你坚持认为没体验过就没有发言权的话,直接叉掉可以为你节省十分钟。 想聊聊两个大点,一个是有关manus这波营销争议;一个是manus的产品取巧之道。产品:没有突破,但突破了Manus并没有在技术上实现突破,这或许是争议过后最大的共识。最核心的验证案例来源于MetaGPT团队(做编程agent team的)三小时复刻了一个OpenManus。 但毫无疑问,manus带给大家的产品又是震撼的。它把AI作为“人类之手”,自动化实现一系列流程,其中包含了大量的信息自主收集、浏览器交互等内容。这些将最终被封装,用户只需要告诉manus他想要做什么,就可以搬个椅子直接看表演了。 如果你和我一样日常关注AI领域的一些动态,你会发现manus相比于deepseek模型训练方面的革新,更多像是一只缝合怪: 1、任务梳理、知识库调用。大部分模型均具备该能力,并且从prompt engineering的角度,先行将任务拆解梳理会提高AI最终输出的效果。我自己在日常与AI交互中,要么是直接列清单,要么是让AI基于我的需求为我梳理。 2、信息搜集、梳理、分析。...

2024-Week46:meme浪潮侵入
作为周报计划的第一篇,大概介绍下会包括的内容: 【新项目/新游戏】 - 介绍加密行业/游戏行业中感兴趣的新项目(“新”指我本周新看到,而非新上线) 【文章推荐】 - 本周看到的好文推荐,主要包括加密/游戏/AI/开源/经济金融等领域。相对个人化,有些文章会附笔记,也可能会附上一些个人感想的题外话。mirror版本由于产品不具侧边栏,可在 博客站 方便跳转。 【Better to Share】 - 一些好用的工具/网站/开源库分享,并不一定都用过,可能只是其他地方看到觉得不错,mark一下。 【其他】 - 塞一些乱七八糟的东西周报源起由于平时会阅读大量的文章,主要是巧克力(行业更新太快了),商业,游戏,科技方面的,看到不错的会拉取收藏。 但随着文章不断加入,知识库日益臃肿,我却发现两个非常严肃的问题: 1、那些被加入我的知识库的文章,我基本上都没有再打开第二次了; 2、我很难想起我什么时候看了什么文章; 这些问题的存在,让我觉得我原来的策略,对于更新自己的认知框架没有太大意义。 我需要写下自己的理解,以将那些零散的获得真正内化。 突然想到,为何不将这些阅读分享出来? 如果能吸引到不...
Jokenomics02:为什么重视tokenomics?如何判断其好坏?庞氏结构真的是垃圾吗?
注:本文纯个人观点。少打了几个字!什么是tokenomics?提起tokenomics,很多人可能觉得就是项目方发个币,让大家去买,买完之后就完全是二级市场的事情;而一提及tokenomics设计,可能会有人说那有什么好设计的?一个普遍的认知在于,token可以用来奖励用户,用来社区治理,用来模拟股票对项目估值,而水面之下的一个很核心的问题没能被很好地重视——token的价格靠什么支撑? 我们买股票,除去二级市场博弈外,更多地在于看好公司未来的发展,股票持有者的好处无外乎分红与治理;我们买一件商品,则看重其实际的使用效用。同样地,token购买者的目的无非这几点:二级博弈、分红(项目发展红利)、治理、实际效用。基于这几点如何去设计token机制呢?卖个关子。 先为tokenomics下一个定义。 首先,从这个词本身出发,tokenomics=token+economics,即通证与经济学的结合体。 通证。为什么不说代币?因为代币本身被赋予了一部分货币的意思,从实际情况来看,大部分token本身并不具有货币的属性;而大家经常使用代币代指“fungible token”,导致同为代币...
Share Dialog
Share Dialog
好久不见!上一篇sheepdex我提到了uniswap v3的聚合流动性方案,解释了两种聚合流动性方案:
传统的DEX的流动性是平均分布的,而uniswap v3让LP自己选择流动性的位置,这样,在市场作用下,LP就会自动聚合到市场价格附近,于是交易的深度得以加强、选择正确的LP们的收益也得以最大化;而同样是聚合流动性,curve v2则选择了把聚合的任务交给机器人而非用户和市场,系统会自动计算并将流动性聚合到市场价格附近,同样达到了提高交易深度的目的,不同的是,LP无需主动选择,自然也就只能获得平均收益。此时,curve v2相当于是把聚合流动性直接打包提供给用户,而uniswap v3则是提供了一个底层基础接口。
但uniswap v3也存在一些问题。
1、对于采用v3方案提供流动性的项目代币而言,LP的分布大概是这样的:

这会产生一个什么问题呢?绝大部分的LP把他们的区间设置在现价p附近,假设是(p1,p2),一旦p超过p2,就会对项目代币产生一定的抛压。这其实是不利于代币价格上涨的。
2、对于LP提供者而言,一旦超出区间就会蒙受损失,无论是向上突破“少赚了”的机会损失,还是向下突破“u变纪念币”的真实损失,反正一旦突破区间就不划算。(当然,这里提供的是短期视角,毕竟价格总有回来的时候)
最近看到的这个izumi,暂不清楚项目进展,但有白皮书,能看到他们提出的解决方案,共五种,据说用户任选,我们一起来看一下。
先设几个东西,LP对x-u,市场现价x=p*u
1、Concentrated liquidity mining model
始终保持在一个集中区间中做市,例如(0.95p,1.05p),来获得做市的最大收益。
但该区间随时变化,将LP提供给izumi的用户们又该如何获得奖励呢?
同样的逻辑,无论用户A设定的区间(p1,p2)是多少,要看(p1,p2)之中有多少在(0.95p,1.05p)中。换个说法其实更容易理解,izumi评估(0.95p,1.05p)范围内的总有效流动性,并根据每个LP持有的比例线性分配所获得的激励。

这个方案有点像uniswap v3上面再套一个curve v2,由于izumi做市区间(0.95p,1.05p)是追踪最新市价p的,应该会是一套复杂的算法,能否实现或许是个未知数(不然uniswap或者curve为什么不直接做呢?)另外,做市奖励分配仍旧是按照用户设定区间的准确度来分配的,比起单纯的uniswap v3或者curve v2是否能做到更好的收益优化这一点存疑(毕竟底层做市激励的蛋糕就那么大),但也确实能够为习惯v3的用户提供一种弥补v3劣势的做市方式。
2、One-sided non-impermanent loss mining model
方案二。这个是什么意思呢?
传统做市,x-u的LP对是作为一个整体放在区间上的;而该方案把x和u剥离开了,u放p左侧,x放p右侧:

为什么这么做?就是为了弥补我们前面所说的v3的不足:项目代币上涨时的潜在抛压,以及LP提供者超出区间后的损失。
该方案把x放入单币staking池锁定了流动性,u放在价格预期下跌的区间提供单币做市。
由此,项目代币价格上涨,就能刚好进入x提供流动性的区间;下跌也能进入u做市区间。
潜在抛压没有了。LP损失也没有了(x在单币池,上涨也换不出去;下跌进入正常做市,仅有无常损失)
3、active interval mining
间歇性挖矿。这一块白皮书没做啥解释:

我尝试自己理解了下。
由于x代币的价格总是处于波动之中,故而把传统的根据区间计算激励的思路改成根据提供有效流动性的时间占比。
举个例子,x的价格在一个小时内在(1,3)区间震荡,izumi中间件做市总激励为10000u。这一个小时内有40%时间区间在2(2附近的一个微小区间),60%在2.5(现实情况肯定是一个连续的函数,为了简要说明我举例为两点),因此4000u分给2做市的,6000u分给2.5做市的。2.5做市的做市者中,你的LP占有20%,于是你的激励就是1200u。
最后说明一下,我的这个理解可能还不够准确。“有效流动性”最终的度量尺度或许不是时间,而是“有交易存在的时间”。
这一方案的确让人眼前一亮,因为通过izumi中间件弥补了v3的劣势后,又用最接近真实提供LP的功劳情况来完善激励机制,直觉上会是个不错的主意。但具体有没有用,就得看产品出来后的运行情况了。理论上的完善或许等于“有意思”,但“有意思”不代表在实践中取得好的效果。
4、Additional rewards proportional to trading fees model
这个涉及到对v3产品更深的理解,很遗憾我暂时没有。
说下我的理解吧,就是在提供LP后能够根据市价动态调整x-u配比,而调整的操作会被当作是交易,使得LP获取激励。这部分激励被项目方叫做了“fake trading”。

5、One-sided mining with lock-up period model
简而言之就是一个看跌期权,在p下方位置选取一个区间,p不在区间内时取得一个低风险的APR,一旦跌入区间内则开始买入,为p提供支撑。这样一个功能有什么用呢?可以是项目方自己设置的一个价格预期线,也可以为专业的金融机构提供对冲。或者你也可以把他理解为升级版的订单簿——挂着单的同时还能享受APR。
最后总结一下,几个方案的共同思路都是在v3上面再套一层中间层,弥补掉v3的不足;再在这个中间层的设计上,为用户提供多种选择来实现v3的优势。我比较感兴趣的一点是,izumi是否会选择融合这些方案的LP?毕竟每个方案的算法不同。当然,不融合,当成不同的LP提供者,貌似也是一个省心的选择。
好久不见!上一篇sheepdex我提到了uniswap v3的聚合流动性方案,解释了两种聚合流动性方案:
传统的DEX的流动性是平均分布的,而uniswap v3让LP自己选择流动性的位置,这样,在市场作用下,LP就会自动聚合到市场价格附近,于是交易的深度得以加强、选择正确的LP们的收益也得以最大化;而同样是聚合流动性,curve v2则选择了把聚合的任务交给机器人而非用户和市场,系统会自动计算并将流动性聚合到市场价格附近,同样达到了提高交易深度的目的,不同的是,LP无需主动选择,自然也就只能获得平均收益。此时,curve v2相当于是把聚合流动性直接打包提供给用户,而uniswap v3则是提供了一个底层基础接口。
但uniswap v3也存在一些问题。
1、对于采用v3方案提供流动性的项目代币而言,LP的分布大概是这样的:

这会产生一个什么问题呢?绝大部分的LP把他们的区间设置在现价p附近,假设是(p1,p2),一旦p超过p2,就会对项目代币产生一定的抛压。这其实是不利于代币价格上涨的。
2、对于LP提供者而言,一旦超出区间就会蒙受损失,无论是向上突破“少赚了”的机会损失,还是向下突破“u变纪念币”的真实损失,反正一旦突破区间就不划算。(当然,这里提供的是短期视角,毕竟价格总有回来的时候)
最近看到的这个izumi,暂不清楚项目进展,但有白皮书,能看到他们提出的解决方案,共五种,据说用户任选,我们一起来看一下。
先设几个东西,LP对x-u,市场现价x=p*u
1、Concentrated liquidity mining model
始终保持在一个集中区间中做市,例如(0.95p,1.05p),来获得做市的最大收益。
但该区间随时变化,将LP提供给izumi的用户们又该如何获得奖励呢?
同样的逻辑,无论用户A设定的区间(p1,p2)是多少,要看(p1,p2)之中有多少在(0.95p,1.05p)中。换个说法其实更容易理解,izumi评估(0.95p,1.05p)范围内的总有效流动性,并根据每个LP持有的比例线性分配所获得的激励。

这个方案有点像uniswap v3上面再套一个curve v2,由于izumi做市区间(0.95p,1.05p)是追踪最新市价p的,应该会是一套复杂的算法,能否实现或许是个未知数(不然uniswap或者curve为什么不直接做呢?)另外,做市奖励分配仍旧是按照用户设定区间的准确度来分配的,比起单纯的uniswap v3或者curve v2是否能做到更好的收益优化这一点存疑(毕竟底层做市激励的蛋糕就那么大),但也确实能够为习惯v3的用户提供一种弥补v3劣势的做市方式。
2、One-sided non-impermanent loss mining model
方案二。这个是什么意思呢?
传统做市,x-u的LP对是作为一个整体放在区间上的;而该方案把x和u剥离开了,u放p左侧,x放p右侧:

为什么这么做?就是为了弥补我们前面所说的v3的不足:项目代币上涨时的潜在抛压,以及LP提供者超出区间后的损失。
该方案把x放入单币staking池锁定了流动性,u放在价格预期下跌的区间提供单币做市。
由此,项目代币价格上涨,就能刚好进入x提供流动性的区间;下跌也能进入u做市区间。
潜在抛压没有了。LP损失也没有了(x在单币池,上涨也换不出去;下跌进入正常做市,仅有无常损失)
3、active interval mining
间歇性挖矿。这一块白皮书没做啥解释:

我尝试自己理解了下。
由于x代币的价格总是处于波动之中,故而把传统的根据区间计算激励的思路改成根据提供有效流动性的时间占比。
举个例子,x的价格在一个小时内在(1,3)区间震荡,izumi中间件做市总激励为10000u。这一个小时内有40%时间区间在2(2附近的一个微小区间),60%在2.5(现实情况肯定是一个连续的函数,为了简要说明我举例为两点),因此4000u分给2做市的,6000u分给2.5做市的。2.5做市的做市者中,你的LP占有20%,于是你的激励就是1200u。
最后说明一下,我的这个理解可能还不够准确。“有效流动性”最终的度量尺度或许不是时间,而是“有交易存在的时间”。
这一方案的确让人眼前一亮,因为通过izumi中间件弥补了v3的劣势后,又用最接近真实提供LP的功劳情况来完善激励机制,直觉上会是个不错的主意。但具体有没有用,就得看产品出来后的运行情况了。理论上的完善或许等于“有意思”,但“有意思”不代表在实践中取得好的效果。
4、Additional rewards proportional to trading fees model
这个涉及到对v3产品更深的理解,很遗憾我暂时没有。
说下我的理解吧,就是在提供LP后能够根据市价动态调整x-u配比,而调整的操作会被当作是交易,使得LP获取激励。这部分激励被项目方叫做了“fake trading”。

5、One-sided mining with lock-up period model
简而言之就是一个看跌期权,在p下方位置选取一个区间,p不在区间内时取得一个低风险的APR,一旦跌入区间内则开始买入,为p提供支撑。这样一个功能有什么用呢?可以是项目方自己设置的一个价格预期线,也可以为专业的金融机构提供对冲。或者你也可以把他理解为升级版的订单簿——挂着单的同时还能享受APR。
最后总结一下,几个方案的共同思路都是在v3上面再套一层中间层,弥补掉v3的不足;再在这个中间层的设计上,为用户提供多种选择来实现v3的优势。我比较感兴趣的一点是,izumi是否会选择融合这些方案的LP?毕竟每个方案的算法不同。当然,不融合,当成不同的LP提供者,貌似也是一个省心的选择。
No comments yet