关于 Uniswap V3 的计算
机制改变Uniswap V3 采用了集中流动性(Concentrated Liquidity)。用户可以为自己的流动性设置一个价格区间。超出这个价格区间或低于这个价格区间,所有代币将被转换成两者中不值钱的那个。这一步转化造成的损失是无常损失。一个价格区间中的最小间隔叫 Tick,为 0.01%。 符号Swap添加流动性相关阅读:Uniswap V3 白皮书编辑于昨天 14:30文章被以下专栏收录* Blockchian;unblock256.com
矿工可提取价值
日渐增多的 MEV 可能导致了高昂的 Gas Fee在*上一期*的周报中我们为大家介绍了 Gas Fee , Gas Fee 越高,交易就越可能被矿工打包。本期我们就来讨论一下这种打包机制所产生的问题,Miner-extractable Value(MEV)。 MEV 指的是矿工重新排序交易后可以获得的利润。在实际情况中, MEV 可能并不是矿工推动。有可能是我付出了一个很高的 Gas Fee ,希望矿工优先打包我的交易。 希望矿工优先打包交易的原因有以下几种:抢跑(Frontrunning)主流的 DEX 都支持滑点,也就是成交价格的区间,假设当前下单价格 100 块,滑点是 5%,这意味着成交价格会在 95 - 105 之间。 宽松的价格区间让套利者有机可乘。 假如一个套利者在内存池中(没有打包的交易都会在内存池中)看到一笔大额买单(币价即将上涨)。根据 AMM 的模型,只要有买单成交,代币价格就会上升。因此,套利者可以通过高额的 Gas Fee 或者贿赂矿工来插入一笔买单,抢在代币价格上涨之前完成买入。套利者的抢跑行为将导致后续的那一笔大额买单以以更高的价格成交。 其实在现...
流动性挖矿(Yield Farming)
⚠️ 以下为非投资建议 (No Financial Advise) 内容,流动性挖矿存在投资风险。概念流动性挖矿是 AMM 协议下的提供流动性的更进一步,它是通过锁定流动性来获取代币奖励。 如何获取收益*上期*我们讲到在 AMM 协议下,流动性提供者可以通过从交易手续费中获取一定收益。流动性挖矿与单纯的提供流动性(LP)略有不同,它是将组好的 LP,注入到资金池中(矿池),以获取额外的不同的代币支付奖励。用于奖励的代币大多为矿场的代币。以 BSC 上的 PancakeSwap 的 Farm 作为例子,这是一个 $BUSD - $BNB 矿池,在 Stake(质押、注入)前,我们需要先为 $BUSD - $BNB 交易对提供流动性以及 Approve(授权使用代币)。 LP 组好后,我们就可以将我们的 LP Stake 进矿池,开始挖矿。 一段时间后,我们可以获得 $CAKE (PancakeSwap 的平台代币)作为奖励,通过 Harvest(收成)我们就可以把 $CAKE 收入囊中。与此同时,我们的 $BUSD - $BNB 还在努力的工作,持续产出 $CAKE。 又过了一段...

Subscribe to un.Block
关于 Uniswap V3 的计算
机制改变Uniswap V3 采用了集中流动性(Concentrated Liquidity)。用户可以为自己的流动性设置一个价格区间。超出这个价格区间或低于这个价格区间,所有代币将被转换成两者中不值钱的那个。这一步转化造成的损失是无常损失。一个价格区间中的最小间隔叫 Tick,为 0.01%。 符号Swap添加流动性相关阅读:Uniswap V3 白皮书编辑于昨天 14:30文章被以下专栏收录* Blockchian;unblock256.com
矿工可提取价值
日渐增多的 MEV 可能导致了高昂的 Gas Fee在*上一期*的周报中我们为大家介绍了 Gas Fee , Gas Fee 越高,交易就越可能被矿工打包。本期我们就来讨论一下这种打包机制所产生的问题,Miner-extractable Value(MEV)。 MEV 指的是矿工重新排序交易后可以获得的利润。在实际情况中, MEV 可能并不是矿工推动。有可能是我付出了一个很高的 Gas Fee ,希望矿工优先打包我的交易。 希望矿工优先打包交易的原因有以下几种:抢跑(Frontrunning)主流的 DEX 都支持滑点,也就是成交价格的区间,假设当前下单价格 100 块,滑点是 5%,这意味着成交价格会在 95 - 105 之间。 宽松的价格区间让套利者有机可乘。 假如一个套利者在内存池中(没有打包的交易都会在内存池中)看到一笔大额买单(币价即将上涨)。根据 AMM 的模型,只要有买单成交,代币价格就会上升。因此,套利者可以通过高额的 Gas Fee 或者贿赂矿工来插入一笔买单,抢在代币价格上涨之前完成买入。套利者的抢跑行为将导致后续的那一笔大额买单以以更高的价格成交。 其实在现...
流动性挖矿(Yield Farming)
⚠️ 以下为非投资建议 (No Financial Advise) 内容,流动性挖矿存在投资风险。概念流动性挖矿是 AMM 协议下的提供流动性的更进一步,它是通过锁定流动性来获取代币奖励。 如何获取收益*上期*我们讲到在 AMM 协议下,流动性提供者可以通过从交易手续费中获取一定收益。流动性挖矿与单纯的提供流动性(LP)略有不同,它是将组好的 LP,注入到资金池中(矿池),以获取额外的不同的代币支付奖励。用于奖励的代币大多为矿场的代币。以 BSC 上的 PancakeSwap 的 Farm 作为例子,这是一个 $BUSD - $BNB 矿池,在 Stake(质押、注入)前,我们需要先为 $BUSD - $BNB 交易对提供流动性以及 Approve(授权使用代币)。 LP 组好后,我们就可以将我们的 LP Stake 进矿池,开始挖矿。 一段时间后,我们可以获得 $CAKE (PancakeSwap 的平台代币)作为奖励,通过 Harvest(收成)我们就可以把 $CAKE 收入囊中。与此同时,我们的 $BUSD - $BNB 还在努力的工作,持续产出 $CAKE。 又过了一段...
Share Dialog
Share Dialog
<100 subscribers
<100 subscribers
AI 和加密货币初创公司 Giza 获得 300 万美元融资,并推出自家框架 Cairo 的简易教程(链接)
自动化客服公司 AwesomeQA 获得 280 万美元融资,Coinbase Ventures 和 Uniswap Labs Ventures 参投(链接)
Web3 开发公司法国 Narval 完成 400 万美元的种子融资,BlockTower VC 领投(链接)
FTX Japan 开始招聘,称将关注 AI 开发领域(链接)
日本企业 Cybozu 推出新基金 Kintone Teamwork Fund,聚焦于 Web3 和 AI(链接)
Lighting Labs 推出基于 AI 的比特币模型,可使用基于大型语言模型的应用进行比特币交易(链接)
筑波大学团队推出基于链上数据的 AI 投资组合管理系统 CryptoRLPM(链接)(
AI 和加密货币初创公司 Giza 获得 300 万美元融资,并推出自家框架 Cairo 的简易教程(链接)
自动化客服公司 AwesomeQA 获得 280 万美元融资,Coinbase Ventures 和 Uniswap Labs Ventures 参投(链接)
Web3 开发公司法国 Narval 完成 400 万美元的种子融资,BlockTower VC 领投(链接)
FTX Japan 开始招聘,称将关注 AI 开发领域(链接)
日本企业 Cybozu 推出新基金 Kintone Teamwork Fund,聚焦于 Web3 和 AI(链接)
Lighting Labs 推出基于 AI 的比特币模型,可使用基于大型语言模型的应用进行比特币交易(链接)
筑波大学团队推出基于链上数据的 AI 投资组合管理系统 CryptoRLPM(链接)(
Web3 数据智能公司 Web3Go 获得 400 万美元融资,Binance Labs 及 Hashkey Capital参投(链接)
基于 ZK-rollup 证明技术的 Web3 隐私公司 Ola 获得 300 万美元融资,Foresight Ventures 参投(链接)
这篇文章展示了目前开发,维护一个 AI App 需要的基础设施。
文章中主要关注于结合上下文,数据库,使用 LLM 提供更加精准、实时的答案,降低幻觉的发生。
除了问答机器人,另一个 a16z 觉得有前途的方向是 Agents。AI 使用工具和自我反馈、学习来达成一些目标,例如全自动写代码,写报告,改 Bug 等等。在其他大的 AI 企业也看到正在努力钻研 Agents 方向。
GPT 的训练分为四个阶段
预训练
监督训练
奖励训练
强化训练
目前大部分模型为与训练后的模型,例如 GPT,LLaMA,PaLM。他们擅长补全文章,但是不擅长指令,和用户问答。这一阶段需要的资源和数据量最大。
在这些基础模型之上,开发者进行监督训练。让这些基础模型具备回应指令的功能,例如 Vicuna-13B。
奖励训练和强化训练可以提升模型输出的质量,到那时训练过程较为复杂,很少有模型经过这两个阶段。
Chain of Thoughts 背后的原理是 LLM 无法区分哪一部分文字需要花更多时间思考。LLM 在每一个生成的文字上所花费的计算资源是一样的。这就导致了面对较难的问题容易出错因为计算时间不够长。让 LLM 多思考的方法就是让它多生成文字。对于指定问题生成更多的文字就代表它思考的越多,花费了更多计算资源。
角色扮演背后的原理是虽然 LLM 可以分辨答案的优劣,但 LLM 并不会下意识的输出最优质的答案。通过专业,高 IQ 等角色预设,LLM 会输出更加优质的答案。
目前有效的 Prompt 技巧是
Tree works
Chain of thoughts works
ReAct works
但是 Auto GPT 并没有被证明有效。将任务分成子任务并不一定是有效的方案。
为何使用向量数据库?
LLM 中的信息是过时的。如果我们想要注入数据,我们需要向量数据库
企业想要与他们的数据进行交流
为什么我们不把所有东西都放在提示里?
我们构建一个数据缓存层。它在向量库中存储相关信息和生成的聊天内容。通过不在提示中发送所有内容,我们可以降低成本
为什么我们不微调模型以获取新信息?
LLM 是统计模型。它需要大量相似的样本来更新信息
如何构建一个文档问答机器人?
抓取所有文档并将其存储在向量数据库中。生成样本问题和答案并将它们存储在向量数据库中(有这样的文档,我可以问哪些问题)
何时不使用向量数据库?
如果是键值对
如果不是语义的
如何保持向量数据库中的数据更新是当前行业的一个问题
Bot/Agent/Assistant 模型资产化是目前同质化最严重的一个赛道,多是在 OpenAI 基础上进行二次开发。弊端是同质化严重,实用性有待考验。未来可考虑将模型上链,或与智能合约结合实现机器人自治协作。
算力平台可以吸引算力提供者参与 AI 模型训练,目前以 Together 和 Gensyn 最为知名。未来训练平台和推理平台可能会有不同龙头。
数据平台可以提供隐私保护的数据来训练 AI 模型。Ocean 是较知名的链上数据平台。
生成式 AI 可用于 NFT 创作或游戏地图生成等,但可能会面临来自 Unity 等公司的竞争。
在 DeFi 领域,AI 可应用于交易策略、项目审计、收益优化、风险控制等方面。
ZKML 将零知识证明和机器学习结合,应用场景还不明确,主要面向的是推理而不是训练。Modulus Labs 等为明星项目。
整体来看,AI 和 Web3 的结合仍在探索早期阶段,思路不断拓展中。
LLM 可以代替一些传统的 ML 模型吗?这篇文章就文字分类进行比较。
传统 ML 模型的延迟更低,成本更低,但需要更多的训练数据。LLM 可以为其生成训练数据。
用 Chain of Thoughts 可以提升 LLM 分类的准确率。此外,我们可以使用上下文来总结,提炼并压缩用户的意图

这篇文章来自 Gloo, 它可以帮助哦我们解决文字分类问题。他们的解决方案分为三步:
LLM 来生成标签数据
追踪 Prompt 的影响
训练 BERT
Web3 数据智能公司 Web3Go 获得 400 万美元融资,Binance Labs 及 Hashkey Capital参投(链接)
基于 ZK-rollup 证明技术的 Web3 隐私公司 Ola 获得 300 万美元融资,Foresight Ventures 参投(链接)
这篇文章展示了目前开发,维护一个 AI App 需要的基础设施。
文章中主要关注于结合上下文,数据库,使用 LLM 提供更加精准、实时的答案,降低幻觉的发生。
除了问答机器人,另一个 a16z 觉得有前途的方向是 Agents。AI 使用工具和自我反馈、学习来达成一些目标,例如全自动写代码,写报告,改 Bug 等等。在其他大的 AI 企业也看到正在努力钻研 Agents 方向。
GPT 的训练分为四个阶段
预训练
监督训练
奖励训练
强化训练
目前大部分模型为与训练后的模型,例如 GPT,LLaMA,PaLM。他们擅长补全文章,但是不擅长指令,和用户问答。这一阶段需要的资源和数据量最大。
在这些基础模型之上,开发者进行监督训练。让这些基础模型具备回应指令的功能,例如 Vicuna-13B。
奖励训练和强化训练可以提升模型输出的质量,到那时训练过程较为复杂,很少有模型经过这两个阶段。
Chain of Thoughts 背后的原理是 LLM 无法区分哪一部分文字需要花更多时间思考。LLM 在每一个生成的文字上所花费的计算资源是一样的。这就导致了面对较难的问题容易出错因为计算时间不够长。让 LLM 多思考的方法就是让它多生成文字。对于指定问题生成更多的文字就代表它思考的越多,花费了更多计算资源。
角色扮演背后的原理是虽然 LLM 可以分辨答案的优劣,但 LLM 并不会下意识的输出最优质的答案。通过专业,高 IQ 等角色预设,LLM 会输出更加优质的答案。
目前有效的 Prompt 技巧是
Tree works
Chain of thoughts works
ReAct works
但是 Auto GPT 并没有被证明有效。将任务分成子任务并不一定是有效的方案。
为何使用向量数据库?
LLM 中的信息是过时的。如果我们想要注入数据,我们需要向量数据库
企业想要与他们的数据进行交流
为什么我们不把所有东西都放在提示里?
我们构建一个数据缓存层。它在向量库中存储相关信息和生成的聊天内容。通过不在提示中发送所有内容,我们可以降低成本
为什么我们不微调模型以获取新信息?
LLM 是统计模型。它需要大量相似的样本来更新信息
如何构建一个文档问答机器人?
抓取所有文档并将其存储在向量数据库中。生成样本问题和答案并将它们存储在向量数据库中(有这样的文档,我可以问哪些问题)
何时不使用向量数据库?
如果是键值对
如果不是语义的
如何保持向量数据库中的数据更新是当前行业的一个问题
Bot/Agent/Assistant 模型资产化是目前同质化最严重的一个赛道,多是在 OpenAI 基础上进行二次开发。弊端是同质化严重,实用性有待考验。未来可考虑将模型上链,或与智能合约结合实现机器人自治协作。
算力平台可以吸引算力提供者参与 AI 模型训练,目前以 Together 和 Gensyn 最为知名。未来训练平台和推理平台可能会有不同龙头。
数据平台可以提供隐私保护的数据来训练 AI 模型。Ocean 是较知名的链上数据平台。
生成式 AI 可用于 NFT 创作或游戏地图生成等,但可能会面临来自 Unity 等公司的竞争。
在 DeFi 领域,AI 可应用于交易策略、项目审计、收益优化、风险控制等方面。
ZKML 将零知识证明和机器学习结合,应用场景还不明确,主要面向的是推理而不是训练。Modulus Labs 等为明星项目。
整体来看,AI 和 Web3 的结合仍在探索早期阶段,思路不断拓展中。
LLM 可以代替一些传统的 ML 模型吗?这篇文章就文字分类进行比较。
传统 ML 模型的延迟更低,成本更低,但需要更多的训练数据。LLM 可以为其生成训练数据。
用 Chain of Thoughts 可以提升 LLM 分类的准确率。此外,我们可以使用上下文来总结,提炼并压缩用户的意图

这篇文章来自 Gloo, 它可以帮助哦我们解决文字分类问题。他们的解决方案分为三步:
LLM 来生成标签数据
追踪 Prompt 的影响
训练 BERT
No activity yet