
搜索引擎Typesense的使用
注: 使用语言 python一:Typesense介绍Typesense将数据保存在磁盘当中,建立的索引保存内存中 Typesense是一个开源的、有容错能力的搜索引擎,针对实时(通常低于 50 毫秒)搜索即键入体验和开发人员生产力进行了优化。 Typesense做了一个对于其他搜索引擎的对比。(文档版,表格版) 索引数据速度以及资源占用: 对于220万份食谱(一份食谱相当于下文中提到的一个document)在 Typesense 中进行索引时占用了大约 900MB 的 RAM(内存)花了 3.6 分钟索引所有 220 万条记录在具有 4 个 vCPU 的服务器上,Typesense 每秒能够处理104 个并发搜索查询,平均搜索处理时间为11毫秒。RAM(内存)方面:如果数据量为 X MB大小,则需要占用2X-3XRAM(2-3倍数据量大小的占用) 如需深入了解可以查阅官方文档二:Typesense的用法1:使用typesense有两种方法使用自带的云服务,配置运行简单(收费)在本地安装typesense,自己维护配置(本文使用这种方法)2:安装启动typesense(1):下载...

Mastodon 和 Nostr:两种不同的社交产品,一样的去中心化愿景
概述:本文将分析和讲解Mastodon和Nostr这两个社交媒体平台,重点关注它们的产品应用和技术层面,以了解它们如何实现去中心化社交,并探讨它们在这方面的优势。我们将深入了解它们的架构设计和实现思路,并比较它们在用户体验、隐私保护、安全性等方面的差异。通过本文的分析和总结,读者将更好地了解这两个平台,以及它们在去中心化社交方面的贡献和发展。MastodonMastodon(长毛象)成立于2016年,是由Eugen Rochko创建的一个开源的微博客(microblog)平台,旨在为用户提供去中心化、隐私保护的社交体验。首先对涉及到的一些名词进行简单解释:联邦(federation):联邦是去中心化的一种形式。在联邦中,不是所有人共同使用一个中心服务,而是使用多个不限人数的服务器。ActivityPub:Mastodon使用一种标准化的、开放的协议来实现站点之间的互动,这种协议叫做ActivityPub。任何通过ActivityPub实现互联的软件都可以与Mastodon无缝通信,就像Mastodon站点之间的通信一样。实例(instance):每个人都可以在自己服务器上配置运行...

使用 The Graph 获取各大元宇宙项目交易信息
The graph 工作原理 Graph 根据subgraph描述(称为subgraph.graphq)学习什么以及如何索引以太坊数据。子图描述定义了subgraph感兴趣的智能合约,这些合约中要关注的事件,以及如何将事件数据映射到 The Graph 将存储在其数据库中的数据。该流程遵循以下步骤:去中心化应用程序通过智能合约上的交易将数据添加到以太坊。智能合约在处理交易时发出一个或多个事件。Graph Node 不断地扫描以太坊以寻找新的块以及它们可能包含的子图的数据。Graph Node 在这些块中为您的子图查找 Ethereum 事件并运行您提供的映射处理程序。映射是一个 WASM 模块,它创建或更新 Graph Node 存储的数据实体以响应以太坊事件。去中心化应用程序使用节点的GraphQL 端点查询 Graph 节点以获取从区块链索引的数据。Graph 节点反过来将 GraphQL 查询转换为对其底层数据存储的查询,以便利用存储的索引功能获取此数据。去中心化应用程序在丰富的 UI 中为最终用户显示这些数据,他们使用这些数据在以太坊上发布新交易。循环重复 (来自The ...

搜索引擎Typesense的使用
注: 使用语言 python一:Typesense介绍Typesense将数据保存在磁盘当中,建立的索引保存内存中 Typesense是一个开源的、有容错能力的搜索引擎,针对实时(通常低于 50 毫秒)搜索即键入体验和开发人员生产力进行了优化。 Typesense做了一个对于其他搜索引擎的对比。(文档版,表格版) 索引数据速度以及资源占用: 对于220万份食谱(一份食谱相当于下文中提到的一个document)在 Typesense 中进行索引时占用了大约 900MB 的 RAM(内存)花了 3.6 分钟索引所有 220 万条记录在具有 4 个 vCPU 的服务器上,Typesense 每秒能够处理104 个并发搜索查询,平均搜索处理时间为11毫秒。RAM(内存)方面:如果数据量为 X MB大小,则需要占用2X-3XRAM(2-3倍数据量大小的占用) 如需深入了解可以查阅官方文档二:Typesense的用法1:使用typesense有两种方法使用自带的云服务,配置运行简单(收费)在本地安装typesense,自己维护配置(本文使用这种方法)2:安装启动typesense(1):下载...

Mastodon 和 Nostr:两种不同的社交产品,一样的去中心化愿景
概述:本文将分析和讲解Mastodon和Nostr这两个社交媒体平台,重点关注它们的产品应用和技术层面,以了解它们如何实现去中心化社交,并探讨它们在这方面的优势。我们将深入了解它们的架构设计和实现思路,并比较它们在用户体验、隐私保护、安全性等方面的差异。通过本文的分析和总结,读者将更好地了解这两个平台,以及它们在去中心化社交方面的贡献和发展。MastodonMastodon(长毛象)成立于2016年,是由Eugen Rochko创建的一个开源的微博客(microblog)平台,旨在为用户提供去中心化、隐私保护的社交体验。首先对涉及到的一些名词进行简单解释:联邦(federation):联邦是去中心化的一种形式。在联邦中,不是所有人共同使用一个中心服务,而是使用多个不限人数的服务器。ActivityPub:Mastodon使用一种标准化的、开放的协议来实现站点之间的互动,这种协议叫做ActivityPub。任何通过ActivityPub实现互联的软件都可以与Mastodon无缝通信,就像Mastodon站点之间的通信一样。实例(instance):每个人都可以在自己服务器上配置运行...

使用 The Graph 获取各大元宇宙项目交易信息
The graph 工作原理 Graph 根据subgraph描述(称为subgraph.graphq)学习什么以及如何索引以太坊数据。子图描述定义了subgraph感兴趣的智能合约,这些合约中要关注的事件,以及如何将事件数据映射到 The Graph 将存储在其数据库中的数据。该流程遵循以下步骤:去中心化应用程序通过智能合约上的交易将数据添加到以太坊。智能合约在处理交易时发出一个或多个事件。Graph Node 不断地扫描以太坊以寻找新的块以及它们可能包含的子图的数据。Graph Node 在这些块中为您的子图查找 Ethereum 事件并运行您提供的映射处理程序。映射是一个 WASM 模块,它创建或更新 Graph Node 存储的数据实体以响应以太坊事件。去中心化应用程序使用节点的GraphQL 端点查询 Graph 节点以获取从区块链索引的数据。Graph 节点反过来将 GraphQL 查询转换为对其底层数据存储的查询,以便利用存储的索引功能获取此数据。去中心化应用程序在丰富的 UI 中为最终用户显示这些数据,他们使用这些数据在以太坊上发布新交易。循环重复 (来自The ...

Subscribe to Yooma

Subscribe to Yooma
Share Dialog
Share Dialog
<100 subscribers
<100 subscribers


IFTTT和Drippie都是用于自动化任务的工具,实现如果这样(this) 那就那样(that) 的需求。IFTTT已经发展了许多年,而Drippie是新生的产品。他们目标是一致的,但是实现的技术以及面向的对象有所区别,接下来看一看成熟的IFTTT和 新生的Web3 IFTTT——Drippie
IFTTT (If This Then That) 是一款服务,提供了一种简单的方式来自动化各种日常任务。通过 IFTTT,用户可以将不同的应用程序和服务连接起来,然后创建称为“Applets”(也可以叫做Recipes)的自动化规则,使得在一个应用程序中发生的事件能够自动地触发另一个应用程序的响应。例如,用户可以创建一个Applets:如果他们的Twitter收到消息,那么就把这个消息发送到他们Gmaill。
由于IFTTT集成了许多第三方服务,也会存在大量的Applets,那么对于数据的处理架构就需要非常完善严谨。
数据处理的基础架构:

AWS Data Pipeline:AWS Data Pipeline 是一种自动化的 ETL(Extract, Transform, Load)服务,它可以让用户在 AWS 云上轻松地从各种数据源中提取、转换和加载数据。IFTTT使用Data Pipeline来将数据从不同的数据源中提取然后将结果存储在AWS Redshift、AWS RDS等目标数据存储中,供后续的分析和可视化使用。
AWS Redshift:Amazon Redshift 是一种高性能的云数据仓库服务,它可以大规模地处理和分析数据。IFTTT使用Redshift来存储和分析用户数据和事件数据。
Chartio:Chartio 是一种云 BI(Business Intelligence)工具,它可以连接各种数据源,并提供交互式的数据可视化和报表功能。IFTTT使用Chartio来创建和共享数据报表和仪表板更好地理解其数据。
Kafka:Apache Kafka是一种分布式流处理平台,用于处理高速数据流。IFTTT使用Kafka作为事件流处理引擎,以支持实时事件处理和数据分析。
AWS S3:Amazon Simple Storage Service(S3)是一种面向对象的存储服务,它可以让用户在云中存储和检索任意数量的数据对象。例如执行的日志、Recipes的输入和输出、触发器数据等。
Cranium ETL:Cranium ETL 是一种开源的 ETL 工具,它可以帮助用户从各种数据源中提取、转换和加载数据。IFTTT使用Cranium ETL来自动化数据清理和预处理。
Spark:Apache Spark 是一种快速、通用、可扩展的分布式计算引擎,它支持大规模数据处理和机器学习等任务。IFTTT使用Spark来确保IFTTT用户有良好的体验
Recipe Worker:Recipe Worker 是一个用于执行 Recipes 的服务,它是整个 IFTTT 系统的核心部分之一。当一个 Recipe 被创建或更新时,IFTTT 的服务器会将该 Recipe 发送到 Recipe Worker,Recipe Worker 会按照指定的触发器和动作,从不同的数据源中获取数据并执行相应的操作。因此,Recipe Worker 是一个高度可扩展的系统。
Partner APIs:Partner APIs 是 IFTTT 用于与第三方服务进行集成的接口。通过与其他公司的 API 集成,IFTTT 可以在其平台上创建更多的 Recipes,并提供更多的服务。IFTTT 的合作伙伴可以通过 Partner APIs 来访问 IFTTT 平台,并提供他们自己的触发器和动作,以及其他的功能。
Elasticsearch:Elasticsearch是一种分布式搜索和分析引擎,可用于实时搜索、日志分析、安全分析等。IFTTT使用Elasticsearch作为日志分析引擎,以支持日志分析和异常检测。
Internal Monitoring Alerting:Internal Monitoring Alerting 是 IFTTT 用于监控其整个系统的服务。这个服务通过定期检查 IFTTT 的各个组件的性能和可用性来确保系统的正常运行。当系统出现问题时,Internal Monitoring Alerting 会向 IFTTT 的运维人员发送警报,以便他们可以采取相应的措施来解决问题。
在IFTTT有三种数据来源,对于理解用户的行为和Channels的效率至关重要。
第一,在 AWS RDS 有一个 MySQL 集群,用来维护应用的基本内容的当前状态,比如用户、Channels和Recipes,包括他们的关系。IFTTT.com 和移动应用靠Rails应用(支持 IFTTT 网站和移动应用的后端程序)支撑。获得数据并导入到S3,然后用AWS Data Pipline导入到Redshift。
接下来,像用户与 IFTTT 产品的交互数据,从Rails应用里收集事件数据到Kafka集群。
最后,为了帮助监控数以千计的合作伙伴 API 的行为,IFTTT收集在运行 Recipes 时 workers 产生的 API 请求的信息,包括响应时间和HTTP状态码,都导入到Kafka集群。
使用Kafka做数据传输层,实现数据生产者和消费者之间的解耦。这种架构中,Kafka在系统中作为生产者和消费者之间的一种抽象层,而不是数据直接推向消费者。生产者将数据推送到Kafka,消费者从Kafka中读数据。这使得添加新数据消费者更松散。
Kafka是一种基于日志的事件流,它可以跟踪消费者在事件流中的位置,因此消费者可以实时或批量地处理数据,并且可以重新处理之前已经消费过的数据。这为数据处理提供了更大的灵活性和可靠性。
一旦数据进入Kafka中,就可以应用于多种不同的场景。例如:批量数据的消费者可以将数据的副本分批存储到S3中,以便后续使用。另一方面,实时数据的消费者则可以将数据传输到Elasticsearch集群中,以实现实时的数据查询和分析。
用Cranium(内部ETL平台)将S3中数据变换和归一化后导入到AWS Redshift。通过Cranium能够用SQL和Ruby编写ETL任务,它定义了这些任务之间的依赖和安排他们执行。Cranium支持数据可视化报告(利用Ruby和D3),但是大多数数据可视化是用Chartio。
无论是工程中还是业务中甚至是社区中人们都可以利用这些数据来解决问题,发现新的点。
并且采用一些先进的机器学习技术来确保IFTTT用户有良好的体验。对于Recipe的推荐和滥用检测,IFTTT用在EC2上的运行Apache Spark,用S3作数据存储。
API 事件存储在 Elasticsearch 中,来进行实时监控和报警。并使用Kibana来可视化worker进程的实时性能和合作伙伴的API性能。
IFTTT的合作伙伴访问Developer Channel(当他们的API有问题时触发这个Channel)。可以用Developer Channel 创建Recipes,可选择不同的方式(SMS,Email,Slack等)来通知合作伙伴们。
在开发者dashboard,合作伙伴可以访问实时日志和可视化他们的Channel健康状况。 用Elasticsearch来实现比较好。此外,提供给开发者强大的分析能力帮开发者们了解谁在使用他们的Channel以及如何使用的。
用户在IFTTT官网上创建一个Applet,其中包括两个触发器(Trigger):一个是Twitter消息触发器,另一个是Gmail消息触发器。用户还需要授权IFTTT访问他们的Twitter和Gmail帐户。
用户保存Applet后,IFTTT将应用程序定义存储在其数据库中。在这个过程中,IFTTT使用AWS RDS来存储应用程序定义,并使用AWS Data Pipeline将数据从RDS导出到AWS Redshift中,以供后续分析和处理。
用户的Twitter账户是作为触发器来监视消息的。当IFTTT检测到Twitter帐户收到了一条新的消息时,它将消息推送到Kafka,Kafka是IFTTT数据传输层中的一部分。在这个过程中,IFTTT使用Kafka来实现数据生产者和消费者之间的解耦,以及添加新的数据消费者的松散耦合性。
一旦消息推送到Kafka,Recipe Worker会从Kafka中读取数据并将它们分配给相应的Applet执行。在这个过程中,IFTTT使用Recipe Worker来执行与应用程序相关的逻辑,例如连接Twitter和Gmail,以及将Twitter消息发送到Gmail。
在执行过程中,IFTTT还将使用Chartio来监视和分析系统的性能和运行状况。此外,IFTTT还将使用内部监控和告警系统,例如AWS CloudWatch和PagerDuty,来监视系统的状态并通知运营人员进行干预。
最后,IFTTT将使用Elasticsearch将处理后的消息存储到集群中,以供后续查询和分析。
以上是一个大致的流程,不同的场景可能有些许的不同,但是整体的架构和流程是相似的。(Drippie同理)
在第三方支持Webhook情况时,例如Twitter:一旦用户创建了Applet,IFTTT会向Twitter API注册一个webhook,以便Twitter在有新消息时能够将消息发送到IFTTT。IFTTT会持续监听Twitter API的推送,一旦有新消息,IFTTT就会将其封装成一个事件,并触发相应的Applet执行。
如果第三方不支持 Webhook,IFTTT 可能会使用轮询的方式来获取数据并触发 Applet。IFTTT 会使用后台服务,如 Recipe Worker,定期执行定时器任务。当定时器任务触发时,IFTTT 会向第三方服务发送 API 请求,以获取最新的数据。如果数据符合 Applet 的触发条件,IFTTT 将触发相应的操作。
需要注意的是,轮询方式比 Webhook 方式要消耗更多的资源和时间,因为每次轮询都需要向第三方服务发送 API 请求,这可能会导致 API 请求的频率过高,从而影响性能。因此,IFTTT 一般会优先选择支持 Webhook 的第三方服务。
那对于IFTTT每天会有大量的Applet去监听执行,所以当有大量的任务需要定时轮询时,每个任务都单独使用一个定时器是不可行的,因为系统资源会被过度占用,导致性能下降。因此,IFTTT 使用了一种基于时间轮的调度算法来处理大规模的定时轮询任务。时间轮是一种定时轮询的数据结构,可以将定时器按照过期时间分组,并在每个时间间隔内执行一组定时器。因此,IFTTT将所有需要定时轮询的任务按照一定的规则分组,然后根据任务的过期时间将它们添加到相应的时间轮上。这样,当时间轮到达特定的时间间隔时,IFTTT 就可以一次性地执行整个时间轮中的所有任务,而不是一个个单独执行。这样,IFTTT 可以轻松地管理大量的Applet,而不会过度占用系统资源。
Drippie是 Optimism 的机制,用于(主要)解决自动化链上活动带来的问题。Drippie 基本上是If This Then That (IFTTT)的以太坊原生版本。与 IFTTT 一样,Drippie 可以(在 Solidity 中)进行编程以对各种链上数据做出反应,并针对该数据执行各种不同的操作。Drippie 系统中的每组检查/操作都称为“drip”。简而言之,它看起来像这样:

什么使Drippie来自动化执行?
Drippie 是一个允许在特定条件下执行操作的系统。但是,仍然需要一些服务来在满足必要条件时触发这些操作。
Drippie集成了Gelato、Chainlink Keepers或OpenZeppelin Defender AutoTasks等服务,可以定时调用指定drip。

Gelato是一个基于以太坊的去中心化自动化服务,它可以让智能合约开发者轻松设置条件触发器,例如当以太币价格下降到一定程度时自动执行卖出操作,以实现自动化交易。Gelato 还提供了一些内置条件触发器,例如定时器、价格预警等,以满足各种自动化交易的需求。
Chainlink Keepers是Chainlink的智能合约自动化服务,它可以执行链外任务并触发智能合约。这使得链上智能合约可以响应链外事件,从而可以实现更复杂的智能合约自动化任务。
OpenZeppelin Defender AutoTasks是OpenZeppelin的智能合约自动化服务,它可以通过与 Etherscan 和其他链上服务的集成来管理和监视智能合约。AutoTasks提供了一系列内置任务类型和条件触发器,例如执行函数调用、检查合约状态、触发警报等,以实现更可靠的智能合约自动化任务。
架构图

检查事件的合约(判断是否到达可执行的状态)
执行事件合约(当检查事件判断到达可执行的状态后,调用该执行合约执行相对应的操作)
配置文件 (*.ts 文件)(包括每次执行drip间隔时间,触发事件,检查事件的合约(check.sol),执行事件合约(target.sol)等)
获取每个drip的配置,调用Drippie.sol合约中创建相对应的drip (*.ts)
Drippie.sol (生成drip,更新drip状态,查看drip是否到了执行的间隔时间以及drip的状态是否可执行等,官方已部署)
定时触发检查执行的应用(Gelato、keepers、AutoTasks、etc.)
以 this为查询账户余额,如果低于某个值 和 that为向该账户中转入某个值的金额 进行举例
首先编写并部署 check.sol和target.sol,check.sol负责对传入的账户检查余额,比如如果余额低于了某个值返回True。target.sol负责去向指定目标账户转账。(check.sol和target.sol都需要根据自己的需求去定)
之后填写配置文件中的相对应的参数(可以添加多个drip的配置): 每两次执行检查的间隔时间、检查是否达到可执行条件的合约(check.sol)、传入该合约function中用到的相对应的参数(比如要检查余额的账户等)、执行事件合约(target.sol)等等参数
通过 Install-drippie-config-multisig.ts 文件读取上方配置文件中的每个drip的配置,然后调用drippie.sol的create function创建相对应的drip,此时合约会判断是否存在该drip、记录该drip相对应地状态以用于在执行时判断是否可执行、创建drip等操作,然后会把这些信息创建一个bundle文件。最后再提交给Gelato以供定时调用合约执行。
执行drip:Gelato会根据配置去定时调用drippie.sol中的drip function以执行刚刚创建的drip,执行期间首先会调用executable function去检查是否达到了可执行的状态(检查drip相对应地状态)、判断与上次执行的间隔日期是否达到了设置的要求、判断是否达到了可执行条件(check.sol去检查账户的余额是否低于了设定的值)等等验证,如果最后check.sol验证也没问题,执行去调用target.sol执行转账等操作。
从适用场景来看:IFTTT主要应用于互联网常用服务的集成,例如邮件、社交网络、智能家居等。适用于普通用户和企业用户。而Drippie面向Web3生态,适用于去中心化的应用和智能合约,主要应用于以太坊智能合约中的定时任务。
从大体上对模块进行分析

IFTTT主要使用API和Webhooks技术实现服务的集成和触发,同时也支持自定义应用。
Drippie主要使用以太坊智能合约和Gelato来实现定时任务的自动化。
而从灵活性的角度出发:IFTTT提供的触发器和动作是固定的,不能自定义,用户只能选择现有的触发器和动作进行组合。因此,IFTTT的可编程性相对较低。Drippie则通过智能合约实现交易策略的编程和自动化执行,用户可以自定义各种条件和动作,具有更高的可编程性。
从整体的完善角度来看:由于IFTTT已经发展了很长时间,对于用户的使用体验上做得更完善,使用起来也比较简单,集成的服务也比较多,对于存在的Applets有一个很好的监控方案和错误处理机制。而Drippie由于比较新,在这方面还不如IFTTT。
总的来说,IFTTT和Drippie都是自动化任务的工具,但面向的应用场景和技术架构有所不同。IFTTT主要应用于传统互联网领域,通过API和Webhooks将用户不同应用的操作联系起来;Drippie则面向Web3领域,利用智能合约实现自动化交易策略,具有更高的可编程性和安全性,但需要一定的技术门槛。
IFTTT和Drippie都是用于自动化任务的工具,实现如果这样(this) 那就那样(that) 的需求。IFTTT已经发展了许多年,而Drippie是新生的产品。他们目标是一致的,但是实现的技术以及面向的对象有所区别,接下来看一看成熟的IFTTT和 新生的Web3 IFTTT——Drippie
IFTTT (If This Then That) 是一款服务,提供了一种简单的方式来自动化各种日常任务。通过 IFTTT,用户可以将不同的应用程序和服务连接起来,然后创建称为“Applets”(也可以叫做Recipes)的自动化规则,使得在一个应用程序中发生的事件能够自动地触发另一个应用程序的响应。例如,用户可以创建一个Applets:如果他们的Twitter收到消息,那么就把这个消息发送到他们Gmaill。
由于IFTTT集成了许多第三方服务,也会存在大量的Applets,那么对于数据的处理架构就需要非常完善严谨。
数据处理的基础架构:

AWS Data Pipeline:AWS Data Pipeline 是一种自动化的 ETL(Extract, Transform, Load)服务,它可以让用户在 AWS 云上轻松地从各种数据源中提取、转换和加载数据。IFTTT使用Data Pipeline来将数据从不同的数据源中提取然后将结果存储在AWS Redshift、AWS RDS等目标数据存储中,供后续的分析和可视化使用。
AWS Redshift:Amazon Redshift 是一种高性能的云数据仓库服务,它可以大规模地处理和分析数据。IFTTT使用Redshift来存储和分析用户数据和事件数据。
Chartio:Chartio 是一种云 BI(Business Intelligence)工具,它可以连接各种数据源,并提供交互式的数据可视化和报表功能。IFTTT使用Chartio来创建和共享数据报表和仪表板更好地理解其数据。
Kafka:Apache Kafka是一种分布式流处理平台,用于处理高速数据流。IFTTT使用Kafka作为事件流处理引擎,以支持实时事件处理和数据分析。
AWS S3:Amazon Simple Storage Service(S3)是一种面向对象的存储服务,它可以让用户在云中存储和检索任意数量的数据对象。例如执行的日志、Recipes的输入和输出、触发器数据等。
Cranium ETL:Cranium ETL 是一种开源的 ETL 工具,它可以帮助用户从各种数据源中提取、转换和加载数据。IFTTT使用Cranium ETL来自动化数据清理和预处理。
Spark:Apache Spark 是一种快速、通用、可扩展的分布式计算引擎,它支持大规模数据处理和机器学习等任务。IFTTT使用Spark来确保IFTTT用户有良好的体验
Recipe Worker:Recipe Worker 是一个用于执行 Recipes 的服务,它是整个 IFTTT 系统的核心部分之一。当一个 Recipe 被创建或更新时,IFTTT 的服务器会将该 Recipe 发送到 Recipe Worker,Recipe Worker 会按照指定的触发器和动作,从不同的数据源中获取数据并执行相应的操作。因此,Recipe Worker 是一个高度可扩展的系统。
Partner APIs:Partner APIs 是 IFTTT 用于与第三方服务进行集成的接口。通过与其他公司的 API 集成,IFTTT 可以在其平台上创建更多的 Recipes,并提供更多的服务。IFTTT 的合作伙伴可以通过 Partner APIs 来访问 IFTTT 平台,并提供他们自己的触发器和动作,以及其他的功能。
Elasticsearch:Elasticsearch是一种分布式搜索和分析引擎,可用于实时搜索、日志分析、安全分析等。IFTTT使用Elasticsearch作为日志分析引擎,以支持日志分析和异常检测。
Internal Monitoring Alerting:Internal Monitoring Alerting 是 IFTTT 用于监控其整个系统的服务。这个服务通过定期检查 IFTTT 的各个组件的性能和可用性来确保系统的正常运行。当系统出现问题时,Internal Monitoring Alerting 会向 IFTTT 的运维人员发送警报,以便他们可以采取相应的措施来解决问题。
在IFTTT有三种数据来源,对于理解用户的行为和Channels的效率至关重要。
第一,在 AWS RDS 有一个 MySQL 集群,用来维护应用的基本内容的当前状态,比如用户、Channels和Recipes,包括他们的关系。IFTTT.com 和移动应用靠Rails应用(支持 IFTTT 网站和移动应用的后端程序)支撑。获得数据并导入到S3,然后用AWS Data Pipline导入到Redshift。
接下来,像用户与 IFTTT 产品的交互数据,从Rails应用里收集事件数据到Kafka集群。
最后,为了帮助监控数以千计的合作伙伴 API 的行为,IFTTT收集在运行 Recipes 时 workers 产生的 API 请求的信息,包括响应时间和HTTP状态码,都导入到Kafka集群。
使用Kafka做数据传输层,实现数据生产者和消费者之间的解耦。这种架构中,Kafka在系统中作为生产者和消费者之间的一种抽象层,而不是数据直接推向消费者。生产者将数据推送到Kafka,消费者从Kafka中读数据。这使得添加新数据消费者更松散。
Kafka是一种基于日志的事件流,它可以跟踪消费者在事件流中的位置,因此消费者可以实时或批量地处理数据,并且可以重新处理之前已经消费过的数据。这为数据处理提供了更大的灵活性和可靠性。
一旦数据进入Kafka中,就可以应用于多种不同的场景。例如:批量数据的消费者可以将数据的副本分批存储到S3中,以便后续使用。另一方面,实时数据的消费者则可以将数据传输到Elasticsearch集群中,以实现实时的数据查询和分析。
用Cranium(内部ETL平台)将S3中数据变换和归一化后导入到AWS Redshift。通过Cranium能够用SQL和Ruby编写ETL任务,它定义了这些任务之间的依赖和安排他们执行。Cranium支持数据可视化报告(利用Ruby和D3),但是大多数数据可视化是用Chartio。
无论是工程中还是业务中甚至是社区中人们都可以利用这些数据来解决问题,发现新的点。
并且采用一些先进的机器学习技术来确保IFTTT用户有良好的体验。对于Recipe的推荐和滥用检测,IFTTT用在EC2上的运行Apache Spark,用S3作数据存储。
API 事件存储在 Elasticsearch 中,来进行实时监控和报警。并使用Kibana来可视化worker进程的实时性能和合作伙伴的API性能。
IFTTT的合作伙伴访问Developer Channel(当他们的API有问题时触发这个Channel)。可以用Developer Channel 创建Recipes,可选择不同的方式(SMS,Email,Slack等)来通知合作伙伴们。
在开发者dashboard,合作伙伴可以访问实时日志和可视化他们的Channel健康状况。 用Elasticsearch来实现比较好。此外,提供给开发者强大的分析能力帮开发者们了解谁在使用他们的Channel以及如何使用的。
用户在IFTTT官网上创建一个Applet,其中包括两个触发器(Trigger):一个是Twitter消息触发器,另一个是Gmail消息触发器。用户还需要授权IFTTT访问他们的Twitter和Gmail帐户。
用户保存Applet后,IFTTT将应用程序定义存储在其数据库中。在这个过程中,IFTTT使用AWS RDS来存储应用程序定义,并使用AWS Data Pipeline将数据从RDS导出到AWS Redshift中,以供后续分析和处理。
用户的Twitter账户是作为触发器来监视消息的。当IFTTT检测到Twitter帐户收到了一条新的消息时,它将消息推送到Kafka,Kafka是IFTTT数据传输层中的一部分。在这个过程中,IFTTT使用Kafka来实现数据生产者和消费者之间的解耦,以及添加新的数据消费者的松散耦合性。
一旦消息推送到Kafka,Recipe Worker会从Kafka中读取数据并将它们分配给相应的Applet执行。在这个过程中,IFTTT使用Recipe Worker来执行与应用程序相关的逻辑,例如连接Twitter和Gmail,以及将Twitter消息发送到Gmail。
在执行过程中,IFTTT还将使用Chartio来监视和分析系统的性能和运行状况。此外,IFTTT还将使用内部监控和告警系统,例如AWS CloudWatch和PagerDuty,来监视系统的状态并通知运营人员进行干预。
最后,IFTTT将使用Elasticsearch将处理后的消息存储到集群中,以供后续查询和分析。
以上是一个大致的流程,不同的场景可能有些许的不同,但是整体的架构和流程是相似的。(Drippie同理)
在第三方支持Webhook情况时,例如Twitter:一旦用户创建了Applet,IFTTT会向Twitter API注册一个webhook,以便Twitter在有新消息时能够将消息发送到IFTTT。IFTTT会持续监听Twitter API的推送,一旦有新消息,IFTTT就会将其封装成一个事件,并触发相应的Applet执行。
如果第三方不支持 Webhook,IFTTT 可能会使用轮询的方式来获取数据并触发 Applet。IFTTT 会使用后台服务,如 Recipe Worker,定期执行定时器任务。当定时器任务触发时,IFTTT 会向第三方服务发送 API 请求,以获取最新的数据。如果数据符合 Applet 的触发条件,IFTTT 将触发相应的操作。
需要注意的是,轮询方式比 Webhook 方式要消耗更多的资源和时间,因为每次轮询都需要向第三方服务发送 API 请求,这可能会导致 API 请求的频率过高,从而影响性能。因此,IFTTT 一般会优先选择支持 Webhook 的第三方服务。
那对于IFTTT每天会有大量的Applet去监听执行,所以当有大量的任务需要定时轮询时,每个任务都单独使用一个定时器是不可行的,因为系统资源会被过度占用,导致性能下降。因此,IFTTT 使用了一种基于时间轮的调度算法来处理大规模的定时轮询任务。时间轮是一种定时轮询的数据结构,可以将定时器按照过期时间分组,并在每个时间间隔内执行一组定时器。因此,IFTTT将所有需要定时轮询的任务按照一定的规则分组,然后根据任务的过期时间将它们添加到相应的时间轮上。这样,当时间轮到达特定的时间间隔时,IFTTT 就可以一次性地执行整个时间轮中的所有任务,而不是一个个单独执行。这样,IFTTT 可以轻松地管理大量的Applet,而不会过度占用系统资源。
Drippie是 Optimism 的机制,用于(主要)解决自动化链上活动带来的问题。Drippie 基本上是If This Then That (IFTTT)的以太坊原生版本。与 IFTTT 一样,Drippie 可以(在 Solidity 中)进行编程以对各种链上数据做出反应,并针对该数据执行各种不同的操作。Drippie 系统中的每组检查/操作都称为“drip”。简而言之,它看起来像这样:

什么使Drippie来自动化执行?
Drippie 是一个允许在特定条件下执行操作的系统。但是,仍然需要一些服务来在满足必要条件时触发这些操作。
Drippie集成了Gelato、Chainlink Keepers或OpenZeppelin Defender AutoTasks等服务,可以定时调用指定drip。

Gelato是一个基于以太坊的去中心化自动化服务,它可以让智能合约开发者轻松设置条件触发器,例如当以太币价格下降到一定程度时自动执行卖出操作,以实现自动化交易。Gelato 还提供了一些内置条件触发器,例如定时器、价格预警等,以满足各种自动化交易的需求。
Chainlink Keepers是Chainlink的智能合约自动化服务,它可以执行链外任务并触发智能合约。这使得链上智能合约可以响应链外事件,从而可以实现更复杂的智能合约自动化任务。
OpenZeppelin Defender AutoTasks是OpenZeppelin的智能合约自动化服务,它可以通过与 Etherscan 和其他链上服务的集成来管理和监视智能合约。AutoTasks提供了一系列内置任务类型和条件触发器,例如执行函数调用、检查合约状态、触发警报等,以实现更可靠的智能合约自动化任务。
架构图

检查事件的合约(判断是否到达可执行的状态)
执行事件合约(当检查事件判断到达可执行的状态后,调用该执行合约执行相对应的操作)
配置文件 (*.ts 文件)(包括每次执行drip间隔时间,触发事件,检查事件的合约(check.sol),执行事件合约(target.sol)等)
获取每个drip的配置,调用Drippie.sol合约中创建相对应的drip (*.ts)
Drippie.sol (生成drip,更新drip状态,查看drip是否到了执行的间隔时间以及drip的状态是否可执行等,官方已部署)
定时触发检查执行的应用(Gelato、keepers、AutoTasks、etc.)
以 this为查询账户余额,如果低于某个值 和 that为向该账户中转入某个值的金额 进行举例
首先编写并部署 check.sol和target.sol,check.sol负责对传入的账户检查余额,比如如果余额低于了某个值返回True。target.sol负责去向指定目标账户转账。(check.sol和target.sol都需要根据自己的需求去定)
之后填写配置文件中的相对应的参数(可以添加多个drip的配置): 每两次执行检查的间隔时间、检查是否达到可执行条件的合约(check.sol)、传入该合约function中用到的相对应的参数(比如要检查余额的账户等)、执行事件合约(target.sol)等等参数
通过 Install-drippie-config-multisig.ts 文件读取上方配置文件中的每个drip的配置,然后调用drippie.sol的create function创建相对应的drip,此时合约会判断是否存在该drip、记录该drip相对应地状态以用于在执行时判断是否可执行、创建drip等操作,然后会把这些信息创建一个bundle文件。最后再提交给Gelato以供定时调用合约执行。
执行drip:Gelato会根据配置去定时调用drippie.sol中的drip function以执行刚刚创建的drip,执行期间首先会调用executable function去检查是否达到了可执行的状态(检查drip相对应地状态)、判断与上次执行的间隔日期是否达到了设置的要求、判断是否达到了可执行条件(check.sol去检查账户的余额是否低于了设定的值)等等验证,如果最后check.sol验证也没问题,执行去调用target.sol执行转账等操作。
从适用场景来看:IFTTT主要应用于互联网常用服务的集成,例如邮件、社交网络、智能家居等。适用于普通用户和企业用户。而Drippie面向Web3生态,适用于去中心化的应用和智能合约,主要应用于以太坊智能合约中的定时任务。
从大体上对模块进行分析

IFTTT主要使用API和Webhooks技术实现服务的集成和触发,同时也支持自定义应用。
Drippie主要使用以太坊智能合约和Gelato来实现定时任务的自动化。
而从灵活性的角度出发:IFTTT提供的触发器和动作是固定的,不能自定义,用户只能选择现有的触发器和动作进行组合。因此,IFTTT的可编程性相对较低。Drippie则通过智能合约实现交易策略的编程和自动化执行,用户可以自定义各种条件和动作,具有更高的可编程性。
从整体的完善角度来看:由于IFTTT已经发展了很长时间,对于用户的使用体验上做得更完善,使用起来也比较简单,集成的服务也比较多,对于存在的Applets有一个很好的监控方案和错误处理机制。而Drippie由于比较新,在这方面还不如IFTTT。
总的来说,IFTTT和Drippie都是自动化任务的工具,但面向的应用场景和技术架构有所不同。IFTTT主要应用于传统互联网领域,通过API和Webhooks将用户不同应用的操作联系起来;Drippie则面向Web3领域,利用智能合约实现自动化交易策略,具有更高的可编程性和安全性,但需要一定的技术门槛。
No activity yet