
Subscribe to DAYUP

Subscribe to DAYUP
Share Dialog
Share Dialog
<100 subscribers
<100 subscribers
应用程序堆栈由三个核心组件组成:前端、后端和数据库。前端提供 UI/UX,后端处理应用程序的逻辑,数据库存储和检索数据。在去中心化应用程序中,智能合约充当后端(保存逻辑),区块链充当数据库。但区块链可以存储的数据量极其有限,智能合约可以执行的逻辑也极其有限。因此,开发人员还部署数据库和后端来为他们的 dapp 以及智能合约提供支持。
如果去中心化应用程序构建在集中式后端和数据库上,那么它并不是真正去中心化的。Space and Time 不仅构建了第一个去中心化数据仓库,为分析、应用程序和规模提供支持,我们还提供了由我们的去中心化网络运营的内置 API 网关。空间和时间网关提供了构建可扩展的、数据驱动的 dapp 所需的所有 API,因此您不必管理自己的后端基础设施或依赖集中式解决方案。
空间和时间 API 网关的核心支持与平台中的数据进行交互。我们的SQL API使用户能够执行创建表、插入/更新/删除数据和查询数据等操作。使用 SQL API,用户可以使用传统 SQL 语法与平台交互来快速入门。通过资源发现API,用户可以轻松地更好地了解平台中存在的所有资源以及它们周围的元数据(例如,您可以查看所有表组成以太坊区块链数据集以及每个表具有哪些列)以及它们之间的外键关系)。最后,通过我们的View API,用户可以构建一个独特的 API 端点,从中可以执行常见查询,从而提高性能并促进底层 SQL 的未来开发,独立于引用它的 API 请求。用户甚至可以构造参数化视图,这些视图在运行时接受参数(有效的查询模板)。
空间和时间流解决方案使用户能够利用 Kafka 将大容量数据流直接传输到他们的表中。我们提供了一套配置 API,允许用户设置自己的 Kafka 主题,以便他们可以引导生产者并开始使用 Space 和 Time 作为数据接收器。此外,我们提供了一个强大的基于 JSON 的配置设计,用户可以从中描述如何摄取 Kafka 记录中的数据,提供其实现并让平台处理其余的事情。
除了为用户提供一种简单的方法将数据传入和传出平台之外,网关实际上在幕后执行更多功能。仅举几例,网关确保数据可用且一致,协调多个副本之间的用户数据复制,并在检测到活动副本故障时透明地重新路由请求。网关的另一个核心功能是跟踪网络中的所有资源,将新资源分配给具有更多可用空间和计算能力的数据仓库集群,并迁移数据以确保所有集群的均匀使用。最后,网关支持证明验证以支持 SQL 证明。当数据通过网关到达数据仓库时,将构建并存储证明数据。稍后,当执行防篡改查询时,将检索存储的证明数据并将其用于验证数据仓库构建的证明。
借助 Space and Time,开发人员不必在管理自己的后端基础设施和依赖集中式后端解决方案之间做出选择。空间和时间既是您的数据库,也是您的去中心化、无服务器后端。要在 Space and Time 上构建 dapp,您所要做的就是部署您的前端和智能合约。剩下的我们来处理。
应用程序堆栈由三个核心组件组成:前端、后端和数据库。前端提供 UI/UX,后端处理应用程序的逻辑,数据库存储和检索数据。在去中心化应用程序中,智能合约充当后端(保存逻辑),区块链充当数据库。但区块链可以存储的数据量极其有限,智能合约可以执行的逻辑也极其有限。因此,开发人员还部署数据库和后端来为他们的 dapp 以及智能合约提供支持。
如果去中心化应用程序构建在集中式后端和数据库上,那么它并不是真正去中心化的。Space and Time 不仅构建了第一个去中心化数据仓库,为分析、应用程序和规模提供支持,我们还提供了由我们的去中心化网络运营的内置 API 网关。空间和时间网关提供了构建可扩展的、数据驱动的 dapp 所需的所有 API,因此您不必管理自己的后端基础设施或依赖集中式解决方案。
空间和时间 API 网关的核心支持与平台中的数据进行交互。我们的SQL API使用户能够执行创建表、插入/更新/删除数据和查询数据等操作。使用 SQL API,用户可以使用传统 SQL 语法与平台交互来快速入门。通过资源发现API,用户可以轻松地更好地了解平台中存在的所有资源以及它们周围的元数据(例如,您可以查看所有表组成以太坊区块链数据集以及每个表具有哪些列)以及它们之间的外键关系)。最后,通过我们的View API,用户可以构建一个独特的 API 端点,从中可以执行常见查询,从而提高性能并促进底层 SQL 的未来开发,独立于引用它的 API 请求。用户甚至可以构造参数化视图,这些视图在运行时接受参数(有效的查询模板)。
空间和时间流解决方案使用户能够利用 Kafka 将大容量数据流直接传输到他们的表中。我们提供了一套配置 API,允许用户设置自己的 Kafka 主题,以便他们可以引导生产者并开始使用 Space 和 Time 作为数据接收器。此外,我们提供了一个强大的基于 JSON 的配置设计,用户可以从中描述如何摄取 Kafka 记录中的数据,提供其实现并让平台处理其余的事情。
除了为用户提供一种简单的方法将数据传入和传出平台之外,网关实际上在幕后执行更多功能。仅举几例,网关确保数据可用且一致,协调多个副本之间的用户数据复制,并在检测到活动副本故障时透明地重新路由请求。网关的另一个核心功能是跟踪网络中的所有资源,将新资源分配给具有更多可用空间和计算能力的数据仓库集群,并迁移数据以确保所有集群的均匀使用。最后,网关支持证明验证以支持 SQL 证明。当数据通过网关到达数据仓库时,将构建并存储证明数据。稍后,当执行防篡改查询时,将检索存储的证明数据并将其用于验证数据仓库构建的证明。
借助 Space and Time,开发人员不必在管理自己的后端基础设施和依赖集中式后端解决方案之间做出选择。空间和时间既是您的数据库,也是您的去中心化、无服务器后端。要在 Space and Time 上构建 dapp,您所要做的就是部署您的前端和智能合约。剩下的我们来处理。
No activity yet