Nosana -“AI算力的去中心化计算网格”

Nosana 使个人能提供闲置的GPU计算能力加入一个去中心化的算力网格,这些网络允许个人利用他们的计算资源(如GPU)来帮助执行需要大量计算能力的任务。

下文将对Nosana将要打造的生态做一个梳理,并熟悉其上下游的关系。解释其重要性。

请注意所有内容均非财务建议,仅供学习参考

ChatGPT引发超算时代,算力需求猛增

AI 预训练大模型是高算力与先进算法的结晶,其中先进算法通常涉及庞大的参数量。目前,这些大模型的参数已达到万亿级别,需要大量数据作为支撑。数据量的增加与深度学习的准确性成正比。随着数据量的增长,对计算能力的需求呈指数级增加。这是因为人工智能本质上是矩阵运算,矩阵的维度反映了数据特征的复杂性。通常,数据维度越高,模型参数越多,模型越复杂,准确度越高,对计算能力的需求也随之指数级增长。

根据OpenAI数据,模型计算量增长速度远超人工智能硬件算力增长速度,存在万倍差距。运算规模的增长,带动了对AI训练芯片单点算力提升的需求,并对数据传输速度提出了更高的要求。

post image

GPU资源

引用自Nosana报告 “全球对人工智能计算的需求超过了可用的按需供应。基本上,目前还没有足够的 GPU 来运行人工智能计算。例如,埃隆·马斯克的话,“目前 GPU 比毒品更难获得。”

由于规模,财力雄厚和市场地位,最大的科技公司通常可以更轻松地使用GPU。这使通常没有关系或消费能力的初创企业和研究人员陷入困境。同时随着大语言模型的强烈需求可预测的GPU市场规模也将在未来不断扩大。

市场规模预测
市场规模预测

Nosana项目概述

介绍

基于上述供给和需求端的严重不平衡,Nosana提出了去中心化AI算力的方案,并在目前聚焦在AI算力“推理”部分,指的是使用训练好的机器学习模型来进行预测或决策的过程。

注解:计算任务的性质

  • 推理(Inference):一旦模型被训练,它就被用于实际的任务,如图像识别或语音理解。推理相比训练来说计算需求较低,可以在 CPU、GPU 或专门的推理芯片上进行。

  • 训练(Training):AI 模型训练是一个计算密集型过程,需要大量的数据和复杂的数学运算。这通常需要强大的 GPU 或专门的 AI 加速器,如 Google 的 TPU(Tensor Processing Unit)。

方案和创新

Nosana未来可供运行的模型是LLama2和Stable diffusiion,推出对 Nosana 节点的 GPU 支持,使计算机上运行 GPU 作业。在设计创新,利用 WebAssembly 等技术,通过网页端的入口,以便让您的计算机上运行 GPU 工作负载变得更加轻松。

不仅如此Nosana 创建了 Nosana SDK,可以更轻松地将 Nosana 集成到每天使用的应用程序中。例如 Nosana CLI 工具,它可以让您通过一个简单的命令将计算作业发布到 Nosana Network。为了拥抱这个新方向,我们还构建了 Nosana Explorer,这将使您更容易地进入 Nosana 上的不同类型的计算作业。

同时,这样去中心化的市场,也将打造更公平,更透明,抗审查,支付友好的环境。

(个人提供GPU算力,运行网络的节点,通过智能合约在市场上匹配算力需求方)

post image

投资机构和代币经济学

Nosana得到了Solana foundation的投资和生态支持。(项目早期设计致力于CI/CD,为早期进入Solana的开发者带来了巨大的便利性)

Nosana约80%的代币已经在市场充分流通,市值40M左右(截止2023年11月19日)

发展和机遇

对标类似的去中心化的GPU渲染的Render network, 其流通市值在1.2B左右。Nosana还有很大成长空间,Nosana覆盖的AI算力侧,市场需求也更为庞大。

对比中心化的算力服务商,AWS/Google/Azure, Nosana的成本也在其1/10。

post image

目前Nosana在处于项目早期,测试网即将推出。对于项目是否能捕获到AI算力的需求带来的价值,值得进一步关注!

币价最近一个月表现良好,展示出了市场对于AI项目的偏好

post image

项目链接

https://nosana.io/

https://twitter.com/nosana_ci