Offical Twitter : @0x_atom_crypto ; Founder :@chloewang_cfg ;Discord link : https://discord.gg/RDRYgnmSTd ; Wechat: CFG Labs;

CFG Labs interviewed Hugging Face: machine learning Github
Hugging Face: Tie Zhen: former Google engineer, from TensorFlow team. I joined hugging face last November and witnessed the changes of LLM AIGC. Today, I am honored to be invited by CFG and would like to show some interesting and models I saw on hugging face, hoping to inspire you. I am not a researcher, I will use easy-to-understand language and practical ideas to go through and help you understand. Chapter 1: The History of Hugging FaceHugging Face is established to build Chatbot long time ...

CFG Labs interviewed Hugging Face: machine learning Github
Hugging Face: Tie Zhen: former Google engineer, from TensorFlow team. I joined hugging face last November and witnessed the changes of LLM AIGC. Today, I am honored to be invited by CFG and would like to show some interesting and models I saw on hugging face, hoping to inspire you. I am not a researcher, I will use easy-to-understand language and practical ideas to go through and help you understand. Chapter 1: The History of Hugging FaceHugging Face is established to build Chatbot long time ...

CFG Labs 对话 Hugging Face: 打造机器学习的Github
Hugging Face: 铁震:前Google工程师,之前TensorFlow团队的。去年十一月加入hugging face,见证了LLM AIGC的变化,今天有幸受到CFG的邀请,想给大家看一下我在hugging face上看到有趣好玩的模型,希望给大家启发。我不是做模型研究的,我会用通俗易懂的语言,用实战的思路帮助大家理解。 第一章: Hugging Face的历史Hugging Face最早是做Chatbot的,做的比较,当时大模型还没有出现,和ChatGPT没法比。后来Google 发布了Bird, Google当时做了TensorFlow, 不过社区已经逐步转向Pytorch. 所以我们就做了Pytorch版的Bird 副线,把weights 经过一些办法转化Pytorch这种方式,并不是我们重新去训练, 结合这个就慢慢形成了Transformers。Transformer是一个模型结构,transformers是我们这个库,涵盖了所有常用的用到transformer结构的这些模型。我们说开发者,researcher可以很容易把新的模型加上来,用户也可以用同样一个接口...

CFG Labs 对话 Hugging Face: 打造机器学习的Github
Hugging Face: 铁震:前Google工程师,之前TensorFlow团队的。去年十一月加入hugging face,见证了LLM AIGC的变化,今天有幸受到CFG的邀请,想给大家看一下我在hugging face上看到有趣好玩的模型,希望给大家启发。我不是做模型研究的,我会用通俗易懂的语言,用实战的思路帮助大家理解。 第一章: Hugging Face的历史Hugging Face最早是做Chatbot的,做的比较,当时大模型还没有出现,和ChatGPT没法比。后来Google 发布了Bird, Google当时做了TensorFlow, 不过社区已经逐步转向Pytorch. 所以我们就做了Pytorch版的Bird 副线,把weights 经过一些办法转化Pytorch这种方式,并不是我们重新去训练, 结合这个就慢慢形成了Transformers。Transformer是一个模型结构,transformers是我们这个库,涵盖了所有常用的用到transformer结构的这些模型。我们说开发者,researcher可以很容易把新的模型加上来,用户也可以用同样一个接口...

为什么第四次工业革命不应该属于现有垄断企业?
以下文章部分内容来自于Jim O’Shaughnessy 以及Emad CEO of Stability AI在infinite loops访谈中关于AI未来发展公开对话。同时也感谢Hugging Face 铁震童鞋提供的相关行业信息。 伟大的人类从400万年前的南方古猿物种一步一步演变而来,经历了史前革命,古文明时期,中世纪,文艺复兴时代,工业革命时代等,启蒙时代的物理学家丹尼斯构想出了蒸汽机的雏形,为之后的水泵、驱动轮船和火车奠定了基础。工业革命时代,人们意识到科技进步能够提升质量,带来全人类的幸福。这段时间内,潜艇,火车,摄影术,电灯,电话,电影等技术相继问世,这也是严格意义上的第二次工业革命。第三次工业革命则是继蒸汽机以及电力革命后的,以原子能、电子计算机等的主要应用为标志的时代。而过去两年人工智能惊人的发展速度,以社区主导的大规模信息聚合有潜力推动下一个世纪的主导。当然人工智能在之前并不缺乏故事和市场运作,以自动驾驶、安防、监控等应用为特征的企业服务/政府服务题材公司,比如商汤科技,旷世科技等,都是领域的龙头。前几年AI主要以inference推理的统计模型为主导,而非...

为什么第四次工业革命不应该属于现有垄断企业?
以下文章部分内容来自于Jim O’Shaughnessy 以及Emad CEO of Stability AI在infinite loops访谈中关于AI未来发展公开对话。同时也感谢Hugging Face 铁震童鞋提供的相关行业信息。 伟大的人类从400万年前的南方古猿物种一步一步演变而来,经历了史前革命,古文明时期,中世纪,文艺复兴时代,工业革命时代等,启蒙时代的物理学家丹尼斯构想出了蒸汽机的雏形,为之后的水泵、驱动轮船和火车奠定了基础。工业革命时代,人们意识到科技进步能够提升质量,带来全人类的幸福。这段时间内,潜艇,火车,摄影术,电灯,电话,电影等技术相继问世,这也是严格意义上的第二次工业革命。第三次工业革命则是继蒸汽机以及电力革命后的,以原子能、电子计算机等的主要应用为标志的时代。而过去两年人工智能惊人的发展速度,以社区主导的大规模信息聚合有潜力推动下一个世纪的主导。当然人工智能在之前并不缺乏故事和市场运作,以自动驾驶、安防、监控等应用为特征的企业服务/政府服务题材公司,比如商汤科技,旷世科技等,都是领域的龙头。前几年AI主要以inference推理的统计模型为主导,而非...

Stable Diffusion的基准测试-哪种GPU运行AI模型的速度最快(已更新)
哪种显卡能提供最快的人工智能?人工智能和深度学习最近不断成为头条新闻,无论是ChatGPT产生的不良建议,自动驾驶汽车,艺术家被指控使用人工智能,人工智能的医疗建议,等等。这些工具大多依靠复杂的服务器和大量的硬件进行训练,但通过推理使用训练过的网络可以在你的PC上,使用其显卡来完成。但是,消费类GPU做人工智能推理的速度如何? 我们在最新的Nvidia、AMD、甚至英特尔的GPU上对Stable Diffusion进行了基准测试,看看它们的表现如何。如果你碰巧尝试过在自己的电脑上启动和运行Stable Diffusion,你可能会对这一过程的复杂性--或简单性--有一些印象。- 这可能是多么复杂或简单。简而言之,Nvidia的GPU占主导地位,大多数软件都使用CUDA和其他Nvidia工具集设计。但这并不意味着你不能在其他GPU上运行Stable Diffusion。 我们最终使用了三个不同的Stable Diffusion项目进行测试,主要是因为没有一个软件包可以在每个GPU上运行。对于Nvidia,我们选择了Automatic 1111的webui版本;它表现最好,有更多的选...

Stable Diffusion的基准测试-哪种GPU运行AI模型的速度最快(已更新)
哪种显卡能提供最快的人工智能?人工智能和深度学习最近不断成为头条新闻,无论是ChatGPT产生的不良建议,自动驾驶汽车,艺术家被指控使用人工智能,人工智能的医疗建议,等等。这些工具大多依靠复杂的服务器和大量的硬件进行训练,但通过推理使用训练过的网络可以在你的PC上,使用其显卡来完成。但是,消费类GPU做人工智能推理的速度如何? 我们在最新的Nvidia、AMD、甚至英特尔的GPU上对Stable Diffusion进行了基准测试,看看它们的表现如何。如果你碰巧尝试过在自己的电脑上启动和运行Stable Diffusion,你可能会对这一过程的复杂性--或简单性--有一些印象。- 这可能是多么复杂或简单。简而言之,Nvidia的GPU占主导地位,大多数软件都使用CUDA和其他Nvidia工具集设计。但这并不意味着你不能在其他GPU上运行Stable Diffusion。 我们最终使用了三个不同的Stable Diffusion项目进行测试,主要是因为没有一个软件包可以在每个GPU上运行。对于Nvidia,我们选择了Automatic 1111的webui版本;它表现最好,有更多的选...

下一代LLMs(大型语言模型)
如果你还没有听说,人工智能是热门的新事物。最近,从硅谷到达沃斯,生成性人工智能似乎是每个风险资本家、企业家、财富500强的首席执行官和记者都在谈论的话题。 对于那些在2022年开始真正关注人工智能的人来说,像ChatGPT和Stable Diffusion这样的技术似乎是凭空出现的,在世界范围内掀起了风暴。他们没有。 早在2020年,我们就在本专栏中写了一篇文章,预测生成性人工智能将成为下一代人工智能的支柱之一。 至少从2019年发布GPT-2以来,在该领域工作的人都清楚,生成性语言模型已经准备好释放巨大的经济和社会变革。同样,虽然文本-图像模型在去年夏天才引起公众的注意,但自从OpenAI在2021年1月发布原始的DALL-E以来,该技术的上升似乎是不可避免的。(我们在原始DALL-E发布几天后写了一篇文章提出了这个论点)。 出于同样的原因,重要的是要记住,目前的人工智能技术水平远远不是人工智能能力的最终状态。相反,人工智能的前沿领域从未像现在这样迅速发展。尽管ChatGPT目前在我们看来很神奇,但它只是通往下一步的垫脚石。下一代大型语言模型(LLMs)会是什么样子?这个问题的...

下一代LLMs(大型语言模型)
如果你还没有听说,人工智能是热门的新事物。最近,从硅谷到达沃斯,生成性人工智能似乎是每个风险资本家、企业家、财富500强的首席执行官和记者都在谈论的话题。 对于那些在2022年开始真正关注人工智能的人来说,像ChatGPT和Stable Diffusion这样的技术似乎是凭空出现的,在世界范围内掀起了风暴。他们没有。 早在2020年,我们就在本专栏中写了一篇文章,预测生成性人工智能将成为下一代人工智能的支柱之一。 至少从2019年发布GPT-2以来,在该领域工作的人都清楚,生成性语言模型已经准备好释放巨大的经济和社会变革。同样,虽然文本-图像模型在去年夏天才引起公众的注意,但自从OpenAI在2021年1月发布原始的DALL-E以来,该技术的上升似乎是不可避免的。(我们在原始DALL-E发布几天后写了一篇文章提出了这个论点)。 出于同样的原因,重要的是要记住,目前的人工智能技术水平远远不是人工智能能力的最终状态。相反,人工智能的前沿领域从未像现在这样迅速发展。尽管ChatGPT目前在我们看来很神奇,但它只是通往下一步的垫脚石。下一代大型语言模型(LLMs)会是什么样子?这个问题的...