# 阿里AI专家交流实录

By [ Financialization](https://paragraph.com/@financialization) · 2023-04-03

---

**问：阿里大模型的发布节奏，以及大致水平？**

答：阿里巴巴达摩院主要来牵头去做大模型的相关的研究和进展，大概是在22年的时候，我们其实就已经发布了我们自己的这种自然语言理解的大模型，一个叫m6，一个叫 plug。 M6的话基本是能够支持多模态的这种AI模型，比如说文字生成图片，文字生成语音，文字生成视频这种模型，但是我们大模型相比来讲，GPT3.5这种水平在参数量和整体规模上其实还是要小一点。所以在大模型**目前我们这种模型可能也就叫做中模型。**

达摩院顶层的领导下达了命令，整个团队约有100个人去开始去做相关大模型的迭代和升级，一方面是自己在复现GPT的水平，一方面是要迭代把我们的m6和plug迭代到能够对标到GPT的水平。目前来看根据我们得到的一些反馈，我们自己的这种m6的一些自然语言理解的能力，**目前还不能对标到GPT3.5与GPT3.5大约还得有个一年半左右差距。**

所以在我们预计**今年在下半年云栖大会上**的时候，应该会有m6的一些最新的模型的发布或者是进展，可能大概在GPT2.5左右的水平。

\*\*语料积累不足。\*\*现有的大型语言模型在文本清洗和筛选方面存在一些限制，因此需要对现有模型进行升级和迭代，以适应不同领域的数据需求。例如，要将模型应用于军事、旅游文化、政治等领域，需要进行更多的数据收集和人工标注，以达到更高的准确性和效率。同时，大型语言模型的成熟也将带来更多的商业机会，例如在天猫淘宝、高德地图等应用中的搜索和客服机器人等领域。此外，如果大型语言模型足够成熟，可能会释放出API，由合作伙伴接入，从而实现生态层面的垄断。

  

问：**预计阿里大模型与文心一言对比？同时您认为制约我们大模型发展的是最主要是这个语料，还是模型一开始的这种路径偏离，您认为哪一个是制约我们发展的一个最重要的原因？** 

答：我们认为百度做得虽然不是那么智能，但还是相当不错的。在国内，它可能算是第一名。我们认为它还有很大的提升空间。文心一言虽然有一定的实用性，**但离达到GPT-3水平还有一定差距**。不过，\*\*我们觉得它至少可以达到GPT-2.5水平,如果未来能够持续迭代和优化，可能会达到GPT-3.5的水平。\*\*数据积累对于百度来说是一个优势，尤其是在搜索领域。\*\*百度在知识库方面有很多年的积累，包括百度知道等。\*\*与文心一言不同，其模型架构基于Transformer，而文心一言则基于Bert。如何在文心一言的基础上实现更智能的迭代，可能是一个挑战，需要达摩院的同学来解决。

  

**问：阿里如何后发追上？会采取怎样的打法？**

答：我们可以提供的方案主要有两种，\*\*一种是我们推出的模型效果相对较好，可以与集团内部的产品结合，例如天猫、淘宝和高德地图的搜索业务。\*\*这将为搜索引擎带来更新的商业模式，并取代以前的商业模式。此外，我们还可以输出我们自己的API，并向合作伙伴或渠道商收费。这些合作伙伴将使用我们的API，并体现出他们的客户，这些客户是从ToC端产生的。大多数客户都有自己的APP和网站，这些客户可以通过他们的APP和网站获取流量。不同的客户可以使用不同的API，这意味着厂商可以在生态系统中形成垄断。目前，已有一些厂商尝试将我们的API集成到他们的产品中，但进展不如预期快。**对于我们的API，它们可能会在特定领域上有所帮助，例如电商、搜索和推荐，并带来更好的商业模式。**

**问：阿里目前AI算力储备情况？**

答：**阿里国内AI算力储备最多，然后以次为：字节、百度、腾讯。**

阿里云现在云上至少应该有上万片的A100 了，整体至少能够达到10万片，集团的话应该会是阿里云5 倍的这样的一个量级。

达摩院、天猫、淘宝的算力资源都是集团内资源使用。

阿里云这块今年增速会有30-50%。有个别8-9个客户会有复现GPT的需求，提出了大规模AI算力需求，我们以云的方式给。

  

百度年初紧急下单3000台 8卡的A800服务器，2.4万张卡，我预计全年百度会有A-H800共5万张的需求。

阿里云需求不会这么多，去年采购2万多，今年可能采购量会下降。预计云上就1万张左右，其中6000张是H800。此外阿里云也会用到平头哥这种自研的，每年大概3000张去采购。

从除此之外，阿里云也会选择国产芯片的一家，看是否在云上商业化。

---

*Originally published on [ Financialization](https://paragraph.com/@financialization/ai)*
