大模型的“掘金卖铲”生意,AI Infra的最佳机会来了?

来源:科技云报道 更新时间2024-08-19 16:17:48 点击数:

在19世纪的淘金热中,最赚钱的并不是挖金矿的,反而是那些卖铲子、卖牛仔裤的人。正如卖铲人在淘金热中成为最大赢家,在当今AIGC时代,AI Infra也扮演着类似的角色。

如果用云计算三层构架做类比,AI Infra与PaaS层级相似,是链接算力和应用的中间层基础设施,包括硬件、软件、工具链和优化方法等,为大模型应用开发提供一站式模型算力部署和开发工具平台。算力、算法、数据可以看作IaaS层,各种开源和闭源模型则是SaaS在大模型时代的新演变,即MaaS。

随着大模型应用落地的进程不断加速,AI Infra的价值潜力被进一步释放。中金数据预测,目前,AI Infra产业处于高速增长的发展早期,未来3-5年内各细分赛道空间或保持30%的高速增长。

当大模型进入大规模应用落地时期,提供大模型训练、部署和应用时所需的基础设施成为关键一环,AI Infra成为大模型应用爆发背后“掘金卖铲”的最佳生意。

01 中台模式解锁AI生产力

从ICT产业的演进轨迹来看,三层架构似乎是宿命般的终极图景。在传统的本地部署阶段,操作系统、数据库、中间件等基础软件通过控制硬件交互、存储管理数据、网络通信调度等功能,解决底层硬件系统的复杂性难题,让上层应用开发者能专注于业务逻辑进行创新。

在云定义一切的时代,也形成了IaaS、PaaS、SaaS协同进化的经典架构,其中PaaS层提供应用开发环境和数据分析管理等服务,为云计算加速渗透奠定了坚实基础。

经历了漫长的蛰伏期后,AIGC按下了人工智能通用化进程的快进键,整个产业在狂飙突进的氛围中急速重构。算力与应用无疑是最耀眼的主角,但二者之间的鸿沟堪比天堑,大模型面临“悬浮”或“踏空”的风险。

从这个意义上讲,AI Infra犹如一座桥,可以承担类似基础软件或PaaS曾经扮演的角色——通过构建新型的软件栈及综合服务,赋能算力挖潜、模型优化和应用开发,成为连接算力与应用的中坚力量。

AI Infra涵盖一切跟开发部署相关的工具和流程。随着云计算的不断发展,又逐渐衍生出了DataOps、ModelOps、DevOps、MLOps、LLMOps等一些XOps的概念。

从宏观的角度来看,所有XOps本质上是为了开发部署生命周期的提效。比如DataOps是为IaaS层的存储和PaaS层的数据处理提效的,DevOps、MLOps实际上是为PaaS层开发部署提效的,LLMOps是为MaaS层提效的。

事实上,在AIGC风起云涌之前,关于AI中台的理论与实践就已如火如荼地展开。但当时的AI中台更像是“救火队员”,功能比较庞杂,干了不少“脏活”、“累活”,却难以获得上下游的认可。

大模型为AI平台化搭建起更宽广的舞台,也让AI Infra“掘金卖铲”的逻辑更具确定性,进而赢得可观的发展空间。相关机构预测显示,未来3~5年AI Infra产业将保持30%+的高速增长。

就像“三明治”的两片面包间可以有无数种夹层选择,身处算力与应用之间的AI Infra同样不拘一格。从广义上看,AI Infra涵盖人工智能基础框架技术,涉及大模型训练、部署领域的各种底层设施;狭义而言,基础软件栈是AI Infra的核心组成部分,优化算力算法、促进应用落地是其主要目标。

AI Infra定义的相对开放为不同的路径探索提供了更多可能。基于各自的资源禀赋与市场定位,业界的资深厂商与新兴玩家正在积极拓展AI Infra的疆界,不少做法值得借鉴。

02 AI Infra将是下一个应用热点?

相比模型价值,卷AI应用成为行业共识。李彦宏坚信,基础模型之上将诞生数以百万计的应用,它们对于现有业态的改造作用,比从0到1的颠覆作用更大。

如今AI应用的供给在不断增加,IDC在年初时预测,2024年全球将涌现出超过5亿个新应用,这相当于过去40年间出现的应用数总和。

最近,视频生成类模型产品扎堆出现,快手的可灵、字节跳动的即梦、商汤的Vimi集体亮相,此外还有AI搜索产品、AI陪伴类产品等层出不穷。

大模型应用爆发趋势已然确定,根据InfoQ研究中心数据,2030年AGI应用市场规模将达4543.6亿元,模型应用层的巨大机会已经吸引了几乎各行各业的参与。

而在大模型应用之下,AI Infra成为其爆发的隐藏推手。

目前,大模型产业链大致可以分为数据准备、模型构建、模型产品三个层次。在国外,AI大模型的产业链比较成熟,形成了数量众多的AI Infra(架构)公司,但这一块市场在国内还相对空白。

在充满不确定性的道路上,率先找到清晰的赛道,快速建立显著的里程碑尤为重要。AI Infra市场尚处于混沌期,每个科技巨头都希望在自己的生态中形成闭环。

在国内,巨头们都有一套自己的训练架构。

比如,华为的模型采用的是三层架构,其底层属于通识性大模型,具备超强的鲁棒性的泛化性,在这之上是行业大模型和针对具体场景和工作流程的部署模型。这种构架的好处是,当训练好的大模型部署到垂类行业时,可以不必再重复训练,成本仅是上一层的5%~7%。

阿里则是为AI打造了一个统一底座,无论是CV、NLP、还是文生图大模型都可以放进去这个统一底座中训练,阿里训练M6大模型需要的能耗仅是GPT-3的1%。

百度和腾讯也有相应的布局,百度拥有覆盖超50亿实体的中文知识图谱,腾讯的热启动课程学习可以将万亿大模型的训练成本降低到冷启动的八分之一。

整体来看,各个大厂之间的侧重点虽然有所不同,但主要特点就是降本增效,而能够实现这一点,很大程度上就是受益于“一手包办”的闭环训练体系。

反观国外,成熟的AI产业链形成了数量众多的AI Infra公司。

如果把开发AI应用看成建房子,那么AI Infra就是提供水泥钢筋的施工队。AI Infra施工队的价值点在于它是一个集成平台,将下层的算力芯片层与上层的AI应用层打通,让开发者实现一键调用,并且实现降低算力成本、提升开发效率并且保持模型优秀性能的效果。

让应用更简单,让AI落地更便捷,是AI Infra的使命。可以说,AI应用的市场有多大,AI Infra的机会就有多大。

AI Infra公司有的专门做数据标注、做数据质量、或者模型架构等。这些企业的专业性,能够让他们在某一个单一环节的效率、成本、质量上都要比大厂亲自下场做得更好。

比如,数据质量公司Anomalo就是Google Cloud和Notion的供应商,它可以通过ML自动评估和通用化数据质量检测能力,来实现数据深度观察和数据质量检测。

这些公司就像汽车行业的Tier 1,通过专业的分工,能够让大模型企业不必重复造轮子,而只需要通过整合供应商资源,就能快速地搭建起自己模型构架,从而降低成本。

但国内在这一方面并不成熟,原因在于:一方面国内大模型的主要玩家都是大厂,他们都有一套自己的训练体系,外部供应商几乎没有机会进入;另一方面,国内也缺乏足够庞大的创业生态和中小企业,AI供应商也很难在大厂之外找到生存的空间。

以谷歌为例,谷歌愿意将自己训练的数据结果分享给它的数据质量供应商,帮助供应商提高数据处理能力,供应商能力提升之后,又会反过来给谷歌提供更多高质量数据,从而形成一种良性循环。

国内AI Infra生态的不足,直接导致的就是大模型创业门槛的拔高。如果将在中国做大模型比喻成吃上一顿热乎饭,那必须从挖地、种菜开始。

目前,在AI 2.0的热潮中,一个重要的特点就是“两极化”:最热门的要么是大模型层、要么就是应用层。而类似AI Infra的中间层,反而是很大的真空地带,也可能是下一个机遇所在。

03 铲子难卖,金矿难挖

尽管在大模型应用爆发的当下,AI Infra层潜藏着巨大的生意。但是对于这些做AI Infra的公司来说,即使他们在自己的专业领域如此强大,在潮水的变化面前依然脆弱。

英伟达CUDA生态已经发展了20年,在AI领域,最先进的模型和应用都首先在CUDA上跑起来。

每个硬件之间都有不同的接口,CUDA统一了不同接口之间的语言,让使用者能够用一套标准语言去使用不同硬件。在模型开发过程中,开发者势必会趋同于在同一个语言体系中去完成自己的开发。而这实际上就构成了英伟达CUDA生态厚度。

目前,CUDA生态在AI算力市场占据了90%以上的份额。不过随着AI模型的标准化,模型之间结构差异变小,不再需要调度多种大小模型,英伟达CUDA生态厚度在变薄。

即使如此,英伟达在算力市场也是绝对王者。据业内人士预测,英伟达在接下来的3~5年当中,还会是整个AI硬件提供商中绝对的领头羊,市场发展占有率不会低于80%。

对AI Infra层的卖铲厂商来说,外有英伟达守矿人,堵在门口卖门票与铲子,好不容易找到一条进入金矿的小路,却发现,里面的挖矿人已经习惯“徒手”挖矿,不再接受新铲子。

在国内,企业为软件付费意愿低,且大多习惯集成式服务。国内SaaS投资已经降到冰点,如果AI Infra层厂商单靠卖硬件或软件难以实现商业化。

伴随AI应用的快速发展,未来谁能够为多样化的应用场景提供高效便捷的大模型一站式部署方案,谁就有可能在这场竞争中胜出。而这其中,底层技术、中层平台、上层应用缺一不可,只有让各方面能力得到更全面、均衡地发展,才能在AI之路上走得更远、更稳健。

放眼未来,人工智能重塑千行百业的进程刚拉开帷幕,Al Infra铺就的厚雪长坡有助于这个超级赛道行稳致远。今年,数据基础设施已在顶层设计中“独立门户”,人工智能基础设施战略地位的跃迁亦不遥远。


Tag: 大模型 AI机会
首页 AI对话 资讯 我的