商汤用“大模型+大算力”,打造AI商业化新范式
来源:格隆汇      时间:2023-08-30 20:23:19

ChatGPT横空出世,开启了AI的2.0时代。

iPhone的问世为iPhone黄金时代揭开了序幕,也带来了上一轮科技革命。现在市场各方期待着,“AI的iPhone时刻”会开启怎么样的新世界。

国内国际厂商纷纷跟进潮流,抢占大模型高地,“百团大战”如火如荼。


(资料图片仅供参考)

有人认为,我们距大模型真正落地还很遥远。我本来也持有类似的观点,直到我看到商汤的财报——

一系列引人关注的数据和举措:

根据中期业绩报告,生成式AI相关收入同比增长高达670.4%,占整体收入的比重涨至20.3%。生成式AI取得不错的商业化成绩,已贡献了很有存在感的收入体量。

商汤已经建立了涵盖底层基础设施到上层模型的完整AI大模型服务体系。报告期内,商汤发布了应用于不同场景的生成式AI产品系列,包括商量、秒画、如影、琼宇、格物,分别对应着自然语言交互、AI文生图、数字人、3D大场景重建、3D小物体生成这五个主流的生成式AI应用。商汤还提供诸如自动化数据标注、自定义大模型训练、模型增量训练、模型推理部署以及开发者效率提升等一系列MaaS服务,利用自己已经拥有的通用大模型,向客户提供多种大模型能力,去帮助用户更方便和快速的训练自己垂直领域的模型。

图:商汤的MaaS模式

资料来源:华泰证券研究所

上半年,商汤在智慧商业、智慧生活、智能汽车和智慧城市四大业务线积极推广生成式AI业务,并取得不错反响。其中,智慧商业板块,商汤开始为客户定制行业大模型,推动单客户收入同比增长60%。

商汤的大模型甚至还实现了出海,把大模型的商业化版图延伸至海外市场。商汤在中期业绩报告中指出,公司根据海外市场的语言和文化差异,定制了特定需求的模型,助力全球合作伙伴成为真正的AGI受益者。

横向对比来看,各个大厂的通用大模型主要还停留在研发阶段、有研发成果的还在摸索如何盈利。此时商汤的AI大模型已经在加快商业化变现。

纵向对比来看,如果说投资者在上一次年报中,不难看出商汤在大模型上是具备领先技术实力的;那么在这次业绩报告中,我们则可以清晰看到商汤大模型在短短的半年内取得非常明显的商业化进展。尤其是,财务指标都是后视指标,商业化的速度往往远远早于业绩兑现的速度。因此,财报中的那些数据还难以反应全部的商汤大模型商业化成果。

领先的商业化进程不可能是空中楼阁。

这一切都有迹可循。

扼住大模型咽喉的算力

随着港美A三地的业绩密集披露期到来,科技企业的中报出现十分有意思的分化。

我们可以看到,外国科技大厂基本都在增加CAPEX,数据中心的生意虽然仍未恢复到以前高峰增长时期,但是也依然受AI拉动了一波。

但国内的数据中心生意却没有明显起色,甚至在下滑。“需求非常大,但受制于供给瓶颈”,相关厂商都是这么表述。准确的说,我们受制于芯片供给瓶颈,并不能满足中国AI模型训练和推理的需求。我们的数据中心没有足够的AI算力,因为我们的服务器厂商没有足够的高端GPU。

芯片,就是算力的根本,而算力是大模型的血液。AIGC背后支撑的千亿级参数超大模型,其计算训练输出结果需要强大的算力支撑,

但也并非没有变通之道——英伟达推出了数据传输速度相对较慢的A800、H100和H800,这些型号用来代替A100向中国出口。

但慢,则意味着需要更多的芯片堆叠。根据媒体报道,百度、腾讯、阿里巴巴以及字节跳动公司今年向英伟达下达的交付订单金额达到10亿美元,总共采购约10万张A800芯片。平均下来,每个公司下单了2.5万张的采购需求。全球产能本来已经非常紧张,这进一步加剧了英伟达供不应求困境。目前相关产品不仅涨价,交货期还很长,连A800/H800都要到今年底或明年才能交货。中美大厂都在紧急抢产能,中国厂商更是大肆囤货,以应对将来的复杂国际环境。

算力问题,已经成为能否做好大模型的瓶颈问题。

但算力正好是商汤的长处——商汤自诞生之日起就是AI公司,其算力设施自然是满足AI要求的算力设施。当前业界训练大模型对大算力的需求非常旺盛,并且真正好用的基础设施十分稀缺。全球TOP10超算中心中,以GPU为核心算力的仅有六家;在中国AI数据中心更为稀缺。

早于2022年1月,商汤就正式启用了上海临港智算中心。这是一个全球领先的超大型人工智能计算中心(AIDC),能提供开放、大规模、低碳节能的先进AI计算基础设施,可以满足AIGC大模型的训练与推理需求。我们目前并不能知道商汤还有多少块GPU储存,不过可以找到间接数据作为辅佐。在AIDC的基础上,商汤建设了业界领先的AI大装置SenseCore,这是亚洲目前最大的智能计算平台之一。根据中期业绩报告,商汤AI大装置SenseCore上线GPU数量已由3月底的27,000块提升至约30,000块,算力规模提升20%至6 ExaFLOPS。根据不同的机构测算,GPT-4的训练需要的A100上数量大约在10000-25000张的区间。商汤的算力规模足以让它再造一个通用大模型。

目前,商汤已经搭建了较为成熟的日日新大模型体系,因此大量GPU被投入于打造生成式AI产品系列上去。根据业绩报告,商汤共投入上万块GPU到大语言模型商量SenseChat的研发上,约2,000块GPU在文生图模型的研发上,这大大加快了商汤大模型与应用场景的结合。

另外,商汤在依托大装置训练大模型时,也通过强大的数据清洗能力大大提升模型的效果。目前商汤每月能够产出约2万亿token的高质量数据,预计年底高质量数据储备将突破10万亿token,足以支持更加强大的基模型的训练。

另外,得益于算力布局上的深厚积累,商汤通过优秀的系统架构、网络架构、训练框架及算法多方面的联和优化,将大量的GPU高效连接,使其产生极高的并行效率。无论是最开始的1千张卡级,还是未来的1万张卡级,随着集群规模的增长,商汤一直以先进的技术优势保障并行效率。另外,商汤也不断总结经验,通过增加硬件的可靠程度及软件的容错能力,支撑万卡级的人工智能大模型并行训练,保障算力中心长时间、无故障运行。

总结一下,商汤重视芯片等底层硬件基础设施投入,具备强大的数据清洗能力,再加上其自建的AIDC算力集群大大压缩应用模型的训练时间,再以积累的丰富经验对整体算力中心进行调优。这些因素让商汤得以在生成式AI的商业化方面实现领先。

更根本的原因:中国大模型工业化生产开创者

在大模型研发成果的基础上,商汤打造了“商汤日日新SenseNova”大模型及研发体系。“日日新大模型”目前整体参数量达到5000亿,能提供自然语言生成、文生图、感知模型标注、以及模型研发功能。在“日日新”大模型上,商汤能实现大模型预训练,仅通过较少和微调就能高效生产AI模型。

从商汤大语言模型产品的更迭中,我们可以清晰得看到“日日新”底层大模型的效率:

4月,商汤推出商量SenseChat1.0,是国内最早的基于千亿参数大语言模型的聊天机器人产品之一;6月,商汤联合上海人工智能实验室等多家国内顶尖科研机构发布基模型书生·浦语(InternLM);7月初商汤发布商量SenseChat2.0;8月,商汤的新模型InternLM-123B完成训练。InternLM-123B在全球51个知名评测集(包括MMLU,AGIEval,ARC,CEval,Race,GSM8K等)共计30万道问题集合上测试成绩整体排名全球第二,超过GPT-3.5-turbo以及Meta新发布的LLaMA2-70B等模型。

目前,在“日日新”的基础上,商汤快速形成丰富的生成式AI产品,囊括了自然语言交互、AI文生图、数字人、3D大场景重建、3D小物体生成这五个主流领域,使得商汤得以高效应对多样化、碎片化的应用场景。

有了适用、好用、有竞争力的产品,AI公司才能快速在应用场景落地,实现商业化。这是商汤具备较高商业化能力的最关键因素之一。

“大模型对AI生产力的改进,并不亚于第一次工业革命的珍妮纺纱机。

凭借着“大模型+大算力”的优势,商汤正在加速开启“21世纪的珍妮纺纱机”,并走向更光明的商业化前景。

标签: