租用AI算力价格贵?未来北京有望给你打五折
2023-07-04 22:36:25    北京商报

大模型时代,算力是底座。北京市经信局党组书记、局长姜广智在日前举办的2023全球数字经济大会人工智能高峰论坛(以下简称“人工智能论坛”)上表示,北京正筹划出台“算力券”,支持基于大模型落地应用场景的中小企业获取多元化、低成本优质算力。

眼下,大模型正推动智能算力需求爆发式增长。但智能算力很贵,除了互联网大厂等极个别企业有能力自建智算平台外,大多数中小企业目前还是依赖于购买或租用算力,其成本也并不低。这成为了中小企业狂奔大模型赛道的痛点和堵点。而北京“算力券”的推出,将有望打通这一堵点,为产业打开全新的想象空间。

算力有望打五折


(相关资料图)

就北京筹划出台“算力券”政策,北京市经信局相关负责人在接受北京商报记者采访时介绍,目前“算力券”政策正在研究中,具体细节还未敲定。不过,可以明确的是,“算力券”中算力的供应方来自北京经信局正在征集的“北京市通用人工智能产业创新伙伴计划”成员。

北京商报记者在北京市经信局官网查询发现,7月3日,北京市经信局已经发布了第二批伙伴名单,63家伙伴企业中,算力伙伴10家,分别为北京百度网讯科技有限公司、北京世纪互联宽带数据中心有限公司、中国电信股份有限公司北京分公司、中国移动通信集团北京有限公司、北京昇腾创新人工智能科技中心有限公司、京东科技信息技术有限公司、北京红山信息科技研究院有限公司、企商在线(北京)数据技术股份有限公司、北京神州数码云科信息技术有限公司、北京金山云网络技术有限公司。

此前发布的第一批伙伴成员中,共有算力伙伴2家,分别为阿里云计算有限公司和北京超级云计算中心。

关于算力券的具体价格,前述北京经信局相关负责人表示正在研究中。不过,他也指出,目前算力伙伴提供的算力价格尚未公布,但基本已经是市场价格的五、六折左右。

算力租赁的市场价格是怎样的?提供算力服务的北京昇腾创新人工智能科技中心有限公司CTO杨光告诉北京商报记者,目前市场价格约为15-20元/卡/时,1P大约是3-4张卡。“‘卡’指单芯片,目前算力价格确实也不是很统一。但这个价格对于中小企业来说还是比较昂贵的,所以急需有普惠算力支持企业发展。”

杨光举例,一个常规的AIGC项目租用的算力规模涉及到的“点”比较多,费用并不太容易进行统一计算,“但是有公开数据显示,训练一个GPT-3需要花费460万美元”。

此前有消息称,国际算力设备龙头企业英伟达也计划开放DGX Cloud实例,企业可以“云租赁”的形式按月租用DGX Cloud集群,价格为每实例3.7万美元/月起。DGX Cloud能为AI超级计算提供完整的解决方案,借助该集群,企业用户可扩展大型多节点训练工作负载的开发,无须等待需求量通常很大的加速计算资源。

“出台‘算力券’政策,主要是为了解决中小大模型企业算力成本问题,支持基于落地应用场景的中小企业获取多元化、低成本优质算力。”前述北京经信局相关负责人表示,“如果企业有需要,我们很愿意提供算力供需对接的平台。”

需求暴增推高算力价格

本次北京经信局筹划“算力券”的背后,是呈现爆发式增长的智能算力需求。

随着ChatGPT在今年的爆火,各大科技企业都开始逐鹿细分行业大模型,包括但不限于交通、医疗、数字政务等细分领域。根据北京市经信局在人工智能论坛上披露的数据,我国目前已有80余个大模型公开发布,其中北京约占一半。“但除了大型互联网企业、AI龙头企业具有较多的GPU算力芯片储备外,中小企业在发展AI模型、应用过程中,遭遇算力瓶颈。”

一家科技企业负责人王楠告诉北京商报记者,他们公司主要通过向大厂购买算力来解决算力需求,而ChatGPT在今年突然崛起,许多大厂的GPU算力芯片价格都涨了不少,一段时间里甚至高价也很难买到。

算力成本涨了多少,从英伟达GPU芯片的交付价格即可一窥。目前,AI算力中最关键的芯片GPU被英伟达垄断,市场占有率达到90%以上。以英伟达GPU芯片A100为例,该芯片价格从去年12月开始上涨,截至今年4月上半月,其5个月价格累计涨幅达到37.5%;同期A800价格累计涨幅达20%。同时,英伟达GPU交货周期也被拉长,之前拿货周期大约为一个月,现在基本都需要三个月或更长。甚至,部分新订单“可能要到12月才能交付”。

北京商报记者查询后了解到,一张40G显存的A100芯片,在电商平台上所标售价达6.25万元。因此,A100芯片也一直被广大科技发烧友戏称为“小金砖”。

这也导致了自建智能算力平台成本极高。今年5月,上海张江一家数据公司的相关负责人在接受媒体采访时曾表示,“一台包含8张A800的DGX超算,现在市面上的价格可能要到230万元到250万元之间,价格还在持续上涨。”

而算力的需求究竟有多大?资料显示,OpenAI为了训练ChatGPT,构建了由近3万张英伟达V100显卡组成的庞大算力集群,GPT-4更是达到了100万亿的参数规模,其对应的算力需求同比大幅增加。如今国内多家企业宣布投身大模型的公司,如果再叠加计算上围绕大模型的人工智能生态和由此产生的用于推理的算力需求,未来的算力缺口将更加惊人。

“总体上看,我国的算力需求从静态来说目前‘基本’能够实现算力供需之间的平衡,但是从动态角度来说,未来越来越多的行业、企业要运用大模型、运用人工智能多模态,算力在未来存在非常大的缺口。”北京社科院研究员、中国人民大学智能社会治理研究中心研究员王鹏在接受北京商报记者采访时表示。

加大算力供给是根本

庞大的算力需求为AI算力产业带来了广阔的市场空间。来自IDC的数据与预测显示,2021年中国智能算力规模达到155.2EFLOPS(每秒一百亿亿次的浮点运算)并在之后的几年始终保持稳健增长态势,预计到2026年将突破进入每秒十万亿亿次浮点计算级别,智能算力实现1271.4EFLOPS的庞大规模,2021-2026年期间,预计年复合增长率达到52.3%。

各科技巨头在算力上的投入也十分明显。在百度2023年Q1财报中,其AI的内容贯穿始终。腾讯发布的2023年Q1财报中,在数实经济、广告和游戏三大核心业务集体发力下,腾讯重回增长曲线。值得一提的是,关于算力和人工智能的部分,同样占据了财报很大的篇幅。

但算力成本高,成为了制约企业的一道坎,特别是对中小企业而言。而算力租赁或许可以成为目前解题的突破口。在杨光看来,企业采用租赁方式使用算力能够弹性提供算力,满足不同模型训练所需要的算力需求。

“由企业自身建设、运维算力设备所需的投入非常高,并不是一般企业所能承受的。可以参考的解决办法,首先是统一建设集中化的算力中心,统一分配,部分头部企业已经开始了这方面的布局。其次便是算力租赁,通过政府搭线,给企业提供优质的、相对廉价的算力,降低企业成本。”王鹏说道。

天使投资人、资深人工智能专家郭涛从通用算力和智能算力的细分角度进行了分析,他表示,当前部分地区已出现通用算力过剩现象,算力租赁可以有效解决算力供需对接问题。不过,当前大模型建设所更需要的是智能算力,智能算力受到智能计算中心建设滞后和高端芯片难以获取等方面影响,市场供给不足,对人工智能相关产业的规模化、普惠化落地产生负面影响。

“算力租赁虽然可以在一定程度上平衡算力需求,但并不能从根本上解决算力稀缺问题。未来,随着大批智能计算中心项目建设运营,有望从根本上解决智能算力瓶颈问题。”郭涛说。

“过去几年以通用算力为主,智能时代尤其ChatGPT时代则以智能算力为主。”杨光指出,解决大模型企业的成本还是要加大智能算力基础设施建设,“北京也正在先行先试建设多个公共智算平台,除了我们位于门头沟的北京昇腾人工智能计算中心外,海淀正在规划北京人工智能公共算力平台,朝阳也在规划北京经济算力中心等。”

(文章来源:北京商报)

关键词: