开放一周内抢注一空!ChatGPT带火AI算力服务,算力霸权时代来了?

 人参与 | 时间:2023-03-20 23:23:54

《科创板日报》2月14日讯(编辑 郑远方)写诗、编程、聊天互动……打着“AI聊天机器人”名头的ChatGPT,集成了多种功能,也一跃成为史上月活用户数增长最快的消费者应用。ChatGPT的爆火,也让人们注意到了AI应用背后庞大的算力需求与挑战。

中科曙光便表示,截止2月12日,曙光智算公司提供用于AI训练与推理计算的试用资源,在开放使用后一周内已被抢注一空。通常情况下,这些计算资源要三个月左右才能被用户注册并使用。目前,曙光智算正协调多个计算中心,提供更多算力资源满足用户需求。

而在上周,浪潮信息也宣布推出AI算力服务产品,基于智算中心的算力基础设施,客户可申请AI算力免费试用。

实际上,以ChatGPT为首的生成式AI开发主要依托于大模型技术,这就离不开算力支撑。而在算力基建中,除了芯片之外,AI服务器、AIDC等专用数据中心建设也同样必不可少

就在2月13日,北京市宣布,将支持头部企业打造对标ChatGPT的大模型。同日北京昇腾人工智能计算中心正式点亮,并与首批47家企业和科研单位签约。该中心一期算力规模达100P,短期算力规模将达500P,远期将达1000P,可为企业和科研单位等提供AI算力服务。

的确,AI对算力的需求已不能仅仅用“快速”来形容——据ChatGPT开发公司OpenAI 研究,2012-2018年,最大的AI训练的算力消耗已增长30万倍,平均每3个多月便翻倍,速度远远超过摩尔定律。

另据《2022-2023 中国人工智能计算力发展评估报告》,2022年我国智能算力规模已达268百亿亿次/秒(EFLOPS),超过通用算力规模。预计未来5年,中国智能算力规模年复合增长率将达52.3%。

image

图|人工智能算法计算量发展趋势(来源:中信建投)

生成式AI的开发需要基于海量的自然语言或多模态数据集,对拥有巨大参数的超大规模模型进行训练。要成功训练出更大参数、更高精度、更高能力的大模型,不仅需要巨量的高性能AI算力进行支撑,还需要依托精心清洗获得的高质量海量数据集,同时还需要有高效的系统平台来保障长时间的模型训练过程。

以OpenAI的GPT-3模型为例,其存储知识的能力来源于1750亿参数,训练所需算力高达3640PFLOPS-day,单次训练费用约460万美元,而ChatGPT及未来GPT-4模型训练成本将更高。当前,微软Azure云计算中心为ChatGPT提供算力支撑,单次训练成本超过千万美元

华泰证券2月13日报告也指出,以GPT模型为代表的AI大模型训练,需要消耗大量算力资源,随着国产大模型开发陆续进入预训练阶段,算力需求持续释放或将带动算力基础设施产业迎来增长新周期。未来拥有更丰富算力资源的模型开发者,或将能够训练出更优秀的AI模型,算力霸权时代或将开启。

正如上文提到的,算力基础设施产业链主要可以分为三个环节:

(1)算力芯片:GPU采用数量众多的计算单元和超长的流水线,架构更适合进行大吞吐量的AI并行计算,相关厂商包括景嘉微、寒武纪、海光信息、龙芯中科、中国长城等;

(2)服务器:ChatGPT模型训练涉及大量向量及张量运算,AI服务器具备运算效率优势,大模型训练有望带动AI服务器采购需求放量,相关厂商包括浪潮信息、中科曙光等;

(3)数据中心:IDC算力服务是承接AI计算需求的直接形式,随着百度、京东等互联网厂商相继布局ChatGPT类似产品,核心城市IDC算力缺口或将加大,相关厂商有宝信软件等。

顶: 61994踩: 88