AI算力的三种解决方案:GPU、存算一体和量子计算在激烈竞争

WB3交流加微信:WX-93588,⬅️此处为全站广告位,与正文项目无关
注册并登录App即可领取高达 60,000 元的数字货币盲盒:点击此处注册OKX

财联社5月14日讯(编辑俞琪)随着ChatGPT、百度文心一言等一系列大模型密布上线,AI大模型当下现已遍地开花。

本周四,谷歌发布资深小编PaLM2与OpenAI旗下GPT-4等系统打开竞赛,国内云从科技、引力传媒等多家A股上市公司亦宣布AI大模型产品最新进展。在“AI百模大战”背后,随之带动的算力需求开端呈“爆破式”增长,一场“算力储备战”已暗潮汹涌,全球算力商场继续炽热。

据悉,AI由数据、算法(即模型)和算力驱动,其间恣意一方的发展会推进其他方面需求的增长。有剖析以为,当下行业界尽管拥有更多的数据以及做了更多的AI模型研究,但算力的扩展速度却没有跟上。本年4月,OpenAI就因需求量过大而停止了ChatGPTPlus的销售。对此,东方证券研报以为,首要系核算资源供不应求。

依据数据猜测,AI年代算力的增长已远远超过了摩尔定律每18个月翻番的速率,预计到2030年全球超算算力将到达0.2ZFLOPS,平均年增速超过34%。华为更是猜测,未来10年人工智能算力需求将会增长500倍以上。那么,身处“智能革新”起点的当下,什么才是AI算力的最优解?国内“算力军备竞赛”又走到哪一步了?

短期堆起的GPU竞赛高地:以量制胜筑起大模型算力门槛低配版英伟达GPU国内炒至10万元

众所周知,芯片才能直接影响着高算力练习效果和速度,相较于基于CPU芯片的通用算力,AI所需的智能算力则首要基于GPU、GPGPU及AISC等AI芯片所供给算力,用于人工智能的练习和推理。其间,GPU是一种专门用于处理图形、视频、游戏等高功能核算的硬件设备,凭仗相较于其他硬件在算力方面的较大优势锋芒毕露,同时随着英伟达A100、H100等类型产品的发布,前款产品在AI推理时吞吐量是CPU的249倍。GPU已成为当前AI算力的中心硬件。

中金公司研报表明,多GPU互联才能加强可以进步并行核算才能,因而算力进步对GPU数量的要求日益进步。随着单GPU的核算才能越来越难以应对深度学习对算力的需求,英伟达现已开端用多个GPU去解决问题。对此,业界剖析以为,高端GPU的数量基本决议了一个厂商可以练多大的模型,后期将成为业界判断企业大模型才能的重要目标。

据TrendForce数据显现,如果以英伟达A100显卡的处理才能核算,GPT-3.5大模型需要2万块GPU来处理练习数据。亦有业界公认看法,做好AI大模型的算力门槛是1万枚A100芯片。

目前,全球GPU商场首要由英伟达、英特尔和AMD三家巨头独占,去年Q4独立GPU比例分别为

此时快讯

【Rocket_Pool的rETH在7月24日发生最大单日赎回】金色财经报道,据21Shares母公司21co链上分析师Tom Wan在社交媒体披露数据显示,Rocket_Pool的rETH在7月24日发生单日最大赎回,燃烧了67.2万枚rETH;随后他将7100枚ETH(1310万美元)发送至币安

版权声明:本文收集于互联网,如有侵权请联系站长删除。
转载请注明:AI算力的三种解决方案:GPU、存算一体和量子计算在激烈竞争 | 币百度

相关文章