大模型时代,AI芯片厂商的机遇与挑战
- +1 你赞过了
ChatGPT的推出,可谓一石激起千层浪,不仅引起了人们的广泛关注,更吸引到众多玩家纷纷加入大模型产品的开发阵营。而不断涌现的大模型似猛兽般吞噬着算力,也给AI芯片市场带来了巨大变革。
毫无疑问,2023年是大模型的迸发之年。横空出世的ChatGPT宛如导火索,迅速引燃了大模型的战火。据中国科学技术信息研究院《中国人工智能大模型地图研究报告》显示,从全球已经发布的大模型分布来看,中国和美国研发的大模型数量已经占全球总数的80%以上。其中,截至2023年5月底,国内10亿级参数规模以上基础大模型,至少已发布79个。而且,大模型数量还在快速增加。
算力需求爆发
大模型全称大型语言模型(LargeLanguageModel,LLM),是一类基于深度学习的人工智能模型,可以从海量数据集中获得的知识,可以根据从海量数据集中获得的知识来识别、总结、翻译、预测和生成文本和其他形式的内容。简单来说,大模型具有非常强大的学习和推理能力,可以提升人工智能的识别和预测能力,使之能够更加高效、准确地完成各项任务。
不过,需要指出的是,大模型的训练过程是计算密集型的,并且需要大量的计算能力。大模型训练效率取决于各种因素,如模型大小、训练数据大小、训练迭代次数和用于训练的硬件。通常,模型大小和训练数据越大,就需要越多的计算能力。
值得一提的是,具有超过1750亿个参数的GPT-3.5在微软Azure AI超算基础设施(由V100GPU组成的高带宽集群)上进行训练,总算力消耗约3640PF-days。也就是说,假如每秒计算一千万亿次,计算3640天,需要7至8个投资规模约30亿元、算力为500P的数据中心才能支撑运行。
作为算力的核心引擎,AI芯片的重要性不言而喻。据Transparency Market Research(TMR)研究显示,2021年全球AI芯片组市场估值约为455亿美元,该市场2022年至2031年,复合年增长率可能高达31.8%,到2031年,市场规模可能达到7174亿美元。这表明,AI芯片市场拥有着巨大的潜力和前景。
AI芯片赛道风起云涌
实际上,伴随着大模型的火热,各大科技厂商在AI芯片领域可谓动作不断。根据John Peddie Research的数据,在供应AI芯片方面,英伟达遥遥领先,占有约88%的市场份额。其中,英伟达最新一代AI专用芯片A100和H100已成为抢手货,价格高达数万美元。
作为英伟达的强劲对手,AMD自然也不甘示弱。2023年6月,AMD推出了一款新芯片MI300X,专为大模型和尖端人工智能应用而设计。AMD首席执行官苏姿丰(Lisa Su)表示,AMD正在增加AI相关的研发支出,公司已经制定AI战略,包括AI专用芯片和软件的开发,目标是让AI成为公司的重要增长动力。
今年5月,英特尔公布了将于2025年推出的AI芯片“Falcon Shores”的一些新细节,包括:高带宽内存(HBM3)规格将达到288GB,支持8bit浮点运算。另外,在英特尔2023年二季度财报电话会上,英特尔的CEO帕特・基辛格(Pat Gelsinger)表示,英特尔对AI持非常乐观的态度,并表示英特尔计划在未来制造的每一款产品中都融入AI。
此外,据媒体报道,微软正在开发代号为Athena(雅典娜)的AI芯片,旨在为大模型提供动力。目前微软和OpenAI的员工已经使用这些芯片在GPT-4等大型语言模型上测试性能。
可以说,大模型的不断涌现必将推动新一轮算力需求的爆发,同时也为AI芯片厂商带来了前所未有的机遇。
但与此同时,我们看到,大模型带来的挑战也同样显著。一方面,在芯片制造工艺不断接近物理极限和工程极限的情况下,算力的提升变得越来越困难。另一方面,模型训练除了需要算力支撑外,还会造成大量的能源消耗。例如,OpenAI的GPT-3有1750亿个参数,训练时消耗28.4万千瓦时的能源。相比之下,拥有2500万个参数的计算机视觉模型ResNet-50只需要1500千瓦时的能量来训练。由此可见,大模型的功耗要求远高于其他AI应用。
写在最后:
总而言之,对于AI芯片厂商来说,大模型的快速兴起既是机遇,也是挑战。因此,随着大模型的使用越来越广泛,AI芯片厂商需要不断推动技术的创新和突破,在提升AI芯片性能的同时,最大限度地降低能耗,减少对环境的影响。
最新资讯
热门视频
新品评测