智东西(公众号:zhidxcom)
作者 | 云鹏
编辑 | 李水青

智东西(xi)(xi)11月29日报(bao)道,今天Arm在北(bei)京举办(ban)了(le)年度技术大会,会后智东西(xi)(xi)与少数业内媒(mei)体一起(qi)与Arm高(gao)级副总裁兼基础设(she)施事业部总经理Mohamed Awad等高(gao)管进(jin)行了(le)面(mian)对(dui)面(mian)深度交流。

Awad在沟通(tong)会上首先对上午(wu)演讲中(zhong)的(de)(de)重点信息进(jin)行了总结(jie),他的(de)(de)一(yi)个观(guan)点令人印象深刻,在AI新(xin)时代,Arm要做的(de)(de)并不(bu)是打造一(yi)个“完(wan)美的(de)(de)架构”,而是为更多企(qi)业的(de)(de)创新(xin)提供一(yi)个更好的(de)(de)“平(ping)台”,厂商们基于Arm架构可以(yi)设计出更多出色(se)的(de)(de)芯片产品,例如英伟达(da)的(de)(de)GH200 Grace Hopper。

对话Arm高级副总裁:AI大模型带来“计算”新挑战,架构灵活性、生态是关键

AI大模型是(shi)当下科技(ji)产业讨(tao)论中避不开的(de)一个(ge)话题(ti),Awad说,AI技(ji)术发(fa)展太(tai)快(kuai)了,我们每次讨(tao)论的(de)内容都可能(neng)不一样,在他看来(lai),AI领域(yu)最大的(de)挑战(zhan)之(zhi)一就是(shi)内存(cun)带宽(kuan),解决这样的(de)挑战(zhan)需要新的(de)系(xi)统(tong)架(jia)构,提高(gao)内存(cun)一致性。系(xi)统(tong)架(jia)构的(de)灵活性、强大的(de)生态系(xi)统(tong)至关(guan)重要,这些都是(shi)满足AI大模型发(fa)展需求的(de)关(guan)键。

目前(qian),从(cong)最小的设备到(dao)最大的数据中心,AI将会无处不在,每(mei)个涉及计算的领域都需要(yao)更多算力、更多加速能(neng)力。对于Arm而(er)言,这是(shi)巨大的机会。

最近智(zhi)能手机、PC等产品都在(zai)向生成式AI靠拢(long),比如提(ti)(ti)出(chu)AI PC的(de)(de)概念,Arm作为底(di)层芯(xin)片技术提(ti)(ti)供商,对此是(shi)如何思考和布局(ju)的(de)(de)?AI大模(mo)型会(hui)给移动(dong)芯(xin)片生态带来哪(na)些变化(hua)?

对于智东西提(ti)出(chu)的这些(xie)问题,Awad给(ji)出(chu)了自己的看法,他提(ti)到,AI大模型的训练(lian)更多会发(fa)生(sheng)在云端(duan),而推理(li)过程则会发(fa)生(sheng)在各(ge)个节点,从端(duan)侧设备到云端(duan)。

从提升(sheng)计算(suan)性能的角度来看(kan),实现(xian)软硬件的紧密耦合是必须的,包括CPU、NPU、GPU,整个计算(suan)系统(tong)。系统(tong)中的各个器件都(dou)不是孤(gu)立的。

对于云巨头自研(yan)芯片的(de)产(chan)业趋势,Awad认为,五年以前(qian),在(zai)基础设施建设方面,厂商会购(gou)买预(yu)配置好的(de)芯片,购(gou)置服务器,但如今(jin)云计算巨头都在(zai)自研(yan)芯片。

云巨(ju)头自研的(de)(de)(de)目(mu)(mu)的(de)(de)(de)并不只是为了降低成本,其最主要的(de)(de)(de)目(mu)(mu)的(de)(de)(de)是把每一颗芯片的(de)(de)(de)性能(neng)、效能(neng)做到极致(zhi),根据(ju)自己的(de)(de)(de)工作(zuo)负载(zai)、围绕自己的(de)(de)(de)数据(ju)中(zhong)心(xin)进行个(ge)性化定制。正因为有这样的(de)(de)(de)优化,他们(men)才越(yue)来越(yue)不惧怕日益增长的(de)(de)(de)数据(ju)处理需求,从而(er)为“GPTs”时代(dai)做好准备。

在基础(chu)设施建设领域,Arm Neoverse计算子系统(CSS)的(de)(de)(de)(de)核(he)心(xin)优势是可(ke)以提供(gong)“预集成”,比如配置64核(he)芯(xin)片和互联(lian)模块的(de)(de)(de)(de)产品,亚马逊AWS对芯(xin)片物理(li)层的(de)(de)(de)(de)配置做了(le)一些改变,这(zhei)些意味着需要做很多工(gong)作,例如I/O接口加速,而(er)Arm的(de)(de)(de)(de)CSS已(yi)经将这(zhei)些基础(chu)工(gong)作做完(wan)了(le)。

对话Arm高级副总裁:AI大模型带来“计算”新挑战,架构灵活性、生态是关键

对(dui)于Arm的合作伙伴来说,厂商有很多选(xuan)择(ze),比如(ru)选(xuan)择(ze)开(kai)箱即(ji)用的方(fang)案,或者(zhe)使用芯粒、离散IP等方(fang)案。

在沟通后的(de)(de)参观环节,我们看(kan)到基(ji)于(yu)Arm的(de)(de)云实例(li)相比基(ji)于(yu)x86的(de)(de)云实例(li)在性能和成本上(shang)都有(you)比较(jiao)明(ming)(ming)显的(de)(de)优势,在芯片EDA设(she)计(ji)、视频编解码等应用场(chang)景中优势比较(jiao)明(ming)(ming)显。

对话Arm高级副总裁:AI大模型带来“计算”新挑战,架构灵活性、生态是关键

结语:构建AI时代的“基础设施”,生成式AI加速Arm生态成长

在交流中(zhong),我们能看到(dao)Arm对于自(zi)身在AI新(xin)时代(dai)的(de)(de)机遇和挑战都有比较(jiao)清晰的(de)(de)认识(shi),同时Arm给(ji)自(zi)己在产(chan)业中(zhong)的(de)(de)定位(wei)似(si)乎更倾(qing)向于底层平台提供方,类似(si)AI时代(dai)的(de)(de)“基础(chu)设施”建设者(zhe),基于自(zi)身硬件、软件、生态层面的(de)(de)优势技术,赋能芯片厂商。

面向未来(lai)的(de)AI大模型时代,例如高通、联发(fa)科等(deng)移动芯(xin)片(pian)(pian)厂商,微软、亚马(ma)逊等(deng)云(yun)巨头都在芯(xin)片(pian)(pian)领域有更多新(xin)(xin)的(de)布(bu)局,生成(cheng)式AI在移动芯(xin)片(pian)(pian)、服(fu)务(wu)器(qi)芯(xin)片(pian)(pian)市场(chang)也掀(xian)起了新(xin)(xin)的(de)技术革(ge)新(xin)(xin)浪潮,Arm生态无疑会继续加速成(cheng)长。