芯东西(公众号:aichip001)
作者 |  ZeR0
编辑 |  漠影

9月17日,由(you)智(zhi)一科技(ji)旗下智(zhi)猩(xing)猩(xing)联(lian)合芯东(dong)西举办的2025全球AI芯片(pian)峰会(GACS 2025)在上(shang)海举行,在峰会大模型AI芯片(pian)专题(ti)论(lun)坛(tan)上(shang),爱芯元智(zhi)联(lian)合创始人、副(fu)总(zong)裁刘建(jian)伟以(yi)《以(yi)高(gao)智(zhi)价比AI芯片(pian)重(zhong)构“云-边-端”算力格(ge)局》为主题(ti)发表演讲(jiang)。

爱(ai)芯元(yuan)智联(lian)合创始(shi)⼈、副(fu)总裁刘建伟分享(xiang)道,过(guo)去(qu)端侧AI芯片主要跑传(chuan)统(tong)CNN模型(xing),场景明确,大模型(xing)的兴起(qi)则提升了AI上限(xian),应用场景更广泛,有望引发成(cheng)本驱动型(xing)生(sheng)产力革命。

在他看来,当AI程(cheng)序规模(mo)足够大时,现有(you)运行架(jia)构不是(shi)最高(gao)效的,值得重新设(she)计(ji)适合跑AI程(cheng)序的原生(sheng)处(chu)(chu)理器(qi)。端侧和边侧长期受(shou)成本、功耗刚性(xing)约束,对高(gao)能效比AI处(chu)(chu)理器(qi)需求迫切。这驱使爱(ai)芯(xin)元智选择从端侧和边缘(yuan)侧入手做AI基(ji)建。

设计原生AI处(chu)(chu)理器,需关注算(suan)子指令集(ji)和数据(ju)流(liu)DSA架(jia)构(gou),两者相辅(fu)相成(cheng)。采(cai)用可(ke)(ke)编(bian)程(cheng)数据(ju)流(liu)微架(jia)构(gou)可(ke)(ke)提升能效比。异构(gou)多核处(chu)(chu)理器要保(bao)证由硬件来调度,以降低(di)客户(hu)开发与使(shi)用成(cheng)本。

爱芯元智推(tui)出的原生(sheng)AI处理器以极致Token/$效(xiao)益(yi)、显著能效(xiao)优势,支持智能任务高效(xiao)运行,为客户提供符(fu)合经济原则的算力基建(jian)。该AI处理器已(yi)完(wan)成高、中、低的完(wan)整(zheng)算力布(bu)局,并已(yi)在多个领域实现规模化(hua)量产,能效(xiao)比传统GPGPU提升了一(yi)个数量级,适用于加速以文搜图、通用检测、以图生(sheng)文、AI Agent等(deng)应(ying)用。

同(tong)时,爱芯(xin)元智(zhi)已打造(zao)了从工(gong)具链到芯(xin)片(pian)的完整软硬(ying)件(jian)体系,与(yu)合作伙伴一起推动(dong)构建边(bian)缘智(zhi)能(neng)共(gong)同(tong)体。

以下为刘建伟的演讲实录:

大(da)家(jia)好,我是来自爱芯(xin)元智的刘建伟,今天给大(da)家(jia)分(fen)享一下我们(men)这(zhei)几年做算(suan)力芯(xin)片的一些体会(hui)。

今天的(de)主(zhu)题(ti)是以高智价比的(de)AI芯片来重构云边端的(de)算力(li)格局,题(ti)目里包含云,但爱芯元智还是专(zhuan)注(zhu)在边和端,我们重点(dian)讲一下端侧(ce)和边缘侧(ce)芯片。

一、做AI算力芯片六年,锚定成本驱动的生产力革命

首(shou)先介绍爱芯(xin)元(yuan)智(zhi)是做(zuo)什么的(de),以及我们的(de)定(ding)位。爱芯(xin)元(yuan)智(zhi)做(zuo)边端AI算(suan)力芯(xin)片,提供算(suan)力,某种程度上(shang)就是基建。最终要把这样(yang)一(yi)(yi)颗(ke)算(suan)力芯(xin)片用在(zai)端侧和边缘,一(yi)(yi)定(ding)要深(shen)入到客户(hu)场景(jing)或(huo)千家(jia)万户(hu),在(zai)具体(ti)场景(jing)里面(mian)去解决(jue)客户(hu)或(huo)家(jia)庭具体(ti)的(de)问题。

在这种(zhong)情况下,爱(ai)(ai)芯元(yuan)智就是最下面(mian)(mian)的(de)(de)(de)(de)底座(zuo)。这个倒(dao)三角,一方面(mian)(mian)表明爱(ai)(ai)芯元(yuan)智处(chu)于(yu)整个产业链的(de)(de)(de)(de)最下面(mian)(mian),同时也(ye)表明产业的(de)(de)(de)(de)产值越往上越大(da),需要的(de)(de)(de)(de)生态伙(huo)伴(ban)越大(da)。

爱芯元智提供的芯片(pian)之上,首先有生态合(he)作(zuo)伙(huo)伴,包括基于(yu)芯片(pian)来做一(yi)些具体的硬件、板卡、计算盒(he)、一(yi)体机等等。

再往上可能(neng)(neng)是(shi)由产业或(huo)算法的合作伙伴,能(neng)(neng)够把(ba)基于我们芯(xin)片、硬件做(zuo)成具体(ti)有功能(neng)(neng)的产品,最终还(hai)有各式各样的代理或(huo)渠道能(neng)(neng)够把(ba)它(ta)落(luo)到(dao)千家万户、具体(ti)场景里。

最终希望能够基于爱芯元智的(de)芯片(pian)底座,或是算力基建底座,构建一个边(bian)缘和端侧的(de)智能共同(tong)体(ti),把我们(men)所有AI相关(guan)的(de)东西落在(zai)具体(ti)场景里。

如何看待(dai)AI的这件事?爱(ai)芯(xin)元智(zhi)做(zuo)AI算(suan)力芯(xin)片,已经(jing)做(zuo)了6年。

可能今年(nian)或(huo)去年(nian)之前,端侧AI芯片跑的(de)模型更多的(de)是传统CNN相关。CNN模型本身由(you)于(yu)天(tian)花板比(bi)(bi)较(jiao)低,所以落地场景相对明确,比(bi)(bi)如(ru)刷脸、智(zhi)慧交通、安防等等。

但是(shi)大(da)模型的(de)兴起能(neng)够(gou)把(ba)AI能(neng)力的(de)上(shang)限拉得非常高,能(neng)把(ba)很多场景(jing)中需要更加智能(neng)的(de)东西用大(da)模型的(de)方式来提供。

在(zai)这(zhei)(zhei)种情况下,最终AI表(biao)现(xian)就是一(yi)(yi)个(ge)稳定可靠的(de)智(zhi)能基(ji)(ji)建,会(hui)像水(shui)和电一(yi)(yi)样(yang)这(zhei)(zhei)么普遍。最终,在(zai)各(ge)行各(ge)业里面落地时,就像今天手机上的(de)各(ge)个(ge)App,一(yi)(yi)定是能够通过大模型(xing)把(ba)这(zhei)(zhei)样(yang)一(yi)(yi)个(ge)算力基(ji)(ji)建变(bian)成(cheng)一(yi)(yi)个(ge)智(zhi)能基(ji)(ji)建。

为什么我们会说这可能是一个成本驱动的(de)(de)生产力革命呢?打一(yi)个简单的(de)(de)比方,大模型在端侧(ce)(ce)和(he)边缘侧(ce)(ce),如果落(luo)地(di),某种程度上就相当于(yu)把(ba)一(yi)个人类专家装到(dao)了一(yi)个盒子(zi)里。

比如今天大(da)家(jia)讲智(zhi)能(neng)(neng)(neng)驾驶,可能(neng)(neng)(neng)希望的目标是车上的智(zhi)能(neng)(neng)(neng)驾驶能(neng)(neng)(neng)够像(xiang)一个人类老司机(ji)一样能(neng)(neng)(neng)够安全,舒适(shi)地把我从A点(dian)送到B点(dian)。

比如(ru)在厂房里,我们希望有一个像老专家(jia)一样的能(neng)够监测产线的的工(gong)作、生产情(qing)况。

比如在农业中,有(you)各种农业的机器,我希望有(you)一个老专(zhuan)家放进去,他能(neng)够很清晰的分辨出我这个地(di)(di)里面哪些(xie)是杂草,从(cong)而更精准地(di)(di)除草,或者在丰收时(shi),采(cai)摘机器能(neng)够很清晰地(di)(di)分辨出果子的成熟度、品级(ji)。

这(zhei)个(ge)(ge)(ge)盒子其实就变成(cheng)(cheng)了一(yi)个(ge)(ge)(ge)标准制造业(ye)的(de)商品。大(da)家都知道,国(guo)内制造业(ye)是非常先进的(de)。一(yi)旦这(zhei)个(ge)(ge)(ge)东西变成(cheng)(cheng)了一(yi)个(ge)(ge)(ge)制造业(ye),它(ta)一(yi)定会规模化、低成(cheng)(cheng)本地生产产出,可以应用到千行百业(ye),大(da)幅提高各行各业(ye)的(de)生产效(xiao)率。

从这个(ge)角度,我们认(ren)为AI就是这样一个(ge)基(ji)建,最终会引发一场成本驱动型(xing)的(de)生(sheng)产力革命(ming)。

我(wo)个人对(dui)这(zhei)件事情是(shi)非常(chang)乐观的,我(wo)相信可能五到十年内(nei),我(wo)们(men)生活中用到的各(ge)(ge)式各(ge)(ge)样的东西都会变(bian)得极其便(bian)宜,或者是(shi)这(zhei)种可获得性会变(bian)得非常(chang)强(qiang)。

二、从端边入手做AI基建,打造高能效比AI处理器

AI的应(ying)用会这么(me)广,AI的应(ying)用潜力(li)这么(me)大,那(nei)么(me)我们如何来(lai)加(jia)速AI?或者AI基建该如何来(lai)做?

我(wo)们的(de)观点是(shi),正是(shi)因(yin)为AI应用(yong)越来越广。所(suo)以(yi)我(wo)们跑(pao)AI程序(xu)所(suo)需要(yao)的(de)硬件基础,一定值得我(wo)们重新做一个(ge)最适(shi)合跑(pao)AI程序(xu)的(de)原生AI处理器(qi)。

我们可以从历史的发(fa)展中获得一些启发(fa)。比(bi)(bi)如(ru)从CPU到GPU,最开始图(tu)形(xing)图(tu)像(xiang)类(lei)程序可以在CPU上跑,但为什(shen)么(me)会(hui)出现GPU?就(jiu)是因(yin)为图(tu)形(xing)图(tu)像(xiang)这类(lei)程序有自身的一些特点,举例(li)来讲,相对于原来在CPU上跑的控制程序,计算比(bi)(bi)例(li)会(hui)变得非常高(gao)。

这(zhei)时你会发现,用CPU来跑图(tu)(tu)形(xing)图(tu)(tu)像类的(de)(de)(de)程序,不是最经济的(de)(de)(de),但是图(tu)(tu)形(xing)图(tu)(tu)像这(zhei)类程序的(de)(de)(de)规模又足够大时,我(wo)们(men)就(jiu)值得为(wei)图(tu)(tu)形(xing)图(tu)(tu)像类的(de)(de)(de)程序设(she)计一个原(yuan)生的(de)(de)(de)、最高(gao)效的(de)(de)(de)处理器。GPU就(jiu)是这(zhei)么来的(de)(de)(de)。

同样,今天大家跑AI程序,在云侧用的都是GPU或GPGPU架构,在端侧和边缘侧可能也是有不同的,但我们可以从历史中得到相似的启发,就是说当AI程序品类足够大时,GPU不是最高效的运行方式,可以做出一些改变,我们可以从头设计一颗新的处理器。

这也(ye)是(shi)为什么爱芯元智选择从端侧(ce)和边(bian)缘侧(ce)入手来做AI基建。

因为在云侧,大家可(ke)能(neng)对成本的要求一(yi)(yi)开(kai)始相对不是那么特别重(zhong)视(shi),比如云侧以(yi)训(xun)(xun)练为主,训(xun)(xun)练逻辑一(yi)(yi)定是能(neng)不能(neng)把模(mo)型训(xun)(xun)出来,这是第一(yi)(yi)要义。当然,今天云侧推理业务也越(yue)来越(yue)重(zhong),大家关(guan)注的是100万(wan)个token能(neng)卖多(duo)少钱?这时已经开(kai)始关(guan)注成本。

但是在端侧和边缘(yuan)侧,从几年前我(wo)们要把AI或(huo)智能落地时,成本的约(yue)束,它(ta)就是刚(gang)性的功耗约(yue)束。所以在端侧和边缘(yuan)侧,我(wo)们做(zuo)了(le)一个能效比最高AI处理器,它(ta)是有很强的商(shang)业驱动的。

三、原生AI处理器,怎么做?

原生AI处理器,我们怎么来做呢?

首先,我(wo)们来(lai)看AI计算程序(xu),我(wo)们AI的程序(xu)都可(ke)以(yi)(yi)拿这(zhei)样(yang)一个(ge)数据(ju)流或计算图来(lai)表(biao)(biao)示(shi)。我(wo)们把各个(ge)网(wang)络(luo)拼起来(lai),都可(ke)以(yi)(yi)用这(zhei)样(yang)一个(ge)抽象的计算图来(lai)表(biao)(biao)示(shi)。

在(zai)这(zhei)张计算图里可(ke)以看到,基本运(yun)算单元就可(ke)以抽象为算子(zi),比如矩阵乘法(fa)、各种激(ji)活函数、向量(liang)reduce操作等,这(zhei)些(xie)都(dou)可(ke)以当(dang)成最基本的算子(zi),算子(zi)所处(chu)理的输入(ru)输出就是这(zhei)样一个(ge)高(gao)维的tensor。

这样我(wo)们就可(ke)(ke)以把(ba)(ba)算子作为(wei)处理(li)(li)器的(de)(de)(de)(de)指令集来看待。这个指令集的(de)(de)(de)(de)输(shu)入输(shu)出(chu)就是(shi)tensor。一个很(hen)直观(guan)的(de)(de)(de)(de)感受(shou)是(shi),tensor的(de)(de)(de)(de)维度(du)比(bi)(bi)图形图像程序里的(de)(de)(de)(de)矩阵维度(du)高很(hen)多,它的(de)(de)(de)(de)维度(du)可(ke)(ke)能是(shi)几(ji)千(qian)(qian)乘(cheng)几(ji)千(qian)(qian)乘(cheng)几(ji)千(qian)(qian),这要(yao)求我(wo)们设计(ji)处理(li)(li)器时一定要(yao)把(ba)(ba)tensor的(de)(de)(de)(de)计(ji)算的(de)(de)(de)(de)能耗(hao)占比(bi)(bi)提上去,而尽量降低数据(ju)搬运的(de)(de)(de)(de)能耗(hao)。

我们来看(kan)英伟达GPU里(li)为什么会不断加入tensor core?tensor core的计(ji)算维度(du)会不断变(bian)大,本质原因(yin)都是如(ru)果(guo)要跑AI,我们就要把程序运行时(shi)的能量消耗放在正(zheng)确的地方(fang),这个正(zheng)确的地方(fang)就是计(ji)算,而不是数据搬运。

我们如何评价这样(yang)一个(ge)处理器?

在云侧,大家目前评价的方式是(shi)每百万个token,我尽量卖(mai),那就是(shi)成本要降下来。换算过来,就是(shi)同(tong)样(yang)的钱,我要买到更(geng)多(duo)的性能、更(geng)多(duo)的token。

比(bi)如对于AI视频处(chu)理,每秒钟或(huo)是每花一(yi)块钱能处(chu)理多(duo)少(shao)帧?这是客户最(zui)(zui)关心的(de)(de),因为它与效果相关的(de)(de),至(zhi)于中(zhong)间(jian)(jian)(jian)提到的(de)(de)过往大(da)家看到的(de)(de)一(yi)些(xie)中(zhong)间(jian)(jian)(jian)的(de)(de)数字,说(shuo)有(you)多(duo)少(shao)token、我每瓦有(you)多(duo)少(shao)T,这些(xie)其实都是一(yi)些(xie)中(zhong)间(jian)(jian)(jian)的(de)(de)评估,跟最(zui)(zui)后还是有(you)一(yi)段(duan)距离。

当然这个成本里(li)面(mian)也包括两块:

一块(kuai)是(shi)显性的(de)成本,比如(ru)说我搭基建(jian)时,买硬件(jian)、买算(suan)力(li)基建(jian),花了多少钱(qian)。

还有一些隐性(xing)(xing)成(cheng)本(ben),就是(shi)硬(ying)件买回来后,把它用起来,要投(tou)入多(duo)少的研(yan)(yan)发(fa)人力,这个(ge)研(yan)(yan)发(fa)人力牵扯到整个(ge)软件栈或工(gong)具链做的好不好用,要开发(fa)多(duo)久才能(neng)把这个(ge)应(ying)用跑(pao)起来,才能(neng)把性(xing)(xing)能(neng)跑(pao)得很好。

另外(wai)最关(guan)键的是(shi)能效(xiao)比(bi)是(shi)什么样,能不能把能源消耗、电(dian)费降(jiang)下来。

最终,我们要设计这样一个AI处理器,第一点就是算子指令集,另一点是数据流DSA微架构,这两点是相辅相成的。也就是说,只有能够(gou)抽象出算(suan)子(zi)的指令集(ji),才能满足用户对于跑AI程序的灵(ling)活性。

可以看(kan)到,今天(tian)AI算(suan)法进步还(hai)是(shi)比较(jiao)快(kuai)的(de)(de)。如(ru)果(guo)(guo)把它(ta)分拆来看(kan),指(zhi)令是(shi)相(xiang)(xiang)对稳(wen)定的(de)(de),但(dan)是(shi)模(mo)型结构会(hui)发生变化(hua),如(ru)果(guo)(guo)和(he)CPU对比的(de)(de)话,就相(xiang)(xiang)当(dang)于,程序结构会(hui)发生变化(hua),但(dan)指(zhi)令集是(shi)相(xiang)(xiang)对稳(wen)定的(de)(de)。

也就是说,我(wo)们抽(chou)象出算(suan)子(zi)指令集,是为了保(bao)证对AI推(tui)理程(cheng)序支持的(de)灵活(huo)性,或者叫快速部署。

第二点是,只有(you)把指令集从传统处理器的微指令拉升(sheng)到了算子(zi)这样一个相对(dui)宏观(guan)的指令时,在(zai)算子(zi)指令集之下,我们才能够采用这种可编(bian)程数据流微架构来把能效(xiao)比做得(de)很好。

举例来讲,比如跑一个Transformer的模型,用我们的这样一个处理器去跑,和用这个英伟达GPGPU架构来跑,在能效比方面,我们可以有一个数量级的提升

我们是这(zhei)样一(yi)个异(yi)构(gou)多核(he)的处理(li)器,不同的核(he)来处理(li)不同的计算单元(yuan),也有(you)专门数据(ju)搬运的,就像(xiang)SDMA,用来做数据(ju)搬运,为了保证数据(ju)搬运和(he)计算能够一(yi)步做并行。

我(wo)们(men)从一开(kai)(kai)始设计时,原生AI处理器要求(qiu)就是这样。我(wo)们(men)应该一步(bu)从最开(kai)(kai)始出发,而(er)不是在(zai)原有的体系里修(xiu)修(xiu)补补。

另外(wai),还有一(yi)(yi)点(dian)是(shi)要(yao)能够保证异构多核的(de)(de)调度(du)(du)是(shi)由(you)硬(ying)(ying)件来(lai)做的(de)(de)。也就(jiu)是(shi)说,当我一(yi)(yi)个完(wan)整的(de)(de)网络或者几个网络拼起来(lai)的(de)(de)一(yi)(yi)个数据计算(suan)图,这样一(yi)(yi)个业(ye)务线或是(shi)业(ye)务流,只要(yao)能够编译到我的(de)(de)处理器上,它们之(zhi)间就(jiu)是(shi)完(wan)整的(de)(de)程(cheng)序,是(shi)不需要(yao)CPU来(lai)参与的(de)(de)。所以各个核之(zhi)间的(de)(de)配合,数据之(zhi)间的(de)(de)流动或依赖性(xing)完(wan)全是(shi)由(you)硬(ying)(ying)件调度(du)(du)器来(lai)完(wan)成的(de)(de),这样能大幅度(du)(du)降(jiang)低将(jiang)来(lai)客户使用或开发的(de)(de)成本。

软件方面(mian),我们会(hui)有(you)(you)完整(zheng)的(de)工具(ju)链,从最底层runtime还有(you)(you)提(ti)供(gong)给客(ke)户的(de)可(ke)以(yi)观(guan)测调试(shi)、可(ke)以(yi)性能调优(you)的(de)工具(ju),包括我们的(de)DSA,也就是指令(ling)集。

我(wo)们(men)也会把(ba)它开源出来(lai)。网上有我(wo)们(men)自己(ji)写(xie)的(de)开源出来(lai)的(de),也有我(wo)们(men)合作伙(huo)伴建立(li)的(de)、面向(xiang)各(ge)行各(ge)业或具体应用(yong)来(lai)写(xie)的(de)各(ge)式各(ge)样加速库,比如(ru)面向(xiang)汽车、音(yin)频,甚至是面向(xiang)具体应用(yong)的(de)demo。

我(wo)们(men)(men)会在(zai)整(zheng)个软件栈上和(he)开(kai)源世界的(de)像PyTorch、跑大模型(xing)的(de)SGlang/vLLM的(de)框(kuang)架(jia)去完成对接,这(zhei)样客(ke)户(hu)拿到基于我(wo)们(men)(men)芯片做(zuo)(zuo)的(de)东西后,拿到的(de)是一套(tao)(tao)完整(zheng)的(de)解决方案,如果自己(ji)(ji)有能力,也可(ke)以从我(wo)们(men)(men)整(zheng)套(tao)(tao)解决方案中的(de)某(mou)一层来切进来,去做(zuo)(zuo)自己(ji)(ji)的(de)私有化部署和(he)使用。

结语:构建边缘智能共同体,加速AI普惠

从硬件(jian)层(ceng)丰富(fu)性(xing)来讲(jiang),爱(ai)芯(xin)元(yuan)智提供芯(xin)片(pian),但基于爱(ai)芯(xin)元(yuan)智的芯(xin)片(pian),会有板卡、边缘(yuan)盒子、服务器等来自合作(zuo)伙伴的产品。

最(zui)终(zhong),我们希望,基于爱(ai)芯元智的算力(li)基建,能(neng)构建从芯片到最(zui)终(zhong)应(ying)用的边缘智能(neng)共同体。所以我们也会在我们的客户(hu)或市场(chang)推广时,把合作(zuo)伙(huo)伴(ban)的产品(pin)一起来做(zuo)推广。

目前我们已经(jing)量(liang)产的(de)芯(xin)片上能跑这(zhei)样一(yi)些AI应用,有CNN的(de),也有大(da)模型的(de)。例如做(zuo)通用检测、以(yi)文(wen)(wen)搜图、图文(wen)(wen)互搜、以(yi)图生文(wen)(wen)等。

图文理解(jie)就(jiu)是大模型能对一张(zhang)图片做(zuo)一些(xie)摘要性的(de)东西。使用场景(jing)很多,比(bi)如在一些(xie)座舱(cang)或家庭(ting)教(jiao)育方面。

大家可能听过一(yi)些,拍摄到一(yi)朵花就能够介绍这个花是(shi)什么等。这其实就是(shi)以图(tu)生(sheng)文。

今天在端侧(ce)和边缘(yuan)侧(ce),也(ye)可以用到(dao)具身(shen)智(zhi)能(neng)上,做一些人机交互。我们能(neng)把千问(wen)和DeepSeek跑在端侧(ce)和边缘(yuan)侧(ce)。

做视频理解(jie)是一(yi)件挺有意(yi)思的(de)事情。比(bi)如,高(gao)速(su)公路上最容易发生(sheng)车祸的(de)时候是有人开倒汽车,这(zhei)需要多帧连续的(de)视频理解(jie)。如果我们能(neng)够把视频理解(jie)大模型用在高(gao)速(su)上,是能(neng)够降低整个高(gao)速(su)事故发生(sheng)率(lv)的(de)。

我们的(de)芯(xin)片能(neng)够用自动驾驶(shi)、智能(neng)座舱方(fang)面(mian),我们芯(xin)片和摄像头以及毫米波雷达能(neng)够模拟这(zhei)种(zhong)激光雷达的(de)效果。

这些应用只是一些简单的(de)demo,想表达的(de)是通过加速在端侧和(he)边缘侧的(de)AI大模型落地来推动生(sheng)产力(li)革命,这件事情一直在发生(sheng),而且会是在逐渐加速的(de)。

最终,介绍一(yi)下爱(ai)芯(xin)元智的愿(yuan)景,我(wo)们(men)希望(wang)能够通过爱(ai)芯(xin)提(ti)供(gong)的算力基建,和我(wo)们(men)的合作伙伴一(yi)起,能够把AI做得更普惠,让我(wo)们(men)的生活(huo)变得更美好。

谢谢大家。

以上是刘建伟演讲内容的完整整理。