安谋科技:“人工智能+”浪潮下,我们需要怎样的端侧AI“芯”思路?

来源:安谋科技 #安谋科技# #Arm# #端侧AI#
2109

今年以来,DeepSeek、Qwen3等明星大模型不断涌现并迅速普及,AI已成为众多企业发掘业务增量的关键考量。近期Arm《人工智能就绪指数报告》分享了一组数据:逾8成受访企业表示正积极采用AI技术,但仅有29%的企业能够自动扩展计算资源,近半数的企业领导者担心因模型提取而造成的数据隐私泄露。显然,AI技术的真正商业化落地,仍需企业在基础设施、系统安全等方面做足准备。

与此同时,随着“摩尔定律”不断逼近物理极限,依托于制造工艺演进的传统芯片产业逻辑亟待重塑,加之AI计算工作负载的规模与复杂性持续攀升,芯片设计厂商需要在核心技术革新的基础上,进一步加强能效优化、安全架构、软硬件协同、标准化生态构建等系统级创新,以更好地应对“人工智能+”浪潮下的端侧AI创“芯”命题。

对此,Arm《芯片新思维》报告指出,在AI计算任务的推动下,芯片设计正在从“通用计算”向“定制化异构计算”加速跃迁。尤其是面对新一轮的端侧AI趋势,新型芯片需要融合多样化算力,形成“通用计算+专用引擎”的异构架构,并推动以NPU为代表的专用加速器技术演进,为AI PC、AI手机、#机器人、智能汽车、智能穿戴等各类端侧AI场景提供核心算力支撑。

异构计算:融合多元算力,为端侧AI构筑计算基石

类似于人脑的神经分区协作机制,异构计算通过融合不同功能的算力单元,实现多样化计算任务的高效协同处理。针对端侧AI场景,多元异构的SoC解决方案通常是由各类计算单元进行分工协作,例如#CPU 负责任务调度与通用计算,GPU加速图形渲染与并行计算,NPU专攻深度学习推理。同时,异构SoC还可根据特定端侧场景需求进行灵活定制,在降低能耗的同时提升计算性能,实现能效比优化。

凭借低功耗、高性能的独特优势,Arm®计算平台在端侧AI异构计算方案中发挥着底层基石作用。其中,Arm CPU作为广泛应用于各类终端设备的“数字大脑”,不仅承担基础AI推理任务,也是AI加速器的理想搭档,能够高效管理数据流与通用计算任务。此外,Arm架构还支持CPU、GPU与专用加速器的无缝集成,共同组成性能优异的AI计算系统。

作为驱动全球数十亿设备的关键技术,Arm架构在今年4月迎来了诞生40周年里程碑,正构建AI计算的未来。立足Arm架构的领先技术优势与庞大生态系统,安谋科技创新性地将Arm CPU、GPU等通用计算单元,与安谋科技自研业务产品异构融合,打造多元化、高质量、且更符合国内市场需求的异构计算解决方案,全方位赋能本土端侧AI计算革新。

NPU:重塑AI算力标签,加速端侧AI创新落地

NPU主要面向AI领域,是基于神经网络算法进行硬件加速的处理器统称。顾名思义,NPU专门针对神经网络进行设计与优化,擅长标量、向量和张量数学运算,可用于核心#AI 工作负载。由此,NPU也成为了新型AI终端区别于传统设备的核心算力标签。

具体来看,多数NPU采用专用架构,支持并行处理INT4/INT8/FP16低精度计算等大量矩阵运算,在保持模型精度的同时显著降低功耗。相较于GPU,NPU能够实现更加优异的能效比,更契合移动设备对于续航能力及成本的严苛要求。此外,NPU的低延迟特性也更适配于端侧AI推理等计算负载,帮助减少因数据搬运而造成的能耗开销与安全风险。

以安谋科技自研的“周易”NPU为例,历经多年迭代与技术沉淀,该产品线已构建完整的硬件IP和Compass软件平台,涵盖X系列与Z系列的多款产品。其中,即将于年内面世的新一代“周易”NPU专门针对大模型特性优化架构设计,在显著压缩模型体积的同时,保持了高性能推理能力,现已支持Llama、Qwen、DeepSeek等多种主流大模型,可为端侧AI技术普惠提供高效算力支撑。

当前,AI产业沿着生成式AI(Generative AI)、代理式AI(Agentic AI)、物理AI(Physical AI)的发展路径快速演进,以人形机器人为代表的具身智能更是有望成为端侧AI的下一片蓝海。基于此,安谋科技将依托广泛兼容的Arm技术生态,不断深化软硬件协同的标准建立和端侧AI生态建设,携手国内芯片产业伙伴共同助推AI技术的跨越式发展。

责编: 爱集微
来源:安谋科技 #安谋科技# #Arm# #端侧AI#
THE END
关闭
加载

PDF 加载中...