1.韩企DeepX宣布将采用三星2nm工艺生产下一代端侧生成式AI芯片;
2.苹果M5芯片推迟到2026年发布,将采用先进LMC封装技术;
3.高通:OpenAI最小开源模型gpt-oss-20b可在骁龙终端设备上运行;
4.消息称苹果iPhone 18系列将首搭2nm芯片A20,转向WMCM封装;
5.博通9成市占反守为攻,捍卫龙头宝座!掌握AI交换器话语权;
1.韩企DeepX宣布将采用三星2nm工艺生产下一代端侧生成式AI芯片;
专注于端侧AI半导体的公司DeepX日前宣布,已与三星电子及Gaonchips签署合同,将采用2nm代工工艺生产其下一代端侧生成式AI芯片“DX-M2”。
DeepX预计,与前代产品DX-M1所使用的5nm工艺相比,采用2nm工艺将使能效提高约一倍。由于生成式AI需要大量的计算,在资源受限的终端设备环境中应用一直被视为一项技术挑战。在这种情况下,能效成为决定产品实用性的最关键指标。该芯片预计2027年开始量产。
DeepX正在开发的DX-M2能够以每秒20到30个词的速度对200亿参数的生成式AI模型进行实时推理,功耗低于5瓦。这使得即使在机器人、家用电器和笔记本电脑等有严格散热和功耗限制的设备环境中,专业级的AI模型也能通过设备自身的算力独立运行。
行业专家认为,该项目在2nm系统半导体生态系统的早期建立中起着关键作用,同时也为本土无晶圆厂行业全面拓展高附加值半导体产业生态系统提供了机遇。
DeepX首席执行官Kim Nok-won表示:“DX-M2是开启生成式AI技术普及化与产业化时代的核心平台”,并强调“DeepX将持续推动降低技术门槛,打造人人皆可享受AI红利的世界。”
2.苹果M5芯片推迟到2026年发布,将采用先进LMC封装技术;
苹果2026年的Mac产品线外观可能变化不大,但在内部,处理器的制造方式将有细微变化。这一变化将为未来几年性能的大幅提升和能效的提高奠定基础。行业分析师郭明錤表示,苹果高端MacBook Pro搭载的下一代M5芯片将采用新的LMC(液态环氧塑封料)封装,该材料由中国台湾的长兴材料独家供应。
长兴材料的LMC封装材料专为台积电CoWoS封装技术的严苛标准量身定制——该标准同样应用于高性能计算(HPC)芯片与AI加速器。CoWoS技术支持多个Chiplet堆叠或并排集成于单一封装之中,最终实现带宽与计算密度的双重提升。
需要注意的是,2026年发布的M5版Mac尚未采用完整CoWoS技术,但此次转型仍具战略意义——当前采用兼容性材料(LMC)实则为未来迭代铺路的明智之举。短期来看,LMC将带来三大实质效益:结构强度提升、散热效能优化及生产效率提高,这些均有助于实现更稳定的性能与更高的能效表现。郭明錤同时透露,明年iPhone 20周年推出的A20系列芯片也将迎来重大革新,将采用WMCM(晶圆级多芯片模块)技术进行封装。
从供应链角度看,长兴材料此次击败日本供应商Namics与Nagase赢得合约,标志着苹果采购策略的重大转变——一方面提升中国台湾供应商在先进芯片材料领域的话语权,另一方面为自身争取到更大的研发合作与供应链掌控灵活度。值得注意的是,苹果此举正在为未来M6/M7系列芯片铺路,届时可能全面采用CoWoS乃至更先进的CoPoS技术。
这一技术突破将使苹果能够打造更大规模、更复杂的处理器,可轻松应对从AI模型训练到高端3D渲染等日益严苛的工作负载,并实现内存吞吐量的大幅提升。至于2026年Mac将搭载的M5芯片,其性能表现不仅符合用户预期,还能带来显著的能效优化。
苹果M5芯片的发布时间预计已推迟至2026年初,将跟随新一代MacBook Pro亮相。苹果还计划在2026年下半年推出搭载M6芯片的MacBook Pro升级款。(校对/李梅)
3.高通:OpenAI最小开源模型gpt-oss-20b可在骁龙终端设备上运行;
近期,OpenAI开源其首个推理模型 gpt-oss-20b,这是一个思维链推理模型,可直接在搭载高通(Qualcomm)旗舰级骁龙处理器的PC设备上运行。OpenAI的复杂模型此前一直局限于云端,现在OpenAI首次将其模型开放用于设备端推理。
通过对该模型的早期测试以及与高通AI Engine和Qualcomm AI Stack的集成优化测试,结果显示,该拥有200亿参数的模型非常出色,能够完全在设备上实现思维链推理。
高通表示,这一突破是关键转折点,它预示着AI的未来发展方向——届时即使是功能丰富的AI助手式推理也将在本地运行。随着AI生态系统的成熟度不断提升,合作伙伴和开发者可以通过骁龙处理器实时利用OpenAI等领先企业的开源创新。OpenAI的 gpt-oss-20b将使设备能够利用设备端推理,在隐私和延迟方面提供优势,同时通过AI代理补充云解决方案。
开发者将能够通过Hugging Face和Ollama等热门平台在搭载骁龙的设备上访问该模型并利用其功能,更多部署细节即将在Qualcomm AI Hub上发布。
通过将Ollama的轻量级开源LLM服务框架与强大的骁龙平台相结合,开发者和企业可以直接在搭载骁龙计算平台的设备上运行 gpt-oss-20b,并运行网页搜索和其他一些开箱即用的默认功能。用户还可以探索Ollama上的Turbo模式,探索该模型的更多功能。
未来几年,随着移动内存占用的不断增长以及软件堆栈的效率不断提高,设备端AI能力有望快速提升,从而为私密、低延迟、个性化的代理体验打开大门。(校对/李梅)
4.消息称苹果iPhone 18系列将首搭2nm芯片A20,转向WMCM封装;
传苹果(AAPL-US)iPhone 18的A20和A20 Pro芯片可能是其首批搭载台积电2nm制程的芯片组,并可能采用全新的晶圆级多芯片模块(WMCM)技术,以降低成本。
根据报导,苹果使用2nm制程价格不菲,预计每片采用2nm尖端工艺制造的芯片预计成本将高达3万美元,使苹果成为少数几家加入2nm潮流的公司之一。
因此,为了降低成本,苹果也正在研究其他封装技术,以提升芯片组的性能并降低成本。
根据苹果供应链分析师郭明錤,随着苹果寻求提高成本效率和A20芯片的性能,传统的整合式扇出型封装(InFO)技术可能正在被WMCM取代。
尽管台积电2nm试产良率约为60%,但随着月产量提升至6万片,良率仍存在变量。考虑到台积电不会为苹果次品晶圆提供特殊待遇,苹果积极推动WMCM等新封装技术以降低成本成为必然。
目前尚未明朗的是,这项封装技术是否会限定于iPhone 18 Pro与iPhone 18折叠机等高阶机型,或是否会进一步扩展到标准版iPhone 18及iPhone 18 Air。
郭明錤预计,iPhone 18 Pro与折叠机将于2026年下半年推出,而根据《The Information》,低阶iPhone 18机型要到2027年春季才会发布。
苹果A20芯片整合设计提升效能
苹果A20芯片使用的WMCM技术会将RAM与CPU、GPU和神经引擎直接整合在同一晶圆上。
相较传统以硅中介层连接的方式,这将大幅提升iPhone 18芯片的指令周期与Apple Intelligence的效能,同时有效降低功耗,延长手机续航时间,并使A20芯片在iPhone中占用的空间更小。
据悉,WMCM将采用模塑封装底填充(MUF)技术,整合了底部填充和塑封制程,能有效降低材料用量,提升芯片良率和生产效率。钜亨网
5.博通9成市占反守为攻,捍卫龙头宝座!掌握AI交换器话语权;
撰文‧王子承
博通凭九成市占率称霸云端数据中心交换器市场,面对英伟达与超微(AMD)的强势进击,高调推出基于乙太网路的SUE架构,主打开放相容与低延迟性能,力守AI时代交换器主导权。
在AI热潮与大语言模型训练带动下,数据中心里的图形处理器(GPU)数量持续攀升,负责传输与连接、让众多GPU得以高速交换资料的中枢交换器,地位变得前所未有地重要。
尽管交换器占整体数据中心建置成本不到3%,但如果把算力比作自来水,交换器就是让服务器 GPU、中央处理器(CPU)甚至机柜间的资料畅行无阻的水管。管线宽度与流速,决定算力能否发挥得淋漓尽致。
依照业界标准,平均约十颗GPU就需要搭配一颗交换器,调研机构MRFR估算,2024年数据中心用交换器市场规模达到180亿美元,未来10年更将以5.8%的年复合成长率扩张。
AI带动交换器需求飙升
在交换器市场,博通(Broadcom)是已称霸十多年的业界龙头,因为手握与既有数据中心架构相容的优势,即使产品价格较高,却仍经常供不应求;过去曾有迈威尔(Marvell)等芯片设计公司推出竞品,但最后纷纷折戟,如今博通在云端数据中心乙太网路交换器的市占率仍高达九成。
博通资深副总裁暨核心交换器部门总经理拉姆(Ram Velaga)接受《今周刊》专访自豪指出,博通的高阶交换器之所以傲视全球,是因为具有简化网路、减少光纤使用数量、提高可靠性和改善性能等效益,“我们近年新推出的交换器芯片,更是多年来需求最高的一批产品。”他透露。
拉姆早年出身网通设备龙头思科(Cisco),2012年跳槽博通主管核心交换器芯片,十多年来带领部门打下大片江山。尽管博通近几年受惠客制化芯片(ASIC)需求,业绩大幅成长,但在半导体营收中,AI网通产品仍占四成,2025年第二季网通营收达到34亿美元;网通芯片更较去年度成长170%,主要动能就来自交换器芯片。
对于交换器芯片的爆发性成长,拉姆解释,网通一直是博通专注的核心事业之一,拥有最强的研发团队、最先进的制程节点经验能力以及大量矽智财(IP),“过去十年多里,我们每18到24个月,就会将交换器频宽翻倍、进而推出领先全业界的交换器芯片,所以,这不是偶然。”他表示。
拉姆指出,有别于过去同业思科只想用一颗芯片通吃云端、企业及电信需求,博通认为,在芯片空间有限的情况下,必须针对不同应用有所取舍。因此博通针对市场需求推出差异化产品,例如Tomahawk是对应最高阶云端需求,Jericho主攻电信级ÿ 机柜互联市场、Trident则专注于企业级应用。
英伟达、AMD双强夹攻市场
尽管在交换器市场独领风骚多年,博通近期却感受到明显的竞争压力,因为英伟达与超微(AMD)两家AI芯片巨头,正虎视眈眈,准备抢攻这项AI服务器的必要配备。
英伟达2018年开始陆续以自家高速互联架构“NVLink”与“InfiniBand” 为核心,推出配合的交换器芯片,并采“GPU加交换器绑定出货”的配货策略,吸引云端业者将其纳入第二供应商,业界估计最高可能吃下两成市占,严重侵蚀博通版图。
AMD近期也号召成立“UALink”架构,以过去英特尔力推的PCIe架构为基础,主打以开放规格挑战英伟达的封闭生态圈,已吸引苹果、亚马逊以及微软、Meta、思科等大咖加入。外界预期,明年就会有芯片商推出符合UALink规范的交换器芯片。
这对博通来说,有如同时面临英伟达与UALink夹杀,腹背受敌。这也是为什么一向低调的博通,近期公开活动明显增加,拉姆也在开放运算计划(OCP)亚太峰会首度移师台湾之时现身,“固桩”意味浓厚。
OCP是2011年由Meta发起,供数据中心业界讨论开放规格与未来产品蓝图的重要平台,“这次博通在OCP上很用力!”一名与博通有合作关系的交换器业者观察。而这次来台层级最高的拉姆,显然也有备而来。
他在OCP上大谈博通今年五月发布的SUE(Scale Up Ethernet)架构,这是一项基于开放标准的乙太网路规格所推出的垂直扩充运算技术,能做到高频宽、低延迟,在成千上百个GPU、CPU芯片间高速连接。
相较于UALink,SUE架构虽非由第三方组织设计的标准,但因为是基于乙太网路规格设计,能与现有数据中心广泛采用的乙太网路交换器生态系相容。
“我们写了规格书,发布在网路上,任何人都可以采用。市场上乙太网路交换器芯片厂商数量很多,我们可以说是让众人都赢,SUE规格就是开放的。”拉姆说,SUE针对所有公司开放,不需要像是NVLink一样须取得英伟达授权。
如果众人都赢,那博通还有什么优势?“我们拥有世界上最低延迟的交换器芯片,所以会比其他交换器来得更好。”拉姆霸气回应。
开放规格争议战火延烧
谈起竞争对手,拉姆表示,英伟达是一家很棒的GPU公司,“但我并不认为他们拥有很好的网通技术。”
他举例,20多年前惠普、戴尔曾主推封闭式刀锋服务器机柜,但最终云端业者选择采用白牌服务器机柜,“这代表一家公司未必擅长做所有的事,就算勉强尝试垂直整合、市场终究还是会走向开放的生态系统。”
即使今年5月英伟达宣布向几位合作伙伴授权“NVLink Fusion”,但拉姆也批评NVLink Fusion不是真开放,“因为英伟达随时可以决定不要再授权,也要求必须连接自家的交换器、GPU或CPU。”
除了句句针对英伟达,拉姆后续更在OCP圆桌论坛和AMD架构与策略总监、UALink联盟董事会主席柯提斯(Kurtis Bowman)针锋相对。
柯提斯先是暗酸所谓的SUE“根本不是一个标准,只是博通标准、规格的漂白。”柯提斯也进一步指控,SUE目前没有针对资料传输的延迟性提出规范。
针对柯提斯攻击,拉姆大动作回应:“提出这问题代表你根本不懂乙太网路,乙太网路从来不在标准中定义延迟,客户会选择自己喜欢的低延迟交换器……,你们想订延迟标准,是因为不知道怎么设计低延迟的交换器吧?”
拉姆也质疑,UALink背后的规格PCIe,过去主要服务于短距离芯片传输,较难像乙太网路一样,拥有支援数千个处理器间的长距离传输能力,“目前有没有哪家公司的PCIe交换器,具备足够的缓冲记忆体来支援长距离传输呢?祝你好运。”
无论谁的论点更有力,从论坛上唇枪舌剑,确实看得出交换器芯片是兵家必争之地。当AI应用让算力需求愈来愈高,交换器传输角色也愈来愈吃重,尤其是传输包含水平扩充(scale out,指将多台服务器串联起来)和垂直扩充(scale up,指将许多台服务器变成一台超级电脑)两个不同面向,交换器的效能分工也须更为精细,难有通用产品。
DIGITIMES分析师姚嘉洋观察,SUE依托于成熟、开放的乙太网路生态系,“博通本来就在乙太网路上有很大的话语权,但问题就在于博通的SUE,跟其他业者能有多高的相容度?毕竟博通在乙太网路芯片领域也有其他竞争对手,博通会以何种心态面对竞争对手,仍待观察。”针对后起之秀UALink,姚嘉洋则认为需要等AMD、英特尔推出相关产品,再来看后续与NVLink的竞争态势。
在AI时代的连接战场上,面对英伟达、AMD挑战,网通霸主博通也强势回应,从博通这次高调现身OCP亚太峰会来看,这场围绕数据中心连接架构的三方角力,才正要进入白热化阶段。经济日报