1xbet体育

1xbet体育

2023-07-01 06:33:20

芯片行业专题报告:生成式AI驱动电路亚新体育板算力芯片腾飞

分享到:

  亚新体育亚新体育1.1. 预计 2023 年全球训练/推理侧市场空间 243/110 亿元,算力市场持续 扩容

  AI 已成为继移动互联网的下一代科技革命,算力是其产业三要素中的重要一环,到 2030 年 AI 算力有望增长 500 倍至 100ZFLOPS。根据 similarweb 统计数据,2023 年 4 月 OpenAI 的访问量已经达到 17.6 亿次,是谷歌的 2%,百度的 60%,并且还 是在限制用户注册的情况下。OpenAI 仅用了 4 个月的时间就将该网站的全球排名 从 1879 位提升到了第 16 位。搭载了 ChatGPT 的 NewBing 也正在侵蚀搜索霸主谷 歌的市场,根据《》,三星电子曾在 4 月考虑将其设备上的默认搜索引擎由 谷歌改为必应。此外,各科技巨头均于 4-5 月密集推出旗下通用/专有大模型,游戏 电商等公司也在积极探索接入大模型提高生产力。种种迹象表明,继移动互联网之 后,AI 驱动的下一代科技革命已势不可挡。AI 时代,大模型想落地,必不可少的产 业三要素包括算力、网络、存储。其中,算力是大模型的关键基础设施。华为预计 到 2030 年,全球数据年新增 1YB;通用算力增长 10 倍到 3.3ZFLOPS,AI 算力增 长 500 倍超过 100ZFLOPS。

  训练侧:保守估计全球有 20 个大模型情况下,2023 年训练芯片市场空间 243 亿元。 在训练单个大模型时,模型的参数量变大、训练集大小增长均会导致模型需要更多 的芯片数量进行训练,而训练时间的减小电路板、芯片算力的提升、算力利用率的提升均 可减少芯片的用量。我们以模型参数量 1746 亿的 GPT-3 为参考,根据 OpenAI 的论 文《Language Models are Few-Shot Learners》,训练 3000 亿 tokens 的模型需要 3638PFLOPS-day 的浮点运算量。假设当前大模型需要训练 30 天,使用精度为 FP32 的 A100,单个模型训练需要 1.2 万张 A100,折合人民币 12 亿元。

  当前测算偏保守,因为多个关键参数有较大提升空间,比如: 1)算力利用率:在 175B 的模型参数规模下,英伟达的 Megatron 框架利用 tensor parallel 和 pipeline parallel 并行可达到 51.4%的算力利用率,若未来主流模型参数规 模更大,则算力利用率会更高。大模型提升算力利用率的关键在于考虑如何减少对 片外 DRAM 的访问,因此 GPGPU 对片上 SRAM 的容量需求极大。显存增加可以 提升模型的训练效率。2)模型数量:目前国内外科技大厂(Meta、谷歌、微软、华为、百度、阿里、腾讯 等)、垂类厂商(360、科大讯飞、云从、商汤)、学术界(复旦、中科院自动化所、 清华等)均在推出自研大模型,模型数量可能在近几年爆发式增长。

  推理侧:以类 GPT 的搜索网站测算,预计 2023 年推理芯片市场空间 110 亿元,实 际应用场景较多弹性极大。推理阶段所需算力与模型参数量、网站的日访问量、每 次访问的问题长度、问题数正相关。模型推理场景十分多样,我们仅以目前主流的 搜索场景作为测算,同样采用 GPT-3,假设网站日活 2 亿人次,每人平均问 6 个问 题,每个问题长度为 50 个单词,得到 2023 年单个网站每日需要使用 6 万张 A30, 6 个模型折合市场空间 110 亿元。弹性在于: 1)现有网站访问受限:2023 年 4 月,openai 访问量 17.6 亿次,折合日访问量 0.6 亿 次。但 openai 目前停止新用户注册,用户问题数也受限,所以实际访问量远不止该 值。根据 InternetLive Stats,谷歌在 2019 年的日搜索量就已经达到 35 亿次,而现在 谷歌在全球搜索引擎市占率 90%以上。所以我们假设的 2 亿日活为折中值。 2)应用场景还在普及期:目前海外 openai 对中国限制访问,国内大模型尚未出现 killer app,而且数据侧还存在监管难题。所以当前大模型还处于应用的 0-1 阶段, 推理芯片潜力尚未释放。但从近期 ChatGPT 上线 ios 端,已能看到边缘侧算力大规 模应用的曙光。 3)市场空间与用户量正相关。

  按下业看,中国 AI 算力投资有 65%来自互联网,政府占 15%次之。随着数字 经济的兴起,人工智能已经深入渗透到各个行业,特别是在互联网等科技公司中更 为普及,各大互联网公司普遍发展数据中心、云计算以满足日益增长的算力需求。 根据亿欧智库数据,2021 年中国人工智能算力投资金额最大的行业为互联网,占比 65%,政府占 15%,金融、制造、服务业占比都低于 10%。

  互联网需求以科技大厂为主:全球AI服务器下游需求78%来自全球8家科技大厂。 全球云计算服务商市场集中度较高。2022 年,北美四大 CSP(微软、谷歌、亚马逊 AWS、Meta)占全球 AI 服务器采购量的 66%,中国科技大厂(字节跳动、腾讯、 百度、阿里巴巴)占 11%。可见 AI 计算的主要需求来自于互联网,此外才是传统的 金融、政务、医疗等领域。

  中国已发布 79 个大模型,大模型所在地域性与当地 AI 服务器采购数量强相关。根 据科技部新一代人工智能发展研究中心在 5 月 28 日发布的《中国人工智能大模型 地图研究报告》。中国已发布了 79 个大模型,中国研发的大模型数量排名全球第二, 仅次于美国。从全球已发布的大模型分布来看,中国和美国大幅领先,超过全球总 数的 80%。自然语言处理仍是目前大模型研发最为活跃的重点领域,其次是多模态领域,在计算机视觉和智能语音等领域的大模型还较少。从全国范围内的算力基础 设施分布情况发现,北京、广东、浙江、上海等地的大模型数量最多,同时这 4 个 地方也是近 3 年人工智能服务器采购数量最多的地区,表现出非常明显的强相关性, 为大模型研发应用提供了重要支撑。

  政府端:目前全国超 30 城市在积极推动智算中心建设。当下智算中心主要分为企 业自建和公共基础设施,全国 30 城智算中心大多是第二种情况。根据国家工业信 息安全发展研究中心推出的《智能计算中心 2.0 时代展望报告》,目前全国有超过 30 个城市正在建设或提出建设智算中心。智能算力正在取代基础算力成为算力结构最 主要构成。根据《智能计算中心规划建设指南》,智算中心最核心的是 AI 算力。

  AI 算力芯片产业链可分为:1)最上游的 EDA 软件和 IP 核研发。2)中游的芯片, 包括 GPU、NPU、ASIC、FPGA 等架构。3)下游的 AI 服务器及智算中心。

  GPU 服务器占据了 AI 服务器 90%以上的市场。根据 Counterpoint 及 IDC,2022 年 全球服务器市场规模 1117 亿美元,北美是服务器首要市场,占比 40%;中国占 24%。 自 2018 年以来,中国服务器市场增速持续高于全球均速,并有望在 2023 年超 300 亿美元(来自 IDC)。按类别分,AI 服务器占全球服务器市场 17%(来自 IDC),占 中国服务器市场 25%。其中 90%以上是 GPU 作为核心计算单元的 AI 服务器。

  AI 服务器与传统服务器的区别主要在于 GPU 用量。AI 服务器在 CPU 的基础上大 幅增加 GPU 用量,并且 GPU 单价通常高于 CPU,因此当服务器由通用计算升级至 AI 加速计算,价值重心将由 CPU 转移至 GPU。根据 semianalysis,DGX H100 的总 成本中,有 72%来自 8 张 GPU 及互连基板。

  一台 AI 服务器通常使用 8 张 GPU,价值量占比约 68%。由于本地计算机资源有 限,出于对训练速度和算力的需求,大模型通常部署在服务器上。服务器的关键部 件包括计算单元(CPU、GPU)、内存芯片、硬盘、网卡、RAID 阵列卡、电源。根据我 们的测算,GPU 是 AI 服务器最大的成本项。一台 AI 服务器通常使用 8 张 GPU。 以浪潮信息的明星产品 NF5688M6 为例,105 万元的服务器总价值中,8 张 A800 共 计 71 万元,占比约 68%。此外,2 颗 CPU 价格共计 10.6 万元,占比约 10%。

  一台通用服务器通常使用 1-2 颗 CPU,价值量占比约 30%~62%。通用服务器价值 量以 CPU 为核心,通常使用 1-2 颗 CPU,以浪潮信息的通用服务器 NF5280M6 为 例,其售价 2.4 万元,其中 62%价值量来自 2 颗 CPU。 由上可知,生成式 AI 驱动的算力需求暴增有望革新云计算商业模式,带来 AI 芯片 需求大幅增加。

  受经济等多重因素影响,2023 年全球服务器出货量预计同减 2.9%。由于全球经济 持续疲软叠加国际形势复杂,在北美四大云服务供应商(CSP,包括微软、谷歌、 Meta、亚马逊 AWS)持续下修 2023 年服务器采购量,Dell 及 HPE 等 OEM 也在 2~4 月下修全球出货量,TrendForce 预计2023年全球服务器整机出货量同减2.9%到1383 万台。 但 2023 年 AI 服务器出货量有望同增 15.4%。根据 TrendForce&IDC 统计,2022 年 全球 AI 服务器出货量 85.5 万台,其中搭载 GPGPU 的 AI 服务器出货量占整体服务 器出货量 1%,市场规模占比约 17%;在 AIGC 带动下,2023 年全球 AI 服务器出货 量有望同增 38.4%。

  服务器市场玩家可分为品牌商和白牌商,白牌即无品牌的服务器,由服务器代工厂 为下游云计算客户代为生产。根据 Statista,21Q2 白牌服务器占全球服务器市场规 模的 27%。2021 年,前五大白牌服务器厂商(鸿海、广达、纬创、英业达、美超微) 均来自中国台湾,CR5=93%。全球品牌厂的主要玩家是戴尔、HPE、浪潮信息。

  浪潮信息为全球/中国 AI 品牌服务器市场双冠。中国 AI 品牌服务器市场呈现一超 多强格局,浪潮从 2017 年开始就占据过半市场份额。2021 年,浪潮信息在中国 AI 品牌服务器市场占比 52%,在全球 AI 品牌服务器市场占比 21%,均为第一。

  云计算是类 ChatGPT 的大模型最重要的基础设施和平台,模型即服务 MaaS 正在 重塑当前云计算架构,有望成为 AI 时代的新商业模式。根据埃弗雷特·罗杰斯的 理论,任何创新的扩散都遵循从创新者到早期采用者,再到早期跟进者等的诸个阶 段。阿里早在 ChatGPT 出圈之前就已提出了模型即服务(MaaS)概念。今年阿里云 已明确了“MaaS+PaaS+IaaS”战略,顶层为 MaaS,阿里云向生态伙伴开放大模型 能力和训练底座。与微软和OpenAI 提出的服务类似,阿里云的MaaS层也支持API、 编程两种接入方式,专有模型也明确了按 token 计量的后付费模式和按账号权限+资 源包的预付费模式。目前阿里云、百度云均在内测企业级大模型服务。百度集团副 总裁袁佛玉表示已有超过 300 家生态伙伴参与文心一言内测。阿里通义千问之上也 已有 2000 多个伙伴在测试。

  近期云计算价格战的本质是算力需求正在由通用计算向加速计算狂奔。4 月,阿里 云宣布了市场最大规模降价,核心产品价格全线%,存储产品最高降幅 达 50%。此后,腾讯云、移动云、京东云纷纷跟进降价。在此番云计算价格战打响 之前,宏观经济不确定性已使云计算下游客户投资持续放缓,23Q1 全球云基础设施 服务支出增长首次低于 20%(来自 Canalys)。在严峻的市场环境下,不难理解阿里 云为何选择将重心从利润转向规模。更重要的是,在当前智能化浪潮下,AI 将会促 使云计算从此前同质化的基础设施向智能服务转变。从过去的卖通用算力、存储到 卖框架、模型。根据阿里云智能中国区副总裁的解释,技术红利(自研芯片)和规 模形成的成本优势(全球上百个数据中心)给予了公司充分的降价空间,而更有优 势的算力价格和大模型能力,将吸引更多客户合作,从而带来更大的价格空间。此 番降价潮将有助于推进国内 AI 大模型的产业落地,进而带动更庞大的云市场规模。

  英伟达占据全球独立 GPU 市场 85%份额,已成为 AI 芯片标配选择。目前绝大多 数 AI 负载跑在 GPU 上,而英伟达基本垄断独立 GPU 市场。据 Jon Peddie Research 数据,22Q4 全球独立 GPU 市场由英伟达占据 85%市场份额。根据新智元,2020 年 全球 AI 相关的云计算与数据中心中,80.6%由英伟达 GPU 驱动。2021 年英伟达表 示,全球前 500 座超算中,约七成由自家芯片驱动。现在就连运行 ChatGPT 的微软 数据中心也使用了上万张英伟达 A100 GPU。

  国产芯片在系统效率等方面与英伟达差距较大,使用场景主要在政府项目及自用。 当前部分国产芯片在单个芯片参数(如 FP32 精度算力)上可达到英伟达水平,但 集群系统调度效率与英伟达超算存在较大差距,比如网络互连速率。此外,英伟达 还有其研发了 10 余年所积累的 CUDA 加速库。目前 NVIDIA GPU+CUDA 仍然是 AI 研发生态的事实标准平台,国产 AI 芯片主要在政府采购以及企业自研场景有一 定份额。

  为突破英伟达算力垄断,科技巨头纷纷开始自研 AI 芯片。科技大厂如亚马逊、微 软和谷歌原本以软件为主要产品,但现在它们纷纷斥资数十亿美元用于芯片开发和 生产。这三家大厂已推出或计划发布 8 款服务器和 AI 芯片,自用或者用于云服务 器租赁。1)亚马逊是三家公司中目前唯一一家在其服务器中提供标准计算芯片 (Graviton)和 AI 专用芯片(Inferentia 和 Trainium)的云供应商。早在 2019 年, 亚马逊就推出了自己的 AI 推理芯片 Inferentia。在初代 Inferentia 推出之后,亚马逊 又发布了其设计的主要用于 AI 训练的定制芯片——Trainium。2)微软:根据 The Information,微软正在自研的 AI 芯片名为 Athena,该芯片的研发最早可以追溯到 2019 年。3)谷歌:早在 2020 年,谷歌就在其数据中心上部署了 TPU v4。

  长期维度大厂自研芯片占有率有望提升,但短期维度其仍会选择加单英伟达 GPU。 短期内大厂自研芯片可能难以与英伟达匹敌,但考虑到软硬件生态耦合性、以及供 应链的安全性,以及成本效益,长期看,科技公司会一定会持续投入资源研发自有 芯片。短期看,云计算厂商为保证自身业务的市占率,首先追求计算性能,更倾向 于选择现有最好的芯片。

  GPU 的优势不仅仅依靠单核性能,英伟达的护城河更多在于其丰富的软件生态及 超高的互联速率。1)软件生态:英伟达的 CUDA 生态已经过 10 多年发展,一半时 间在裴谞客户,后来才有客户大规模使用,而国内 GPU 的生态是最近 3-4 年才开始 发展,英伟达相比新的生态,a)其底层加速库要远远多于新生态,用户只需做终端 应用的开发,底层库是现成的;b)由于已有大量客户使用,经过反馈-迭代-再反馈 -再迭代不断优化,性能远远好于新的加速库。2)互联速率:大模型主要是训练时 需要消耗大量算力。满足该需求不仅靠单颗芯片性能提升,更多在于提升多卡互连 形成的集群算力。英伟达的 Nvlink 已对通行的 PCIe 标准形成了碾压式优势,最新 的第四代互联带宽是 PCIe5 的 7 倍。寒武纪 MLlink 技术也仍在追赶英伟达 NvLink 中。

  当前供需存在巨大鸿沟,英伟达高端 GPU 一卡难求,价格飙涨。生成式 AI 的浪潮 使英伟达高端 GPU 一卡难求,价格一路上涨。据集微网,有代理商透露,英伟达 A100 价格从 22 年 12 月开始上涨,截至 23 年 4 月上半月,5 个月价格累计涨幅达 到 37.5%;同期 A800 价格累计涨幅达 20.0%。同时,英伟达 GPU 交货周期也被拉 长,之前拿货周期大约为一个月,现在基本都需要三个月或更长。甚至部分新订单 “可能要到 12 月才能交付”。A100 和 H100 的芯片都是由台积电负责代工,前者为 7nm 工艺,后者使用了 4nm 工艺。据 Digitimes,近期英伟达 GPU 订单增加也提升 了台积电的晶圆开工率。据集微网,国内可用于训练 AI 大模型的 A100 大约有 4 万 -5 万张,供应相当吃紧,一些云服务厂商已严格限制内部使用这些先进芯片,以将 其保留至需要高算力的任务。

  且美国已限制高端 GPU 向中国出口。中美两国是全球范围内在生成式 AI 和大模型 领域投入最大、算力需求最旺盛的国家。然而 2022 年 8 月,美国政府要求英伟达向 中国大陆、中国香港和俄罗斯出口高端 GPU 芯片时需要申请出口许可证,其中包括 A100 和 H100 等,且未来性能等于或高于 A100 的产品也会受到该政策的影响。因 此,2022 年 11 月,A800 GPU 成为美国半导体公司首次为中国市场推出符合美国贸 易政策的先进芯片,其单卡算力几乎与 A100 完全一致,唯一不同在于 NVLink 的 带宽缩水 33%,从 A100 的 600GB/s 砍至 A800 的 400GB/s。这可能会影响到多卡服 务器的并联性能,比如数据中心、超级计算机的整体性能。

  加速卡和训练整机销量迅速提升,促云端产品线收入快速增长。分业务看,1)报告 期内思元 290、思元 370 系列加速卡和训练整机销量迅速上升,使云端产品线%,2)因 21 年芯片供应链紧 张,客户根据自有产品市场需求制定了高库存策略以保证供应充足,22 年因客户进 行库存调控,未按预期下单,导致边缘产品线.1%,3)智能计算集群系统实现收入 4.59 亿元,同增 0.64%, 毛利率同比-0.16pct 至 70.42%。

  国内智能芯片领域龙头,充分受益 AI 算力需求提升。公司是国内智能芯片领域龙 头企业,能提供云边端一体、软硬件协同、训练推理融合、具备统一生态的系列化 智能芯片产品和平台化基础系统软件。公司掌握的智能处理器指令集、智能处理器 微架构、智能芯片编程语言、智能芯片数学库等核心技术,具有壁垒高、研发难、 应用广等特点,可广泛辐射智慧互联网、智能制造、智能教育、智慧金融、智能家 居、智慧医疗等“智能+”产业,在 ChatGPT 带动 AI 算力提升的背景下,充分享受 需求快速提升的成长红利。

  3.2. 海光信息:业绩高增,本土化及生态优势巩固国产 CPU&DPU 龙头 地位

  海光三号已实现小批量,CPU 与 DPU 新品进展顺利。2022 年公司加大研发投入至 20.7 亿元,同增 30.4%,收入占比减少 28pct 至 40.3%,研发技术人员同增 25%至 1283 人。报告期内,公司推出了 CPU 新品海光三号,已实现小批量销售,下一代 CPU 海光四号、海光五号,DCU 深算二号、深算三号研发进展顺利。海光二号/深 算一号为当前主力 CPU/DPU 在售产品。

  兼容国际主流 x86 指令集,构筑强大生态优势。海光 CPU 兼容 x86 指令集及国际 主流操作系统和应用软件,软硬件生态丰富,性能优异,已广泛应用于电信、金融、 互联网等领域。其 DCU 产品以 GPGPU 架构为基础,兼容通用的“类 CUDA”环境,可广泛应用于大数据处理、人工智能、商业计算等领域。目前海光处理器产品 已得到国内用户广泛认可,开拓了浪潮/联想/新华三/同方等国内知名服务器厂商, 开发了多款基于海光处理器的服务器,有效推动公司处理器产业化,构筑强大生态 优势。 聚焦卡脖子关键环节,本土化优势显著。目前国内超 95%的 x86 服务器芯片份额被 美国 Intel 和 AMD 占据,自主可控需求迫切。公司根植于中国本土市场,相比国际 芯片企业,更了解国内客户需求,能提供更加安全可控的产品和全面细致的服务, 本土化优势显著。随着公司竞争优势不断加强,以及国内下游客户积极开展基于海 光高端处理器的生态建设,公司高端处理器产品预计将拓展至更多领域,进一步扩 大市场份额。

  3.3. 沪电股份:Q1 业绩短期承压,长期受益 AI+汽车电子成长红利

  AI 算力提升增加数通类 PCB 需求,汽车电动化、智能化、网联化推动高端汽车板 需求增加。1)数据通信方面,在 AI 驱动算力数据大幅增加的背景下,预计交换机 未来将由 200/400G 向 800G 高端产品升级,并带动 AI 服务器、路由器、存储等产 品高速增长,推动数据通信类 PCB 量价齐升,提升对大尺寸、高层数、高阶 HDI 以及高频高速PCB产品需求。公司在PCB板技术领先且绑定海内外头部优质客户, 预计公司业务将保持稳健高增。2)汽车电子方面,公司深耕汽车 PCB 领域多年, 具备丰富的技术积累并与国际头部 Tier1 客户保持长期合作,目前公司在汽车自动 驾驶域、智能座舱域、电机电控板、车载雷达板等高端 PCB 环节卡位优势资源,未 来随着产能增长以及产品结构优化,汽车电子业务有望实现稳健增长。2023 年 1 月 公司向沪利微电增资 7.8 亿元,用于扩大子公司汽车电子领域的 PCB 板产能,保障 未来的产能需要亚新体育。

  3.4. 胜宏科技:显卡 PCB 份额全球第一,AI 服务器打造新增长点

  公司是中国大陆排行前 5 的 PCB 企业,下游对应 AI 服务器、自动驾驶等领域。公 司主要产品有高端多层板、HDI 板等。产品最终广泛应用于英伟达、英特尔、AMD、 亚马逊、微软、思科亚新体育、Meta、谷歌、三星等国内外众多知名品牌。下游对应 AI 服 务器、GPU 卡、自动驾驶、新能源、新型智能终端产品等。公司是特斯拉车用 PCB 的第二大供应商,也是众多国际 Tier 1 车企的合格供应商。根据 Prismark 的统计, 公司 2022 年在全球 40 强 PCB 企业中排行第 24 名,在中国大陆 PCB 百强企业排 行第 5。

  公司显卡 PCB 份额全球第一,是英伟达数据中心业务需求爆发的核心受益者。当 前全球 1 万亿美金的数据中心市场正在向加速计算转变,英伟达(占据全球独立 GPU85%以上份额)已在其 FY1Q24 的业绩说明会表示,预计数据中心的高景气度 将至少延续几个季度。该趋势将推动应用于服务器的高阶 HDI、高频高速 PCB 产 品出现强劲需求。根据投资者交流平台,胜宏科技在高密度多层 VGA(显卡)PCB 市场份额全球第一,GPU 卡将带来产品结构性改变,公司迎来新增长点。公司已推 出 GPU 显卡 PCB 等多款 AI 服务器相关产品,有为英伟达 AI 服务器供应 PCB,是 当前英伟达业绩超预期的核心受益者。 多款 GPU、高阶数据中心交换机类产品进入批量生产。根据 2022 年年报,胜宏科 技应用于 Eagle Stream 服务器领域产品已规模化量产、Birch Stream 级已小批量导 入;HPC 领域,应用于 GPU、FPGA 等加速模块类产品已批量出货;高阶数据中心 交换机领域,应用于 Pre800G 的产品已小批量生产;基于 AI 服务器的加速模块已 实现 4 阶 HDI 及高多层的产品化,6 阶 HDI 在加速布局中。此外,公司间接控股越 亚半导体。其生产的高算力处理器封装载板、射频模块封装基板、系统级嵌埋封装 产品在细分市场处于世界领先地位,也是内资封装载板企业前三。

  英伟达 AI 算力芯片核心探针供应商,AI 浪潮下订单激增。公司半导体芯片测试探 针产品已进入英伟达、意法半导体、亚德诺半导体、安靠公司等国际知名客户的供 应体系。公司 2019 年开始为英伟达提供中高端 FT 测试探针及相关零组件,2019- 2021 年公司向英伟达实现销售收入分别为 0.11 亿元/0.32 亿元/1.11 亿元,占公司总 营业收入比例分别为 6%/14%/30%。ChatGPT 驱动 AI 行业快速发展,英伟达 A100、 H100 芯片为目前 AI 产业发展最核心的算力原料。公司将充分受益于 AI 大模型训 练和推理所带来的旺盛 AI 芯片需求,探针业务放量在即。

  MEMS 产品线不断拓宽,苹果 MR 产品有望引领新一轮增长。公司深耕微机电 (MEMS)精微电子零组件行业,产品已从声学传感器领域拓展至光学传感器等领 域,其中光学传感器结构件已成功进入行业头部客户供应链。其中精微屏蔽罩产品 广泛应用于苹果、华为、三星等品牌,实现屏蔽磁信号干扰等功能。苹果 MR 产品 放量有望带动下游需求回暖,公司精微屏蔽罩有望打开新的增长曲线。

  (本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

上一篇:中国芯片封测大进步:拿下亚新体育全球64%份额4家大陆企业进入前10
下一篇:亚新体育美国芯片大厂和政府齐动手挤压中国半导体发展空间