1.中科曙光:核心信息基础设施领军企业
1.1.中科曙光,打造IT基础设施全套解决方案
(资料图)
中科曙光是我国核心信息基础设施领军企业。1996 年,公司成立,开始走产业 化道路,同年曙光 1000 服务器问世,峰值运算速度 25 亿次每秒,获得国家科技进步 一等奖。接下来的时间里,曙光积极走产业化路线,专注于走高端计算机相关业务。 公司 2014 年在上交所上市,同年推出首款规模化量产的液冷服务器;2021 年 7 月公 司推出计算服务,打造算力互联网络,同年 1 月荣登中国海量存储 MassStor100 榜首; 2022 年,发布业界首款液冷存储发布,曙光打造“存算一栈式”液冷方案。
高端计算机显著区别于 PC 端(个人电脑),是指高档性能芯片、参数配置高、功 能多、运算速度快、稳定性强等技术的计算机,高端计算机既包括通用性服务器、高 性能服务器等相关硬件产品,也包括围绕高端计算器的相关集成服务、平台软件产品 等。
中科曙光专注于高端计算机相关业务,打造完整全套的 IT 设施解决方案。公司 基于自身多年技术积累,在高端计算机、存储、云等方面形成了浓厚的技术壁垒。随 着公司产品序列不断丰厚,不断丰富产品序列以满足不同场景需求。在国产化背景下, 公司自研产品比例及核心部件自研能力不断提升,公司持续开发基于国产处理器的高 端计算机、IO 芯片和 IO 模块、底层管控固件,突破高端计算机核心关键技术,不 断提升自主创新能力。公司已经形成了通用服务器、高性能计算机、机房冷却设施、 存储、网络安全产品、算力服务平台等多类产品和解决方案的全覆盖。
公司深度参与超算、智算中心建设,是国家数字经济产业重要先行者: 20 世纪 60 年代,为了模拟重大科学问题和军事研究,超算中心应运而生;2007 年起,互联 网、大数据和云计算技术的成熟推动云计算数据中心建设;2012 年后,以深度学习 计算模式为主的人工智能技术迅速发展,开启智算中心建设时代。公司作为核心信息 基础设施领军企业,1993 年推出“曙光一号”,打破国外 IT 巨头对超算技术垄断。公司已在全国布局超 50 个云计算+大数据中心,同时还推出了“5A 级”智算中心建设方案。从支撑国家科研体系大科学、大工程,到赋能产业,公司伴 随国家算力基础设施演进而成长。
1.2.背靠中科院,围绕IT基础设施参股众多子公司
背靠中科院,彰显信创背景下的“国家队”优势: 中科院计算所持有中科算源 100%股份,中科算源为公司控股股东,因此中科院计算所为公司实际控制人。公司董事长李国杰曾为中国科学院计算技术研究所研究员、中国工程院院士,自 06 年起一 直担任此职位。公司围绕主营业务 IT 基础设施参股(控股)众多公司,其中包括海光信息、曙光 云计算、中科星图、曙光数创等公司,涉及 CPU、DCU、云计算、虚拟化、数据中心、 数字地球等相关业务,相关业务协同发展,彰显公司在 IT 基础设施下的竞争力。
1.3.营收、净利润高速增长,开启第二波成长曲线
公司营收高速增长,IT 设备业务为公司主营业务。公司 2022 年营收规模为 130.08 亿元,同比增长 16.14%,其中 IT 设备是公司主要收入来源,占比为 88.01%。 公司 2019、2020 收入增速下滑原因,我们认为主要原因与公司被美国商务部工业与 安全局纳入“实体清单”有关,但是我们判断,随着公司自研产品比例及核心部件自 研能力不断提升,公司收入增速已回归至正常水平,预计公司未来业绩持续高速增长。
公司毛利率水平持续增高,净利润增速较高。公司毛利率水平持续走高,公司 2018 年毛利率为 18.30%,2022 年毛利率为 26.26%,相较于 2018 年增长 7.96PCT,我 们认为这与公司被列入实体清单后,公司自研产品比例及核心部件自研能力不断提升 有关,未来毛利率有望增高。此外,公司持续加大自身研发费用,2022 年,公司研 发费用率为 8.5%,相比于 2018 年增长 2.9PCT,彰显公司作为 IT 基础设施领军企业 对于科技研发的重视程度。此外,公司归母净利率与归母净利润水平持续走高,2022 年,公司归母净利润为 15.44 亿元,其中 4 年的复合增速达到惊人的 37.58%。
公司一体化竞争优势不断提高,计算服务生态不断扩大。数字经济对基础设施 建设提出了更高的要求,一是计算能耗、数据传输速度的提升,二是算力与多元场景 的融合。根据公司 2022 年年报,公司依托在计算产业多年积累打造的一体化数字综 合体建设方案,已经与适配国产软硬件的云平台、国产安全平台破除制约算力增长的 安全障碍,满足数字经济时代下基础设施快速落地的需求。此外,公司计算服务生态 不断扩大,目前已形成面向金融、电力、教育、交通、环保等传统行业,以及汽车、风电、生物、材料等领域研发创新的智能计算解决方案,已初步形成算力多元、产业 协同、服务一体的核心竞争优势。
2.AIGC时代下,算力势必迎来爆发
2.1.再此重申强调ChatGPT的本质即大模型储备竞赛
大模型是人工智能发展的必然趋势,也是辅助式人工智能向通用性人工智能转 变的坚实底座。大模型即“大算力+强算法”结合的产物。大模型是辅助式人工智能 向通用性人工智能转变的坚实底座 ,大模型增强了人工智能的泛化性、通用性,生 产水平得到质的飞跃,过去分散化模型研发下,单一 AI 应用场景需要多个模型支撑。 大模型实现了标准化 AI 研发范式,即简单方式规模化生产,具有“预训练+精调”等 功能,显著降低 AI 开发门槛,即“低成本”和“高效率”。 算力是打造大模型生态的必备基础。算力是训练大模型的底层动力源泉,一个 优秀的算力底座在大模型(AI 算法)的训练和推理具备效率优势;平台是大模型和算 力之间的“桥梁”,可针对不同的模型和硬件,实现资源的合理分配,达到软硬件的 最优组合,从而大幅提升训练模型的效率。
ChatGPT 已经开启大模型“军备赛”,算力呈现明显缺口: 以谷歌、微软、META 为代表的科技公司皆在储备相关大模型、算力是打造大模型生态的必备基础,算力在 大模型的背景下势必迎来大爆发。而大模型参数呈现指数级别规模,引爆海量算力需 求 。根据财联社和 OpenAI 数据,ChatGPT 浪潮下算力缺口巨大,根据 OpenAI 数据, 模型计算量增长速度远超人工智能硬件算力增长速度,存在万倍差距。运算规模的增 长,带动了对 AI 训练芯片单点算力提升的需求,并对数据传输速度提出了更高的要 求。根据智东西数据,过去五年,大模型发展呈现指数级别,部分大模型已达万亿级 别,因此对算力需求也随之攀升。
此外,国家计算力指数与 GDP 同样呈现了显著的正相关。根据 IDC 数据,十五个 重点国家的计算力指数平均每提高 1 点,国家的数字经济和 GDP 将分别增长 3.5‰和 1.8‰,预计该趋势在 2021-2025 年将继续保持。算力需求高涨,2030 年人类将进入 YB 数据时代,全球数据每年新增 1YB。通用 算力将增长 10 倍到 3.3ZFLOPS 、人工智能算力将增长 500 倍超过 100ZFLOPS。相当 于一百万个中国超级计算机神威“太湖之光”的算力总和。
2.2.政策端与产业端持续发力,智能算力建设持续提速
当前我国已进入《新型数据中心发展三年行动计划(2021-2023 年)》落地见效 的关键年。《行动计划》主要目标为用 3 年时间,基本形成布局合理、技术先进、绿 色低碳、算力规模与数字经济增长相适应的新型数据中心发展格局。到 2023 年底, 全国数据中心机架规模年均增速保持在 20%左右,平均利用率力争提升到 60%以上, 总算力超过 200 EFLOPS,高性能算力占比达到 10%。
2023 年年 4 月 17 日国家超算互联网联合体成立,算力建设持续提速。科技部高 新司 2023 年 4 月 17 日在天津组织召开国家超算互联网工作启动会,会议发起成立了 国家超算互联网联合体。超算互联网是用互联网思维运营超算,将全国众多超算中心 通过算力网络连接起来,构建一体化算力服务平台,解决当前亟待突破的现有单体超 算中心运营模式,以应对算力设施分布不均衡、接口不统一、应用软件自主研发和推 广不足等问题。
近期地方全力保障数字基础设施建设,积极带动关联产业集聚发展。例如北京 昇腾人工智能计算中心正式点亮、贵州省大数据局印发《面向全国的算力保障基地建 设规划》、上海市经济信息化委印发 《上海市推进算力资源统一调度指导意见》、惠 州首个超大规模数据及算力中心力争年内投产、山东首个人工智能计算中心上线运行, 竞逐人工智能赛道、天津市人工智能计算中心揭牌,加快打造天津数字经济发展新动 能等。
“超算”向“智算”跨越,“AI+”时代步入“+AI”时代。区别于超算中心,智 算中心立足于赋能产业,可为大规模 AI 算法和模型研究形成条件支撑,主要支持人 工智能与传统行业的融合应用。由于利用超算系统完成人工智能计算任务的成本高、 效率低,我们认为从通用算力建设过渡到专用算力是大势所趋。加速构建智算中心有 利于精准适配算力,顺应从“AI+”时代(探索人工智能自身能力)向“+AI”时代(各行业融合 AI 走向场景化应用)跨越的数字经济发展趋势。目前我国已明确提出 智算中心技术路线要求,预计在政策推动下,智算建设进程有望加速。
智算算力增速超通用算力,26 城抢建智算中心目前国家在 8 地 启动建设国家算力枢纽节点,并规划了 10 个国家数据中心集群,协调区域平衡化发 展。根据智东西数据,截止 2022 年 2 月,全国共有至少 26 个城市在推动或刚完成当 地智算中心建设,其中合肥、庆阳、大连、沈阳、深圳、长沙等至少 6 个城市已经宣 布开工建设。中国智能算力规模持续高速增长,据 IDC 预计,到 2026 年智算规模将 达 1271.4EFLOPS,未来 CAGR 达 52.3%,同期通用算力规模 CAGR 为 18.5%。
2.3.算力需求井喷,AI相关产品需求旺盛
我们认为在 AIGC 与智算中心加速建设的大浪潮下,AI 相关产品需求旺盛,包括 但不限于AI芯片、AI服务器、AI云等相关产品。此外,在AI相关产品需求旺盛下, 有望带动相关配套产品或解决方案的出售,例如存储和液冷等产品。
2.3.1.AI芯片是AI算力的“心脏”
AI 芯片是 AI 算力的“心脏”,伴随数据海量增长,算法模型趋向复杂,处理对 象异构,计算性能要求高,AI 芯片在可高效处理人工智能应用中日渐多样繁杂的计 算任务。其中 GPU 相较于比 CPU 更擅长并行计算,CPU 是以低延迟为导向的计算单元, 而 GPU 是以吞吐量为导向的计算单元,转为执行多任务并行。由于微架构的不同导致 CPU 绝大部分晶体管用于构建控制电路和缓存,只有小部分晶体管用来完成运算工作, GPU 则是流处理器和显存控制用于绝大部分晶体管,从而拥有更强大的并行计算能力 和浮点计算能力。
AI 硬件持续升温,芯片价格大涨。随着 ChatGPT 带来 AI 产业大热,芯片作为 AI 算力基础,以英伟达 A100 和 H100 GPU 为代表的产品成为抢手货。近 期,英伟达 AI 旗舰芯片 H100 售价在多个商铺炒至 4 万美元,相比此前零售商报价 3.6 万美元,已明显提价。我们认为未来随着需求将进一步增加,或将进一步推高高 性能 AI 芯片的价格。
2.3.2.AI服务器作为AI芯片载体彰显其重要性
AI 服务器作为 AI 芯片载体彰显其重要性。与通用服务器采用串行架构、以 CPU 为算力提供者不同的是,AI 服务器采取异构架构,如 CPU+GPU、CPU+TPU、CPU+其他 的加速卡等不同的组合方式,目前广泛使用的是 CPU+GPU 。与通用服务器相比,AI 服务器拥有更出色的高性能计算能力。 我们认为大模型的出现有望带动 AI 服务器需求。我们认为除了对低延迟低功耗 算力的性能需求,随着人工智能的技术成熟与场景丰富,人工智能芯片朝着多元化的 方向发展,服务器的类型也将越来越丰富,并适用越来越多的行业应用场景。根据 IDC的数据,在2021年的统计,预计到2025年中国加速服务器市场规模将达到108.6 亿美元,且 2023 年仍处于中高速增长期,增长率约为 20%。
上游芯片带动服务器价格同步上行。一台 GPU 服务器的成本是普通服务器的 10 倍以上,GPU价格高涨直接动服务器价格显著上修。以国产浪潮AI智能服务器为例, 根据 AI 市场报价,其 R4900G3 规格产品含税价已高达 55 万元。据财联社 4 月消息, 闻泰科技同样称其服务器价格呈上涨趋势。
2.3.3.AIGC背景下,AI云服务迎来黄金发展时期
AIGC 下,AI 云迎来黄金发展周期。云计算就是指通过互联网,以按需服务的形 式提供计算资源。 企业可以实现按需收费。 由于 AIGC 引爆海量算力需求,因此我 们判断以人工智能在云计算中需求呈现爆发式增长,此外英伟达重磅推出 AI foundations 同样印证了我们的观点。 英伟达推出重磅推出 AI foundation 云服务,AI 云迎来黄金发展期。在 2023 年 3 月 23 日,英伟达 GTC 会议上,英伟达推出 AI foungdations 云服务,企业可以通 过在 NVIDIA DGX Cloud 快速采用生成式 AI,通过此种云服务能够构建、改进和操作 定制的大型语言模型和生成式 AI 模型,此外,英伟达将通过云服务商提供 AI 超算能 力。我们认为此举意味着英伟达想快速抢占超算时代的 AI 云市场,从而具备先发优 势,恰恰也侧面证实了全球 AI 云服务增速迎来拐点。
2.3.4.存储作为计算机重要组成部分同样高度景气
存储是计算机的重要组成结构,算力发展速度远超存储,存储带宽限制计算系 统的速度。存储器是用来存储程序和数据的部件,对于计算机来说,有了存储器才 有记忆功能,才能保证正常工作。在过去二十年,处理器性能以每年大约 55%的速度 提升,内存性能的提升速度每年只有 10%左右。因此,目前的存储速度严重滞后于处 理器的计算速度。能耗方面,从处理单元外的存储器提取所需的时间往往是运算时间 的成百上千倍,因此能效非常低;“存储墙”成为加速学习时代下的一代挑战,原因 是数据在计算单元和存储单元的频繁移动。
AI 服务器带来存力硬件需求上行,存储器价格同步高增。随着 ChatGPT 等应用 开启 AI 新时代,加之相关技术演进,预计全球数据生成、储存、处理量将呈等比级 数增长。NVIDIA 计算卡供不应求,使得 HBM3 显存出现了严重短缺的情况,由此导致 作为 HBM3 显存供应商的三星及海力士产品报价不断提升,远超平均报价水准。据财 联社消息,2023 年开年后三星、SK 海力士的 HBM 订单快速增加,近期 HBM3 规格 DRAM 价格上涨约 5 倍。
2.3.5.算力市场引爆,液冷为大势所趋
AIGC 背景下,高功耗大型数据中心建设是大势所趋,数据中心制冷拘束面临严 峻挑战。随着芯片技术与工艺的进步,服务器计算能力有了数十倍的增长,但是总 体功耗也随之提升。 同时,我们认为在 AIGC 大背景下,由于 GPU 数量显著增加,系 统峰值功耗显著增加,进一步加剧了数据中心的制冷压力。
根据《数据中心绿色高质量发展研究报告》,预计到 2025 年,数据中心的 X86 CPU 芯片 TDP(Thermal Design Power,散热设计功耗)提升至 350W 左右,ARM CPU 芯片的 TDP 提升至 600W 左右,而用于人工智能计算的 NPU/GPU 芯片会 提升到 750W 左右。同时期对应的典型服务器 (2U 高度 2 路处理器 ) 功率也持续演进, x86 CPU 服务器会提升到 725W 左右,ARM CPU 服务器提升至 1000W 左右,用于人 工智能计算的 NPU/GPU 服务器会提升到 1500W 左右。基于这些预测,2025 年主流 机柜功率将会达到 12~15kW/ 柜,未来 会继续增加到 25kW-50kW/ 柜,甚至更高, 对当前的数据中心制冷技术带来极大挑战。
因此,传统数据中心建设模式转型势在必行。数据中心作为算力基础设施的重 要内容和数字经济的枢纽,需求与日剧增,绿色节能、快速部署、智能运维、安全可 靠是未来数据中心基础设施的热点需求,低 PUE 值(Power Usage Effectiveness, 电源使用效率)成为国家关注重点。根据 CDCC 的数据,2021 年数据中心的平均 PUE 值为 1.49。
由于数据中心正在呈现高密度、高功耗的需求,液冷技术正逐步取代风冷技术, 同时具有多重优势。液冷主要指的是利用液体替代空气,带走 CPU、芯片组、内存条 以及扩展卡等发热器件运行时产生的热量。具体而言,1、液冷技术的高效制冷效果 有效提升了服务器的使用效率和稳定性,同时使数据中心在单位空间布置更多的服务器,提高数据中心运算效率。2、液体传导热能效果和大比热容能够保障 CPU 在一定 范围内进行超频工作不会出现过热故障,同时液冷数据中心省却空调系统和相应基础 设施的建设,3、应用液冷技术能够为数据中心节能、降噪。节省了风冷基础设施, 只增加了循环泵,不仅节省建设成本,也大大降低了能耗,使数据中心整体更节能。
此外液冷在性能方面同样拥有多重比较优势,例如散热性能、集成度、可维护 度、可靠性、性能、能耗等方面。同时液冷可有效降低 PUE 值,且成本更加便宜,例 如冷板式液冷可降低 PUE 值至 1.3 以下,浸没式液冷可降低 PUE 值至 1.2 以下。
液冷数据中心规模高速发展,浸没式数据中心有望成为主要产品。根据赛迪顾 问的数据,2019 年我国液冷数据中心市场规模为 260 亿元,预计 2025 年可达到 1283.2 亿元以上。根据赛迪顾问和中国通信院数据,2019 年中国液冷数据中心基础 设施市场规模为 64.7 亿元,预计 2025 年可达到 245 亿元以上。此外根据赛迪顾 问数据,2019 年冷板式液冷为主要产品,但未来浸没式液冷数据中心基础设施将会 占据更多市场,原因是浸没式液冷是直接接触的制冷方式,相较于冷板式液冷,更大 程度上利用液体的比热容特点,制冷效率更高,可有效降低数据中心 PUE 值。
3.全面布局产业生态,智算王者归来
AIGC 东风已至,中科曙光作为高性能服务器领军企业,旗下多款产品深度受益。 我们判断,随着 AIGC 的爆发,算力需求有望高速增长,中科曙光在智算中心方面具 有一体化的解决方案能力且产业链高效协同发展,相关产品有望迎来爆发式增长,其 中包括高性能服务器、云业务、存储业务,同时包括旗下子公司的 GPGPU、液冷相关 产品。 同时,我们判断智算建设明显处于加速阶段,中科曙光深度参与智算建设。公 司已经推出“5A 级”智算中心建设方案,可提供涵盖算力供给、算法优化、数据服 务及行业应用在内的全场景人工智能计算服务,有效促进 AI 产业化、产业 AI 化及政 府智慧治理,助力区域、行业迈入智能发展快车道。我们认为,国家与各地方开启新 一轮算力建设,结合国产化趋势,公司作为我国计算领域龙头厂商有望深度受益。
3.1.AI芯片高度景气,海光DCU提供强大算力支撑
海光 DCU 属于 GPGPU 的一种,应用场景广泛。CUDA 是由英伟达公司推出的、使 GPU 能够解决复杂的计算问题的通用并行计算架构,包含了 CUDA 指令集架构以及 GPU 内部的并行计算引擎。海光 DCU 系列产品以 GPGPU 架构为基础,兼容通用的“类 CUDA”环境以及国际主流商业计算软件和人工智能软件,软硬件生态丰富,可广泛应 用于大数据处理、人工智能、商业计算等应用领域。主要部署在服务器集群或数据中 心,为应用程序提供高性能、高能效比的算力,支撑高复杂度和高吞吐量的数据处理 任务。
海光 DCU深算一号可广泛应用于科学计算,人工智能模型训练和推理。拥有开放 式生态,统一底层硬件驱动平台,支持常见计算框架、库和编程模型,同时可适配不 同 API 接口和编译器,可最大限度利用已有的成熟 AI 算法和框架。同时海光 DCU 计 算单元数量较多,海光 DCU 的主要功能模块包括计算单元(CU)、片上网络、高速缓 存、各类接口控制器等,海光 8000 系列具有全精度浮点数据和各种常见整型数据计 算能力,具有最多 64 个计算单元,能够充分挖掘应用的并行性,发挥其大规模并行 计算的能力,快速开发高能效的应用程序。
海光 DCU 产品持续迭代升级,性能持续提升。目前海光 DCU 系列产品深算一号 为公司 GPGPU 主要在售产品,深算二号、深算三号处于研发阶段。公司研发团队在 高端处理器设计、SoC 架构设计、处理器安全、处理器验证、高主频与低功耗处理器 实现、高端芯片 IP 设计、工艺物理设计、先进封装设计、基础软件等关键技术上不 断实现突破。
3.2.中科曙光为高性能服务器领军企业
高性能计算机(HPC,超级计算机)能够执行一般PC端无法处理的高速运算的计算 机,泛指用于大规模科学计算而使用的计算机,区别于大型计算机。高性能计算机的主要目的就是提高运算速度,要达到每秒万亿次级的计算速度,对系统的处理器、 内存带宽、运算方式、系统 I/O、存储等方面的要求都十分高,这其中的每一个环节 都将直接影响到系统的运算速度。这类机群主要解决大规模科学问题的计算和海量数 据的处理,如科学研究、气象预报、计算模拟、CFD/CAE、生物制药、基因测序、图 像处理等等。
中科曙光为高性能计算机领军企业。产品主要包括机架式服务器、高密度服务 器、刀片服务器、超融合一体机产品等,能够面向多种应用场景,兼顾性能、能效、 应用生态,具有领先的计算密度和节能性,产品整合高速网络和存储技术,可实现超 大规模线性扩展,具有节能高效、安全稳定、高度集成等特点。目前已广泛应用于运 营商、金融、能源、互联网、教育等行业客户,涵盖基础设施、电子政务、企业信息 化和城市信息化等领域。
此外,公司高性能计算机是其研发实力的集中体现。公司可提供从底层机房基 础设施,到系统硬件、软件、一体化的产品解决方案,并提供全生命周期的技术服务。 具有多种优势:1、高可展性,可根据需求进行灵活拓展,满足峰值、存储容量需求; 2、广泛适配性,可与多种类型的 CPU、GPU、MIC 计算资源进行适配,可针对不同应 用特征而优化的存储和作业调度等,以满足用户需求达到最佳匹配;3、应用广泛, 曙光 6000 系列高性能计算机已经经过超算中心、物理、化学、生命科学、工程计算、 器相、海洋、环境、石油物探等行业地光检验、拥有“星云”(中国国家超级计算机 深圳轴心)、“派”(中国气象局国家气象信息中心)、“元”(中国科学院超级计算中心) 等典型代表。
公司高性能计算机持续创新。公司自创立之初便致力于高性能计算机的研发, 且公司新品持续问世。1995 年,公司曙光一号成功问世;此后,公司技术持续迭代, 先后发布了多款高性能计算机;2010 年,“曙光星云”问世,是中国自主研发的第一 台实测性能超千万亿次的超级计算机,是中国制造的拥有部分自主知识产权的超级计 算机,2010 年 5 月 31 日在全球最快超级计算机前 500 名排行榜上,“星云”超级计算 机及其相关系统经过众多专家测评,跻身排行榜第二的位置,超越欧洲和日本的同类 产品,其运算速度达每秒 1270 万亿次。2016 年,中科曙光研制出我国首款面向云计 算的服务器,是我国首款亿级并发云服务器系统。
中科曙光国际高性能计算机市场份额领先。根据 HPCTOP100 数据,2021 年 中国 TOP100 厂商系统数量份额排名前三;根据国际高性能计算大会榜单,中科曙光在全球超级计算机 500 强生产制造厂商中按系统数量排名第四,彰显中科曙光强悍技术实 力与计算生态。
3.3.曙光云提供全栈化解决方案
公司云计算具有长期的技术积累,提供全面整体解决方案。公司自 2007 年开始 从事云计算技术产品研发,依托曙光云的“城市云”建设,已基本形成了安全可信城 市云服务体系和解决方案,基于城市云计算中心为政府和企业用户提供云服务及云技 术服务,云服务内容包括计算、存储、网络、安全等基础云服务,大数据、数据库、 中间件等数据支撑及应用支撑云服务,智慧城市应用服务。
公司 Cloudview 云管理平台是以应用为核心的下一代云管理平台。该平台可以 实现异构云环境 (vSphere/OpenStack/Kubernetes 等)的自助式交付和控制,通过一个控制台就可以管理企业 所有的云工作负载,并且能够对云的使用和花费进行追 踪和优化。其功能包括:混合云统一管理、IT 自助服务、资源和应用的全生命周期 管理、计算+存储+网络的全栈自动化、所见即所得的应用蓝图建模等。广泛应用于金 融、互联网、IT 软件等领域。
公司人工智能云产品主要包括文字识别 OCR 和自然语言处理 NLP:1、文字识别 OCR 指对图片中的文字进行检测和识别,包括通用文字识别、各类卡证、票据、执照 等识别,输出具体识别文字结果,提供稳定易用的在线 API。该应 用通用文字识别及身份证据识别准确率高达 95%以上;公有云服务可用性高达 99.9%。 2、自然语言处理 NLP 提供丰富的文本分析能力,包括分词、实体识别、词性分析、 文章情感倾向分析等能力,提供稳定易用的在线 API。该应用具有标准化接口,通过 云计算调用可快速集成到应用中,降低开发人力成本,同时能全面覆盖语言处理的各 类需求。
曙光云以建设运营“城市云”为主要业务模式,具备全栈服务能力。目前城市云已踏足超 20 个省区、服务 50 多个城市,提供了超过 100 例客户 定制化方案。城市云方案主要面向政企市场,为用户提供性能优异的基础设施资源服 务、高效稳定的平台支撑服务,同时还有从基础设施资源层到平台服务再到应用服务 层的“云+大数据+人工智能”面向多行业场景的全栈服务。未来智慧城市支出高速增 长,根据 IDC 数据,中国 2020 年智慧城市市场支出规模为 259 亿美元,同比增长 12.7,仅次于美国。IDC 预计,全球智慧城市支出将在 2021 年开始逐渐提高增长速 度,并在 2020-2024 年的预测期间内实现 14.6% 的复合年增长率(CAGR),中科曙光 作为城市云龙头有望深度受益。
3.4.中科曙光分布式存储市占率前三
公司为用户提供包括分布式文件、分布式块、分布式对象、混闪和全闪系列集 中式存储等产品及一体化解决方案。作为东数西算项目的重要参与者,曙光存储持 续布局一体化存力。此外还通过推动存力绿色发展,降低数据中心的成本和能耗。根 据中关村在线,中科曙光存储事业部副总经理在中国移动 2023 移动云大会上介绍, 曙光存储已经连续三年中标中国移动存储集采项目,全面支撑移动云多种虚拟化云平 台和数据库应用,实现移动云覆盖近 30 个省市、上线数千节点、BOM 域全应用。
分布式存储产品空间大、架构稳定、管理运维简易。公司分布式存储主要包括 分布式存储系统ParaStor300S、分布式块存储系统XStor1000等产品。根据公司2022 年年报,目前,分布式存储方案单套存储容量已能达到 300PB 容量,ParaStor 存储 在业内权威存储性能测试 IO 500 榜单中位列 10 节点榜单第一名。同时,公司分布式 对象产品单桶支持千亿级小文件,集群性能超过百万 TPS,产品性能一流;全闪存节 点,以高性能、低时延的优势,在 EDA、自动驾驶等新兴应用场景中为核心业务提供 优质性能。分布式统一存储产品,单一系统同时支持文件、块、对象和大数据接口协 议,在“5G+云+AI”的发展趋势下满足海量异构数据存储、管理需求。
公司软件定义存储市场份额排名国内 Top3。据 IDC 统计,2021 年公司在软件定 义存储领域市占率为 11.3%,仅次于华为和新华三。截止 2020 年,在分布式文件存 储领域,曙光 ParaStor 以 20.6%的市场占有率,连续 7 年排在前 2 位;20 年 Q4,曙 光 XStor1000 以 9%的市场份额位居该细分行业前三。
公司 ParaStor 液冷存储产品是业界首款液冷存储,与液冷服务器形成“存算一 栈式”液冷方案。根据公司官网,ParaStor 液冷存储产品将液冷方案与存储技术结 合,将存储节点 PUE 值降至 1.2 以下,数据中心 PUE 值可降至 1.1 以下。在应用层 面,灵活配置多种场景,针对高性能小规模应用场景,提供全闪存配置方案,而针对 中大规模应用场景,则提供更高性价比的混闪配置方案,为客户释放更多的业务价值。 此外,ParaStor 液冷存储产品与液冷服务器形成“存算一栈式”液冷方案,在提高 运维效率的同时,助力数据中心部署更便捷。
3.5.中科曙光是中国液冷数据中心领导者
中科曙光是中国液冷数据中心领导者。旗下子公司曙光数创在数据中心高效冷 却的研发及服务方面积累了丰富经验,形成数据中心高效冷却系列化的技术和产品; 助力实现数据中心领域的节能降耗,降低数据中心运行成本,提升服务器的可靠性。 公司主要产品为浸没相变液冷数据中心基础设施产品、冷板液冷数据中心基础设施产品,其中浸没相变液冷数据中心基础设施产品是公司核心产品,2022 年曙光数创浸 没式产品和冷板液产品收入分别为 4.29 亿元、0.36 亿元,占比分别为 82.85%、6.92。
技术作为曙光数创的绝对护城河,公司在液冷方面技术优势显著。公司目前掌 握的核心技术包括浸没相变液冷技术、冷板液冷技术和风冷方向技术。浸没相变液冷 技术方面,公司已经掌握已知浸没冷却介质数据库及其材料兼容性研究,建立了已知 冷却介质的物化特性参数及其材料兼容性数据库,并制定了冷却介质及材料兼容性标 准,为后续液冷技术研发的重要基础理论依据之一。此外公司还掌握基于浸没蒸发加 近端冷凝的两级壳体结构的全密封微动力液体循环冷却制冷系统技术、芯片级微纳复 合结构强化沸腾技术、浸没环境下高频信号衰减抑制技术。
公司浸没相变液冷数据中心基础设施产品主要为 C8000 系列产品。其原理是将 服务器全部浸没在冷媒中,所有发热元器件通过冷媒相变换热的方式高效散热,气化 的冷媒进入换热器与常温冷却水换热,冷凝为液体,完成热力循环。产品形态为每个 单元内包含 1 台液冷换热模块和 2 台计算机柜,成为“一拖二”液冷计算单元。产 品设计特点为: 1、液冷换热模块,具有超低能耗、高制冷效率、低噪声、高可靠性 等特点;2、高压直流供电系统,具有高可靠性、占用空间小,符合刀片服务器紧凑 化设计要求等特点;3、流体分配系统,可支持管路热插拔,保证系统安装或维护过 程中冷媒不泄漏;4、强化沸腾散热功能,最高可实现 100W/ c ㎡以上的散热密度。
公司冷板式液冷相关技术实力同样雄厚。目前已掌握高功率密度芯片冷板热控 制、智能动态匹配分液、服务器通用内存散热设计、服务器用水冷液选型及低电腐蚀 等相关技术。C7000 系列是公司冷板液冷数据中心基础设施产品。采用液冷为主、风冷为辅的 混合冷却模式。服务器内主要热源(例如 CPU、内存等)采用液冷冷板套件进行冷却, 其余热源仍采用风冷方式进行冷却。通过这种混合冷却方式,可大幅提升服务器散热 效率,同时,降低冷却系统能耗,增强服务器可靠性。具有芯片级精确制冷、总体 TCO 低、全地域全年自然冷却、智能管理、安全可靠、快速部署等特点。
4.投资分析
考虑到公司主营业务相似性,我们采取 PE 估值法,在 A 股选取可比公司:浪潮 信息、紫光股份、拓维信息、神州数码。可比公司 2021、2022、2023 年的平均 PE 为 49、35、27 倍,考虑到公司处于高性能服务器龙头地位且产业链协同发展因素,因 此理应给予更高估值。 公司在我国信创服务器、AI 算力、高性能计算、存储等领域具备领先优势,将 受益于信创、AI 等产业高速发展。维持公司 2023-2025 年营收预测 154.11/180.20/ 207.91 亿元,维持公司 2023-2025 年归母净利润预测 20.24/26.46/26.46 亿元,维持 公司 2023-2025 年 EPS 预测 1.38/1.81/2.24 元。2023 年 5 月 26 日总市值为 734 亿, 对应股价 50.14 元,对应 PE 为 36.3/27.7/22.4 倍。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
关键词: