元宇宙究竟是什么?
一个得到广泛认同的观点是:元宇宙是继PC互联网、移动互联网之后的下一代互联网形态,以及更广义的数字化总和;以 3D 化、UGC、更长在线时间为突出特点,包含 XR、AI、5G 等技术在 C 端和 B 端的全面应用,最终指向的是数字化生存。
元宇宙内涵极为丰富,包含互联网、产业数字化、智能化、物联网、高算力设备、高速无线通信等领域和技术。
那么,为什么是元宇宙?国内外有什么相关政策?元宇宙的产业链上都有哪些细分行业和公司?未来会向什么方向发展?下面我们一一进行分析。
人工智能是未来元宇宙中主要的生产工具,数据是生产要素,越来越多的内容由 AI 生成。IDC 预测,到 2025 年,将有 414 亿台物联网设备,期间将产生73147EB 数据,其中约四分之一是实时生成的。人工智能按照计算场景可分为云端和终端。NVIDIA 将深度学习计算场景分为三大类:数据中心的训练、数据中心的推断和嵌入式设备的推断。不同计算场景对 AI 芯片产生不同要求,云端训练和推理时对芯片的计算能力要求极高,而终端对低功耗要求和反应时延较高。随着人工智能向边缘侧的转移,AI 行业应用得到了极大扩展,也将成为元宇宙时代内容的主要生产工具。根据德勤的分析,现在的 AI 计算已经在制造业、政府、零售、电信、医疗等不同应用场景下获得应用。据市场咨询公司 ABIResearch 的数据显示,预计到 2025 年,边缘 AI 芯片市场的收入将达到 122亿美元,云 AI 芯片市场的收入将达到 119 亿美元,边缘 AI 芯片市场将超过云AI 芯片组市场。
异构集成+存算一体化是边缘 AI 芯片的核心竞争点。传统计算与存储设备分处不同的模块,CPU 需先对存储硬盘上的数据进行读取、搜索、加/解密、压缩等操作。但 AI 等应用的兴起,数据处理量不断上升,存算分离模式无谓的信息传输不仅增加了计算延迟,也提升了相关功耗。根据台积电此前对存内计算的研究,数据移动所消耗的能量甚至大于计算的能量消耗。与传统方式相比,计算存储模块减少数据检索时间 90%,节省能耗 60%。在存内计算方面,三星走在业界前沿,其开发的具有计算功能的 HBM2 内存已经开始在实际产品上进行验证测试,将 HBM-PIM 与 Xilinx Alveo AI 加速计算服务器集成,将提升系统整体性能 2.5 倍,同时降低能耗 60%以上。
元宇宙时代对计算量的需求,已经超过了通用 CPU 的发展速度,仅通过提升CPU 时钟频率和内核数量而提高计算能力的传统方式遇到了散热和能耗瓶颈。需要 GPU、FPGA、ASIC 等不同类型指令集和体系架构的计算单元,去配合CPU 组成系统的计算方式。目前“CPU+GPU”以及“CPU+FPGA”都是受业界关注的异构计算平台。
相关公司布局:将计算、存储和网络资源移动到边缘侧,英特尔推出 Xeon D 系列处理器。面向人工智能和超算需求,英伟达推出 Grace 多模块芯片。AMD 收购赛灵思,补齐 FPGA 产品线。
(2)服务器
2021 年上半年全球 AI 服务器市场同比增长率超过全球 AI 整体市场增长率22.4%(含硬件、软件及服务),成为 AI 整体市场增长的驱动力量。预计在2025 年全球 AI 服务器市场规模将达到 277 亿美元,五年复合增长率为 20.3%。国内数字经济的发展和 AI 应用的落地引领中国 AI 计算市场的不断增长。据IDC 数据,中国 AI 算力占全球市场的 40%左右, 2021 年上半年加速服务器市场规模达到 23.8 亿美元,同比增长 85.1%;到 2025 年市场规模将达到 108.6亿美元。
边缘计算采用“云-边-端”架构,核心逻辑是中心资源下沉。边缘计算从上至下可分为中心云、边缘网络和终端设备三级,其中中心云由集中式的数据中心和核心网构成,提供最密集的 IT 资源,同时是整个计算网络的总协调中心;边缘网络是指从中心云到终端设备这一路径上的所有 IT 资源,包括计算资源、存储资源和网络资源;终端设备并非孤立运行,而有可能作为边缘计算的一部分被边缘网络调度以提供相应的 IT 资源。通过将边缘计算与云计算相结合(即“边云协同”),使边缘节点聚焦于实时、短周期的数据处理,而中心节点聚焦于非实时、长周期的数据处理(以防止边缘节点计算饱和),如此一来可以极大地缓解网络带宽与数据中心压力,同时增强服务请求的响应能力。