企业在私有化环境中部署 AI 大模型时,第一个思考的问题往往是关于“基础设施”层面的:现有的 IT 环境能跑 AI 大模型吗?一定要花好几百万采购 AI 一体机吗?如果想要 DIY AI 基础设施,都需要哪些必要组件?需要对现有机房进行哪些改造?…… 以下,我们将结合分析机构报告,详细解读企业构建 AI 基础设施时需要关注的 3 个层级的关键能力、AI 基础设施与传统基础设施的区别,以及运行 AI 大模型可能涉及的机房改造方面。
什么是 AI 基础设施?
AI 基础设施并不仅仅是“使用 GPU 的服务器”,根据 Gartner《Innovation Insight for GenAI Infrastructure》报告,完整的 AI 基础设施应包括 3 个层级:针对 AI 进行优化的物理基础设施、提供编排与治理能力的 AI 平台,以及最大化 AI 价值的“AI 即服务”(AI as a Service)和 Xops 流程。

第一层:针对 AI 进行优化的物理基础设施
为构建完善的 AI 基础设施,企业必须从传统的 IT 基础设施建设思维转变为以 AI 为核心的整体规划,构建由多种面向 AI 优化的技术栈组成的基础设施体系,并在总体拥有成本(TCO)与系统性能之间达到最优平衡。AI 物理基础设施主要包括:
计算加速器
AI 基础设施不再追求单一的“最佳”芯片方案,企业应构建多元化的加速器组合(包括 CPU、GPU、TPU、FPGA 等),并根据不同业务场景的性能需求和成本约束,选择最适合的加速器类型,实现最优配置。
- 基础通用 GPU:适用于追求研发速度、产品迭代效率以及多类型工作负载的场景。成熟的软件生态不仅降低开发门槛,也有助于吸引顶尖技术人才。
- 新兴通用 GPU:更适用于大规模、单一模型的训练任务。其创新的内存架构有助于简化基础设施设计,并有效降低系统延迟。
- AI 加速器:适用于高吞吐、固定模式的推理任务(如推荐引擎),可大幅降低 TCO 和功耗。
高性能网络
网络架构的选择至关重要,会直接决定未来 AI 模型和应用的运行成本与性能表现。企业不仅需要关注网络带宽的大小,更需要在垂直整合网络的简化管理与开放标准网络的灵活扩展之间做出取舍。同时,需要针对不同的应用场景评估适合的网络架构——选择连接不同系统的横向扩展架构(Scale-out),或是连接系统内加速器的纵向扩展架构(Scale-up)。
1. 横向扩展架构
- 无损专有网络:如 InfiniBand,适用于追求极致性能的大规模训练集群,目标是尽可能缩短任务完成时间。其优势在于操作简化,具备低时延和高吞吐能力,但对生态体系依赖度较高。
- 开放标准以太网:如基于融合以太网的远程直接内存访问(RoCEv2),适合希望保持供应商多样性、并利用现有网络和人才的组织。企业初期需要承担更高的调优成本(尤其是引入 UEC 等新兴标准时),但长期来看,可获得更高的灵活性与成本掌控能力。>>了解更多:解决 SAN 交换机“卡脖子”并升级存储架构?一文解析 RoCE 与相关存储方案趋势
- 数据处理单元(DPU)增强型以太网:通过从 CPU 中卸载网络与安全任务,从而最大限度释放计算资源,使其专注于核心 AI 工作负载,在多租户场景中表现尤为突出。
2. 纵向扩展架构
- 高速专有互连:如 NVIDIA NVLink,适用于训练和推理超大规模的基础模型。该结构可使多个加速器像一个统一的处理器一样协同运行,并提供最大带宽。
- 开放标准互连:如 UALink,适用于追求灵活性、希望降低对单一计算加速器供应商依赖的组织,从而降低长期使用风险。
面向 AI 的存储基础设施
以容量为导向的传统存储架构,已无法满足生成式 AI 对高性能存储的要求。企业需要构建一个多层数据存储架构,通过尽可能提升数据吞吐能力,缓解计算资源(如 GPU)匮乏的问题,避免因存储瓶颈影响 AI 工作负载效率。
在这一背景下,企业不应只建设数据湖,而是要打造一个统一的数据服务工厂,将数据存储和传输融入 AI 工作流,并针对特定工作负载开展性能优化。具体建设思路可参考 Gartner 的生成式 AI 存储设施 3 大关键能力与部署方案。建议存储设施具备如下能力:
- 高吞吐量的并行文件系统:作为训练阶段的全闪存“热层”,提供极致的数据吞吐能力。通过消除存储瓶颈,使昂贵的 GPU 和 ASIC 集群保持数据满载状态。
- 全闪分布式文件系统/对象存储平台:作为核心数据湖,用于数据准备与混合 I/O 工作负载运行,旨在为海量小文件提供高性能处理能力。
- 专用 AI 数据集成平台:适用于 MLOps 环境,提供数据治理、版本管理与工作流自动化能力,确保训练过程的可重复性与合规性。
第二层:提供编排与治理能力的 AI 平台
在 AI 场景中,除了物理基础设施,企业还需要引入第二层基础设施——AI 平台层,将底层的原始计算资源转化为可供多租户使用的平台与编排栈。这意味着,企业需要从传统的孤立部署应用的方式,转向构建一个统一的操作系统支持“AI 工厂”运作,并将计算资源作为可共享、可管理的开放平台。AI 平台需要具备以下能力:
弹性资源编排
AI 平台需要将异构硬件资源转化为一个可互换、可共享的多租户资源池,以满足生成式 AI 高度波动的资源需求。企业应构建一个统一的 AI 工厂操作系统,使 AI 产品和 AI Agent 的研发、训练与部署能够在同一平台上实现动态、共享式的编排,最大限度提高 GPU 和 ASIC 的投资回报率(ROI)。
1. 基础控制平面
- 云原生编排:如 Kubernetes,可作为覆盖本地、云端和边缘环境的统一控制平面。提供标准化、可移植的 API,管理所有容器化的生成式 AI 工作负载,是承载 AI 平台上其他工具与能力的基础。>>了解更多:基于 Cluster API 的 Kubernetes 集群生命周期管理
2. 专门的工作负载调度和编排
- 高级 AI 编排器:如具有类似 NVIDIA Run:ai 功能的工具。构建于 Kubernetes 之上,实现对计算加速器资源的动态共享调度。通过队列管理与资源分块,可在同一集群中混合运行训练与推理任务,从而显著提高资源利用率。
- 高性能计算(HPC)调度器:如 SchedMD 的 Slurm,可集成部署在 Kubernetes 环境中,以支撑大规模、强耦合的基础模型训练所需的吞吐能力。可在任意基础设施上运行传统 HPC 工作负载。
3. 应用层运行时和引擎
- 高级推理引擎:如 vLLM、SGLang、NVIDIA Dynamo 和 Google Pathways。强制使用这些运行时,可显著降低生产推理的单 token 成本(cost-per-token)。这类引擎采用新型内存管理技术,可显著提升 GPU 吞吐能力,为高并发的 RAG 与对话式 AI 应用提供高性能支撑。>>了解更多:学习框架和推理引擎有什么区别?
平台治理、安全和财务运营
这一能力通过可透明、可审计、可计费的内部服务模式,使企业在风险把控、成本管理与性能优化之间实现最佳平衡。
1. 安全、治理和风险管理
- “策略即代码”:旨在为混合环境创建统一、强制、可审计的安全策略。无论容器运行在本地、云端或托管的 AI 集群,系统都能自动阻止不合规的工作负载运行,避免手动审查。
- 统一身份和访问管理:通过记录系统,确保每个操作都可追溯到特定主体(人或机器)。在排查跨混合环境的代理工作流或审计数据驻留时,这条不可篡改的“责任链”至关重要。
2. 平台工程
- 联合集群管理:其隐性目标是实现跨平台的策略性工作负载调度,所有操作都通过一个无缝衔接的工作流程完成。
- 整体可观测性和可追溯性:旨在保障整个分布式 AI 供应链的安全。企业应能够追溯有问题的 AI 输出——从云端托管的推理 API,到模型最后一次微调所在的本地集群,最终定位到训练所用的数据源。
3. 财务运营
AI 财务运营与成本治理不仅关注成本控制,更是对整个混合 AI 工厂的损益管理。平台需提供统一的成本视图,为业务部门生成一张综合账单,包含本地 GPU 使用的分摊成本和云端推理调用的按量计费成本,从而准确计算出 AI 项目的投资回报率。
第三层:最大化 AI 价值的“AI 即服务”和 XOps 流程
在推动 AI 转型进程中,企业还需要关注如何将 AI 平台升级为一个高效、可审计、财务透明的内部 AI 服务市场。因此,企业需要引入第三层基础设施——“AI 即服务”和 Xops 流程,帮助 AI 开发人员无缝创建符合企业规范的模板化 AI 推理架构与代理环境。>>了解更多:ModelOps/MLOps/LLMOps 有什么区别?
助力 AI 落地的 XOps 流程
通过简化基础设施,XOps 流程可为研发人员提供一个标准化、自服务的生产流水线,提高 AI 从创意到生产部署的全流程效率。XOps 策略必须与企业的 AI 基础设施建设相匹配,构建覆盖整个 AI 开发生命周期的多层技术体系。
- 自服务门户和工具:作为 AI 工厂的统一入口,为数据分析人员提供自助式的计算资源与工具访问能力。这不仅能提升生产力,也能显著降低运维管理负担。
- 自动化管道和工作流引擎:充当模型开发的“装配线”。通过自动化 MLOps 生命周期,确保治理一致性、可重复性并加速创新。
- 分布式 AI 运行时:作为核心扩展引擎,使单个训练任务能在庞大的加速器集群上分布式运行。
以“As-a-Service”为目标
为了提高资源利用率,企业必须构建一个联合控制平面——通过统一视图,引导团队在本地部署、开放权重模型与云专属前沿模型之间权衡利弊。
- 按需训练环境:利用平台蓝图,为开放权重模型提供自服务的本地训练环境。团队可在最大程度保障数据隐私与控制权的前提下,对敏感企业数据进行微调。
- 内部 RAG 与推理工作流:提供“一键式”模板,用于部署开放权重模型以支撑内部 RAG 或推理任务。适用于高吞吐、成本敏感且数据完全私有的场景。
AI 基础设施和传统 IT 基础设施有哪些区别?
结合 Gartner 的报告可以看到,AI 基础设施和传统 IT 基础设施在建设思路、硬件使用和能力层级上均有明显差异。
建设思路:从“静态 IT”到“AI 工厂”
Gartner 报告指出:“企业必须从传统的 IT 基础设施建设思维转变为关注以 AI 为中心、由多种针对 AI 进行优化的技术栈组成的基础设施组合(a diversified portfolio of AI-optimized stacks)。” 说明二者在建设思路上存在根本差异:
- 传统 IT 基础设施:以业务系统的稳定、安全运行为核心,资源需求相对可预测。如 ERP、CRM、数据库等系统,资源消耗和增长速度相对静态。
- AI 基础设施:以多层次、动态的算力和数据吞吐为核心。AI 基础设施的本质是一个可扩展、可运营的 AI 工厂,需要处理不可预测、弹性灵活、多环境(本地/云/边缘)协同的算力需求。
硬件使用:各组件的全面升级
传统 IT 基础设施使用的硬件以 CPU+光纤网络+集中式存储为主。AI 基础设施则完全不同,它是一个异构、多层次、高吞吐的硬件生态系统。
- 计算资源:传统 IT 基础设施以 CPU 为核心;AI 基础设施不再追求单一的“最佳”芯片方案,以多元化的加速器组合为核心(包括 CPU、GPU、TPU、FPGA 等)。
- 网络架构:传统 IT 基础设施依靠传统 SAN 网络或通用以太网支撑大部分系统通信;AI 基础设施则需要高性能的网络,并兼顾垂直整合网络的简化管理与开放标准网络的灵活扩展。
- 存储体系:传统存储设施关注容量,而面向 AI 的存储基础设施旨在提升数据吞吐量,打造统一的数据服务工厂。
能力层级:“硬件-软件”双层架构 vs. 关注 AI 优化与 XOps 的三层架构
传统 IT 基础设施建设主要关注硬件层和软件层(如计算虚拟化),而 AI 基础设施不仅在软件层提出了针对 AI 资源的编排与治理能力需求,还引入了 XOps 需求——提供模板化、可复制、可监管的 AI 服务能力,从模型训练、微调、推理到 AI Agent,从创意到生产部署全生命周期,提升研发效率。基于此,企业 AI 部门不仅是 AI 项目的技术中心,还是企业内部的 AI 服务提供商。
>>了解更多:AI 模型落地关键概念解读:推理引擎/ModelOps/MaaS/AI Agent…
部署 AI 模型,涉及哪些机房层面的改造?
在构建 AI 基础设施时,除了基础设施本身的建设,不少企业也需要改造现有数据中心机房,以满足 AI 运行在电力、冷却和机房空间等方面的特殊需求。
供电系统升级
AI 模型往往采用高性能计算硬件,对功率的要求极高,传统 IT 基础设施供电系统可能难以满足需求。
- 高功率电源和 UPS:AI 计算需要大量的电力,尤其是 GPU、TPU 等高功率硬件对电力的需求更高。企业需要为机房配备足够的电力容量(有时甚至需要专门采购万瓦机柜),并确保有高效的 UPS(不间断电源)系统,以防止电力故障造成的中断。
- 电力管理和监控系统:基于 AI 计算资源不同的负载状态,电力管理系统需要实时监控电力消耗,并进行动态负载均衡,优化能效。
散热系统升级
Gartner 报告预测,“到 2027 年,所有大型企业内部 AI 的电力和冷却预算将超过其全部 IT 硬件资本支出”。这是因为 GPU 集群带来的热功率远超传统 CPU 集群,传统的风冷难以满足高密度 GPU 服务器的散热要求,数据中心必须采用更高效的制冷与散热方式,为业务的正常运行“保驾护航”。
- 精密空调系统:传统的空调系统无法满足高密度计算机的散热需求,需要升级为精密空调,精确控制温度和湿度。
- 液冷系统:针对高密度的 AI 计算需求,液冷技术可以更加高效地散热。液冷系统能够在硬件和冷却液之间直接交换热量,提升散热效率。
- 热回收系统:考虑到能源效率,一些 AI 机房可能会采用热回收系统,将散发的热量回收用于加热办公区或其他建筑,提升整体能效。
机架密度改造
面向 AI 使用场景,为了满足高密度计算需求,企业还可能需要对机房进行机柜和布线方面的改造,如:
- 增大机架间距,避免设备过度拥挤,影响散热和操作。
- 采用高承重机架以支撑专用设备(如每个机架至少支持 1-2 吨的承载)。
- 关注电力线路和网络线路的布局设计,采用冗余的线路设计,同时为了避免电磁干扰,应尽量将电力线路与数据传输线路分开布置。
更多 AI 知识科普、AI 大模型落地方案与 AI 基础设施建设实践,欢迎阅读往期博客:
AI 模型落地关键概念解读:推理引擎/ModelOps/MaaS/AI Agent…
AI实践分享|以MCP简化IT运维管理,生成定制化报表(附操作演示)
SmartX AI 基础设施新增昇腾 NPU 与 MindIE 支持能力:方案与评测
如何基于 SmartX 超融合满足企业 DeepSeek 快速落地验证需求?
欲了解更多 AI 基础设施的技术趋势、产品方案与测试验证,欢迎下载《构建企业 AI 基础设施:技术趋势、产品方案与测试验证》电子书!