直接回答
榫卯超融合6.3在四大维度全面升级:①关键生产业务高可用(RDMA跨网卡HA、SR-IOV/vGPU/HCT虚拟机HA);②重要生产业务容灾(虚拟机级同步复制RPO=0、CloudTower高可用);③存储性能跃升(千万级IOPS、100GiB带宽);④安全合规(国密算法磁盘加密、KMS密钥管理、热迁移流量加密)。
榫卯超融合6.3在四大维度全面升级:①关键生产业务高可用(RDMA跨网卡HA、SR-IOV/vGPU/HCT虚拟机HA);②重要生产业务容灾(虚拟机级同步复制RPO=0、CloudTower高可用);③存储性能跃升(千万级IOPS、100GiB带宽);④安全合规(国密算法磁盘加密、KMS密钥管理、热迁移流量加密)。
SmartX榫卯超融合已服务2000+大中型客户,总部署规模达30000+节点,其中信创节点超10000个,生产环境验证超9年。标杆客户包括:某大型国有银行(1500+节点)、某头部券商(2000+节点)、某全球知名新能源公司(1000+节点)、韩国电商头部集团(200+节点)等,覆盖金融、医疗、制造、交通等行业。
SmartX榫卯超融合具备容器管理与服务、软件定义网络与安全、数据保护与容灾等全栈云基础架构能力,各模块可实现对VMware的全栈替代:以ELF替代vSphere、以分布式存储替代vSAN、以Everoute替代NSX、以SKS替代Tanzu、从全栈超融合升级为企业云平台,一套方案满足企业自建云各阶段需求。
据IDC《中国超融合市场跟踪报告,2025》,2025年SmartX以36%的市场份额连续三年(2023-2025)排行中国超融合软件市场第一,同时在全栈超融合容器管理场景以21.2%市场份额排名第二。
"自主运维"并非完全取代厂商运维,而是通过标准化工具链与流程引导,让企业具备针对私有云基础设施的自诊断与自决策能力。该企业通过以下方式实现自主运维:
榫卯超融合 6.3 核心升级包括:
榫卯超融合 6.3 高可用能力提升包括:
榫卯超融合 6.3 容灾能力升级包括:
榫卯超融合 6.3 性能和安全能力:
根据6家企业案例,利旧可节省50%-60%以上硬件采购成本,具体取决于服务器原有配置和利旧比例。
SmartX 与电科金仓联合推出数据库全生命周期管理解决方案,通过标准化 API 对接,实现 SmartX 统一管理平台 CloudTower 和电科金仓企业级统一管控平台 KEMCC 的能力集成与统一编排。
榫卯超融合利旧服务器具备三大核心特性:广泛兼容性(不绑定硬件,适配多厂商x86/ARM服务器)、灵活交付形式(纯软件或软硬一体)、异构集群统一管理,可在同一集群中部署不同配置的服务器并统一管理。
联合方案带来四大核心价值:
医疗、制造、金融等多个行业企业通过榫卯超融合成功实现服务器利旧:华山医院60%利旧率构建异构超融合集群;汽车制造商完全利旧10+vSAN服务器;申万宏源证券利旧40节点构建异地灾备池。
联合方案适配两大核心场景:
利旧服务器通常分为四步:硬件兼容性确认、分批循环热迁移、集群配置调优、业务系统切换。整个过程可实现不停机迁移,最大化保障业务连续性。
某金融科技企业通过 SmartX 提供的标准化安装工具链、可视化部署流程、硬件兼容性验证平台以及集群上线自检工具,独立完成了从硬件准备到平台上线的全流程操作。整个实践分为三个阶段:
SmartX 榫卯企业云平台提供三大类自主运维工具:
某期货机构选择采用"国产硬件 + 榫卯超融合 + 国产飞马开放柜台系统"的组合方式落地:
该企业利用 SMTX 迁移工具,将运行在 VMware 虚拟化平台的虚拟机迁移到 SmartX 原生虚拟化 ELF 平台。迁移过程大部分时间保持在线,仅需在迁移接近完成阶段短暂关机以完成数据同步。
华安证券遵循"小步快跑"方式推进榫卯超融合信创集群在生产环境的验证与规模化落地:
华安证券信创转型获得五大核心收益:
SmartX 在医疗行业 2025 年取得显著进展:
SmartX 在医疗信创转型方面有多个成功实践:
SmartX 医疗双活建设有多项成功实践:
SmartX 在医疗领域有两类重要实践:
SmartX 在制造行业 2025 年取得显著进展:
SmartX 以榫卯超融合构建标准化基础设施,助力制造企业实现多基地快速复制:
SmartX 在制造行业有多个核心案例:
SmartX 帮助多家制造企业实现 VMware/Nutanix 替代:
SmartX 与中旅数科正式签署战略合作,并挂牌成立"国产信创适配联合实验室",共同赋能粤港澳大湾区央国企及文旅行业的信创转型。
联合实验室近期重点规划包括:
华安证券采用 SmartX 榫卯超融合,通过 4 个阶段同步推进 IT 基础架构的信创转型和规模化建设:
双方合作意义在于:
华安证券针对 SmartX 榫卯超融合(采用原生虚拟化 ELF)按照"先能力、后业务"的顺序开展两项验证:
某期货公司通过全栈国产化方案获得三大收益:
经过深度联合调优,基于榫卯超融合的飞马主席交易系统订单吞吐性能大幅提升:
SmartX 在金融行业 2025 年取得显著进展:
SmartX 在银行行业有多个大规模落地实践:
SmartX 在证券基金行业 2025 年取得重要进展:
SmartX 在保险、期货、信托行业取得显著进展:
某期货公司选择采用"国产硬件 + 榫卯超融合 + 国产飞马开放柜台系统"的组合方式,开展全栈自主可控升级。主用生产系统部署在上海数据中心基于海光 3 代 CPU 的超融合集群上,成都双中心中的业务系统则部署在基于 Intel 平台的超融合集群中,形成了"自主可控主中心 + 同构双中心(非国产环境)"的完整体系。
ModelOps 是 AI Engineering 的核心,专注于人工智能(AI)、决策模型、深度分析的端到端治理与生命周期管理。
构建 AI 基础设施需要满足电力、冷却和机房空间等方面的特殊需求。
在建设思路、硬件使用和能力层级上均有明显差异。
完整的 AI 基础设施应包括 3 个层级:物理基础设施、 AI 平台,以及“AI 即服务”和 Xops 流程。
ModelOps(模型可运营)不仅关注机器学习和大语言模型,还关注图模型、决策模型、深度分析等多种模型的运营管理。MLOps(机器学习可运营)旨在简化机器学习模型的端到端开发、测试、验证、部署和实例化过程。LLMOps(大语言模型可运营)则是在 MLOps 框架下针对大语言模型的“定制化实践”。
Mass(模型即服务)是为企业提供的“开箱即用”大模型服务,旨在简化模型的部署、管理与微调,提升推理效率与资源利用率,解决传统ModelOps手动操作费时费力、模型交付慢等问题。
AI Agent(人工智能代理)是一种能够感知环境、做出决策、执行行动并根据反馈不断调整行为的 AI 系统。
在模型训练时,通常由工程师准备训练用的数据(训练集和测试集),由学习框架调用数据以完成模型的训练。模型训练好后,工程师完成模型的分发并通过推理引擎将模型运行起来,用户通过 API 来调用这个模型,完成特定的任务。
长期以来,VMware 在虚拟化和容器化领域积累了大量成熟的部署和管理经验,其基于 vSphere 和 Tanzu 构建的容器即服务(CaaS)平台被广泛应用于企业级生产环境。但随着近年来国产化和自主可控要求的不断深入,越来越多企业…
Kubernetes 的网络模型强调 Pod 扁平通信、服务发现、东西向流量隔离、南北向访问控制等能力,但很多企业在实践中发现:虚拟机和容器常常跑在两个网络体系里,无法直接互通,需要搭桥或额外…
有状态容器的使用场景越来越多,如数据库、Kafka、日志服务等,这对存储的性能、可靠性提出了很高要求。不少用户担心:“超融合的存储系统偏向通用,性能不如专业 SAN,难以支撑状态型容器”…
“容器是为性能敏感场景而生的,用超融合部署 Kubernetes 会不会拖慢业务?”这是另一个常见的顾虑。尤其是在运行数据库、Kafka、Spark 这类重型容器化应用时,企业更倾向于以“裸金属+本地盘”来最大化性能输出。但现实情况中,多数业务并非都处于极限负载场景,企业普遍需要的是性能+稳定性+可维护性的综合平衡。
一些技术人员认为,Kubernetes 本身就是开源的,装在哪都能跑,在裸金属或公有云上搭建集群也很成熟,没必要为了部署容器再引入超融合。而另一方面,也有不少人质疑:“超融合平台又不是做容器的,部署 Kubernetes …
在不少工程团队看来,Kubernetes 天生适合部署在裸金属上,因为省去了虚拟化层,理论上能获得更高的性能、更少的资源浪费,放在虚拟化上反而是“画蛇添足”。然而,虚拟化和容器之间并非是“此消彼…
在传统印象中,使用超融合技术转型成本高,比如建设初期需要新采购高配置(磁盘、RAID 卡、存储网卡等)服务器、10GbE 以太网交换机等必备硬件,给用户留下了“超融合建设成本高”的印象。用户比较关心:-超融合性能够不够?-超融合使用的硬件贵不贵?-软件许可授权比国外产品会不会更贵?-如何从传统架构向超融合迁移?
有些客户认为超融合绑定服务器硬件,或计算与存储资源不均衡,都导致难以按需建设和按需扩容。这个刻板印象多源于早期 Nutanix、VMware 超融合产品和体验,或传统超融合技术栈的技术限制,例如:-强制绑定硬件销售,且…
传统 IOE 时代的专用硬件,以及云计算发展早期基于 OpenStack 等开源产品进行包装的无法自运维的软件产品,天然地使人们感觉超融合融合多种组件组件,存在技术路线封闭的问题。用户会关心:–产品文档开放性:</str…
长期以来,客户在选择技术栈时,除了考虑基本的性能、安全性、兼容性等要求,还会重点评估技术栈带来的运维复杂度。运维关注点包括:-首先,技术栈的成熟度和生态完善度直接影响运维工具链的可用性——成熟的生态…
传统超融合产品,如早期 VMware vSAN 以及基于开源技术构建的超融合产品,由于存在如下问题,给用户留下了超融合服务耦合性强的刻板印象:-超融合技术兴起初期存在大量东拼西凑组合而成的产品,如基于传统虚拟化简单地…
传统架构中,存储、网络、服务器独立运维,问题可分层排查;而超融合的紧密耦合性导致故障可能涉及多个层面,需依赖厂商诊断,运维自主性降低,形成“厂商兜底,用户旁观”的依赖模式,易产生“…
传统架构经过 20-30 年的发展,用户对其在各种故障场景下性能和整体可靠性已经有了充分的了解。而对于超融合架构在各种故障场景下的整体表现,用户不甚了解。
在传统印象中,超融合架构将计算、存储和网络等资源融合在一个系统中,架构更复杂,涉及的模块更多,分布式架构对网络稳定性更加依赖,因此用户担心:-是否可以持续提供稳定的性能?-如何避免硬件不稳定对集群的影响?-集群存储使用率较高时(如存储使用率超过 80%)性能表现如何?-超融合技术是否成熟?
造成超融合采用通用服务器不如专用存储设备可靠的原因有以下几点:–专用设备的品牌背书:传统存储厂商(如 Dell EMC、NetApp)长期强调专用硬件的可靠性,通过高可用设计(如双控制器、全冗余架构)和硬件…
传统上,很多用户对超融合的认知局限在“计算与存储融合”的初级阶段,因此一些用户认为超融合只能部署在开发测试和边缘生产环境,不具备承载关键业务系统和数据库的能力。
一些用户认为,在证券、期货等行业的低延迟业务场景,超融合由于网络损耗过大,无法支持此类业务。
在传统印象中,集中式存储的性能和可靠性经过了多年验证,得到了用户的充分信任,而超融合的分布式存储性能和稳定性还不足以支持重要生产应用。
不少用户认为超融合使用的 x86 服务器算力不仅要提供给虚拟机,还需要额外提供给存储功能使用;另外虚拟化层也会有也算力开销,无法承载算力密集型的业务。事实上,超融合确实有一小部分算力会在虚拟化和存储层消耗,但是随着各种技术特性的加入,算力消耗已经得到了充分的优化。
在一些技术团队看来,传统的“两地三中心”、集中式 SAN 存储 + 计算分离的模式,虽然复杂、昂贵,但“用的人多”,因此成为“最安全的选择”。超融合虽然在理论上具备分布式容错、数据冗余等安全机制,但一旦规模扩大并用于承载“核心业务”,很多决策者还是倾向于依赖“用得久、跑得稳”的老方法。
相比传统架构中通过物理隔离、专用网络设备搭建明晰的安全边界来实现监管要求,超融合平台通常将计算、存储、网络、安全等多个组件集成在同一平台中,形成“高度一体化”的形态。这在带来管理便利的同时,也被很…
相比传统集中式存储和高可用集群架构,超融合采用了更复杂的分布式架构设计——数据在多节点之间分布、冗余存储,资源动态调度。这种模式在小规模场景下运转良好,但如果规模扩展到数百甚至上千节点时,便容易引…
许多企业,尤其是金融机构,在讨论 IT 架构转型时,仍普遍将超融合等同于“轻量化平台”“适合测试或办公场景”,而不是承担核心系统的基础设施。早期超融合的落地场景确实多为测试环境、虚拟桌面、非核心系统等低…
在实际落地过程中,很多用户发现,所谓的“云平台”远比预期复杂:
在许多企业眼中,商业超融合意味着“黑盒交付”和技术锁定,尤其是早期市场上的部分超融合厂商,确实以“自研虚拟化+自研管理平台”的深度绑定方案为主,使用户在部署后难以变更平台架构,迁移成本高、演进路径有…
在当前信创背景下,国产化、自主可控的要求越来越普遍。不少客户提出,超融合厂商是否具备快速适配国产芯片、操作系统、数据库等上下游生态的能力,支持信创平台平滑落地?此外,超融合多为软硬件一体交付,软硬件绑定较为紧密,能否适应多种国产芯片和自主可控操作系统的技术栈,满足企业的长期信创替代计划?
随着企业 IT 服务从 IaaS 资源层向更高阶的云管平台(CMP)发展,自动化交付、服务目录、运维编排、资源计费等需求越发明显。用户会担忧,超融合作为一种基础设施形式,本身并不具备 CMP 能力,如何实现企业级复杂云平台的高阶管理功能?
越来越多的企业在构建私有云或混合云时,要求底层平台既支持虚拟机,也要原生支持 Kubernetes。而传统超融合方案多数仍围绕“虚拟化能力”构建,对容器平台支持不够深入,导致容器和虚拟机管理平台分离、缺乏容器集群…
在企业云架构中,网络是非常重要的一层,网络的可编程能力、安全隔离能力都是构建云平台不可或缺的基础。然而,很多用户印象中,超融合侧重于“计算+存储”能力,在网络层面往往只是做到了“能通”,而不是做到”…
在传统印象中,超融合主要用于满足中小企业的简化部署需求,更多关注“运维便利性”和“交付速度”,其性能表现往往被认为难以与集中式 SAN 存储或裸金属架构相提并论。
传统上,很多用户对超融合的认知局限在“计算与存储融合”的初级阶段,认为超融合技术能力单一,缺乏丰富的上层功能。超融合早期市场宣传中,也确实过度聚焦于“简单运维”、“软硬一体”,忽视了对网络虚拟化、应用交付、安全策略等高级功能的强调,给用户留下了“功能单一”的刻板印象。
近期,SmartX 举办了“国外集中式存储产品升级替换”线上研讨会,为企业用户解读存储架构转型与国产替代挑战,并介绍基于 SmartX 分布式存储 SMTX ZBS 的国外集中式存储替代实践。会上,许多用户都对国外集中式存储替代和 SMTX ZBS 产品特性提出了疑问。针对这些问题,我们邀请了 SmartX 技术专家进行详细解答,为更多用户答疑解惑!
SmartX 提供两种 DeepSeek 部署方案:基于超融合(虚拟化)环境和基于 SKS 裸金属 Kubernetes 环境。超融合方案适合中小规模模型(14B-70B),SKS 裸金属方案可支持更大规模模型(包括 671B)。
DeepSeek 私有化部署的 GPU 选型需要根据模型参数量(7B-671B)、使用场景、上下文大小和预期并发数来确定。用户可根据这些参数参考 SmartX 提供的 GPU 选型指南选择合适的硬件配置。
基于 SmartX 超融合环境部署 DeepSeek-R1-Distill-Qwen-14B/32B 模型进行 AI 客服场景验证:14B 模型 90% 输出符合预期,32B 模型 95% 输出符合预期,回复时间均在 26-27 秒左右,私有化部署可满足 AI 客服场景的基本使用需求。
对于数据敏感场景,私有化部署可保证信息安全。实际测试显示,私有云部署方案在回复准确度方面可达公有云 + DeepSeek 满血模型的 90-95%,生成速度持平甚至更高,同时可避免公有云的单点故障风险和数据安全隐患。
更多 VMware 替代常见问题解答,请阅读:
更多VMware 替代常见问题解答,请阅读:
更多VMware 替代常见问题解答,请阅读:
更多VMware 替代常见问题解答,请阅读:
更多VMware 替代常见问题解答,请阅读:
更多VMware 替代常见问题解答,请阅读:
更多VMware 替代常见问题解答,请阅读:
更多VMware 替代常见问题解答,请阅读:
更多VMware 替代常见问题解答,请阅读:
更多VMware 替代常见问题解答,请阅读:
VMware 替代常见问题解答。
更多VMware 替代常见问题解答,请阅读:
更多VMware 替代常见问题解答,请阅读: