分类目录问题答疑

超融合常见误区解读|超融合容器平台性能是否能够满足实际业务需求?

“容器是为性能敏感场景而生的,用超融合部署 Kubernetes 会不会拖慢业务?”这是另一个常见的顾虑。尤其是在运行数据库、Kafka、Spark 这类重型容器化应用时,企业更倾向于以“裸金属+本地盘”来最大化性能输出。但现实情况中,多数业务并非都处于极限负载场景,企业普遍需要的是性能+稳定性+可维护性的综合平衡。

超融合常见误区解读|从传统架构向超融合架构转型成本较高?

在传统印象中,使用超融合技术转型成本高,比如建设初期需要新采购高配置(磁盘、RAID 卡、存储网卡等)服务器、10GbE 以太网交换机等必备硬件,给用户留下了“超融合建设成本高”的印象。用户比较关心:-超融合性能够不够?-超融合使用的硬件贵不贵?-软件许可授权比国外产品会不会更贵?-如何从传统架构向超融合迁移?

超融合常见误区解读|超融合架构复杂,难以保证集群稳定性?

在传统印象中,超融合架构将计算、存储和网络等资源融合在一个系统中,架构更复杂,涉及的模块更多,分布式架构对网络稳定性更加依赖,因此用户担心:-是否可以持续提供稳定的性能?-如何避免硬件不稳定对集群的影响?-集群存储使用率较高时(如存储使用率超过 80%)性能表现如何?-超融合技术是否成熟?

超融合常见误区解读|超融合虚拟化算力开销大,无法承载计算密集型的业务?

不少用户认为超融合使用的 x86 服务器算力不仅要提供给虚拟机,还需要额外提供给存储功能使用;另外虚拟化层也会有也算力开销,无法承载算力密集型的业务。事实上,超融合确实有一小部分算力会在虚拟化和存储层消耗,但是随着各种技术特性的加入,算力消耗已经得到了充分的优化。

超融合常见误区解读|超融合容灾能力不足,难以保障核心业务连续性?

在一些技术团队看来,传统的“两地三中心”、集中式 SAN 存储 + 计算分离的模式,虽然复杂、昂贵,但“用的人多”,因此成为“最安全的选择”。超融合虽然在理论上具备分布式容错、数据冗余等安全机制,但一旦规模扩大并用于承载“核心业务”,很多决策者还是倾向于依赖“用得久、跑得稳”的老方法。

超融合常见误区解读|超融合适配信创与自主可控能力不足?

在当前信创背景下,国产化、自主可控的要求越来越普遍。不少客户提出,超融合厂商是否具备快速适配国产芯片、操作系统、数据库等上下游生态的能力,支持信创平台平滑落地?此外,超融合多为软硬件一体交付,软硬件绑定较为紧密,能否适应多种国产芯片和自主可控操作系统的技术栈,满足企业的长期信创替代计划?

超融合常见误区解读|超融合仅仅是一种虚拟化+存储方案?

传统上,很多用户对超融合的认知局限在“计算与存储融合”的初级阶段,认为超融合技术能力单一,缺乏丰富的上层功能。超融合早期市场宣传中,也确实过度聚焦于“简单运维”“软硬一体”,忽视了对网络虚拟化应用交付安全策略等高级功能的强调,给用户留下了“功能单一”的刻板印象。

国外集中式存储替代与SMTX ZBS 答疑合集

近期,SmartX 举办了“国外集中式存储产品升级替换”线上研讨会,为企业用户解读存储架构转型与国产替代挑战,并介绍基于 SmartX 分布式存储 SMTX ZBS 的国外集中式存储替代实践。会上,许多用户都对国外集中式存储替代和 SMTX ZBS 产品特性提出了疑问。针对这些问题,我们邀请了 SmartX 技术专家进行详细解答,为更多用户答疑解惑!

25 个 SmartX 用户社区高频提问:产品功能、技术原理与运维操作

SmartX 于 2020 年成立了线上用户社区——一个由 SmartX 专家和来自各行业的工程师组成的,以现代化 IT 基础架构为核心方向,集学习、技术探讨、个人成长为一体的交流平台。成立两年至今,用户社区已发展至 4 个大群,累计服务 1600+ 用户,群内每天都会产生近百条经验分享和问题讨论,同时不间断地开展直播课与成长营活动。

为什么缓存盘还要 2 块呢?一读一写吗?

SMTX OS 社区版支持配置一块/两块 SSD 作为缓存盘并不是因为需要去隔读和写缓存,每一块缓存盘都可以同时作为读、写缓存,配置两块 SSD 的目的主要是解决系统和缓存的高可用的问题。在实际使用中, SSD 故障是一个常见问题,而 SMTX OS 配置 2 块 SSD 作为缓存,可容忍任意一块 SSD 故障,另外一块 SSD 依然可以承担节点的缓存加速功能(只是缓存容量减少了)。另外值得注意一点:SMTX OS 缓存盘支持全局磁盘加速,并不是基于磁盘组做缓存加速。因此在单个 SSD 故障的场景下,缓存功能既不会失效,也不会引起部分数据存储空间下线的问题(磁盘组发生 SSD 故障,全组磁盘会同时下线)。

如果 SMTX OS 集群里只有两节点,在节点都正常的情况下,能选举成功吗? 两节点集群下,挂一个节点后,可以不要求继续工作,是否支持?

首先说明一点: SMTX OS 标准集群是 3 节点或以上的,社区版虽然可支持部署 2 节点,但仅用于体验(允许后续扩展为 3 节点),正式使用必须是 3 节点或以上的。当集群只有 2 节点,集群能正常工作,能选举成功,但不支持高可用。一旦 2 节点再挂 1 个节点,整个集群就无法提供服务。

如果集群有多个节点,每个节点存储容量都小于某个虚拟机的存储容量,但集群总存储容量足够进行数据恢复和多副本。在这种情况下,本节点宕机后,虚拟机是否能(通过 HA)自动恢复运行?

可以恢复,虚拟机磁盘的容量由 SMTX ZBS 分布式块存储提供,即使每个节点的磁盘容量都小于当前虚拟机磁盘容量,但只要多副本之后的容量大于虚拟机磁盘容量就可以,只是会影响 I/O 本地化,当节点宕机时,虚拟机可以在其他节点拉起。

SmartX 的热迁移是怎么实现的?采用 post copy 还是 pre copy?如果是 pre copy,针对脏页数据多时有明显的迁不动问题,你们有针对的优化处理的方案吗?

并不是采用的 post-copy,而是采用 pre-copy + auto converge 的方式进行虚拟机热迁移。您提到的问题,主要是因为两个原因导致的,一个是脏页生成速度太快,另外一个是由于带宽不足,所以导致内存复制速度赶不上脏页的生成速度。我们专门为大内存虚拟机在线迁移做了优化:
1. 在线迁移默认会自动选择存储网络(要求 10G 或以上网络)执行以保证传输带宽。

针对大内存虚拟机,而且是比较繁忙的虚拟机,支持有一种自动调节功能,当脏页的生成速度过快,自动调整 CPU 降低脏页生成速度,直到生成速度控制在阈值以内,限制就会取消。(迁移过程中对虚拟机的性能是有影响的)

以 NVMe SSD 支持 vSAN 或者 ZBS 会比 SATA SSD 的性能好多少?

我们没有 NVMe 运行 vSAN 平台的相关数据。但针对 SMTX OS 有相关的测试对比:其中以 NVMe SSD 作为缓存的集群要比 SATA SSD 集群的性能更好,但同时需要更好的网络才可以充分发挥(一般 NVMe SSD 推荐搭配 25G 的 RDMA 网络),通常情况下能达到 SATA SSD 集群的性能 2 倍或以上,但在不同测试用例可能有所偏差。

超融合架构下,网络交换机是如何部署的?需要多少台交换机?

在部署超融合集群时,一般划分为 3 组网络,分别为管理网络、存储网络、业务网络。这三组网络既可以分别接入三组不同的交换机,也可以是共用交换机(通过 vlan 隔离不同的网络),但前提是每一组交换机都是支持高可用(使用 2 台交换机配置堆叠或者虚拟化)。3 组网络完全独立的方案(高规格,隔离性好),每组由 2 台交换机组成高可用,那么是共需 6 台。如果考虑合并管理网络和业务网络在同一组交换机,存储网络独立的方案(常用规格,隔离性中等),则需要 4 台。

超融合用的系统盘和缓存盘,一般是读取型,还是读写型?

SSD 主要分读密集型、写密集型和混合密集型三种:读密集型 SSD 一般采用较低水平的配置,并使用相对不太耐用的闪存单元,具有较低的写入耐磨度,当然成本也会相对低廉。 混合型 SSD 相比读密集型更耐用,配置更大的替换数据块。而写入密集型的固态硬盘则是最昂贵的固态硬盘,其性能好,写入寿命比较长。具体使用那种硬盘,需要视乎实际业务的需求,而超融合集群中的 SSD 通常作为缓存,写入操作是比较频繁的,考虑到性能和可靠性,建议是使用混合型或者写入密集型 SSD 作为缓存。

请问 SmartX 标准版支持通过 NFS 异地备份吗?我本地到异地专线只有10M 带宽可以支持吗?是备份整个虚拟机吗?我可以选择只备份数据吗?

SMTX OS 标准版可以搭配 SMTX 备份与恢复组件,将虚拟机备份到异地的 NFS 异地的 NFS 存储设备。10M 的带宽可以支持,带宽高低会影响备份和还原的速度。SMTX 备份与恢复组件是对虚拟机进行整机备份,不提供数据文件的单独备份。如有文件备份需求也可以考虑第三方的备份软件。

如果从 Intel VMware 虚拟化平台迁移至海光 SmartX 虚拟化平台呢?兼容性有没有已知问题?

目前我们可以通过 SMTX 迁移工具,将 VMware 集群的虚拟机迁移到 SmartX 超融合集群(基于海光信创硬件)。一般情况下,虚拟机迁移完成后可正常运行;但由于 CPU 平台改变,不排除有部分应用可能出现兼容问题,建议对应用程序做一些必要的检查和测试之后才正式上线使用。

部署 SMTX OS 时会校验缓存盘和数据盘是否存在坏道吗?

一般情况下,部署过程中并不会提前校验 HDD 的坏道,或者 SSD 的寿命(SSD 没有坏道的概念)等信息。但部署过程中由于磁盘故障导致分区等操作无法完成,那么系统会提示相应的报错。实际上,在集群初始化完成后,系统会对硬盘进行监控,可自动发现慢盘(频繁出现 I/O 延时过大),坏盘(频繁发生 I/O error )以及剩余读写寿命较短的 SSD ,针对硬盘异常情况及时发出告警和隔离。

SmartX 超融合通过快速克隆创建虚拟机,(其原理)是链式克隆吧?后台会异步断链成完整克隆的镜像吗?

通过快速克隆创建的虚拟机,特性上有点类似链式克隆,但并不完全一样。快速克隆完成后,数据如果不发生变化,克隆出来的虚拟机与原有虚拟共享数据块,不额外占用空间。当数据发生变化后,克隆虚拟机会拥有独立的数据块,最终通常会与源虚拟机完全独立。

双活集群下,优先可用域没有足够计算资源的情况下,会尝试在次级可用域拉起虚拟机是吧?例如:优先可用域有 3 个节点,故障了 1 个节点,但是剩余 2 个节点计算资源不足够。这个时候会在次级可用域的节点上拉起虚拟机吗?

虚拟机开启了 HA 并且没有配置虚拟机放置组策略要求虚拟机必须在优先可用域中的主机运行的情况下,虚拟机在优先可用域计算资源不足的情况下,可在次级可用域中拉起。

IO 本地化会带来的空间利用率/性能不均衡问题是怎么解决的?Nutanix 是通过移动少量的实时使用的 extent 来平衡,SmartX 是怎么做的?

SMTX OS 也有内置的数据平衡功能,它会根据节点存储容量负载情况自动执行数据迁移,确保一定程度保持数据平衡。但数据本地化策略依然是优先的策略,当系统发现节点容量过高,它会优先尝试迁移非本地虚拟机非活跃的数据副本以维持数据容量均衡。SMTX OS 的数据平衡也是以 extent 为单位执行数据迁移的。

关于 SmartX 公司

为企业构建易用、可靠、随需扩展的数据中心基础架构,满足企业的 IT 应用需求,是 SmartX 的使命和存在的价值。

进一步了解

在 SmartX 工作

SmartX 以独有的价值观吸引着一群热爱创造的人们相聚于此,共同打造坚实、稳固的 IT 基础架构。SmartX 欢迎你!

查看工作机会

Copyright © 2025 北京志凌海纳科技股份有限公司。保留所有权利。使用条款法律信息网站地图

京公安网安备11010802027935号京ICP备14055327号-2