长期以来,VMware 在虚拟化和容器化领域积累了大量成熟的部署和管理经验,其基于 vSphere 和 Tanzu 构建的容器即服务(CaaS)平台被广泛应用于企业级生产环境。但随着近年来国产化和自主可控要求的不断深入,越来越多企业…
超融合常见误区解读|超融合网络难以满足容器复杂的网络与安全需求?
Kubernetes 的网络模型强调 Pod 扁平通信、服务发现、东西向流量隔离、南北向访问控制等能力,但很多企业在实践中发现:虚拟机和容器常常跑在两个网络体系里,无法直接互通,需要搭桥或额外…
超融合常见误区解读|超融合存储无法满足容器场景的高性能需求?
有状态容器的使用场景越来越多,如数据库、Kafka、日志服务等,这对存储的性能、可靠性提出了很高要求。不少用户担心:“超融合的存储系统偏向通用,性能不如专业 SAN,难以支撑状态型容器”…
超融合常见误区解读|超融合容器平台性能是否能够满足实际业务需求?
“容器是为性能敏感场景而生的,用超融合部署 Kubernetes 会不会拖慢业务?”这是另一个常见的顾虑。尤其是在运行数据库、Kafka、Spark 这类重型容器化应用时,企业更倾向于以“裸金属+本地盘”来最大化性能输出。但现实情况中,多数业务并非都处于极限负载场景,企业普遍需要的是性能+稳定性+可维护性的综合平衡。
超融合常见误区解读|超融合搭建 Kubernetes 集群过程繁琐,效率低下?
一些技术人员认为,Kubernetes 本身就是开源的,装在哪都能跑,在裸金属或公有云上搭建集群也很成熟,没必要为了部署容器再引入超融合。而另一方面,也有不少人质疑:“超融合平台又不是做容器的,部署 Kubernetes …
超融合常见误区解读|虚拟化天然不适合容器,容器只能跑在裸金属上?
在不少工程团队看来,Kubernetes 天生适合部署在裸金属上,因为省去了虚拟化层,理论上能获得更高的性能、更少的资源浪费,放在虚拟化上反而是“画蛇添足”。然而,虚拟化和容器之间并非是“此消彼…
超融合常见误区解读|从传统架构向超融合架构转型成本较高?
在传统印象中,使用超融合技术转型成本高,比如建设初期需要新采购高配置(磁盘、RAID 卡、存储网卡等)服务器、10GbE 以太网交换机等必备硬件,给用户留下了“超融合建设成本高”的印象。用户比较关心:-超融合性能够不够?-超融合使用的硬件贵不贵?-软件许可授权比国外产品会不会更贵?-如何从传统架构向超融合迁移?
超融合常见误区解读|超融合硬件绑定性太强或计算存储资源不均衡,均导致扩展不灵活?
有些客户认为超融合绑定服务器硬件,或计算与存储资源不均衡,都导致难以按需建设和按需扩容。这个刻板印象多源于早期 Nutanix、VMware 超融合产品和体验,或传统超融合技术栈的技术限制,例如:-强制绑定硬件销售,且…
超融合常见误区解读|超融合融合多种组件,技术路线封闭,难以运维?
传统 IOE 时代的专用硬件,以及云计算发展早期基于 OpenStack 等开源产品进行包装的无法自运维的软件产品,天然地使人们感觉超融合融合多种组件组件,存在技术路线封闭的问题。用户会关心:–产品文档开放性:</str…
超融合常见误区解读|超融合内置系统服务太多,运维复杂度高?
长期以来,客户在选择技术栈时,除了考虑基本的性能、安全性、兼容性等要求,还会重点评估技术栈带来的运维复杂度。运维关注点包括:-首先,技术栈的成熟度和生态完善度直接影响运维工具链的可用性——成熟的生态…
超融合常见误区解读|超融合融合了计算、存储、网络组件,系统服务耦合性太强?
传统超融合产品,如早期 VMware vSAN 以及基于开源技术构建的超融合产品,由于存在如下问题,给用户留下了超融合服务耦合性强的刻板印象:-超融合技术兴起初期存在大量东拼西凑组合而成的产品,如基于传统虚拟化简单地…
超融合常见误区解读|超融合是“黑盒子”,运维如同走钢丝?
传统架构中,存储、网络、服务器独立运维,问题可分层排查;而超融合的紧密耦合性导致故障可能涉及多个层面,需依赖厂商诊断,运维自主性降低,形成“厂商兜底,用户旁观”的依赖模式,易产生“…
超融合常见误区解读|故障场景下超融合稳定性难以保证?
传统架构经过 20-30 年的发展,用户对其在各种故障场景下性能和整体可靠性已经有了充分的了解。而对于超融合架构在各种故障场景下的整体表现,用户不甚了解。
超融合常见误区解读|超融合架构复杂,难以保证集群稳定性?
在传统印象中,超融合架构将计算、存储和网络等资源融合在一个系统中,架构更复杂,涉及的模块更多,分布式架构对网络稳定性更加依赖,因此用户担心:-是否可以持续提供稳定的性能?-如何避免硬件不稳定对集群的影响?-集群存储使用率较高时(如存储使用率超过 80%)性能表现如何?-超融合技术是否成熟?
超融合常见误区解读|超融合采用通用服务器,可靠性不如专用存储?
造成超融合采用通用服务器不如专用存储设备可靠的原因有以下几点:–专用设备的品牌背书:传统存储厂商(如 Dell EMC、NetApp)长期强调专用硬件的可靠性,通过高可用设计(如双控制器、全冗余架构)和硬件…
超融合常见误区解读|超融合只能用来承载开发测试和边缘生产环境,无法在生产环境支撑关键业务(如数据库)?
传统上,很多用户对超融合的认知局限在“计算与存储融合”的初级阶段,因此一些用户认为超融合只能部署在开发测试和边缘生产环境,不具备承载关键业务系统和数据库的能力。
超融合常见误区解读|超融合网络损耗非常大,不适合要求低延迟的业务场景?
一些用户认为,在证券、期货等行业的低延迟业务场景,超融合由于网络损耗过大,无法支持此类业务。
超融合常见误区解读|超融合存储性能和可靠性跟传统架构采用的集中式存储相比还有很大差距?
在传统印象中,集中式存储的性能和可靠性经过了多年验证,得到了用户的充分信任,而超融合的分布式存储性能和稳定性还不足以支持重要生产应用。
超融合常见误区解读|超融合虚拟化算力开销大,无法承载计算密集型的业务?
不少用户认为超融合使用的 x86 服务器算力不仅要提供给虚拟机,还需要额外提供给存储功能使用;另外虚拟化层也会有也算力开销,无法承载算力密集型的业务。事实上,超融合确实有一小部分算力会在虚拟化和存储层消耗,但是随着各种技术特性的加入,算力消耗已经得到了充分的优化。
超融合常见误区解读|超融合容灾能力不足,难以保障核心业务连续性?
在一些技术团队看来,传统的“两地三中心”、集中式 SAN 存储 + 计算分离的模式,虽然复杂、昂贵,但“用的人多”,因此成为“最安全的选择”。超融合虽然在理论上具备分布式容错、数据冗余等安全机制,但一旦规模扩大并用于承载“核心业务”,很多决策者还是倾向于依赖“用得久、跑得稳”的老方法。
超融合常见误区解读|超融合难以满足核心系统复杂的网络隔离和安全合规要求?
相比传统架构中通过物理隔离、专用网络设备搭建明晰的安全边界来实现监管要求,超融合平台通常将计算、存储、网络、安全等多个组件集成在同一平台中,形成“高度一体化”的形态。这在带来管理便利的同时,也被很…
超融合常见误区解读|超融合性能和稳定性不如传统高端存储,跑不动核心数据库?
相比传统集中式存储和高可用集群架构,超融合采用了更复杂的分布式架构设计——数据在多节点之间分布、冗余存储,资源动态调度。这种模式在小规模场景下运转良好,但如果规模扩展到数百甚至上千节点时,便容易引…
超融合常见误区解读|超融合只能跑小规模,难以承担大规模重要生产系统?
许多企业,尤其是金融机构,在讨论 IT 架构转型时,仍普遍将超融合等同于“轻量化平台”“适合测试或办公场景”,而不是承担核心系统的基础设施。早期超融合的落地场景确实多为测试环境、虚拟桌面、非核心系统等低…
超融合常见误区解读|云平台起步就会非常重,运维复杂,必须部署全栈功能?
在实际落地过程中,很多用户发现,所谓的“云平台”远比预期复杂:
超融合常见误区解读|超融合技术路径封闭,绑定特定虚拟化,限制企业架构自主性?
在许多企业眼中,商业超融合意味着“黑盒交付”和技术锁定,尤其是早期市场上的部分超融合厂商,确实以“自研虚拟化+自研管理平台”的深度绑定方案为主,使用户在部署后难以变更平台架构,迁移成本高、演进路径有…
超融合常见误区解读|超融合适配信创与自主可控能力不足?
在当前信创背景下,国产化、自主可控的要求越来越普遍。不少客户提出,超融合厂商是否具备快速适配国产芯片、操作系统、数据库等上下游生态的能力,支持信创平台平滑落地?此外,超融合多为软硬件一体交付,软硬件绑定较为紧密,能否适应多种国产芯片和自主可控操作系统的技术栈,满足企业的长期信创替代计划?
超融合常见误区解读|超融合缺乏云管理平台(CMP),难以满足企业高阶云运营需求?
随着企业 IT 服务从 IaaS 资源层向更高阶的云管平台(CMP)发展,自动化交付、服务目录、运维编排、资源计费等需求越发明显。用户会担忧,超融合作为一种基础设施形式,本身并不具备 CMP 能力,如何实现企业级复杂云平台的高阶管理功能?
超融合常见误区解读|超融合与容器平台不能融合,无法承载云原生应用?
越来越多的企业在构建私有云或混合云时,要求底层平台既支持虚拟机,也要原生支持 Kubernetes。而传统超融合方案多数仍围绕“虚拟化能力”构建,对容器平台支持不够深入,导致容器和虚拟机管理平台分离、缺乏容器集群…
超融合常见误区解读|超融合无法提供企业级网络和安全功能?
在企业云架构中,网络是非常重要的一层,网络的可编程能力、安全隔离能力都是构建云平台不可或缺的基础。然而,很多用户印象中,超融合侧重于“计算+存储”能力,在网络层面往往只是做到了“能通”,而不是做到”…
超融合常见误区解读|超融合性能能力有限,难以支撑关键生产系统?
在传统印象中,超融合主要用于满足中小企业的简化部署需求,更多关注“运维便利性”和“交付速度”,其性能表现往往被认为难以与集中式 SAN 存储或裸金属架构相提并论。
超融合常见误区解读|超融合仅仅是一种虚拟化+存储方案?
传统上,很多用户对超融合的认知局限在“计算与存储融合”的初级阶段,认为超融合技术能力单一,缺乏丰富的上层功能。超融合早期市场宣传中,也确实过度聚焦于“简单运维”、“软硬一体”,忽视了对网络虚拟化、应用交付、安全策略等高级功能的强调,给用户留下了“功能单一”的刻板印象。
国外集中式存储替代与SMTX ZBS 答疑合集
近期,SmartX 举办了“国外集中式存储产品升级替换”线上研讨会,为企业用户解读存储架构转型与国产替代挑战,并介绍基于 SmartX 分布式存储 SMTX ZBS 的国外集中式存储替代实践。会上,许多用户都对国外集中式存储替代和 SMTX ZBS 产品特性提出了疑问。针对这些问题,我们邀请了 SmartX 技术专家进行详细解答,为更多用户答疑解惑!
VMware 替代 Q&A|如何以 SmartX 产品实现 VMware 虚拟化/超融合替代?
更多 VMware 替代常见问题解答,请阅读:
VMware 替代 Q&A|如何以更低的成本实现 VMware 虚拟化/超融合替代?
更多VMware 替代常见问题解答,请阅读:
VMware 替代 Q&A|国内哪些企业已完成 vSAN/VMware 超融合替代?有哪些经验参考?
更多VMware 替代常见问题解答,请阅读:
VMware 替代 Q&A|vSAN/VMware 超融合替代产品如何选型评估?
更多VMware 替代常见问题解答,请阅读:
VMware 替代 Q&A|vSAN/VMware 超融合如何替代?有哪些替代产品和方案?
更多VMware 替代常见问题解答,请阅读:
VMware 替代 Q&A|国内哪些企业已完成 VMware 虚拟化替代?有哪些经验参考?
更多VMware 替代常见问题解答,请阅读:
VMware 替代 Q&A|有哪些好用的 VMware 虚拟机迁移工具?
更多VMware 替代常见问题解答,请阅读:
VMware 替代 Q&A|如何降低 VMware 虚拟化/超融合替代成本?开源产品能用吗?
更多VMware 替代常见问题解答,请阅读:
VMware 替代 Q&A|选型 VMware 虚拟化替代产品,有哪些评估要点?
更多VMware 替代常见问题解答,请阅读:
VMware 替代 Q&A|有哪些成熟的 VMware 虚拟化替代产品/方案?
更多VMware 替代常见问题解答,请阅读:
VMware 替代 Q&A|VMware 跨平台迁移有哪些注意事项?如何保障迁移可靠性、兼容性并降低业务影响?
VMware 替代常见问题解答。
VMware 替代 Q&A|VMware 虚拟化/超融合替代如何落地?
更多VMware 替代常见问题解答,请阅读:
VMware 替代 Q&A|如何评估 VMware 虚拟化/超融合替代的必要程度?
更多VMware 替代常见问题解答,请阅读:
VMware 替代 Q&A|VMware 现状如何?博通收购 VMware 后进行了哪些调整?
更多VMware 替代常见问题解答,请阅读:
超融合还是虚拟化?一文了解二者的区别、优缺点与传统虚拟化转型方案
一文解读超融合与虚拟化的区别与优缺点。
超融合架构对管理、存储网络交换机有哪些要求,要万兆口吗?
论坛问题精选:
超融合交换机是什么?与普通交换机有什么区别?可以用普通交换机吗?
一般超融合场景下,普遍会使用通用的以太网协议(普通交换机都属于以太网交换机)。对于性能要求高的业务场景,部分超融合厂商可以支持 RDMA 网络协议。
25 个 SmartX 用户社区高频提问:产品功能、技术原理与运维操作
第三方认证走的是支持 LDAP 协议吗还是 OAuth?
支持 LDAP,但当前社区版还未发布该功能,后续版本会加入该功能。
单个虚拟机支持最大存储空间,有限制吗?
虚拟机单个虚拟磁盘最大容量支持 64TB,如需要更大的空间可为虚拟机添加多块虚拟磁盘。
SmartX 有云管平台吗?
SmartX 目前没有自己的云管平台,当前主要和第三方云管平台进行对接,如 Fit2Cloud、骞云等。
单机部署的情况下,存储盘没有冗余机制,存储盘得需要做 Raid 吧?
单节点部署只可用于产品体验,不提供任何数据冗余保护,同时也不支持通过组 Raid 来代替副本保护。
超融合可用于归档吗?
SmartX 超融合属于计算和存储融合的部署架构,归档一般只需要存储服务,这种通常不太适合归档服务。
超融合的 VM 在线迁移功能,走的是哪个网?
SMTX OS 虚拟机的在线迁移默认通过存储网络执行迁移。
为什么缓存盘还要 2 块呢?一读一写吗?
SMTX OS 社区版支持配置一块/两块 SSD 作为缓存盘并不是因为需要去隔读和写缓存,每一块缓存盘都可以同时作为读、写缓存,配置两块 SSD 的目的主要是解决系统和缓存的高可用的问题。在实际使用中, SSD 故障是一个常见问题,而 SMTX OS 配置 2 块 SSD 作为缓存,可容忍任意一块 SSD 故障,另外一块 SSD 依然可以承担节点的缓存加速功能(只是缓存容量减少了)。另外值得注意一点:SMTX OS 缓存盘支持全局磁盘加速,并不是基于磁盘组做缓存加速。因此在单个 SSD 故障的场景下,缓存功能既不会失效,也不会引起部分数据存储空间下线的问题(磁盘组发生 SSD 故障,全组磁盘会同时下线)。
如果 SMTX OS 集群里只有两节点,在节点都正常的情况下,能选举成功吗? 两节点集群下,挂一个节点后,可以不要求继续工作,是否支持?
首先说明一点: SMTX OS 标准集群是 3 节点或以上的,社区版虽然可支持部署 2 节点,但仅用于体验(允许后续扩展为 3 节点),正式使用必须是 3 节点或以上的。当集群只有 2 节点,集群能正常工作,能选举成功,但不支持高可用。一旦 2 节点再挂 1 个节点,整个集群就无法提供服务。
ZBS 是以哪个开源系统来二次开发的?
SMTX ZBS 是 SmartX 完全自研的分布式块存储,不是基于任何一种开源存储做二次开发,核心完全自主可控。
ZBS 的快照/克隆有限制吗?克隆卷是否能再克隆,嵌套深度有限制吗?
SMTX OS 单个集群最大支持 100000 组快照,而单个虚拟机最大支持 1024 个快照(vSphere 单个虚拟机最大支持 32 个快照)。虚拟机克隆没有数量限制。
如果集群有多个节点,每个节点存储容量都小于某个虚拟机的存储容量,但集群总存储容量足够进行数据恢复和多副本。在这种情况下,本节点宕机后,虚拟机是否能(通过 HA)自动恢复运行?
可以恢复,虚拟机磁盘的容量由 SMTX ZBS 分布式块存储提供,即使每个节点的磁盘容量都小于当前虚拟机磁盘容量,但只要多副本之后的容量大于虚拟机磁盘容量就可以,只是会影响 I/O 本地化,当节点宕机时,虚拟机可以在其他节点拉起。
如果要删除一个虚拟机的快照(100GB),是不是要保障虚拟机放置位置,至少还有多余的 100GB 空间,才可以执行?
我们的快照本身是独立的,删除快照的时候,不需要额外占用空间。
3 个节点组成集群,如这 3 个节点突然全部掉电了,当电力恢复后集群业务虚拟机会出现起不来的情况吗?
SMTX OS 有专门的机制应对集群整体掉电的情况,通过 IO 日志重放的机制确保数据的一致性。当集群恢复电力后,集群将会自动恢复服务,开启 HA 保护的虚拟机也会自动启动。
SmartX 本身是基于什么系统的?CentOS?有基于安可系统的版本吗?
目前社区版本 SMTX OS 是基于 CentOS 基础上开发的。但最新发布商业版已经改为基于OpenEuler 操作系统。
社区版开启 RDMA 有指导手册吗?
社区版不支持 RDMA 网络,SMTX OS 商业版本可支持 RDMA 网络。
请问社区版是否支持手动删除节点?
社区版不支持删除节点操作。如需要对社区版集群进行硬件替换,可以新建一个 SMTX OS 集群,并通过 SMTX 迁移工具进行原有集群的虚拟机迁移到新集群,然后再对原有集群硬件进行调整并重组集群。
单个虚拟机快照可以保存多少个呢?
单个虚拟机最多可保存 1024 个快照,单个集群最多可保存 100000 个快照。
SmartX 的热迁移是怎么实现的?采用 post copy 还是 pre copy?如果是 pre copy,针对脏页数据多时有明显的迁不动问题,你们有针对的优化处理的方案吗?
并不是采用的 post-copy,而是采用 pre-copy + auto converge 的方式进行虚拟机热迁移。您提到的问题,主要是因为两个原因导致的,一个是脏页生成速度太快,另外一个是由于带宽不足,所以导致内存复制速度赶不上脏页的生成速度。我们专门为大内存虚拟机在线迁移做了优化:
1. 在线迁移默认会自动选择存储网络(要求 10G 或以上网络)执行以保证传输带宽。
针对大内存虚拟机,而且是比较繁忙的虚拟机,支持有一种自动调节功能,当脏页的生成速度过快,自动调整 CPU 降低脏页生成速度,直到生成速度控制在阈值以内,限制就会取消。(迁移过程中对虚拟机的性能是有影响的)
SMTX OS 同城双活支持 Oracle 数据库么?
支持的,SMTX OS 双活集群属于拉伸集群,支持将 Oracle RAC 集群跨数据中心站点部署,其共享的数据盘是完全同步的。
SmartX 环境里,CPU 的超配比是多少?
没有硬性的超分指标,CPU 超分的比例跟业务的类型和 CPU 负荷压力相关,很难一概而论。如果业务 CPU 负荷比较大,高比例超分将大幅增大 CPU 等待时间,性能也会显著下降。
SMTX OS 集群部署选择分层和不分层有什么区别?
社区版仅支持分层部署。
分层:
使用高速介质(SSD)做缓存,低速介质做容量(HDD),对于混闪(SSD+HDD)集群,必须使用分层部署。
不分层:
不设置缓存盘。除了含有系统分区的物理盘,剩余的所有物理盘都作为数据盘使用。对其全闪集群(SATA/SAS SSD、Nvme SSD)可选择分层或者不分层部署。
ESXi 和 SmartX 虚拟化有什么区别?
可以查看我们博客集合:“VMware 替代合集 | 技术路线、厂商评估、技术分析与对比”。
SmartX 超融合支持通过 iSCSI 协议,将存储空间开放给 VMware 虚拟机使用么?
可以的。通过 CloudTower 界面在集群设置菜单中启用块存储服务,就可以把超融合的存储空间通过 iSCSI 提供给其他主机或虚拟机使用。
超融合软件是固化在超融合一体机里面的么?
SMTX Halo 超融合一体机预装了 SMTX OS 超融合软件,方便用户可以开箱即用;但超融合软件并不是以固件的形式固化在一体机硬件,用户可以方便地进行软件在线升级。
以 NVMe SSD 支持 vSAN 或者 ZBS 会比 SATA SSD 的性能好多少?
我们没有 NVMe 运行 vSAN 平台的相关数据。但针对 SMTX OS 有相关的测试对比:其中以 NVMe SSD 作为缓存的集群要比 SATA SSD 集群的性能更好,但同时需要更好的网络才可以充分发挥(一般 NVMe SSD 推荐搭配 25G 的 RDMA 网络),通常情况下能达到 SATA SSD 集群的性能 2 倍或以上,但在不同测试用例可能有所偏差。
能用 VMware Workstation 来搭建测试环境么?
VMware Workstation 一般装在个人 PC 上,内存和 CPU 的资源可能无法满足最低硬件要求,因此不建议在 Workstaion 上安装来体验我们的产品。关于社区版的硬件要求可参考社区专页:https://www.smartx.com/community/
AMD 的处理器可以安装 SmartX 超融合吗?
SMTX OS 支持 AMD 平台,具体支持型号,可以通过链接获取资料:https://www.smartx.com/resource/doc/general-hci/
SMTX OS 对数据的保护是基于副本吧,那服务器硬件上还需要配置 Raid 卡吗?
SMTX OS 上的数据是基于多副本技术提供数据冗余保护的,可支持两副本和三副本两种策略。服务器上既可不带 RAID 功能的 HBA 直通卡, 或者是使用 RAID 卡并设置为直通(JBOD)模式。
超融合存储互联,有带宽的计算公式吗?与硬盘读写速度、IOPS 强相关吗?
超融合集群中存储网络交换机的选用跟集群硬盘介质有一定关系,如果是部署混闪集群(SSD+HDD),存储网络至少是 10G 网络;如果是采用了 NVMe SSD 全闪集群建议使用 25G 作为存储网络,这样可以充分发挥 NVMe 性能。
缓存的大小与数据盘的容量有对应关系吗?
要求单节点缓存盘的总容量:数据盘的总容量要大于 1:10。如:单节点配置了 4 块 4TB 的 HDD 硬盘作为数据盘(数据空间为 16TB),那么该节点至少需要配置 1.6 TB 以上的缓存空间,可选择使用 2 块容量为 960GB (大于 1.6TB )的 SSD 作为缓存盘。
超融合架构下,网络交换机是如何部署的?需要多少台交换机?
在部署超融合集群时,一般划分为 3 组网络,分别为管理网络、存储网络、业务网络。这三组网络既可以分别接入三组不同的交换机,也可以是共用交换机(通过 vlan 隔离不同的网络),但前提是每一组交换机都是支持高可用(使用 2 台交换机配置堆叠或者虚拟化)。3 组网络完全独立的方案(高规格,隔离性好),每组由 2 台交换机组成高可用,那么是共需 6 台。如果考虑合并管理网络和业务网络在同一组交换机,存储网络独立的方案(常用规格,隔离性中等),则需要 4 台。
超融合用的系统盘和缓存盘,一般是读取型,还是读写型?
SSD 主要分读密集型、写密集型和混合密集型三种:读密集型 SSD 一般采用较低水平的配置,并使用相对不太耐用的闪存单元,具有较低的写入耐磨度,当然成本也会相对低廉。 混合型 SSD 相比读密集型更耐用,配置更大的替换数据块。而写入密集型的固态硬盘则是最昂贵的固态硬盘,其性能好,写入寿命比较长。具体使用那种硬盘,需要视乎实际业务的需求,而超融合集群中的 SSD 通常作为缓存,写入操作是比较频繁的,考虑到性能和可靠性,建议是使用混合型或者写入密集型 SSD 作为缓存。
SMTX OS 原生备份是不是 CDP?
SmartX 的原生备份并不是基于 CDP 技术实现的,而是基于存储级别快照技术实现的虚拟机无代理备份,支持将运行在 ELF 平台上的虚拟机全量/增量备份到集群外部的 NAS 存储。此外,SmartX 超融合基础架构支持与 Zerto CDP 和 英方 i2CDP 等第三方 CDP 软件集成组建灾备解决方案。
请问 SmartX 标准版支持通过 NFS 异地备份吗?我本地到异地专线只有10M 带宽可以支持吗?是备份整个虚拟机吗?我可以选择只备份数据吗?
SMTX OS 标准版可以搭配 SMTX 备份与恢复组件,将虚拟机备份到异地的 NFS 异地的 NFS 存储设备。10M 的带宽可以支持,带宽高低会影响备份和还原的速度。SMTX 备份与恢复组件是对虚拟机进行整机备份,不提供数据文件的单独备份。如有文件备份需求也可以考虑第三方的备份软件。
SMTX 迁移工具支持回迁吗?
v2v 迁移工具,可以将 VMware 虚拟机或者 ELF 集群的虚拟机迁移到 ELF 集群,不支持回迁到 VMware 集群,但是如果是 ELF 集群可以支持回迁。
SMTX 迁移工具是热迁移吗?
SMTX 迁移工具支持将 VMware 虚拟机迁移到 SMTX OS 集群,迁移过程是在线进行,不需要对源虚拟机关机或停止业务;在迁移接近结束前,需要对源虚拟机进行短暂关机以完成对迁移过程发生变化的数据重新同步以及更新驱动等操作,完成后虚拟机就可以正常启动。
医院的系统从物理机迁移到虚拟机,没有软件厂家配合的情况下,迁移成功率有保障吗?
x86 有很多成熟的 P2V 工具,迁移成功率是很高的,一般是不需要厂商进行配合,但是如果软件和硬件强绑定且存在许可相关的问题,还是需要厂商支持的。
如果从 Intel VMware 虚拟化平台迁移至海光 SmartX 虚拟化平台呢?兼容性有没有已知问题?
目前我们可以通过 SMTX 迁移工具,将 VMware 集群的虚拟机迁移到 SmartX 超融合集群(基于海光信创硬件)。一般情况下,虚拟机迁移完成后可正常运行;但由于 CPU 平台改变,不排除有部分应用可能出现兼容问题,建议对应用程序做一些必要的检查和测试之后才正式上线使用。
I/O 本地化之后,虚拟机执行在线迁移(到其他主机),相应的存储数据也会随之迁移(到对应主机)么?
虚拟机迁移完成之后,不会马上执行 I/O 本地化,而是会跨主机读读取数据副本。后台会记录远程读取时间持续超过 6 小时后(确认不是一次临时的迁移),会自动将数据副本通过数据迁移的方式迁移到新主机,并在新主机上重新形成 I/O 本地化。
部署 SMTX OS 时会校验缓存盘和数据盘是否存在坏道吗?
一般情况下,部署过程中并不会提前校验 HDD 的坏道,或者 SSD 的寿命(SSD 没有坏道的概念)等信息。但部署过程中由于磁盘故障导致分区等操作无法完成,那么系统会提示相应的报错。实际上,在集群初始化完成后,系统会对硬盘进行监控,可自动发现慢盘(频繁出现 I/O 延时过大),坏盘(频繁发生 I/O error )以及剩余读写寿命较短的 SSD ,针对硬盘异常情况及时发出告警和隔离。
SmartX 超融合通过快速克隆创建虚拟机,(其原理)是链式克隆吧?后台会异步断链成完整克隆的镜像吗?
通过快速克隆创建的虚拟机,特性上有点类似链式克隆,但并不完全一样。快速克隆完成后,数据如果不发生变化,克隆出来的虚拟机与原有虚拟共享数据块,不额外占用空间。当数据发生变化后,克隆虚拟机会拥有独立的数据块,最终通常会与源虚拟机完全独立。
主机断电重启后,有自动启动虚拟机的功能吗?
有,需要开启虚拟机 HA 功能,开启 HA 功能之后,无论是当节点异常重启,还是集群重启,开机的虚拟机都会重新开机。
双活集群下,优先可用域没有足够计算资源的情况下,会尝试在次级可用域拉起虚拟机是吧?例如:优先可用域有 3 个节点,故障了 1 个节点,但是剩余 2 个节点计算资源不足够。这个时候会在次级可用域的节点上拉起虚拟机吗?
虚拟机开启了 HA 并且没有配置虚拟机放置组策略要求虚拟机必须在优先可用域中的主机运行的情况下,虚拟机在优先可用域计算资源不足的情况下,可在次级可用域中拉起。
超融合节点配置多块硬盘组成存储池,会要求每块硬盘容量大小是一致吗?还是都可以?
对于单块数据盘(HDD)不要求容量一致,但节点的总容量最好不要差距过大,否则容易出现数据分布过于集中于少数节点(或者容量较大的节点可以配置多于 2 台)。对于单块缓存盘的容量最好可以保持一致,其容量和性能不要差别太大,否则可能出现短板效应。
CloudTower 不能同时管理社区版和正式版的,是吗?
不可以,社区版 CloudTower 只能管理社区版的 SMTX OS 集群,商业版的CloudTower 只能管理商业版的 SMTX OS 集群。
SMTX OS 配置双活延展集群以后,支持站点间的 DRS 和迁移吗?
双活集群是可以支持站点之间在线迁移的,但前提是业务网可以支持大二层打通。此外,在双活的场景下虚拟机是有优先可用域的概念,虚拟机在优先可用域会有 2 个副本,另外一个站点有 1 个副本;数据读取会就近读取。因此也不建议在不同站点之间频繁迁移。
SSD 缓存必须要 2 块 NVMe 的是吧?
需要 2 块 SSD 作为缓存,但不一定是 NVMe SSD,SATA/SAS/NVMe 这几种 SSD 协议都是可以支持的。
IO 本地化会带来的空间利用率/性能不均衡问题是怎么解决的?Nutanix 是通过移动少量的实时使用的 extent 来平衡,SmartX 是怎么做的?
SMTX OS 也有内置的数据平衡功能,它会根据节点存储容量负载情况自动执行数据迁移,确保一定程度保持数据平衡。但数据本地化策略依然是优先的策略,当系统发现节点容量过高,它会优先尝试迁移非本地虚拟机非活跃的数据副本以维持数据容量均衡。SMTX OS 的数据平衡也是以 extent 为单位执行数据迁移的。
社区版 SMTX OS 集群能否添加外部共享存储?
社区版SMTX OS 集群属于超融合架构,内置分布式存储软件,无需接入外部存储。此外,目前社区版也不支持添加外部共享存储。