超融合技术是指在同一套单元设备(x86服务器)中不仅仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括缓存加速、重复数据删除、在线数据压缩、备份软件、快照技术等元素,而多节点可以通过网络聚合起来,实现模块化的无缝横向扩展(scale-out),形成统一的资源池。
物理融合及管理融合:超融合架构把服务器、网络及存储进行了融合,并且搭载在统一管理平台上进行维护;而传统架构则是全部分离的。
存储架构:超融合采用分布式存储,传统架构使用集中式存储。
网络:超融合使用万兆以太网,而传统架构多使用光纤交换机。
可靠性方面:可以看出可靠性方面,超融合架构的优势非常大,但其实这里的优势都是分布式存储本身应该具备的。
性能方面:超融合在性能方面的架构优势非常明显,当然代价就是消耗计算资源,所以计算资源的消耗是检验超融合专业性的一个重要因素。
扩展性方面:超融合的架构是扩展能力强,扩容简单快速,系统复杂度不会随扩容增加而增加。
部署运维方面:相对传统架构,超融合布局,维护简单,能够在一定程度上智能运维。
一、什么是超融合?有什么优势?
说到这个就不得不先提及超融合替代的产品:传统IT架构。
通过国外的Nutanix、VMware(vSAN),中国的SmartX等超融合厂商的案例描述中看到,他们所替代的产品大量的是老牌存储厂商EMC、HDS等公司的存储产品。所以,用户采购超融合并不必须替换原有的服务器品牌(比如Dell)或者虚拟化品牌(比如VMware),只有存储(比如EMC)是一定需要替换的。所以最重大的区别是存储架构不同,超融合使用的是分布式存储,它可以很好地基于X86服务器构建一个易扩展、高可靠的存储资源池,这是超融合的基础,也是核心技术点。
传统IT架构与超融合架构的区别与对比
具体而言有以下几方面的区别:
物理融合及管理融合:超融合架构把服务器、网络及存储进行了融合,并且搭载在统一管理平台上进行维护;而传统架构则是全部分离的。
存储架构:超融合采用分布式存储,传统架构使用集中式存储。
网络:超融合使用万兆以太网,而传统架构多使用光纤交换机。
可靠性方面:可以看出可靠性方面,超融合架构的优势非常大,但其实这里的优势都是分布式存储本身应该具备的。
性能方面:超融合在性能方面的架构优势非常明显,当然代价就是消耗计算资源,所以计算资源的消耗是检验超融合专业性的一个重要因素。
扩展性方面:超融合的架构是扩展能力强,扩容简单快速,系统复杂度不会随扩容增加而增加。
部署运维方面:相对传统架构,超融合布局,维护简单,能够在一定程度上智能运维。
二、超融合一体机有什么好处?
超融合一体机是指厂商根据客户的需求,和自身的产品策略,为用户提供的开箱即用,一体机化的交付方式,一体机包含了软件和 厂商选定并适配的 x86 服务器。可见开箱即用,一体化交付是其最大优势。在简化部署、维护,以及可用性,可靠性等方面优势更明显。具体如下:
1) 简化了部署,加快了业务上线时间
以前企业在部署自己的IT系统时,往往需要采购不同的设备,安装调试过程比较长,甚至会影响业务的上线时间。有了超融合一体机,企业只需要购买一台这样的产品即可,安装和调试过程非常方便,大大简化了部署难度,加快了业务的上线时间。
2) 降低了运维难度和成本
以前公司有多少种不同的硬件设备,就需要多少个不同专业的技术人员,采用超融合一体机后,系统管理难度降低,一个技术人员就可以轻松搞定,降低了运维的难度和成本。
3) 提高了设备的可靠性和可用性
超融合一体机在设备故障方面要低很多,即使出现问题,解决起来也相对比较简单和快速,这就很好的提高了它的可靠性和可用性。
4) 节省了开支
相对于多台设备组成的IT系统的采购价格而言,超融合一体机的售价会低很多。
三、联想超融合一体机怎么样?
2019 Gartner 中国超融合厂商竞争格局报告,列举了包括SMARTX在内的近十家国内超融合厂商,算是一个比较不错的参考。
一种新架构的出现,肯定是为了解决现有架构出现的问题,所以,想了解超融合架构的技术逻辑,首先必须要知道下面几个问题:
超融合替代的是什么:传统架构;
传统架构出现了什么问题;
超融合架构的来源,以及是怎么决绝这些问题的;
一、传统架构是什么,出了什么问题;
据麦肯锡研究显示,全球的 IT 数据每年在以 40% 的速度增加中。数据正在逐步影响商业,企业通过数据的分析来做决策与管理。完成快速的分析决策和管理,就需要借助强大的数据中心。下图为传统 SAN 存储:
但是,光靠越来越快、核数越来越多的 CPU 是不够的,瓶颈在于传统存储的硬盘太慢了,CPU 大部分计算能力都空闲或者说在等待存储数据传输过来。传统存储容量和性能不具备和计算能力匹配的可扩展性,不能满足企业进行数据访问的需求。
这个问题并不是现在才有。Google 很早遇到这个问题。那么 Google 是如何做的呢?
作为一个给全世界互联网网民提供数据检索的企业,Google 考虑过 EMC、IBM,还有当年的 SUN 存储产品,但是都解决不了它的问题。无论是容量还是性能,这些公司的产品都无法满足 Google 的规模需求。于是 Google 只能自己建立一个适合自己的数据搜索的存储结构了。
Google 优秀的计算机科学家们,打破了传统的存储思维,利用服务器的本地硬盘和软件构建了一个容量和性能不断可扩展的分布式文件系统,并在其上构建了其搜索和分析的计算引擎:
不用把数据从存储端取出来,然后通过网络传输到计算端,而是将计算直接分发到存储上运行,将 “计算” 作为传输单元进行传输,这样大量的存储数据都是本地访问,不需要再跨网络上传输了,自然访问很快。于是乎,自然而然地,“计算” 和 “存储” 运行(“融合”)在了一个服务器上,这里也看到超融合架构的一个优势就是,本地访问数据,不必跨网络。
现代企业的数据量越来越大,应用越来越多,他们开始面临当年 Google 遇到的问题,CIO 要考虑怎么更高效的构建自己的计算和存储的基础架构,来满足应用的数据访问需求。
虚拟化为更容易的管理应用而生,它解决了 CPU、内存资源闲置的问题。但随着虚拟化的大规模应用,虚拟机越来越多,虚拟机在传统存储上运行却越来越慢了。“慢” 造成 “体验差”,“体验差” 成为了限制虚拟化应用的最大的瓶颈。这里面的最重要原因自然是,存储的 I/O 性能不够,大量的虚拟机和容器同时运行,I/O 的混合,使得随机读写急剧增加,传统存储的结构无法承受大量的随机 I/O。
二、超融合是怎么解决这些问题的,背后的技术机制是什么?
超融合恰恰是为了解决这个问题,才被带到了虚拟化和容器领域。同时,业内也存在不同的解决 I/O 问题的方法,我们先尝试分析下其他的解决方法:
解决方法一:在存储设备采用 SSD 做 Cache,加速 I/O。这在一定的规模下可能有效,但是存储设备的 SSD Cache 通常比例较小,不足 5% 的容量比的情况下,自然满足不了用户的热数据的缓存需求。另外,仍然无法随需扩展,所有的数据仍然要从集中的存储控制器流出,这个集中的 “收费站” 势必堵塞 “高速公路”。
解决方法二:使用服务器侧 SSD 做 Cache,加速 I/O。这种类似的解决方案,通常缺乏高可靠性软件的支撑,服务器端的 Cache 如果用做写 Cache,存在单点失效的问题,需要在多个服务器的 Cache 设备上,做副本来提供可靠性,可以说这是一个阉割版的超融合架构,将 Cache 放到服务器端,仍然使用传统存储,当 Cache 满,需要被写回传统存储的时候,仍然被传统存储的 “控制器” 限制整体性能。
我们看到,上面的两种方案都是受限于传统存储的结构。超融合存储则不一样,通过完全去掉传统存储,利用分布式文件系统来提供 “不可限量” 的性能和容量,在这个基础上,再通过 Cache 进行加速,甚至全部使用闪存(全闪存产品)来构建都是自然而然,不被限制了。
因此,超融合架构不是为了让单台服务器的存储飞快,而是为了让每增加一台服务器,存储的性能就有线性的提升,这样的存储结构才不限制企业业务的运行,并保证业务的可靠性。
正因为这种扩展性很好的共享存储,使得整个 Google 的业务得以顺畅地运转。
三、硬件的快速发展,使得超融合成为可能
另外,超融合近几年得以快速发展的原因,这要归功于硬件设备。CPU 核数越来越多,服务器的内存容量越来越大,SSD 设备和网络互联网设备越来越快,这意味着:
服务器的资源除了运行业务以外,仍然可以预留出来足够的CPU,内存资源来运行存储软件。将存储软件和业务运行到一块,既减少了设备量,减少了电力使用,本地读取也提高了 I/O 的存取效率。这在几年前是做不到的,因为 CPU 和内存太有限了。
网络互联越来越快,无论是万兆,40Gb 以太网,还是 Infiniband(无限宽带技术),使得我们的软件能够将独立的存储设备进行互连,通过分布式文件系统形成共享的存储池,供上层应用使用。
如果说 SSD 等硬件厂商让单个存储设备跑的更快,我们的软件的意义在于,让超大量的这些存储设备,一起工作,提供无止境的整体性能和容量。
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)