一生二,二生三,三生万物。三年之后,浪潮存储完成了从“利基者”向“挑战者”的挑战。
日前, Gartner公布2020年全球主存储魔力象限报告(Magic Quadrant for Primary Storage Arrays),包括Dell、Pure Storage、NetApp、HPE、Infinidat、Hitachi Vantara、浪潮在内的13家全球主流存储厂商入选。其中,浪潮存储实现跨象限晋升,从利基者象限晋级到挑战者象限,成为本年度唯一实现象限跨越的存储厂商。
跨越了象限 ,“挑战者”浪潮存储如何应对未来道路上更大的挑战?未来,浪潮存储应该如何再次实现象限的跨越,成为全球存储市场的“领导者”?
在发布2020年最新版主流存储阵列魔力象限报告中,Gartner将主流存储阵列定义为全闪存或混合闪存及磁盘本地存储阵列,提供块服务(结构化数据工作负载)以及可能的文件和对象访问。
针对主存储市场未来走向,Gartner分析师还列出了三个战略规划设想:
总结来说,未来随着企业数字化转型加速推进,NVMe、AIOps、公有云集成等新技术将重塑下一代主存储系统。
先看NVMe,如果说全闪存是未来存储市场的大势所趋,那么NVMe SSD则是全闪存市场的发展大势。如今,全球各大存储厂商都在加速推出基于NVMe的新一代存储产品,甚至,NVMe已经被认为是存储领域的事实标准。
同时,存储系统的生命周期是一个复杂的体系,解决存储系统的复杂生命周期运行和管理需要AI技术的加持,例如,利用AIOps做内部负载的识别,模式特征识别,把硬件资源使用率调到最高位置,从运维管理角度打造更易用的存储。
除此之外,云计算使得企业的数据分布从本地的数据中心扩展到了更高算力、更大空间的公有云平台。在整个IT架构当中,存储是最接近数据的行业,要能够帮助应用企业实现自身的数据中心与公有云平台之间更密切关联,以期建立一个顺畅的数据流动模式。
这是主存储市场的大势,也是存储厂商未来发展的方向。
对于浪潮的跨象限,Gartner这样评价,"浪潮存储产品组合包括HF和AS系列,能够满足用户对中、高端存储的需求。在评估期间浪潮存储发布了基于端到端NVMe技术的全闪存阵列HF5000G5,同时发布了适用于K8S环境的CSI驱动程序并对AIOps平台进行了升级,实现了整体软件和平台功能的增强"。
从中可以看到,浪潮的“晋级”与当下主存储市场的发展趋势高度吻合。
其一,市场突破:
浪潮存储首席架构师孙斌分享了一组数据,浪潮存储的大项目,即10万到40万美元之间的订单,在今年实现了翻倍增长,这表明浪潮存储的产品正被一些大型企业所选择。销售方面,浪潮存储30%的订单是通过ISV、SI系统集成商以及分销商等销售,这一比例相比之前提高了10个点,这证明了浪潮存储还在赋能合作伙伴。
浪潮存储有近二十年的技术创新和积累,在行业用户中占据重要份额。其中包括在通信行业,浪潮存储三年4次中标中移动分布式存储集采,特别是在2020年浪潮高端存储中标中移动核心业务系统,为中国移动的数据要素“托底”;在科研行业,浪潮存储承载中国天眼天文研究、清华大学活脑成像、复旦大学类脑研究、华中大脑图谱研究、中山大学精准医疗研究等等行业Top用户的海量数据。与此同时浪潮存储开始在俄罗斯、德国、波兰、日本、韩国等海外市场进行推广。
其二,技术突破:
从2019年Q3到2020年Q2,一年时间内,浪潮申请受理专利超过一千件,大约三分之一都是跟全闪存有关。浪潮存储开发了NVMe SSD,也在积极参与行业和全闪的标准以及测试规范,以及企业的标准规范建设。同时,浪潮存储也在积极和国内一流高校,研究所,像清华大学、华中 科技 大学等在存储的前沿新兴的技术领域进行合作。
浪潮存储基于“云存智用 运筹新数据”理念,在统一存储领域持续加大投入,推出了业界首款搭载傲腾双端口NVMe SSD的全闪存储,基于iTurbo智能引擎技术进一步提升存储系统的智能感知、多路径选择、自组织和调用的能力,目前浪潮存储在SPC-1中包揽了16控、8控、单位成本性能测试的全球最高成绩。
从“利基者”到“挑战者”,意味着浪潮存储的产品和市场实力得到全面跃升,并且未来有机会成为行业领袖。
随着新基建的加速推动和数字经济的快速发展,一个全新的数据时代正在扑面而来。
数据作为新生产要素,在人工智能、大数据、5G新技术驱动下,发生了本质改变,从过去“人工采集、人工干预”过渡到现在“机器产生、机器处理”的新时代,数据类型越来越丰富、数据量的规模也越来越大,数据正在成为管理、控制、生产、服务、决策等环节重要的要素,需要从采、存、管、用进行全生命周期提速。
新的数据时代,需要新的存储理念,也孕育着新的市场机会。“挑战者”浪潮存储能否借机再次实现象限的晋级呢?
聚焦新数据时代,浪潮存储提出了“云存智用、运筹新数据”的存储理念,聚焦极致技术、存储即平台、数据“系”存储基础设施的打造,希望通过“理念、技术、产品、方案”四个关键要素的闭环,加速数据流动、数据处理、数据共享、数据在线和数据安全,帮助企业彻底释放数据价值。如今,浪潮存储正全面推进端到端NVMe、智能运维、多云对接等新兴技术在存储产品中的应用,驱动企业数字化转型。
由于在行业新场景领域的深厚积累,浪潮存储收获了Gartner的高度认可,从象限晋级的背后可以看出,不论在产品性能、市场地位,还是在用户满意度上,浪潮存储都交出了一份满意的“答卷”。
未来魔力象限,我们能否见到“领导者”浪潮存储?这正是浪潮存储接下来的新挑战。
华为已经确认企业市场的稳定增长,全球销售收入达到128亿美元,同比增长8.6%。华为的企业业务已成为公司整体扩张的关键驱动力之一。特别是在中东,该公司的企业业务部门取得了出色的业绩,销售收入同比增长了24%,使该地区成为华为在全球表现最佳的公司之一。打开百度APP,查看更多高清图片截至2019年,已有700多个城市和228家《财富》全球500强公司选择华为作为其数字化转型合作伙伴。此外,华为的企业业务在全球拥有超过28,000个合作伙伴网络,占该业务集团全球收入的86%。根据华为的说法,这些合作伙伴和客户的信任对公司的成功至关重要,华为将继续与政府和企业合作,为每个人,家庭和组织带来数字化,以实现完全互联的智能世界。通过不断的研发和对5G,人工智能和云等新ICT技术的投资,今天的华为充分利用了新技术的协作优势,以加速产品创新,行业数字化和智能发展。此外,“整合”原则已在其企业业务中得到广泛采用,因此,通过公平,透明和简单的合作伙伴政策与合作伙伴共享成功。华为还根据其长期投资方法和提供技术创新的承诺,将其2019年收入的15.3%(约188亿美元)重新投入到研发中。在过去十年中,其研发总支出现已超过859亿美元。在2019年期间,华为利用云,人工智能和5G之间的协同作用,提供了稳定,可靠和可持续的公共云服务和混合云解决方案。华为云已经推出了200多种云服务和190个解决方案,目前有300万企业用户和开发人员使用华为云来开发产品和解决方案。华为以云为基础,通过整合物联网,人工智能,大数据,视频,融合通信,地理信息系统等ICT新技术,启动了华为地平线数字平台,为未来的数字世界奠定了基础。根据领先的独立市场研究公司Dell'Oro Group的数据,华为在2018年第三季度至2019年第三季度期间,在全球Wi-Fi 6室内AP市场份额中排名第一(不包括北美)。来自教育,零售,医疗保健和制造业等各个领域的客户。此外,2019年,华为发布了CloudEngine 16800,这是业界首个为AI时代打造的数据中心交换机,已在全球150多个企业数据中心进行了商业部署。 OptiXtrans,OptiXaccess和OptiXstar这三种OptiX已被158个国家和地区的3,800多家公司采用。根据Gartner在2019年9月发布的报告,华为的存储产品占据了魔力象限领导者区域。华为还凭借其在5G,光传输,互联网协议(IP)网络和AI技术方面的前沿技术以及跨技术领域的协同创新,发布了两种针对企业市场的旗舰解决方案:HiCampus和HiDC。华为在帮助政府和企业实现数字化方面拥有丰富的经验。在智慧城市,校园,交通,能源,制造和教育等领域,华为与全球合作伙伴一起推出创新的解决方案和商业模式,以创造新的价值。截至2019年,华为已与4,200多家服务提供商合作,为全球50,000多家客户提供服务。该公司参与了40多个国家和地区的200多个城市中的智慧城市项目,并在包容性金融,数据驱动的服务创新和开放式银行业务方面协助了1,000多家金融机构进行了数字化转型。作为支持企业合作伙伴和构建繁荣生态系统的一部分,华为已在全球范围内建立了13个OpenLab,以专注于企业市场。在这些OpenLab上,合作伙伴在解决方案,市场营销,人才培养,财务,供应链和IT系统的联合创新方面获得支持,以不断提高其能力并推动其转型以获得共同的成功。华为致力于分享自己的经验,技术和人才培养标准,已与来自世界各地的众多教育机构,大学和其他生态系统参与者合作,建立了一个开放而有利的生态系统,以培养ICT人才并推动行业数字化。其实超融合这一块,放在云计算IT基础设施里面,不算是完全合适。你说它是分布式存储,但是它同时又是硬件服务器与存储;你说它算硬件,但是它又离不开分布式存储软件。
传统的IT基础设施架构,主要分为网络、计算、存储三层架构。但随着云计算与分布式存储技术的发展以及x86服务器的标准化,逐渐出现了一种将计算、存储节点融合在一起的架构--超融合架构。超融合将三层的IT基础设施架构缩小变成了两层。
2019年11月的Gartner超融合产品魔力象限中,领导者象限有5家:Nutanix、DELL、VMware、CISCO、HPE。(其中DELL vxRail一体机里面用的分布式存储软件也是VMware的VSAN,而VMware提供的则是VSAN纯软件的解决方案)
Nutanix能够成为超融合领导者中的领导者,自然是经过市场的充分验证,得到市场的认可。而且由于其公开资料(Nutanix 圣经)比较齐备,因此我们可以通过Nutanix一窥超融合的究竟。
这边就不搬运了,可以直接搜索引擎搜索“Nutanix圣经”或“Nutanix-Bible”,可以找到相应的官方文档。
引用自NUTANIX圣经 -“Nutanix解决方案是一个融合了存储和计算资源于一体的解决方案。该方案是一个软硬件一体化平台,在2U空间中提供2或4个节点。
每个节点运行着hypervisor(支持ESXi, KVM, Hyper-V)和Nutanix控制器虚机(CVM)。Nutanix CVM中运行着Nutanix核心软件,服务于所有虚机和虚机对应的I/O操作。
得益于Intel VT-d(VM直接通路)技术,对于运行着VMware vSphere的Nutanix单元,SCSI控制(管理SSD和HDD设备)被直接传递到CVM。”
个人总结: 从以上官方文档可知,2U的空间可以安装2~4个Nutanix节点(每个节点相当于1台物理服务器),所以设备装机密度非常高。每个节点都安装着虚拟化软件,并且在虚拟化层之上再运行着一台Nutanix的控制虚机(CVM),该虚机主要负责不同的Nutanix节点之间控制平面的通信。单个节点中配置有SSD硬盘与HDD硬盘,替代磁盘阵列作为存储使用,单个节点有独立的CPU与内存,作为计算节点使用。
1、基础架构
以3个Nutanix节点为例,每个节点安装有Hypervisor,在Hypervisor之上运行着客户虚拟机,并且每个节点有一台Nutanix控制器虚机Controller VM,配置有2块SSD与4块HDD,通过SCSI Controller作读写。
2、数据保护
Nuntanix与传统磁盘阵列通过Raid、LVM等方式作数据保护不同,而是与一般的分布式存储一样,通过为数据建立副本,拷贝到其他Nutanix节点存放,来对数据进行保护,Nutanix将副本的数量称作RF(一般RF为2~3)。
当客户虚机写入数据“见图上1a)流程”,数据先写入到本地Nutanix节点的SSD硬盘中划分出来的OpLog逻辑区域(相当于Cache的作用),然后执行“1b)”流程,本地节点的CVM将数据从本地的SSD的OpLog拷贝到其他节点的SSD的OpLog,拷贝份数视RF而定。当其他节点CVM确定数据写入完成,会执行“1c”流程,给出应答写入完成。通过数据副本实现对数据的保护。
数据从SSD中的OpLog写入到SSD以及HDD的Extent Store区域,是按照一定的规则异步进行的,具体详见下面的部分。
3、存储分层
Nutanix数据写入以本地落盘为主要写入原则(核心原则)。
当客户虚机写入数据是,优先考虑写入本地SSD(如果SSD已用容量未达到阀值),如果本地SSD满了,会将本地SSD的最冷的数据,迁移到集群中其他节点的SSD,腾出本地SSD的空间,写入数据。本地落盘的原则,是为了尽量提高虚机访问存储数据的速度,使本地虚机不需要跨节点访问存储数据。(这点应该是与VSAN与其他分布式文件系统最大原理性区别)
当整个集群的SSD已用容量达到阀值(一般是75%),才会将每个节点的SSD数据迁移到该节点的HDD硬盘中。
SSD迁移数据到HDD,并非将所有数据全部迁移到HDD,而是对数据进行访问度冷热的排序,并且将访问较少的冷数据优先迁移到HDD硬盘中。
如SSD容量达到95%的利用率,则迁移20%的冷数据到HDD;如SSD容量达到80%,则默认迁移15%的冷数据到HDD。
4、数据读取与迁移
Nutanix圣经引用-“ <u style="text-decoration: noneborder-bottom: 1px dashed grey">I/O和数据的本地化(data locality),是Nutanix超融合平台强劲性能的关键所在。所有的读、写I/O请求都藉由VM的所在节点的本地CVM所响应处理。所以基本上不会出现虚机在一个节点,而需要访问的存储数据在另外一个物理节点的情况,VM的数据都将由本地的CVM及其所管理的本地磁盘提供服务。</u>
<u style="text-decoration: noneborder-bottom: 1px dashed grey">当VM由一个节点迁移至另一个节点时(或者发生HA切换),此VM的数据又将由现在所在节点中的本地CVM提供服务。当读取旧的数据(存储在之前节点的CVM中)时,I/O请求将通过本地CVM转发至远端CVM。所有的写I/O都将在本地CVM中完成。DFS检测到I/O请求落在其他节点时,将在后台自动将数据移动到本地节点中,从而让所有的读I/O由本地提供服务。数据仅在被读取到才进行搬迁,进而避免过大的网络压力。</u> ”
个人总结: 即一般虚机读写数据都是读本地节点的硬盘,如果本地节点硬盘没有该数据,会从其他节点先拷贝过来本地节点硬盘,再为本地虚机提供访问,而不是虚机直接访问其他节点。即要贯彻本地落盘的核心思想。
5、Nutanix解决方案的优缺点
Nutanix方案优点:
1) 本地落盘策略,确保虚机访问存储速度:虚机写入的数据都在本物理节点的磁盘上,避免跨节点存储访问,确保访问速度,减轻网络压力。
2) 采用SSD磁盘作为数据缓存,大幅提升IO性能:
见上表数据,从随机的读写来看,SSD的IO及带宽性能比SATA的性能提升了约1000倍。而结合Nutanix的本地落盘策略,虚机数据写入,仅有本地的2块SSD硬盘作为数据缓存负责写入数据。
但由于单块SSD硬盘的IO比传统阵列的SATA高出1000倍,IO性能大幅提升。(相当于要超过2000块SATA硬盘做Raid,才能提供近似的IO性能)。
3)永远优先写入SSD,确保高IO性能
数据写入HDD不参与,即使本地SSD容量满了会将冷数据迁移到集群其他节点SSD,然后还是SSD进行读写,确保高IO。后续异步将SSD冷数据迁移到HDD。
4)数据冷热分层存储
冷数据存放在HDD,热数据保留在SSD,确保热点数据高IO读取。
5)设备密度高,节省机房机架空间
2U可以配置4个节点,包含了存储与计算,比以往机架式/刀片服务器与磁盘阵列的解决方案节省了大量的空间。
Nutanix方案缺点:
1)本地落盘及SSD缓存方案确保了高IO,但是硬盘的带宽得不到保证。
传统磁盘阵列,多块SATA/SAS硬盘加入Raid组,数据写入的时候,将文件拆分为多个block,分布到各个硬盘中,同个Raid组的硬盘同时参与该文件的block的读写。通过多块硬盘的并行读写,从而提升IO与带宽性能。
而Nutanix的解决方案中,单个文件的读写遵循本地落盘的策略,因此不再对文件拆分到多块硬盘进行并行读写,而只有本地节点的SSD硬盘会对该文件进行写入。
虽然SSD硬盘的IO与带宽都是SATA/SAS的数百上千倍,但是SSD对比SATA/SAS硬盘在带宽上面只有2~3倍的速率提升,而传统Raid的方式,多块硬盘并行读写,虽然IO比不上SSD,但是带宽则比单块/两块SSD带宽高出很多。
因此Nutanix的解决方案适合用于高IO需求的业务类型,但是因为它的读写原理,则决定了它不合适低IO、高带宽的业务类型。
三)行业竞争对手对比:
VMWARE EVO RAIL软件包:VMware没有涉足硬件产品,但EVO: RAIL 软件捆绑包可供合格的 EVO: RAIL 合作伙伴使用。合作伙伴转而将硬件与集成的 EVO: RAIL 软件一起出售,并向客户提供所有硬件和软件支持。
而EVO:RAIL的核心,其实就是VSphere虚拟化软件+VSAN软件的打包。
但VSAN与Nutanix最大的一个区别,就是不必须完全遵循Nutanix的本地落盘的策略。可以通过设置条带系数,将本地虚机的数据读写设置为横跨多个节点的硬盘,默认条带系数为1,最大可设置为12个,即一个虚机的数据写入,可以同时采用12个节点的SSD硬盘并行读写。
通过这种方式,VSAN可以一定程度的弥补了Nutanix方案不适用于带宽要求高,IO要求低的业务类型的缺点。
但是这种横跨物理节点的访问流量,在虚机数量众多的情况下,肯定会给网络带来压力,网络带宽可能会成为另一个瓶颈。
其次VSAN可以集成在Hypervisor层,而不需要像Nutanix在Hypervisor上面运行一个控制虚机CVM。
再次,Nutanix支持KVM、Hyper-V、ESXI等多种Hypervisor,而VSAN仅支持自家的ESXI。
其他待补充:由于暂时未对VSAN进行实际部署测试,仅停留在对其原理的研究,因此,关于VSAN的部分待后续平台上线测试完成后继续补充。
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)