我们前面在部署ESXi 7.0时,发现系统中多了一块120 GB的VMFS-L(VMFS Local)磁盘空间,是针对并发群集操作进行了特定优化的VMFS文件系统。我们也测试了调整VMFS-L分区的两种主要方法,分别是通过ESXi 6.x版本进行升级,以及通过手工设定分区大小来实现。
我们在vCenter中纳管了主机之后,集群状态为空,HA状态为不可用。
这就说明要使用集群功能,就要单独进行配置,那我们今天就来尝试配置一下vCenter的集群功能。
创建集群
点击数据中心“操作”选项中的“新建集群”。
在基础配置页面,我们把vSphere DRS和vSphere HA这两个功能开启,暂时不开启vSAN功能。
下面的“使用单个映像管理集群中的所有主机”就不开了,这个功能主要用于对集群中的所有ESXi主机进行版本同步,和IRF一样,从而消除ESXi主机之间差异。我们的主机版本都是一致的,就不配置此功能了。
检查要创建的集群的详细信息,点击“完成”。
创建集群完成之后,我们就会自动跳转到集群配置的“快速入门”页面,在此页面,我们可以按照提示快速配置集群。
第一步是“集群基础知识”,主要用于修改集群的名称和3个服务的启用状态,和我们前面的创建操作基本一致。
添加主机
第二步是“添加主机”,可以将新主机和现有主机添加到集群中。点击页面的“添加”按钮,进入添加主机页面。
我们添加一台新主机192.168.1.34,按照要求依次填写主机的IP地址、用户名和密码信息;如果要添加多台,点击下面的“添加主机”按钮即可。
然后我们再从现有的2台主机中选择192.168.1.36这台,也添加到集群中。然后点击“下一页”。
因为192.168.1.34是新添加的主机,如果出现证书的安全警示,直接“确定”即可。
查看要添加的主机的摘要信息。
最后有一个提示,在移至集群之前,主机将进入维护模式。对于已打开电源和已挂起的虚拟机,可能需要手工操作关闭电源或迁移虚拟机。确认没有问题后,点击“完成”。
等待几分钟之后,可以看到2台ESXi主机的添加状态。
从数据中心视图中,可以看到两台主机已经被成功添加到集群中,并且处于“维护模式”。
配置集群
接下来进入第3步“配置集群”,点击页面中的“配置”按钮。
首先配置“Distributed Switch/分布式交换机”,需要配置ESXi主机的一台物理适配器连接到vMotion网络。
然后配置vMotion流量所使用的的IP地址和VLAN信息,可以使用默认配置,也可以按需调整。
在自定义集群设置的高级选项中,我只是把vSphere HA下面的“虚拟机监控”选项开启了,其他保持默认配置。
最后检查集群的所有配置信息,确认无误后点击“完成”。
从“近期任务”中我们大概可以看到集群的配置过程,包括网络配置(配置分布式交换机、添加分布式端口组、更新ESXi主机网络配置)、虚拟机配置(部署vCLS的OVF模板、配置vCLS虚拟机)和ESXi主机的集群选举等等。
最后我们可以看到主机配置成功的状态显示。
再次查看主机状态,现在已经看到主机属于新建的“集群1”。
但是状态这里有个警告,我们查看一下告警详情。
发现告警信息为“该主机的 vSphere HA 检测信号数据存储数目为 0,少于要求数目: 2”。产生的原因是vCenter配置vSphere HA时,DataStore HeartBeat(数据存储心跳检测)功能要求集群下的所有ESXi主机之间至少有两个共享数据存储才能正常运行数据存储检测信号。
解决方案一般有两种,第一种方案是关闭数据存储检测信号,但是这种方式治标不治本,我们就不介绍了。第二种方案就是真正去配置共享存储,这也是我们前面介绍NFS配置方法的原因(Windows Server2012 R2搭建NFS服务器、CentOS 7搭建NFS服务器)。
我们先添加一个,发现告警信息有变化。
说明问题原因和解决方案相匹配,然后我们意外发现Windows的共享好像不是很好使,新增之后竟然没有数量变化,我就只好又新建了一个Linux的NFS共享。再次配置连接Linux的NFS共享之后,告警就消失了。
不过过了一会,Windows的NFS共享也生效了,也不知道为什么,很尴尬。
最后再看一下集群的状态。
主机状态正常,HA状态正常,完美!
Windows Storage Server 2008 R2适用于什么环境呢?虽然它可用做很多事情,我发现它在虚拟数据中心提供共享存储时尤其有用。如果你对Windows存储服务器还不熟悉,Windows Storage Server 2008 R2会是专门提供优化存储的Windows基本版。如果你对Windows存储服务器还不熟悉,Windows Storage Server 2008 R2会是专门提供优化存储的Windows基本版。虽然它已经以多种形式出现很长一段时间了,但是我发现我自己是近几个月才比较常用到它。
那么Windows Storage Server 2008 R2适用于什么环境呢?虽然它可用做很多事情,我发现它在虚拟数据中心提供共享存储时尤其有用。这后面的基本想法是,单一的虚拟化主机可能托管几十个虚拟服务器。如果这样一个主机失效,它会引起所有虚拟机一起失效,这就会导致一次大规模中断。
当然,事实上,主机上有大量虚拟服务器,这也让拆下托管服务器以达维护作用变得很不实际。这个问题的解决方案是群集托管服务器。以此方式,如果托管服务器失效或需要拆下维护,虚拟服务器会转移到另一个群集节点。
搭建这种群集方案背后最大的一个挑战就是独立虚拟服务器运用的虚拟硬驱文件必须放置在共享存储卷上,所以它们对群集上的所有节点来说都可用。这也是Windows Storage Server开始起作用的地方,通过允许你在服务器的物理存储上创建虚拟硬盘并指定虚拟硬驱作为iSCSI目标,你可以从群集节点连接到iSCSI目标。
以我的经验来说,Windows Storage Server为了这个目的做得很不错。但是如果你看看微软对Windows Storage Server 2008 R2的综述,你会发现它几乎没有提到把服务器用作iSCSI目标。相反地,微软基本上是把Windows Storage Server作为网络存储设备(NAS)来营销。
这在R2版本囊括的新特征列表中得到进一步论证:
服务器信息块(SMB)2.1——SMB 2.1是微软SMB协议的新版本,它优化了低带宽连接。
网络文件系统(NFS)——NFS让Unix/Linux客户端访问Windows文件共享成为可能。
分布式文件系统(DFS)——DFS允许单一命名空间跨越多个文件服务器并横跨多个DFS服务器为文件复制做准备。
文件服务资源管理器(FSRM)——FSRM是文件服务器的管理和报告界面。
文件分类基础设施(FCI)——FCI初次出现在Windows Server 2008 R2中,它专门用来更好地分类数据。
Windows Storage Server作为网络存储设备(NAS)
当我第一次知道微软把Windows Storage Server 2008 R2当作NAS设备营销时,我的第一反应是质疑该公司是否明智。但当我停下来仔细思考这个问题,我开始意识到作为一网络存储设备,Windows Storage Server确实有它的独特优势。
虽然很多NAS设备都比运行Windows Storage Server的那些成本花费更少,Windows Storage Server 2008 R2操作系统易货了设备到现在网络的整合过程。我个人试验过低端NAS设备且发现由于设备不能识别活动目录帐户,管理许可几乎不可能。同样地,这样的设备一般不支持使用报告、管理或杀毒软件。
另一方面,购买Windows Server 2008 R2企业版可能比购买Windows Storage Server的花费更少,但是你只能得到软件。你还得购买服务器硬件和客户端访问许可。等到你得到所有需要的东西,成本可能比你购买一台NAS设备要昂贵了。
当然,成本不是一切。使用Windows Storage Server 2008 R2作为NAS设备的另一个好处是简易性。由于设备上预载了操作系统,你不必担心硬件兼容问题或是复杂的部署。
Windows Storage Server 2008 R2是一种OEM产品,这意味着你不能只预订一个Windows Storage Server许可证。想要得到Windows Storage Server,你只能通过购买一台厂商已经在其上预载了的服务器。但如果你想在进行采购承诺之前试用Windows Storage Server,微软已经对TechNet用户发布了Windows Storage Server 2008和R2版本。
分布式文件系统、集群文件系统、并行文件系统,这三种概念很容易混淆,实际中大家也经常不加区分地使用。总是有人问起这三者的区别和联系,其实它们之间在概念上的确有交叉重叠的地方,但是也存在显著不同之处。分布式文件系统
自然地,“分布式”是重点,它是相对与本地文件系统而言的。分布式文件系统通常指C/S架构或网络文件系统,用户数据没有直接连接到本地主机,而是存储在远程存储服务器上。NFS/CIFS是最为常见的分布式文件系统,这就是我们说的NAS系统。分布式文件系统中,存储服务器的节点数可能是1个(如传统NAS),也可以有多个(如集群NAS)。对于单个节点的分布式文件系统来说,存在单点故障和性能瓶颈问题。除了NAS以外,典型的分布式文件系统还有AFS,以及下面将要介绍的集群文件系统(如Lustre, GlusterFS, PVFS2等)。
集群文件系统
“集群”主要分为高性能集群HPC(High Performance Cluster)、高可用集群HAC(High Availablity Cluster)和负载均衡集群LBC(Load Balancing Cluster)。集群文件系统是指协同多个节点提供高性能、高可用或负载均衡的文件系统,它是分布式文件系统的一个子集,消除了单点故障和性能瓶问题。对于客户端来说集群是透明的,它看到是一个单一的全局命名空间,用户文件访问请求被分散到所有集群上进行处理。此外,可扩展性(包括Scale-Up和Scale-Out)、可靠性、易管理等也是集群文件系统追求的目标。在元数据管理方面,可以采用专用的服务器,也可以采用服务器集群,或者采用完全对等分布的无专用元数据服务器架构。目前典型的集群文件系统有SONAS, ISILON, IBRIX, NetAPP-GX, Lustre, PVFS2, GlusterFS, Google File System, LoongStore, CZSS等。
并行文件系统
这种文件系统能够支持并行应用,比如MPI。在并行文件系统环境下,所有客户端可以在同一时间并发读写同一个文件。并发读,大部分文件系统都能够实现。并发写实现起来要复杂许多,既要保证数据一致性,又要最大限度提高并行性,因此在锁机制方面需要特别设计,如细粒度的字节锁。通常SAN共享文件系统都是并行文件系统,如GPFS、StorNext、GFS、BWFS,集群文件系统大多也是并行文件系统,如Lustre, Panasas等。
如何区分?
区分这三者的重点是“分布式”、“集群”、“并行”三个前缀关键字。简单来说,非本地直连的、通过网络连接的,这种为分布式文件系统;分布式文件系统中,服务器节点由多个组成的,这种为集群文件系统;支持并行应用(如MPI)的,这种为并行文件系统。在上面所举的例子中也可以看出,这三个概念之间具有重叠之处,比如Lustre,它既是分布式文件系统,也是集群和并行文件系统。但是,它们也有不同之处。集群文件系统是分布式文件系统,但反之则不成立,比如NAS、AFS。SAN文件系统是并行文件系统,但可能不是集群文件系统,如StorNext。GFS、HDFS之类,它们是集群文件系统,但可能不是并行文件系统。实际中,三者概念搞理清后,分析清楚文件系统的特征,应该还是容易正确地为其划分类别的。
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)