想法是通过很多的PC计算机来实现很强的计算机处理能力来替代小型计算机等等这样的想法可以实现,但是在现在这样的计算机技术情况下是无法实现的,因为,不管PC的处理能力有多高,多快,但是稳定性上,安全性上以及I/O的处理能力上,PC同小型机还是有很大的差异的。
不过,随着现代计算机技术的发展,基于PC的高性能集群技术在某些领域中还是有他的使用范围的。
2.1.1 Beowulf
Beowulf不是科学集群软件的名称,而是一个术语,适用于在 Linux 内核上运行的一组公共软件工具。关于这个主题,有许多文档和书籍。Beowulf 与以下一些科学集群系统之间的差异可以是实际的,或者只是在产品名称中有差异。
2.1.2 Giganet cLAN
它使用非 IP 协议在一个科学群集的节点间进行通信。它也有 Beowulf 的缺点,即不能用作网络负载共享系统,除非想要编写应用程序来监控和分发在服务器间传送的网络包。
2.2 负载均衡群集
2.2.1TurboLinux TurboCluster 和 enFuzion
EnFuzion 支持在节点之间实现自动负载均衡和资源共享,而且可以自动重新安排失败的作业。EnFuzion 是 TurboLinux 即将推出的科学群集产品,它并不基于 Beowulf。但是,它可以支持上百个节点以及许多不同的非Linux 平台,包括 Solaris、Windows NT、HP-UX、IBM AIX、SGI Irix 和 Tru64。EnFuzion 非常有趣,因为它运行所有现有软件,并且不需要为环境编写定制的并行应用程序。它支持在节点间实现自动负载均衡和资源共享,而且可以自动重新安排失败的作业。
但是,这个软件包的价格非常昂贵,性能还是不错,如果能够将价格下调一些,那就爽了~
2.2.2MOSIX
MOSIX 使用 Linux 内核新版本来实现进程负载均衡集群系统。该系统在以后的帖子中会讲解如何来实现配置的过程,他是免费的,个人非常喜欢。
他对于应用来说是透明的,提供了很好的配置文件来实现添加到群集的总处理能力,现在基于MOSIX的计算机集群技术发展的很快,在很多地方已经开始了正式的商业应用。
2.3 高可用性群集
简称HA,这种技术在商业上是应用的最为广泛的集群技术,当构成集群的节点中其中一个节点当机或者失败的时候,由集群中的其他节点接管他的运行任务,这样就可以保证系统最大的可用性。在WEB上比如MAIL server也是经常使用这样的技术。
在这里,我主要推荐的是HP的MC/ServerGuard fot Linux软件包,本来HP的MC/ServerGuard在HPUX中是采用最为广泛的集群软件包,现在hp将他抑制到linux中来,这样就可以保证软件最大的稳定性
首先说一下存储连接主机的方式SCSI:这种方式比较老,新设备已经不再使用这种连接方式,使用铜缆,走scsi协议,最快的是Ultra 320 SCSI,接口最大速度320Mb/s。有些磁带库驱动器会使用SCSI口连接。不可用以太网交换机。
SAS:串行SCSI,这种方式在现在一些比较低端的存储会被采用,价格低廉,使用铜缆,接口为小梯型或小长方型的SAS专用接口。接口最大速库6Gb/s,有些磁带库驱动器会使用SAS口连接。不可用以太网交换机。典型设备IBM Total Storage DS3200。
ISCSI:这种方式可以理解为SCSI协议与TCPIP协议的结合,由于存储系统的重要性,以及以太网络的非100%可用性,所以使用的设备也大多是一些低端设备,使用以太网络铜缆,可以走以太网络交换机或主机与存储直接连接,主机端可以使用通用网卡,或者专用的ISCSI HBA卡,后者可以实现SANBoot。速度受控制器以及网络条件限制,目前主流为1Gb/s。典型设备IBM Total Storage DS3300。
Fibre Channel:这种方式是目前主流的存储连接方式,使用多模光纤,使用SCSI协议,价格高,但无论是速度还是稳定性可以很好的符合高可用环境的需要。端口速度1Gb、2Gb、4Gb、8Gb,1Gb、2Gb现在所被使用的设备一般为老设备,现在主流为4Gb,并且新设备多为8Gb。可以走交换机,或者主机与存储直接连接。但注意交换机,并不是以太网交换机,是SAN交换机,专用于光纤存储与主机的连接,特点为,交换机上的rj45为管理,其余都是SFP口。这种连接方式无典型设备,就IBM而言,DS系统的存储除ds3200、ds3300,其余的都是采用光纤接口。这种存储所使用的硬盘也是所有种类硬盘价格最高的,使用Fibre Channel接口,接口速度同存储接口速度。另外,当前各家的主流磁带库存储,也都使用光纤来连接驱动器。
另外还有一类存储同样使用RJ45,走以太网交换机,使用网络通讯协议,这类存储叫NAS。存储对外提供的并不是存储空间,而是文件系统,给windows主机使用时提供的可能是cifs,而给类unix主机使用时可能提供的是nfs。IBM N系统的存储都是这一类。实际环境见的不多。
直连存储的优点:配置成本最低,因为该方案只需要将存储设备通过SCSI接口与服务器相连接即可,配置十分简单,适合小型公司使用。
直连存储的缺点:因为整体配置过于简单,该方案也存在一些缺陷服务器如果故障,数据就不能访问多服务器系统不容易管理,存储空间不能控制分配,会产生资源的浪费存储备份操作复杂。
扩展资料:
直连式存储的分类:
直连存储又可分为内直连式存储和外直连式存储。
内直连式存储是指存储设备与服务器通过串行或并行SCSI总线接1:3电缆直接集成在一起,但SCSI总线自身有传输距离和挂载设备的限制。
外直连式存储通过SCSI或光纤通道将服务器和外部的存储设备直接连接,与内直连式存储相比,外直连式存储可通过光纤通道克服传输距离和挂载设备的限制。
对于少量PC机或服务器,使用直连式存储连接简单、易于配置和管理、费用较低,但这种连接方式下,因每台计算机单独拥有自己的存储磁盘,所以不利于存储容量的充分利用和服务器间的数据共享,而且存储系统没有集中统一的管理方案,也不利于数据维护,因此直连式存储不适合作为企业级的存储解决方案。
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)