根据以上对现代计算机网络在全球社会信息化进程中特殊重要作用的认识,对于计算机网络技术的研究和发展趋势的分析,也应提高到系统的高度来认识,用系统观点来分析。人们常用C&C来描述计算机网络,从系统观点看,这已很不够了(C+C2C),虽然计算机和通信系统在计算机网络系统中都是非常重要的基本要素,但计算机网络并不是计算机和通信系统的简单结合,也不是计算机或通信系统的简单扩展或延伸,而是融合了信息采集、存储、传输、处理和利用等一切先进信息技术的,具有新质和新功能的新系统。人们也常用OSI分层通信体系模型及相应的通信协议来描述计算机网络,从系统观点看,这同样也已很不够了,网络分层通信体系对于计算机网络系统来说,确实非常重要,但它基本上只是用以解决网络系统中计算机之间如何通信问题,远不能代表计算机网络系统更广泛和丰富的内涵,它也只能是计算机网络系统的一个基本要素,这如同指令系统对于计算机系统一样。因此,对于现代计算机网络的研究和分析,应该特别强调计算机网络是系统(The Network is the System)的观点,并用系统科学和信息科学的理论和方法来指导,才有可能使我们能够站在一个较高的高度来重新认识计算机网络系统结构、性能及网络工程技术和网络实际应用中的许多重要问题,也更便于把握计算机网络系统的发展趋向。这对研究网络新技术、开发网络新应用和设计制造网络新产品都具有重要意义。下面我们试用系统观点对21世纪现代计算机网络系统的基本发展方向作一些分析:
开放和大容量的发展方向
系统开放性是任何系统保持旺盛生命力和能够持续发展的重要系统特性,因此也应是计算机网络系统发展的一个重要方向。基于统一网络通信协议标准的互联网结构,正是计算机网络系统开放性的体现。统一网络分层体系结构标准是互联异种机的基本条件,Internet所以能风靡全球,正是它所依据的TCP/IP协议栈已逐步成为事实上的计算机网络通信体系结构的国际标准。各种不同类型的巨、大、中、小、微型机及其它网络设备,只要所装网络软件遵循TCP/IP协议栈的标准,都可联入Internet中协同工作。早期那种各大公司专用网络体系结构群雄竞争的局面正逐步被TCP/CP一统天下的形势取代,这是计算机网络系统开放性大趋势所决定的。互联网结构是指在网络通信体系第三层路由交换功能统一管理下,实现不同通信子网互联的结构,它体现了网络分层体系中支持多种通信协议的低层开放性,因为这种互联网结构可以把高速局域通信网、广域公众通信网、光纤通信、卫星通信及无线移动通信等各种不同通信技术和通信系统有机地联入到计算机网络这个大系统中,构成覆盖全球、支持数亿人灵活、方便上网的大通信平台。近几年来,各种互联设备和互联技术的蓬勃发展,也体现了网络这种低层开放性的发展趋势。统一协议标准和互联网结构形成了以Internet为代表的全球开放的计算机网络系统。标准化始终是发展计算机网络开放性的一项基本措施,除了网络通信协议的标准,还有许多其它有关标准,如应用系统编程接口标准、数据库接口标准、计算机OS接口标准及应用系统与用户使用的接口标准等,也都与计算机网络系统更方便地融入新的信息技术,更大范围的开放性有关。计算机网络的这种全球开放性不仅使它要面向数十亿的全球用户,而且也将迅速增加更大量的资源,这必将引起网络系统容量需求的极大增长而推动计算机网络系统向广域的大容量方向发展,这里大容量包括网络中大容量的高速信息传输能力、高速信息处理能力、大容量信息存储访问能力,以及大容量信息采集控制的吞吐能力等,对网络系统的大容量需求又将推动网络通信体系结构、通信系统、计算机和互联技术也向高速、宽带、大容量方向发展。网络宽带、高速和大容量方向是与网络开放性方向密切联系的,21世纪的现代计算机网络将是不断融入各种新信息技术、具有极大丰富资源和进一步面向全球开放的广域、宽带、高速网络。
一体化和方便使用的发展方向
一体化是一个系统优化的概念,其基本含义是:从系统整体性出发对系统重新设计、构建,以达到进一步增强系统功能、提高系统性能、降低系统成本和方便系统使用的目的。一体化结构 就是一种系统优化的结构。计算机网络发展初期确是由计算机之间通过通信系统简单互联而实现的,这种初期的网络功能比较简单(主要是远程计算机资源共享),联网后的计算机和通信系统基本上仍保持着联网前的基本结构。随着计算机网络应用范围的不断扩大和对网络系统功能、性能要求的不断提高,网络中的许多成分必将根据系统整体优化的要求重新分工、重新组合,甚至可能产生新的成分。例如客户 / 服务器结构就是一种网络系统内部的计算机分工协同关系:客户机面向客户被设计的更简单和方便使用,如各种专用浏览器、瘦客户机、网络计算机、无盘工作站等;服务器面向网络共享的服务,被设计得更专门化、更高效,如各种web服务器、计算服务器、文件服务器、磁盘服务器、数据库服务器、视像服务器、邮箱服务器、访问服务器、打印服务器等。C/S分工协同实际上已成为计算机网络系统的一种基本结构和工作模式。另外,网络中通信功能从计算机结点中分离出来形成各种专用的网络互联通信设备,如各种路由器、桥接器、交换机、集线器等,也是网络系统一体化分工协同的体现。国际互联网中骨干网与接入网的分工,ISP、ASP、IPP、ICP及IDC等各种网络服务提供商的出现,也是互联网更大范围、更高层次的系统分工与协同。系统一体化的另一条路径是基于虚拟技术,通过硬件的重新组织和软件的重新包装来构造各种网络虚拟系统以优化系统性能。网络上各种透明结点的分布应用服务,如分布文件系统、分布数据库系统、分布超文本查询系统等,用户看到的是一个虚拟文件系统、虚拟数据库系统和虚拟信息查询系统,他们可以方便地使用这些虚拟系统而不必关心网络内部结构和操作细节。进而,网络的各种具体应用系统,如办公自动化系统、银行自动汇兑系统、自动售票系统、指挥自动控制系统、生产过程自动化系统等等,实际上都是更高层次的网络虚拟系统,它适应更广泛的用户,更方便地使用网络,用户从网络得到的服务更体现了网络内部各种信息技术的综合结果。虚拟技术实际上也是一种系统的黑盒子方法。21世纪的现代计算机网络将是网络内部进一步优化分工,而网络外部用户可以更方便、更透明使用的网络。
多媒体网络的发展方向
被称为多媒体的文字、话音、图像等,实际上并不是物质媒体,而仍是一些信息表现形式。所谓多媒体技术实质上也应是这些多种形式的信息如何进行综合采集、传输、处理、存储和控制利用的技术,也是一种综合信息技术。信息技术是对人自然信息功能进行增强和扩展的技术,人对客观世界的最初认识正是通过眼观(形状、颜色等形象信息)、耳听(声音信息)、手触(物理属性信息)、鼻嗅、舌尝(化学属性信息)而综合形成对某种事物的感性认识的。可见,人对客观世界最基本的认识过程,正是一种多媒体信息的采集过程。因为客观事物的属性是以各种信息形式综合表现出来的,人只有通过综合采集这些不同形式的信息,才能形成对客观事物比较完整和全面的认识。由此可见,人在大脑中存储的对客观世界的认识,实际上也是一种综合的多媒体信息。进而,从感性认识上升到理性认识的处理,也是一种多媒体信息的处理。因此,知识也是一种综合型的多媒体信息。现在,高度综合现代一切先进信息技术的计算机网络应用已越来越广泛的深入到社会生活的各个方面。人们从计算机网络系统得到各种服务,自然希望也能像他们直接观察客观世界以及直接进行人与人之间交往那样,具有文字、图形、图像、和声音等多种信息形式的综合感受。正是人类自然信息器官对多媒体信息的这种自然需求,推动了各种信息技术与多媒体技术的结合,特别是计算机网络这一综合信息技术与多媒体技术的结合。从某种意义上讲,这恰似信息技术发展到一定阶段而呈现的一种返璞归真现象。因此,多媒体技术与计算机网络的结合与融合既是多媒体技术发展的必然趋势,也是计算机网络技术发展的必然趋势。目前,手写输入、语音声控输入、数字摄像输入、大容量光盘、IC卡、扫描仪等各种多媒体采集技术,压缩介压、信道分配、流量控制、时空同步、QoS控制等多媒体信息传输技术,语音存储、视像存储、面向对象数据库、超媒体查询等多媒体存储技术,MMX芯片、Mpact媒体处理器等多媒体处理技术,以及高精度彩显、彩打、虚拟现实VR、机器人等多媒体利用控制技术的蓬勃发展,为多媒体计算机网络的形成和发展提供了有力的技术支持。电信网、电视网与计算机网的三网合一,也是在更高层次上体现了系统一体化和多媒体计算机网络的发展趋势。三网合一虽然还存在技术和体制等方面的不少问题,但大趋势已逐渐明朗,光纤到家、家用信息电器、家庭布线网络、VOD视频点播、IP电话、网络会议、多媒体网络教学、智能大厦等与此有关的技术和产品正在迅猛发展,21世纪的现代计算机网络必定是进一步融合电信、电视等更广泛功能,并且掺入千千万万家庭的多媒体计算机网络。
高效、安全的网络管理方向
计算机网络是一个系统,而且很多情况下是一个复杂的大系统。它的应用日益广泛、规模日益扩展而结构日益复杂。如同一个国家需要强有力的管理一样,计算机网络这样的大系统,如果没有有效的管理方法、管理体制和管理系统的支撑和配合,就很难使它维持正常的运行,因而也就很难保证它的功能和性能的实现。计算机网络管理的基本任务包括网络系统配置管理、性能管理、故障管理和安全管理等几个主要方面。显然,这些网络管理任务,都涉及计算机网络系统的整体性、协同性、可靠性、可控性、可用性及可维性等重要系统特征。所以,网络管理问题是计算机网络系统的一个重要的全局性问题。任何一个网络系统的设计、规划和工程实施,都必需对网络管理问题作一体化的统盘考虑。系统设计者经常需要在系统安全、可靠性指标和其他质量指标的矛盾中权衡、折衷。采用什么样的网管方法和系统方案,不仅影响网络系统的功能和性能,而且也直接影响网络系统的结构。虽然,计算机网络的基本应用服务功能与网络管理功能有所区别,有所分工,但又是紧密联系的。在网络内部结构中,实现这两部分功能的软、硬件实体也是紧密结合甚至融合在一起的。所以,网络管理系统已成为现代计算机网络系统中不可分割的一部分。网络管理应着眼于网络系统整体功能和性能的管理,趋于采用适应大系统特点的集中与分布相结合的管理体制。在当前网络全球化的大发展的形势下,各种危害网络安全的因素,如病毒、黑客、垃圾邮件,计算机犯罪等也很猖獗,并且也具有全球传播的特点,它们不仅影响网络系统的正常工作和网络应用系统的安全使用,甚至可能威胁网络系统的生存。因此,进一步研究和发展各种先进的访问控制、防火墙、反病毒、数据加密和信息认证等网络系统信息安全技术已成为计算机网络系统发展不可缺少的重要保障。21世纪的现代计算机网络应该是更加高效管理和更加安全可靠的网络。
为应用服务的发展方向
设计和建造计算机网络系统的根本目的就是为了应用。从系统观点看,网络应用最终体现了网络系统的目的性和系统功能。应用需求始终是推动技术发展的根本动力,技术发展又提供更多、更好的应用服务,这是技术发展与应用需求的基本辩证关系。作为高度综合各种先进信息技术的计算机网络,正是在人类社会信息化应用需求的推动下迅速发展起来的;而计算机网络也正是通过各种具体网络应用系统来体现对社会信息化支持的。国家信息化、领域信息化、区域信息化和企业信息化最后都要落实到建立各行各业、各具体单位的各种具体网络应用系统,如各种管理信息系统、办公自动化系统、决策支持系统、事务处理系统、信息检索系统、远程教育系统、指挥控制系统、异地协同合作系统以及综合的集成制造系统、电子商务系统、交通自动订票系统等,各行各业的不同用户也越来越需要依赖具体应用软件来使用网络。因此,基于基本网络系统平台之上的各种网络应用系统已成为计算机网络系统不可分割的重要组成部分。对具体网络信息系统的系统集成实际上就是用系统工程方法来具体规划、设计和构造一个具体的网络应用系统。目前,网络应用系统体系结构的研究、网络应用软件开发工具的研究、分类应用系统规范和标准化的研究,以及综合应用系统集成方法的研究等都非常活跃,取得了很大进展,也体现了计算机网络系统为应用服务的发展方向。21世纪的现代计算机网络呈现给广大用户面前的将是适应更广泛应用需求的、更方便使用的、但却更看不到网络的各种各样网络应用系统。
智能网络的发展方向
人工智能技术在传统计算机基础上进一步模拟人脑的思维活动能力,它包括对信息进行分析、归纳、推理、学习等更高级的信息处理能力,所以人工智能技术也是一种更高层次的信息技术。智能计算机使计算机具有更接近人类思维能力的高级智能,是计算机技术的必然发展。但在现代社会信息化进程中,由于计算机网络技术的飞速发展,计算机与计算机技术已越来越多地被融入计算机网络这个大系统中,与其他信息技术一起在全球社会信息网络这个大分布环境中发挥作用。因此,人工智能技术、智能计算机与计算机网络技术的结合与融合,形成具有更多思维能力的智能计算机网络,不仅是人工智能技术和智能计算机发展的必然趋势,也是计算机网络综合信息技术的必然发展趋势。当前,基于计算机网络系统的分布式智能决策系统、分布专家系统、分布知识库系统、分布智能代理技术、分布智能控制系统及智能网络管理技术等的发展,也都明显的体现了这种智能计算机网络的发展趋向。
高性能计算机发展的动力高性能计算机技术发展到底到了什么程度?蓬勃发展的机群系统是否可以成就高性能计算的未来?这也是对高性能计算机关注的人士所共同关心的问题。
在SC2003这次超级计算机大会上,中科院计算所专家代表团应邀参加了未来高性能计算机与网格发展的探讨。这些专家带回来的答案对我们国内目前大肆宣扬的机群高性能计算机发展方向正好唱了个反调——国际高性能计算机界的科学家们根本没有人关注Cluster今后会怎么样。“Cluster机群架构系统打开了大量高性能计算应用的大门,就如同当年386使得PC成为大众工具一样,但这并不能等同于高性能计算机技术研究的目标和方向。”这是樊建平对这种反差的解释。确实,从这次TOP500排行榜我们已经看到,美国大学的师生们已经完全可以联手搭建一台Cluster系统排行TOP500第三名,如果科学家还去关心同样的问题也实在没有太大意义。
按照惯例,作为技术领头羊的超级计算机,下一步系统研究的目标定位一定是要能比目前最好系统性能高出10倍~100倍。所以,在SC2003会议上,Petaflops系统如何搭建成了科学家们关注的焦点。樊建平解释说,“过去多年的科研结果使得目前这一批机群系统在性价比方面有很好的表现,但是向Petaflops目标前进的时候,如果再沿这条路继续往下走,成本会越来越高,功耗、可靠性、编程等一系列问题也都会显露出来,所以这条路已经被大家否定。”
那么,什么才是牵引高性能计算机下一步发展的技术动力呢?樊建平给记者讲述了SC2003大会上科学家们所探讨的几个主要方向。
首先是关于Petaflops系统体系结构,即:如何把10万个处理器连接起来?这是Petaflops时代来临之际,系统结构设计师们最为关心的问题。如果可以把10万个处理器成功连接起来,每个处理器只要达到100亿次处理速度,Petaflops系统即可以实现。同时需要指出的是,Petaflops不仅对体系结构设计者是一大挑战,对于程序编译者来说也必须采用一种全新的思路方法。
其次,带宽是下一代高性能计算机架构的另一大挑战。从某种程度上说,目前科学计算主要是受限于带宽(而不是算法),目前国际上各种高速、高带宽的互联技术已经很多,关键是一“走”PCB板就会大打折扣,这已经成为一个很大的瓶颈。为了解决这个问题,光互联技术已经在很多科学家的研究范围之内。另外,从芯片本身来说,很多研究机构正着力于把多数技术在芯片中实现,Memory-in-Processor(处理器集成到内存)、Processor-in-Memory(内存集成到处理器)等芯片技术已经取得很大进展,这将突破以往处理器和内存之间的瓶颈,从而使系统计算能力大大增强。
最后是对效率的重视。以前大家对于高性能计算机一贯是不计代价,一味追求计算速度。但现在这种趋势在变,很多人不仅开始关注高性能计算机从提出问题到解决问题所用的时间,而且会考虑单位空间的flops、单位功耗的flops,甚至单位资金投入所产生的flops等指标。
记者在网络上也看到了这样的消息,美国洛斯阿拉莫斯国家实验室的科学家们已经提出一种可以替代现有标准超级计算机和传统机群系统的全新超级计算机设计概念。这些科学家认为,计算的成本应当包括电能、基础设施、空调、占地空间、系统故障修复时间以及系统维护人员工资等,即应该更注重效率和可靠性,而不是超级计算机的原始速度。使用这种设计的第一台超级计算机被命名为“绿色命运(Green Destiny)”系统,基于刀片式结构,由240个计算节点组成,节点上的COTS器件安装在一块由RLX技术公司制造的、0.5英寸大小的母板刀片上(称作RLX ServerBlades);每块母板刀片含有一个主频为633MHz的Transmeta TM5600处理器,配有256MB存储器、10GB硬盘和3个100Mbps的快速以太网接口;24块这样的母板刀片安装到一个可装卸的3U“RLX System 324”机架中,高度为5.25英寸;10组机架再通过网络开关互连,构成一台6英寸高的标准计算机机柜。据介绍,目前,“绿色命运”的运算速度为每秒1600亿次,造价仅为33.5万美元,可以与速度最快的超级计算机和群集系统相媲美,但能耗只是它们的10%,大小只是它们的25%。据该实验室的研究人员表示,在模拟实验中,如果将“绿色命运”系统的运算能力扩大2000倍,其大小只增加65倍。最为诱人的是,“绿色命运”系统能够在布满灰尘、温度高达85华氏度的房间内连续运行8个月。
另外,记者从IBM也了解到,IBM正在研发的BlueGene/L超级计算机项目到2005年最后完成时,也会在功耗、体积方面相对于目前的高性能计算机有很大改观。李国杰院士也表示,计算所下一步将会把万亿次计算机做到小塔式大小,以方便大家使用。看来,未来的超级计算机将不仅仅是计算速度的巅峰之作,同样在高效率、小体积、稳定性、节能等方面也会成为其他IT产品的典范。
网络效应主导未来计算机产业
看未来,电脑产业将从摩尔定律主导变为网络效应主导。在本次大会上,多位专家的演讲再次证明了这点。
网络效应在经济学界早已熟知了,那就是一种商品的价值随着其消费者的增多而提高。电话就是一个例子。如果全世界只有几百个电话用户,则电话的价值是不大的。公众之所以认识到了电话的价值,电话之所以能够广泛普及,在于电话用户达到了一定的临界量。用户越多,则电话的价值就越大。
对计算机而言,人们还有更精确的规律。比如,麦特考夫定律认为,电脑网络的价值正比于用户数的平方;布朗定律则称电脑网络的价值正比于网络中社区个数的指数。有的民间人士将价值称为生产力,而一些军方人士则将其价值称为战斗力。
这两条定律有三个关键点:
第一,网络要普及,不仅要有物理层面的联通,而且必须是用户看到的,能够方便地使用起来的连通。只是把电脑用网线连起来是不够的,必须在应用层面联通起来,让用户享受到高质量的服务。
第二,网络的价值随着用户数增多而超线性的增长。因此,最优化的方法是将全世界的用户(和系统、应用)都连在一个大网里,彻底消除信息孤岛。同时,在这个连通所有用户的大网里提供尽量多的社区(以及社区带来的高质量服务),供用户选择。
第三,信息的价值正比于共享程度。网络效应的根本原因是它鼓励信息共享。因此,今后的价值优化发展趋势是,在安全和合法的范围内,最大限度地鼓励信息共享。
网络效应说明了,必须把全球的电脑资源连通为一体,最大限度地共享,方便地提供用户使用,才能最优地增大电脑网络的价值,才能促进电脑的广泛普及。
与会的学者认为,今后20年,摩尔定律仍然将是电脑产业界的基本定律。但是摩尔定律是电脑产业共同的定律,它的一个后果就是大路货化、同质竞争。每一个创新团队要想突破同质竞争、提高竞争力,必需深入思考如何有效地利用摩尔定律去最大限度地发挥网络效应。在今后10年之内,我们将看到两种趋势:
首先,是网络应用,即网络服务将成为最重要的电脑应用。其次是计算机电子中的多种接入设备(如数码相机)和传感器设备(如RFID设备)在很多时候将可能是离线方式工作,成为看起来是单独工作的计算机电子设备。如果我们将时间尺度拉长到今后20年,随着无线通信技术的进展,计算机电子设备(第二次数字浪潮)的缺省方式将有可能变成在线方式,随时随地连通到信息网络的虚拟世界。
其次,Internet路线将成为主流技术路线。基于先进技术和同行共识的开放标准是主要的目标。人们更加主动地参与电脑网络的创新和应用;人们的利益更加得到体现。广大用户不仅是被动的用户和消费者,他们同时将成为信息技术和信息资源的生产者和开发者。信息技术厂家和运营商将难以垄断市场,控制人们的行为。由于网格化趋势,以及由此产生的网络效应、小世界现象、病毒性市场现象,信息产业的技术门槛降低。个人、志愿者团体、小公司产生的先进技术比现在更有可能流行。一个优秀的、领导性的小团队也可能影响产业。
网格计算——未来计算的时代标志
如果我们从用户角度看计算机系统总体结构从1960年到2020年的演变,我们可以总结一条历史经验,姑且称之为三国定律:“天下大势:分久必合、合久必分”;每个分、合阶段大约主导15年。我们已经经历了三种模式。大型机/终端是早期的主导模式,其主要优点是使用方便和易于管理,其主要缺点是开放性差、不易扩展以及价格昂贵。为克服这些缺点,客户/服务器模式应运而生。集中在大型主机中的服务器功能被打散分布到多台独立的开放式服务器,通过网络与各类客户机(工作站、PC,网络终端,NC等)相联。服务器聚集又被称为互联网数据中心(IDC)和服务器堆模式。它用一套物理上集中式服务器同时提供多台独立服务器的功能,并将尽量多的功能从客户端移回集中式服务器端,以提高系统的可管理性。
中科院计算所徐志伟副所长认为,我们目前正在进入一个新的“分”的阶段,即服务器聚集物理上分散到各地,但仍然保持虚拟的单一系统映像。这也可以看成是一种特殊的“合”,即多个IDC的资源被互连成为一个虚拟的网格计算机,各种客户端设备通过功用方式使用网格资源。在这个网络计算时代,孤立的计算机系统、软件和应用将被网络化的产品和服务取代。世界将被互连成为一个开放的、一体化的、资源共享的全球电脑网络,也称为全球大网格,这是电脑广泛普及的必然要求。在兰德公司对于未来信息产业的5项预测中,后4项(广泛互联、普遍计算、传感器、信息网格)都是网格化趋势的一个侧面。
本次大会的相关专家认为,网格化趋势将是计算机广泛普及的主要技术推动力。网格化的特征是网络化、服务化。它将使得网络效应逐步得到充分发挥,从而推动电脑的广泛普及。全球电脑网络将演变成为有结构的小世界。它通过自我组织、通过成长,演变成为一个符合幂数律的动态开放的人机社会。物理世界、数字虚拟空间、人类社会三个世界将通过接入设备(接口设备)和传感器连通成为一个三元世界,组成数字社会。
对于企业来讲,网格计算的核心思想是作为公用设施进行计算。企业用户不用关心数据的位置,或者由哪台计算机处理他的请求,他都能够请求信息或计算,然后发布。这与电力公用设施工作的方式类似,用户并不知道发电机的位置,也不知道电力网的连接方式,用户只需要提出供电请求,就可以获得电力。网格计算的目标就是使计算成为一项公用设施。
实现公用计算有很多途径。最常用的方法是简单地对已有技术提供新的许可政策。例如,一些服务器厂商提倡对大型对称多处理(SMP)服务器进行划分,然后在需要时启动备用处理器功能。这种模式在多年以前就曾在大型机上推行过。
虽然这些大型SMP服务器可以按需提供计算能力,从而实现公用计算,但这些系统的成本并不低。最后,SMP服务器还是需要使用特殊且昂贵的技术来构建,并存在可伸缩性问题。实际上,这种按需计算就像一个大型机,存在高成本和局限性等问题。因此实现真正的技术革命需要寻找其他途径,而这种其他的途径之一就是网格。
从根本上说,网格计算是一个全新的计算体系结构,是为解决公用计算需求而设计的。网格计算将大量服务器和存储器集中在一起,成为一项满足所有企业计算需求的灵活的资源。商务应用程序通过用于身份管理、资源供应等的通用Web服务与网格计算基础架构连接在一起。网格计算基础架构不断分析资源需求,并相应调整资源供应。
点评:通过此次国际计算机创新大会,给记者感触最深的是,普及化、数字化和广泛互联将是未来计算机发展的主要趋势。从应用角度看,大众化、网络化、低成本是决定计算机发展的动力。在未来,任何计算终端都将拥有一定数据处理能力,计算机的发展最终将彻底改变人类的生活方式。
从广义上讲,服务器是指网络中能对其它机器提供某些服务的计算机系统(如果一个PC对外提供ftp服务,也可以叫服务器)。从狭义上讲,服务器是专指某些高性能计算机,能通过网络,对外提供服务。相对于普通PC来说,稳定性、安全性、性能等方面都要求更高,因此在CPU、芯片组、内存、磁盘系统、网络等硬件和普通PC有所不同。
服务器作为网络的节点,存储、处理网络上80%的数据、信息,因此也被称为网络的灵魂。做一个形象的比喻:服务器就像是邮局的交换机,而微机、笔记本、PDA、手机等固定或移动的网络终端,就如散落在家庭、各种办公场所、公共场所等处的电话机。我们与外界日常的生活、工作中的电话交流、沟通,必须经过交换机,才能到达目标电话;同样如此,网络终端设备如家庭、企业中的微机上网,获取资讯,与外界沟通、娱乐等,也必须经过服务器,因此也可以说是服务器在“组织”和“领导”这些设备。
它是网络上一种为客户端计算机提供各种服务的高性能的计算机,它在网络操作系统的控制下,将与其相连的硬盘、磁带、打印机、Modem及各种专用通讯设备提供给网络上的客户站点共享,也能为网络用户提供集中计算、信息发表及数据管理等服务。它的高性能主要体现在高速度的运算能力、长时间的可靠运行、强大的外部数据吞吐能力等方面。
服务器的构成与微机基本相似,有处理器、硬盘、内存、系统总线等,它们是针对具体的网络应用特别制定的,因而服务器与微机在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面存在差异很大。尤其是随着信息技术的进步,网络的作用越来越明显,对自己信息系统的数据处理能力、安全性等的要求也越来越高,如果您在进行电子商务的过程中被黑客窃走密码、损失关键商业数据;如果您在自动取款机上不能正常的存取,您应该考虑在这些设备系统的幕后指挥者————服务器,而不是埋怨工作人员的素质和其他客观条件的限制。
目前,按照体系架构来区分,服务器主要分为两类:
非x86服务器:包括大型机、小型机和UNIX服务器,它们是使用RISC(精简指令集)或EPIC处理器,并且主要采用UNIX和其它专用操作系统的服务器,精简指令集处理器主要有IBM公司的POWER和PowerPC处理器,SUN与富士通公司合作研发的SPARC处理器、EPIC处理器主要是HP与Intel合作研发的安腾处理器等。这种服务器价格昂贵,体系封闭,但是稳定性好,性能强,主要用在金融、电信等大型企业的核心系统中。
x86服务器:又称CISC(复杂指令集)架构服务器,即通常所讲的PC服务器,它是基于PC机体系结构,使用Intel或其它兼容x86指令集的处理器芯片和Windows操作系统的服务器,如IBM的System x系列服务器、HP的Proliant 系列服务器等。 价格便宜、兼容性好、稳定性差、不安全,主要用在中小企业和非关键业务中。
从当前的网络发展状况看,以“小、巧、稳”为特点的x86架构的PC服务器得到了更为广泛的应用。
从理论定义来看,服务器是网络环境中的高性能计算机,它侦听网络上其它计算机(客户机)提交的服务请求,并提供相应的服务。为此,服务器必须具有承担服务并且保障服务质量的能力。
但是这样来解释仍然显得较为深奥模糊,其实服务器与个人电脑的功能相类似,均是帮助人类处理信息的工具,只是二者的定位不同,个人电脑(简称为Personal Computer,PC)是为满足个人的多功能需要而设计的,而服务器是为满足众多用户同时在其上处理数据而设计的。而多人如何同时使用同一台服务器呢?这只能通过网络互联,来帮助达到这一共同使用的目的。
我们再来看服务器的功能,服务器可以用来搭建网页服务(我们平常上网所看到的网页页面的数据就是存储在服务器上供人访问的)、邮件服务(我们发的所有电子邮件都需要经过服务器的处理、发送与接收)、文件共享&打印共享服务、数据库服务等。而这所有的应用都有一个共同的特点,他们面向的都不是一个人,而是众多的人,同时处理的是众多的数据。所以服务器与网络是密不可分的。可以说离开了网络,就没有服务器;服务器是为提供服务而生,只有在网络环境下它才有存在的价值。而个人电脑完全可以在单机的情况下完成主人的数据处理任务。
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)