有的服务器为啥放水里或者山洞?

有的服务器为啥放水里或者山洞?,第1张

一、腾讯把服务器装进山洞 腾讯贵安七星数据中心,建在贵州省贵安新区两座山的山体上,是要存放30万台服务器的灾备数据中心。整个数据中心总占地面积约为47万平方米,隧洞的面积超过3万平方米,能塞下4个标准足球场还有富余。 腾讯方面透露,利用山洞建数据中心,主要出于两方面考虑。 一是山洞结构可以散热。山洞特殊的结构,就像一个巨大的空调。山洞外的冷空气从主洞口进入,经过制冷模块与IT设备热回风进行间接换热后,从竖井排出。这样既可以充分利用外部自然冷源,又避免了外界空气对设备的影响。 更主要的是安全。腾讯称,贵安七星数据中心是参照我国高等级人防标准建设,具备突发防护能力,可防相应级别常规打击和核打击。发生突发事件时,它将自动切换到防护模式不间断运行。(来~UPS了解一下) 而且利用最新AI技术,该数据中心还能实现网络、主机、业务3级云安全布防,人脸识别、安防机器人等均被应用其中,此外腾讯还在计划部署无人机入侵防控系统。 二、微软把数据中心建到海底的项目 在人们对网络和计算的需求呈指数级增长的今天,已有的数据中心已经无法满足人们生产、生活的需要。因此微软在2014年开启了代号为“Natick”的海底数据中心项目,旨在满足世界人口密集区域对云计算基础设施的大量需求。 微软宣布,在苏格兰奥克尼群岛附近的一片海域,一个集装箱大小的海底数据中心已经开始运转。 在云计算中,数据中心担任着不可取代的角色,为了降低运营数据中心带来的大量能耗,微软于2014年开启了Natick项目, 探索 在深海底部建立数据中心的可能。如今这个项目已经进入了第二阶段,微软尝试运用潜艇技术和可再生能源开发新型海底数据中心,为沿海城市提供高速度、低能耗的云服务。 海底数据中心的想法最初是在2013年的微软的年度创新活动“ThinkWeek”中提出的,希望可以利用海水冷却服务器达到降低能耗的目的。 除此之外,这个项目还具有多重优势,世界上有一半以上的人口生活在距离海岸约193公里以内的区域,将数据中心部署在沿海城市的附近水域可以极大地缩短数据与用户的距离,使得网速提升,沿海居民打 游戏 、看视频的流畅度相应提升。 最重要的是,还能加快AI任务,使AI驱动技术能够为人们营造更加流畅、真实的用户体验,满足人口密集区域对云计算基础设施的大量需求。 经过了105天在海底的平稳运行,原型机在可行性上验证了海底数据中心的设想。Natick项目团队深受鼓舞,开始了项目的下一阶段,尝试在苏格兰附近的欧洲海洋能源中心部署一个完整的、五年免维护的数据中心。 海底数据中心可以借助大洋深处提供的不间断免费冷却系统节省大量的成本,同时还可以促进海上风力发电场、潮汐涡轮机组等海洋可再生能源行业的共同发展。 三、阿里巴巴把服务器泡进“水里” 阿里的工程师研发出了液冷服务器技术。 他们把服务器“泡在水里”——这是一种极其高效的散热方式:浸没式液冷。服务器被浸泡在特殊冷却液里,产生热量可被冷却液直接带走进入外循环,全程用于散热的能耗几乎为零,整体节能70%。 这个问题,可以跟大家科普一下。服务器里放的是什么?是数据,数据最重要的是安全性,那么那么多大批量的服务器运行,会有什么效果?服务器是全天 24 小时不停的在运行,会释放大量的热,上万台服务器在一起,得释放多少热量,是不是很费电?在正式回答问题之前,给大家看段视频,长长见识。山洞是阴凉的,一般数据中心都建在贵州的大山洞里,因为贵州的温度也比较低,又加上山洞阴凉,有利于服务器的散热,贵州的电费也低,省钱。放到山洞或者水里,本身就有利于降温,本身就容易散热,这样对于一些通风散热设备来讲,可以使用的少一些,这样就少运行一些散热设备,也省电,省钱,省成本。其实放到山洞里,也有利于安全性,山洞本身都是比较坚固的,安全性比较容易保障,其实放到水里在降温层面来讲肯定是比放到山洞里更好,但是放到水里那就要求密封性比较好,在安全性的考虑上就不如放到山洞里。放到水里在降温省电方面,能够节省成本,但是在安全保障方面,可能要特殊处理,成本就会上去。总之,是各有特色。最后解释一下服务器,其实放数据的地方,运行的服务器说白了就是电脑的主机。大家在软件上的数据,互联网上的数据都存放在了服务器里,也就是电脑主机里,成千上万台的服务器组合在一起,运行着大家的数据。另外,数据都是有备份的,分布式存的,比如:在上海存放的数据,可能在贵州有备份,一旦上海的服务器有问题,被炸毁了,那么就会启用贵州备份的数据。所以,一般服务器的数据都是有保障的,不会丢失。 随着云概念的兴起服务器在现在 科技 领域占比已经越来越重要的了,虽然用户在使用的时候是看不见服务器存在的,但是组为运营者却需要考虑实际服务器的如何存放以及如何才能节省的成本的运行,由于服务器本身的属性功率高而且发热量也大,所以能够存储服务器要求必须是低温的地方,未来的大数据以及人工智能的发展都离不开服务器的存在,于是国家响应 科技 发展的大趋势就找到一块非常适合存放服务器的地方,就是贵州省目前大多数的互联网企业基本都在贵州有自己的数据中心,像腾讯华为,都给自己在贵州找到了存放服务器的地盘,贵州是天然的存放服务器最佳的地点,首先贵州的气温整体偏低非常适合存放服务器,同时由于国家政策的倾向在贵州的电费也是非常低。 正是由于拥有如此多的优势国内很多互联网企业纷纷跑向贵州给自己的服务器找个窝,对于集群的服务器来讲最重要的散热能力,撒热不好消费的电费也高对于机器的寿命也是一种考验。所以为了解决服务器散热的问题,已经有很多公司做过试验,国内放在贵州的服务器地点基本上是选择在山洞里面,这样的能够达到极好的散热效果,有能力的企业基本上买下几座山然后把山内部挖空然后在里面放置服务器,如果是散热好的服务器只是在电费这一块就把修建的费用非节省出来了,加上当地政府的政策电费本身就比较低,所以在贵州设置数据中心是一个非常值得做的事情。 当然也有很多企业尝试别的方案,像微软的服务器放置在海底,由于海底的温度更低所以也是放置服务器的绝好位置,但是放在海底需要保证服务器的密封性,总之在效果上要优于山洞中但是在安全性能的保障上可能要比在山上花费的成本要高一些,当然放置在海底还有几项优势,可以充分利用海浪来发电,这样还能节省电力的成本,另外微软放置在海底的服务器可不仅仅只是在一个地方,因为美国很多发达的区域都靠海,所以靠近用户能够提供更好的用户体验,不过国内的互联网公司还是倾向于在山洞中放置服务器。 未来服务器的重要性还会继续加强,所以特别 云计算的发展很多中小企业已经不是自己在设置自己的服务器了直接在大公司的云计算体系里面租借一个服务器维护自己的云计算功能,省钱还能省心毕竟服务器的安全维护都是交给大企业去做了,国内从事云计算的企业不在少数,当然最强还是阿里巴巴的阿里云,属于自主研发的在全球已经能够排到前四的位置,并且和谷歌的云计算市场占比差距很小,人工智能也是未来的一个发展趋势但是背后的数据计算依然会放在服务器去完成。 未来可能还会有更多的存储服务器的方式进化出来,但是存放服务器的首要条件是散热能力,要不然几万个服务器同时堆积在一起热量将是非常巨大的,而且电费的费用也会非常大,未来随着技术的成熟相信会有更加 科技 化的存储方式产生,但无论怎么折腾首先要考虑的都是散热问题,希望能帮到你 第一个是散热问题,电子元器件在电流通过的时候都会产生热量,尤其是CPU,大量的服务器聚集在一起长期工作会产生大量热量致使服务器温度升高,服务器过热就要降温,这就跟平时我们玩电脑一样,有的公司把服务器放在了南极,有的花费了巨额的代价来买空调,但是这些成本太大,实在有些浪费了,服务器选择放在海底,可以利用冰冷的海水来为服务器散热,而同时又能利用海浪来发电,为数据中心提供电量,从而降低维护成本。放在山洞同样是为了利用山洞的低温环境来给服务器降温,降低维护成本。 第二个是房租问题,数据中心往往占地面积比较大,比如腾讯贵安七星数据中心,建在贵州省贵安新区两座山的山体上,存放30万台服务器的灾备数据中心。整个数据中心总占地面积约为47万平方米,隧洞的面积超过3万平方米,能塞下4个标准足球场还有富余。这么大的面积在城市房租也是很贵的。 放在水里是因为省钱+降温。 服务器/电脑发热是很严重的问题,长时间高温高负荷运作会影响服务器寿命,因此需要降温。而一般的风冷降温用风扇噪音大且耗电。大的服务器群用在降温上的电费是很高的,因此很多厂商会把服务器建到水厂电厂旁边,原因就是电费便宜。 如果服务器放到水里就省去了散热电费成本。 我猜想放山洞是因为山洞基础温度低,散热所要降的温度差小,这样用一些节能的散热方案也是可以行的。 [灵光一闪] 服务器会产生大量的热量,为了节约成本便于散热,所以会考虑讲服务器放下水下或者山洞里。 例如前段时间,微软公司就成功地苏格兰奥克群岛的海岸附近,安装了一个水下数据中心的原型。实际上,数据中心里的耗电量很大一部分是用来散热的,而用于服务器计算的能耗只占约15%,所以很多大型 科技 公司都想尽办法降低数据中心的散热降温成本。 将数据中心搬到海里是目前成本较低又有效的方法,微软水下数据中心Project Natick的方向是用冰冷的海水来为服务器散热,而同时又能利用海浪来发电,为数据中心提供电量。 阿里云服务器放在千岛湖湖底,腾讯将服务器搬到贵州山洞里,都是为了降低散热成本。 服务区属于24小时全年运行配备,电器设备运行都有自发热,放在深山,水中能降低设备发热,发烫,从而提高设备运行, 水里和山洞里可以更有效的进行散热,服务器平时最大的问题就是散热,散热还不能用空调,空调有冷凝,会伤害电子元器件,普通的服务器机房只能风冷,噪音大,维护麻烦 谁说的服务器放水里?那还不短路了?阿里是把它们放在一种特制溶液里,那可不是水啊。 不管放在哪,目的是找一个温度较低的地方,省空调电呀。 主要是降温,安全,节约能源。

云存储的几十年发展历程,其计算架构模型,也从Scale Up走向Scale Out。但是展望未来数字世界的海量需求,目前流行的模型还能够持续满足吗?本文通过对云存储 历史 的回顾,及对Scale Up和Scale Out两种扩展模型的诠释,来揭开云存储的未来模式。

1. 云存储及其 历史

简而言之,云存储(cloud storage)就是将数字内容安全的存储在服务器上,从而任何连接互联网的设备可以方便的获取。首先让我们简单回顾一下云存储的 历史 。

云存储的早期雏形要回溯到上个世纪的90年代,也就是互联网泡沫时期(dot-com boom),当时有许多家公司,例如EVault, NetMass, Arkeia和CommVault等等[1]均提供在线数据备份服务,当然它们绝大部分也随着互联网泡沫的破碎而烟消云散了。少数幸存下来的有一家叫Veritas NetBackup最后也被Symantec收购,现在依旧提供Symantec NetBackup的在线存储服务。

而真正让大家耳熟能详的云存储是2006年由Amazon提供的AWS S3云存储服务,其最具有革命意义的变革是,提出了即买即用(pay-per-use)的价格模型,使得云存储的使用像水电一样可计算衡量。从此云存储以S3为标准一路绝尘,我们所熟悉的大厂,比如Netflix, Pinterest, Dropbox也是S3的顾客。尾随的Microsoft和Google也于2010年分别发布了类似的Azure Blob Storage和Google Storage的存储服务。

云存储真正发展的十几年中,见证了移动互联网的崛起,大数据的生机勃发,人工智能的再次复兴,并能够展望到未来物联网,无人驾驶及各类机器人自动化的世界。海量数据的产生,存储,分析,预测及应用,快速以正反馈循环方式,推进着人类 社会 向数字世界大步迈进。所以,为了适应数据存储新的需求,各家云存储产品的应用场景及价格模型,已从单一向多元发展,比如AWS S3就有Standard,Intelligent-Tiering, Standard-IA,One Zone-IA,Glacier和Glacier Deep Archive六类存储产品来满足各类使用场景,我会在未来的文章里针对性的细讲一下。而本文重点所探讨的是,目前云存储的基础架构体系是否能够适应未来数据存储的要求和挑战?为了回答这个问题,让我们先简单回顾一下计算机体系架构里的Scale Up和Scale Out扩展模型。

2. Scale Up和Scale Out?

Scale Up又称为垂直扩展(scale vertically)[2],意为在单节点上添加资源,如CPU,内存和存储,在纵向上扩展从而获得更多计算或存储能力;Scale Up初期能够快速达到升级目的,操作起来相对比较简单,但随着计算或存储的要求越来越高,硬件资源的添加可能已经达到极限,不仅单节点的造价非常昂贵,维护成本很高,而且更容易留下单点故障的隐患。传统的RAID(Redundant Array of Inexpensive Disks)存储就是此种模式。

Scale Out又称为水平扩展(scale horizontally)[2],意为在分布式环境下,通过添加节点计算或存储资源,在横向上满足更多的计算存储需求;随着计算和存储单位价格的降低和效率的提升,使用低端的商用(commodity)系统,利用分布式技术可以搭建起“超级计算”中心,以及后来衍生出来的私有或公有云平台解决方案。虽然分布式系统会带来一定程度上的软件复杂度和管理困难,但由软件定义的计算和存储解决方案,能够以较低的价格和较高的鲁棒性,优雅的解决了海量增长的计算存储需求,也是目前云平台的主流技术。但它就一定能够承载未来的更加海量的需求吗?云存储的未来是什么?方向是向左还是向右?

3. 未来向左还是向右?

话说天下大势, 分久必合, 合久必分,事物发展的规律似乎从来就没有什么绝对。当下,云平台内部似乎已完全是Scale Out模式了,但当我们把镜头再拉远一点,从云平台在全球部署的每一个可用区来看,整体上它又是一个Scale Up模型,不是吗?单点投入巨大,耗费能源,使用成本高昂。而相反,随着强大的计算,存储和带宽能力能够进入寻常家庭、工作和生活等边缘节点,资源闲置或者不均衡使用也变得越来越明显。

那么,是否能够将这些边缘节点的计算存储能力结合起来,组成一个真正意义上的Scale Out平台,提供人们日益增长的计算存储需求?

可否将浪费或者不对等的资源重新组合,提供一个更加节能环保的绿色Scale Out平台?

可否摒弃中心化的单点故障和数据安全隐患,真正做到廉价高效,零数据泄露的Scale Out平台?

答案是应该可以而且必须可以!

纵观云存储平台的发展 历史 ,从单节点的Scale Up模式走向可用区内部的Scale Out模式,又从内部的Scale Out模式走向整体上相对的Scale Up模式。而未来数字世界的海量计算和存储需求的满足,一定需要真正意义上的全球Scale Out模型,那就是把边缘节点和半中心化节点高效且系统的组织起来,减少浪费,提高效率,节省成本,去除中心。将天空中几块为数不多的白云,变成漫天遍布的朵朵白云,让人们自由定价、自由选择、自由组合。

挑战虽然巨大,但未来很美好,让我们一起努力迎接云存储的明天!

[1]: History of Online Storage

[2]: Wiki Scalability

文章作者:Bruce Lee(http://PP.IO总架构师)

转载请注明出处

如果有关于PPIO的交流,可以通过下面的方式联系我:

加我微信,注意备注来源

wechat:omnigeeker

云存储服务平台,很精练吧

百度解释:云存储是在云计算(cloud computing)概念上延伸和发展出来的一个新的概念,是一种新兴的网络存储技术,是指通过集群应用、网络技术或分布式文件系统等功能,将网络中大量各种不同类型的存储设备通过应用软件集合起来协同工作,共同对外提供数据存储和业务访问功能的系统。

云存储可以简单的理解为将数据保存在一个第三方空间,随时取用和处理。云存储也可以说是一个以数据存储和管理为核心的云计算系统。云存储对用户来讲,不只是一个简单的设备,而是整个云存储系统的一种数据访问服务。

通过集群应用,网络技术等功能把网络中不同类型的存储设备通过应用软件集合起来工作。

云储存就是企业的公用空间(服务器),定期有人维护不用自己操心不怕数据丢失,但是数据都会在企业无保密可言,

就是网上的存储空间,不占自身内存,要用时联网下载

云存储是指通过集群应用、网格技术或分布式文件系统或类似网格计算等功能联合起来协同工作,并通过一定的应用软件或应用接口,对用户提供一定类型的存储服务和访问服务。

云存储的优势

楼主有需要的话可以了解一下企业共享办公系统,可支持手机端、云端、公司服务器存储、为企业独立搭建维护企业网盘,从而实现文件归档存储、文档管理、协同办公等功能。

云存储就是将文件内存存储在云端的一种方式,不占用自己本身电脑或者手机的内存,海量存储轻松搞定,解决了很多的存储难与存储传输难的问题。

使用呆猫云盘的几大好处,企业存储资产更安全:

1、使用呆猫远程桌面时可直接挂载云盘,轻松上传下载文件,支持在线修改文件。

2、项目资源统一集中管理,释放本地存储空间;支持弹性扩容,按需使用,降低本地硬件使用成本;

3、呆猫同一账号内存储互通,资源可异地共享,减少传输成本。

4、呆猫云盘与渲云网盘存储互通,使用渲云提交渲染任务时,内网同步,文件秒传,节省传输时间。

5、支持高并发读取资产文件,可同一账号最多可支持上千台机器同时读取云盘文件,提高工作效率。

6、高性能存储,百万级IOPS,超高算力助力设计行业发展。

7、云盘基于域控的安全策略,免受病毒攻击;提供多副本可靠性机制,即使机器出现故障,也不会引起数据丢失。

把你需要存储的数据放到网上,不占用你自己设备的内存,当你需要使用时从网上下载。这之间会产生数据流量。

云存储其实我们都经历过,2013年-2016年蓬勃发展,而后被玩坏的云盘,就是典型代表,虽然我们控制权益不多,只能上传下载,离线,共享,基本当作网络硬盘和交流工具使用,但却解决了人们的燃眉之急。我们现在部分手机上还有云端保存照片的功能。

实际的云存储并不是这么简单,引用一下百科:

云存储是建立在云计算的基础上,为云计算服务。对于我们似乎太深奥,但又息息相关,我们只需要知道它是好东西就行了。不单单能当作个人网络上的储存空间。

近日,国家发展改革委等部门联合印发文件,同意在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏启动建设国家算力枢纽节点,并规划了10个国家数据中心集群。至此,全国一体化大数据中心体系完成总体布局设计,“东数西算”已成为国家级战略工程,浩浩荡荡地站上了 历史 舞台。

“东数西算”被认为是继“南水北调”“西电东送”“西气东输”之后的又一重大基础设施工程,将成为“新基建”的新抓手。具体而言,“东数西算”就是将东部产生的数据和需求,放到西部数据中心去计算和处理。这有利于为数据中心提供源源不断的可再生能源,大幅降低其运行维护成本,同时能够推动中国数字经济和西部地区发展。

乘着“东数西算”的政策东风,存储、计算产业也将迎来巨大的发展机遇。其中,基于分布式存储架构的SDS(软件定义存储)作为先锋力量、“热门选手”,天生具有可扩展性以及灵活性,必然会为新基建时代带来革命性的数据储存手段。

然而,机遇往往与挑战并存,一个不能忽略的问题是,随着东数西算工程纵深推进,存储需求激增,同时5G、AI、云等技术加速更迭的背景下,与之相伴而生的SDS由于还在沿用十年前的技术,也必然需要同频进化。

01

被行业拥簇的SDS(软件定义存储)

2013年,“软件定义一切”被首次提出时,还是个令人怀疑的技术畅想。尤其是当它与存储绑定在一起,在一些传统储存厂商眼里是不着边际的。但事实证明,SDS(软件定义存储)的诞生,不仅优化了传统存储的弊端,并在日后的十年里逐渐繁荣。

根据IDC公布的2021年三季度中国软件定义存储(SDS)市场报告显示,前三季度中国SDS市场获得高速增长,市场规模同比增长54%,成为中国存储市场的增长引擎。早就发布过软件定义是趋势的Gartner预测,到2024年,全球50%的存储容量将以软件定义存储的形式部署,包括本地部署或在公有云上。

SDS在市场上的狂飙突进,一方面是基于创新技术。近几年,由于数据爆炸式增长,存储系统的软硬件紧耦合设计严重地限制了存储技术的发展,而软件定义存储则可以实现软硬解耦,让硬件成本尽可能的降低,使得软件发挥更大价值。通过软件的设计,来决定存储的性能和边界,不用再受硬件设备、服务器的限制。其方向在于帮助用户在传统数据中心或云内实现存储资源的池化和服务化,以及在多云之间实现数据的统一管理和自由流动。

另一方面,是源于 历史 的进程,被时代选择。随着云计算、大数据和人工智的发展,非结构数据爆发式增长——文本、图像、影视、超媒体等,面对这些数据,传统存储方式难以招架,而SDS存储正是包含针对文件的存储、对象的存储,自然就成了相关行业的首选。此外,企业云化在近几年成为了主流。在上云浪潮下,不同种类业务在池化的资源池中拿到相匹配的资源。这种业务场景天然适合软件定义存储的分布式架构、软件定义、水平扩展、基于统一存储引擎向上提供多种接口等特性。

02

SDS已站在新十年的转弯处

带着这样的优势,伴随着行业的拥簇,SDS转眼已来到新十年的转弯处。周遭环境飞速变化,数字浪潮奔腾汹涌,一些厂商、企业赫然发现,这个阶段的SDS竟然依然处于1.0时代,还在沿用十年前的开源技术,基于旧的硬件架构设计,似乎已无法更好的应对未来的新兴需求。

例如,与10多年前相比,现在的存储硬件、网络以及相关的技术方案已经发生了很多的变化,如果在软件层面不做出新的变革,数据存储系统就无法发挥出最大的价值。

还有介质方面,存储已经实现了大规模的从机械硬盘向SSD固态硬盘的过渡,由此带来了超高的IOPS、超低的时延;网络的提升更是惊人,100G已经司空见惯,400G也已经渐行渐近。

当然,也面临着“云”的追赶。我们都知道,目前,企业云化已经成为必答题,云的发展日新月异,从私有云到多公有云、边缘云、分布式云,企业选择上云的部署方式越来越多元,数据可能存放在任意的地理位置,存储平台需要构建全局统一的存储资源池,让数据在多数据中心、混合多云和边缘中按需流动,这都是目前SDS1.0需要突破的挑战。

03

触摸存储未来的轮廓,ExponTech抢先迈向SDS2.0

作为数据基础设施整体解决方案提供商—ExponTech华瑞指数云率先提出SDS2.0概念。在ExponTech看来,SDS从1.0需要迈向2.0时代,进化为2.0后,会为行业带来眼前一新的改变。

比如,SDS 2.0将支持可组合式架构,整合私有云、多个公有云,边缘云中的存储资源,提供不同IO模型,不同性能和可靠性要求以及许多种协议接口(iSCSI、S3、POSIX、NFS、CIFS、CSI、HDFS等)的自由组合及灵活部署使用。

还有,SDS2.0将与云原生高度协同。无论在计算、网络、数据亦或业务的层面,都可以按照云原生的架构模式、部署模式和运营模式,实现与时俱进的进化。SDS 2.0需要按照云原生的方式,支持和适配企业云原生应用的发展。

最后,具备向上服务能力。SDS2.0在做好基础存储的服务、流动的同时,还会向上管理数据库,分发数据,帮助企业解决数据孤岛问题。

不仅如此,ExponTech认为,SDS2.0未来近乎要实现一个飞跃式的革新,是需要在引擎和架构方面做出全新的设计。

由此,ExponTech前瞻性地发布自主研发的新一代分布式数据存储引擎WiDE。和其他存储相比, WiDE既可以提供多池架构下的IO调度和数据流动,企业可以存储海量非结构数据,也能存储要求高性能高可靠的结构化数据,还可以做高性能的数据分析,真正实现数据原生于一个数据平台上,只保留一份数据却可以被各类应用以各种接口访问,避免各种数据孤岛和数据复制拷贝带来的问题。

此外,WiDE还全面覆盖数据新基建创新型应用场景。在覆盖现有分布式存储产品SDS1.0的主流业务场景之外, WiDE能在高性能数据分析HPDA、高性能云主机、高性能数据库底座、混合多云数据平台等业务场景发挥作用,弥补之前高端应用场景下吞吐和时延的缺陷。

引擎WiDE的问世,将会在SDS2.0时代更好地帮助企业应对数字化时代面临的业务快速迭代升级的需求,推动企业智能化。未来,ExponTech也将会打造更多前沿存储产品,助力国内数据存储和国产系统软件的发展。

伴随着对SDS2.0的展望和引擎WiDE的无限可能性,未来之窗的纱帘正在缓缓拉开,我们对于数字世界广阔前景的想象,变得更为具体可感了。

END


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/524831.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-06-22
下一篇2023-06-22

发表评论

登录后才能评论

评论列表(0条)

    保存