WP走弱,YunOS坐实第三大移动OS之位

WP走弱,YunOS坐实第三大移动OS之位,第1张

??

2011年,Gartner和IDC曾预测在2015年WP将通过借力HTC、诺基亚等厂商在内的合作伙伴以及自身的市场营销拿下20%份额,超越iOS成第二大移动OS。甚至当时任Windows Phone营销总裁的Achim Berg还认为这一预测有些保守,他个人认为WP将会取得更大的成功。五年之后,令人意想不到的是,WP不但没成第二,还丢了第三。市场调研公司赛诺数据显示,2015年阿里YunOS系统手机出货量3310万台;IDC数据显示,WP系统手机2015年全球出货量预计3134万台,YunOS超过WP成为第三大移动OS。根据IDC最新报告预测,2016年,在比较乐观的情况下,WP手机全球出货量将为2380万台;YunOS的目标则是1亿台,如果这一目标达成,YunOS将在市场存量份额上再次超越WP坐实第三大移动OS之位。

积重难返,WP的没落已成定局

尽管微软野心勃勃地推出Windows 10,承诺会将PC端的传统优势传导至移动端,但知名分析公司IDC还是收回了之前的乐观预测,并认为这种事情根本不会发生,且预测其份额会在未来4年里持续下滑,从当前的1.6%、跌至2020年的0.9%。出货量方面,IDC表示微软今年可为市场带来23.8%的新设备,但这一数据将于2020年降至1780万。鉴于这种形势,甚至有业内媒体称微软押宝WP是一场注定会输的赌注。

WP并非是生不逢时,要知道iOS和Android刚刚发布之时,Symbian几乎是一统天下,但由于微软对PC市场的过度沉迷,让WP错失了发展的黄金时机。错过了时机,导致的连锁反应是:开发者不愿参与。WP系统的支付宝钱包曾出现一年多时间未更新,而最近一次更新也是在去年的8月份,也有近一年的时间。与之形成鲜明对比的是,在Apple Watch3月10日正式推出,支付宝钱包3月11日晚间就已推出适配Apple Watch的版本。对开发者来说,APP开发主要的主要精力一定是在iOS和安卓上,WP用户量小,不值得耗费人工成本,而越是如此,用户就会越少,由此形成了恶性循环。

糟糕的开发者生态带来的结果是应用体验的不佳,即使是WP的原生应用体验也是差强人意。记得在WP7以及7.5上,甚至出现音量无法单独调节,重力感应无法关闭,没有文件夹、通知中心,甚至由于权限管理的过于严格,你在当时的市场上根本找不到流量控制的软件,也无法找到能显示来电归属地的软件,甚至找不到能显示通话记录的软件……更不用说当时WP7只能升级到WP7.8,无法升级到WP8的梗。WP在系统和应用的两个层面给用户的糟糕体验,也是其没落的主要原因之一。

开发者生态、用户体验,WP在这两面的缺陷倒是其次,更关键的是支持WP的硬件产品实在是太少了。由于WP的封闭性,使大量厂商纷纷投奔到安卓系统,小米、华为、联想、酷派等等,几乎所有主流的国产厂商都选择了安卓,唯一坚守的诺基亚最终还是以倒闭结局。而这些手机厂商纷纷采取行之有效的市场推广策略,使得搭载WP系统的手机厂商几乎没什么机会。而随着主流手机厂商往多个领域拓展,安卓系统逐渐从手机延伸至智能家居、智能电视等领域。WP被挤兑到无路可走。

生态发展,YunOS上升势头强劲

2015年12月份,市场调研机构赛诺发布了《移动智能操作系统市场调研报告》,指出2015年国内搭载YunOS机型出货量预计3310万台,占据国内市场份额7.1%。而据海外市场调研公司IDC数据显示,2015年全球搭载Windows Phone的设备出货量约3134万台。从数据上看2015年YunOS在全球的市场份额,已经超越Windows Phone移动系统,排在Android、iOS之后的第三位。从赛诺监测到的数据,截至2016年1月底YunOS系统手机累计出货量突破5000万台,且保持快速增长态势,2015年10月-2016年1月出货量依次为:417万台、507万台、576万台、630万台,合计超过2000万台。其中2016年1月份YunOS系统手机出货量环比增长9.4%,远高于行业平均环比增长率2.1%,由此可见YunOS的上升势头之强劲。

相较于WP的封闭,YunOS走的则是开放式的生态发展之路。在和手机厂商的合作中,YunOS不仅可以为其提供智能手机操作系统的完整解决方案,还可以将自身的生态价值分享给自己的合作伙伴。为了“搞定”厂商和开发者,YunOS早早地就在其开发平台上将阿里系账号、支付、云存储、系统API、数据服务等面向合作伙伴开放,尤其是提供开发“七武器”:智能算法、安全、云服务、美颜、Yun on chip、语音、CloudCard,让开发者更容易找到用户,同时获得更高的收益。对于硬件厂商来说,可以通过运营平台,基于用户数据沉淀和服务分发机制,更了解自己的用户,并更好服务自己的用户。不仅如此,阿里甚至为了推动YunOS的发展,还开放了自己的生态资源,依靠自身在电商层面的强势,推动合作伙伴的发展实现共赢。这对于中国存在的上百家中小手机品牌厂商而言,无疑是最大的诱惑,典型的案例如魅族和阿里的合作,让魅族在2015年红海一片的国产手机竞争中打了一个漂亮的翻身仗。

而在用户最关心的体验方面,YunOS不仅支持UI深度定制,还全面兼容Android应用。在满足用户及合作伙伴的个性化需求的同时,还保证了开发者生态的活跃度以及应用市场的丰富性,通过支持H5技术,打破了APP孤岛。YunOS的这一策略解决了合作伙伴最大的顾忌,让其可以将更多的精力投入到产品品质的提升之中、同时YunOS还帮助合作伙伴融入阿里系互联网资源,通过云计算和大数据能力,能够让朵唯、小辣椒、纽曼等一众中小品牌厂商迅速互联网化,为用户提供更好的体验。

与WP的合作策略不同,YunOS选择与手机方案商合作,再结合芯片厂商的力量,一个合作下来可以间接地为几十家中小品牌厂商提供服务,这样的增幅扩张方式有助于突破Android和iOS的包围,快速扩大合作伙伴范围。不仅如此,YunOS还从手机业突入制造业,也让YunOS实现了多屏多端的生态布局,无论是民用智能硬件,还是工业互联网,在这个层面YunOS与Android和iOS站在了同一起跑线上。相信随着YunOS 2016年1亿出货量目标的完成,以及阿里在生态层面对其支持力度的持续增大,YunOS将进一步扩大领先优势,坐实第三大移动OS之位。

作者:何帅 微博:@小编也疯狂 微信订阅号:小编也疯狂(id:xiaobianyefengkuang)专注科技硬件、互联网分析评论、电商研究

摘要:公司深耕北京,目前已成为北京地区最具影响力的互联网服务商之一。公司与电信、联通、移动、教育网、 科技 网等骨干网相连,在京拥有2800多公里光纤城域网,并利用这些光纤资源将北京区域的数据中心互联,实现同城备份的功能,节点分布于北京市 科技 园区和商业区,对于公司发展零售型IDC业务提供先天优势。

光环新网(300383):云计算领域闯入者背靠三大运营商毛利率超50%远高行业平均通吃银行政府及互联网巨头订单

更置入亚马逊核心技术资产

坐拥优质IDC资源,聚焦金融、互联网核心客户营收和净利快速增长

与AWS合作稳定,始于IDC租赁,聚焦云计算服务

对标国际IDC巨头Equinix“内生”与“外延”同步发展

光环新网的发展模式Equinix类似,“内生”与“外延”同步。2015年以来,公司的相继并购了明月光学、中金云网、无双 科技 、科信盛彩等多家行业内相关公司,改变了传统的以单一的IDC业务为主的经营模式,推动了公司从IDC运营服务商向云计算综合服务商的转型,拓展了企业资源,延伸了客户结构,为公司的后续发展打下坚实的基础。

盈利预测

公司主要业务进行拆分,按照各业务所属行业增长情况,假设18/19/20年,互联网宽带接入服务收入增速为1.8%/8.3%/5%,IDC及其增值

服 务增速

为41.6%/39.8%/31.9%,IDC运营管理服务维持营收不变,云计算及相关服务增速为56.5%/54.9%/54.8%,其他业务增速为3.7%/17.9%/45.9%。

申万宏源(

000166)证券对公司各个业务进行拆分预测,公司17到20年净利润CAGR达45%,参考可比上市公司估值,给予19年34倍PE,目标市值329亿。给予“买入”评级。

数据中心和普通的电脑不同,发热量是十分巨大的,为了保证数据中心稳定运行,数据中心需要配置强大的散热系统,而散热系统需要耗费大量的电力。一个正常运行的数据中心,电力成本就要占到总成本的20%,而散热系统正常运行消耗的电力成本占到总耗电成本的40%左右,所以数据中心的散热成本是非常高昂的。而微软将数据中心设置在水下,可节省大量的电力成本,大幅提升数据中心的经济效益,另外减少了对于煤、石油、天然气等不可再生资源的消耗,更有利于环境的保护。

一个数据中心的成本中,电力成本占了20%左右,其中电力成本中的42%是用来散热的。因此,谷歌、facebook、IBM等 科技 巨头将数据中心建在了冰岛、芬兰等国家。微软为了减少数据中心的散热成本,尝试将数据中心建在水下。

数据中心制冷有多花钱?

根据IDC的统计,数据中心的平均使用年限是9年,一个数据中心的电力能耗成本占据了所有成本的20%。这些消耗的电能,大约有47%进入了服务器,是有效的能耗,而42%的被散热能耗消耗了。

这里了解一个数值,PUE(电能使用效率)是评价数据中心能源消耗的指标,计算公式为:

PUE=总体能耗/IT设备能耗

可以看出,这个数值越接近1,能源效率越高。

根据相关数据显示,我国新建的大型云计算数据中心的PUE值小于1.5。其中,制冷消耗的电力占据了服务器电力消耗相当大的比重。

微软的水下数据中心

微软的水下数据中心,由很多白色的钢桶组成,外表覆盖热交换器,内部是一个数据中心计算机架,里面加注了氮气。这种“海底胶囊”可以停留在海底长达5年的时间,期间不需要维护。

还要一点,它可以从海水运动中收获电能,而且这种海底胶囊散发的热量也很少,不会影响到海洋环境。

总之,随着云计算、大数据等新兴技术的发展,企业IT基础设施建设飞速发展,服务器机柜不断增加、机房动力系统、空调系统等设施不断增加,随之而来的时能源效率低,耗电量大,电费支出高等。如何能够降低PUE,是数据中心建设需要考虑的,相信未来会有更多的花式降温法。

数据中心放在水下,似乎解决了散热问题,可是投资大,维护困难,微软是不是“搬起石头砸自己的脚”,最终得不偿失呢?

图源来自NYTimes:

早在2014年,微软就有此设想,2015年微软将服务器塞进了一个“圆柱体的胶囊”,在10米深的海水里,时间超过了大家的预期。

之所以放入海底,真的能够带来好处吗?

不可否认:维修成本,故障突击都会对于微软有不小的影响。

在2018年,微软将Northern Lsles数据中心投入到苏格兰奥克尼群岛,并且使用风能潮汐能以及太阳能解决用电问题。

而在服务器中通过使用散热管,注入海水,完成冷却效果。

现在我们对于微软的这台水下服务器的表现如何还是会比较期待的,毕竟这确实有助于微软开创全新的散热模式,虽然维护和外壳耐久度都会成为问题。

其实,国内大部分企业将数据中心放在了贵州,就是看重贵州的均衡气候和电力资源等等,所以散热和电力确实是一个数据中心的难点。

关于微软公司在IT领域所获得的成就,想必大家也都了解,比如最让人耳祥能熟的就是windows系统和Surface笔记本电脑了,用户在使用这些产品的时候,会产生大量的数据(核心资产),所以微软就有必要建立数据中心,但是对于数据中心来说,也是由大型服务器组成的,所以它们在运转的时候,会产生大量的温度,而温度又是硬件的“第一杀手”,因此必须要解决散热问题!

曾经有数据表示,微软数据中心的 电力成本为20%,而热耗就占电力成本的42% ,所以说这个花费是巨大的,但把数据中心建立在水下,就可以通过专门的散热设备,来减少成本的支出了,而且是一劳永逸的事!

再比如腾讯公司的数据中心,为了减少成本的支出,就把它们建立在了贵州省贵安新区的两座山体上(预计存放30万台服务器),因为 山洞结构可以散热,有得天独厚的自然条件 (也是为了散热),总占地面积约为47万平方米,隧洞面积超过3万平方米,能塞下4个标准足球场还有富余。

微软要在苏格兰奥克尼群岛附近沉没一个像集装箱一样大的数据中心,不仅需要廉价的电力,免费的散热设备,还需要接近世界一半人口的居住地。建在这里的最大希望是,能够有一个真正低温且成本便宜的数据中心,运行更频繁且发生故障的次数更少。

更节省资源

为服务器建造潜水艇听起来可能很昂贵,但是考虑到总体拥有成本,其中大部分是前期准备,管理微软研究项目的本·卡特勒在接受采访时对数据中心知识说。他说:“我们认为该结构可能比今天的数据中心更简单、更统一。虽然所有这些都仍然是假设的,但是最终期望实际上可能会有成本优势,更便宜。”

将计算机置于水下并不是什么新鲜事,不仅对于Microsoft而言。海洋科学家已经做了很长时间了,但是还没有大规模地这样做。海洋工业在建造大型结构,冷却船舶发动机以及处理在水下表面堆积的藤壶方面具有丰富的经验。卡特勒说:“与人们几十年来在海洋中所做的事情相比,我们所做的事情相对温和。我们处于相对较浅的深度,而且这数据中心相对较小。”

供应链已基本到位

微软可以利用其硬件专业知识和供应链,用商品服务器填充水下数据中心。实际上,“ Northern Isles数据中心”中的12个机架,864个服务器和FPGA板是来自旱地上的Microsoft Azure数据中心。圆柱形外壳是由一家知名的海洋工程公司Naval Group制造的,如果这个想法得以流行和可实施,就可以批量生产和运输。

卡特勒说,时间框架和经济性与在陆地上建立数据中心大不相同。“不是建设项目,而是制造产品,它在工厂中制造,就像我们放入其中的计算机一样,现在我们使用标准的物流供应链将它们运送到任何地方。 然后还需要乘坐渡轮穿越英吉利海峡,穿越英国,再乘另一艘渡轮到奥克尼群岛,然后将其装在驳船上进行部署。

能够更快地部署不仅意味着更快地扩张,还意味着没有提前花钱。卡特勒说:“在某些情况下,我们需要18个月或2年的时间才能建立新的数据中心。想象一下,如果我只是将它们作为标准库存,那么我可以在90天内迅速将它们送到任何地方。现在资金成本有很大不同,因为不必像现在这样提前建造东西。只要我们处在这种模式下,我们的Web服务以及随之而来的数据中心都将呈指数级增长,那就是巨大的杠杆作用。”

停机也可以节省保修

在将所有服务器替换为新服务器之前,一次将数据中心停机5到10年与许多云服务器的生命周期没有太大区别,随着新硬件的出现,云服务器可能会重新用于不同的服务。五年的承诺意味着可以节省更多的预付款。

卡特勒指出:“如果还是维持旧的方案,保修成本可能很高。就我们而言,也许我们会把它退回给供应商,但这种维持不下去。”因为这些保修成本很高,每个组件供应商都必须保持所售组件的库存,以保证产品使用寿命。他解释说,英特尔可能每年都会推出一种新芯片,但是它必须保持五年来的库存。“就我们而言,一切麻烦都消失了。我们将其放到那里,我们就完成了任务。我们永远不会再找供应商说更换该磁盘驱动器,因为到了五年后,我们也不用管理这些东西。”

规模可大可小

尽管Orkney数据中心是单个模块,但Cutler设想将多个模块连接在一起以实现规模化,也许需要一个用于连接和配电的中央节点,将它们像常规数据中心中的机架排一样对待。容器间延迟将类似于大型数据中心网络中的延迟。一些较大的Azure数据中心相距一英里。

Microsoft数据中心中的每个机架顶交换机都连接到骨干交换机,这些骨干交换机在该行的所有机架上串扰。下一级,主干交换机彼此交叉连接。“这些东西之间可能有相当大的距离。如果我们在水中放很多,那就没什么不同了。”

在边缘部署中,单个模块可能是Azure Stack的理想选择,该Azure Stack可为越来越多地部署在海底的勘探石油和天然气钻井平台处理地震数据。

绿色资源潜力

一旦水下数据中心启动并运行,电力和冷却成本就会降低。Project Natick的第一个小得多的版本(Microsoft研究工作的代号)具有一个带有不同阀门的歧管,以使团队可以尝试不同的冷却策略。PUE为1.07(Microsoft最新一代数据中心的PUE为1.125)。据卡特勒估计,如果没有歧管,该成本将低至1.3。

另外,这一次没有外部热交换器。他说:“我们正在通过机架后部的热交换器将原海水吸入并再次排出。”他指出,这是用于冷却船舶和潜艇的相同技术。水流的速度应阻止藤壶的生长。该冷却系统可以应对非常高的功率密度,例如用于重型高性能计算和AI工作负载的装有GPU的服务器所需的功率密度。

北岛数据中心利用了欧洲海洋能源中心的潮汐发生器。Microsoft设想将海洋数据中心与这些离岸能源一起使用。但是未来的版本也可能拥有自己的发电能力。

“潮流是一种可靠的,可预测的东西;我们知道何时会发生。”卡特勒说。“想象一下,我们有潮汐能,我们有电池存储,因此您可以在整个24小时周期和整个月球周期内保持平稳行驶。”

代替备用发电机和装满电池的房间,Microsoft可以过量提供潮汐发电量以确保可靠性(例如,潮汐涡轮机由13台代替了10台)。“最终您会得到一个更简单的系统,该系统是完全可再生的,并且具有最小的占地面积。”

没有增加本地资源的负担

这种设备使用海洋供电和制冷的环境影响相对较小,这使得在更多地方部署数据中心变得更加容易。

现代数据中心的制冷更多地依靠水而不是电力。卡特勒解释说:“过去用于冷却的功率令人难以置信,随着时间的推移,我们已经能够将功率大幅降低。但是水被用来增强冷却效果。”

数据中心通常有一条通往城市供水的管道,这在发达国家的许多地方都可以,但在其他地方则没有。卡特勒和他的团队喜欢这样的想法:将数据中心带到发展中国家的某个地方,而不会对当地的水或电力供应施加任何限制。“对电力网没有压力,对供水没有压力,但是我们带来了更多的计算机资源。”

微软的海底数据中心就有点像谷歌在南极的数据中心,这些地处特殊地理环境的数据中心都有很多的优势,比如:

1、海底拥有足够大的发展空间和土地面积,在海底建设数据中心根本不用担心以往在陆地上建设数据中心遇到的种种问题。

2、节能节电,这应该是海底数据中心最大的优势,毕竟一座数据中心最大的运营成本就是电费,如果温度高还需要更多的散热空调产生的电费,但是在海底,不仅基础温度低,而且水冷散热也能大大降低数据中心的温度,所以把数据中心建在海底,对于微软的制冷成本可以大大降低,这也有利于客户。

3、运输成本低,海运是最廉价的运输方式,建设过程中物流成本较低。

4、很多人可能觉得海底数据中心维护起来很麻烦,还得潜水,但是实际上维护成本并没有想象的高,因为机房可以升出海面维护,并不需要潜水。

所以说,数据中心如今根本不需要在大城市或者发达地区建设,就像贵州大数据把机房放在山上,除了安全战略以外,海拔高的地方温度低,散热方便,而且还有便宜的水电可供使用,微软把数据中心放在海底也是处于类似的考虑,随着技术的不断成熟,未来在海底部署数据中心的公司也可能越来越多。

现在的众多的高 科技 企业都在做一个共同的新方向,就是在数据中心业务上将属于本企业的核心数据来说,都是将本企业的数据中心沉入海底,那么下面和大家一起来说一说为何这些高 科技 企业会做出这样的选择。

利用海水的低温来为数据中心来散文,从而能够减少电能的消耗,很多用户可能对于这个原因是比较模糊的,认为这些高 科技 企业的收入都是非常的高的,而对于这些电能的资金消耗又会有怎么样的在乎的,其实这个还是有一定的理由的,因为这些庞大的数据中心所能够产生的热量是非常的大的,如果是建设在陆地上的话,那么必须要有一个专门为之散热的装备。

而且这些专门散热的装备来说,其实每年所要消耗的电能来说,其实无疑是巨大的,即便是对于收入很多的高 科技 企业来说,其实一笔不菲的支出,所要想办法能够减少支出,也是这些企业要想的办法。

曾经有这样的一组数据说,这类型的数据中心来说,其总共包含有投资成本和运营成本,还有重要的就是能源成本,而其中的电力损耗的成本就需要达到所有成本的20%左右的份额,所有这就是为何众多高 科技 企业将自己的数据中心放在水中的重要原因。

从这方面就能够看到,其实企业的数据中心的制冷消耗的电力所占据的比重也是很大的,而将数据中心放到水中,一方面能够降低电能的耗损,另外一方面还能够使得自己的数据中心更加安全。

最后,对于说高 科技 企业将自己的数据中心放到水中的这样的做法来说,在这里给大家做一个总结,其实本质的原因就是为了能够给企业节省费用,还有一个方面的原因就是更加能够保护器安全性,那么大家还有什么不同的看法,可以在下方留言,咱们一起探讨!

微软每天都要运行大量的数据,所以数据中心就是微软的大脑。随着计算能力的提高和运营速度的加快,公司的数据中心可以正常运行。良好的散热条件是非常必要的。除了做好热处理工作外,还必须考虑降低能耗和降低企业成本。

研究发现,运行一个单一的数据至少占电力成本的20%,而热耗散占电力成本的42%。如果你每年投入资金来处理操作数据所产生的热量,其成本无疑是巨大的。散热不好,机器会出故障,整个系统会瘫痪,散热是必要和重要的。

让我们看看一些最常见的散热方法,风冷,液体冷却,半导体和化学制冷。其中,空冷和液冷具有成本低、使用方便、半导体和化学制冷成本高、大量使用成本高、耗电量大等优点。与公司利润的目的相冲突。因此,最好选择一种低成本的散热方式。在液体冷却的情况下,水是最好的冷却工具。水的蒸发吸收热量,这是众所周知的物理原理,也就是说,微软把数据中心放在水里,而不是电里来散热。同时带走大量的热量,节能环保,操作简单方便。

作为冷却工艺这碗饭吃了快20年的专业人士,毫不客气地说,专家在数据中心冷却方面过于幼稚,当然也包含微软与脸书在内。

一、对数据安全的恐惧,导致能源浪费:马云提到,阿里数据中心停用一分钟可能有几个亿的损失。

实际服务器核心发热件正常工作温度是80度,即使按60度控制,仍然远远达不到强制制冷的工艺条件。这个温度是自然冷能就可以控制的范围。自然冷能的合理能耗小于发热量的2%,对应PUE为1.02。再低已经没有意义,不如在服务器方面挖潜。服务器芯片之外降耗10%不存在任何技术问题。

二、沉入海底


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/216854.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-06
下一篇2023-04-06

发表评论

登录后才能评论

评论列表(0条)

    保存