现在不光在线服务吃机器,背后跑各种大数据查询的,人工智能算法的,你给他们多少他们就能用多少。巨头的服务器数量是几十万甚至百万量级的。比如说,好几年前Google的服务器数量是两百五十万台。
这是Facebook其中一个数据中心,一眼望不到头。
再来一张aws和azure数据中心的天下布武,只有非洲还是处女地。每个数据中心一般有几千到几万甚至十几万服务器不等。当然,这些服务器他们也不是都自己用。
下图是来自公开资料中Twitter各种服务器的比例,我没有泄露公司的机密。可以看到数据以及消息的存储和处理占了很高的比例。
有朋友说水平高的程序员可以用很少的机器跑很高的并发,这诚然是一种水平,不过让非常多的机器一起跑还能做的结果准确和很高的稳定性,这也是一种水平。哪种水平更高,就仁者见仁,智者见智了。
服务器主要用来管理互联网的主目录,全世界只有13台。1个为主根服务器,放置在美国。其余12个均为辅根服务器,其中9个放置在美国,欧洲2个,位于英国和瑞典,亚洲1个,位于日本。所有根服务器均由美国政府授权的互联网域名与号码分配机构ICANN统一管理,负责全球互联网域名根服务器、域名体系和IP地址等的管理。 这13台根服务器可以指挥Firefox或互联网 Explorer这样的Web浏览器和电子邮件程序控制互联网通信。由于根服务器中有经美国政府批准的260个左右的互联网后缀(如.com、.net等)和一些国家的指定符(如法国的.fr、挪威的.no等),美国政府对其管理拥有很大发言权。 不过,部分国家可能因此停止对ICANN的支持。最坏的情况是,很多拒绝接受美国控制的国家可能会建立自己的独立域名系统,从而导致互联网的分裂。 所以控制全世界绝不可能。详细资料:
一般情况下,一台至强高配置的服务器一天能承载十几到二十万左右的访问量.如果有达到上百万的访问量.可以通过多台服务器来做负载均衡解决这个问题.比如说把网站的前端页面和数据库分开,用10台机器.其中一台高配置的放数据库.另外9台机器放前端页面.然后利用DNSPOD智能解析,把一个域名解析指向9台机器的IP.DNSPOD本身有智能分配的功能.当一台服务器的资源不足以满足用户的访问需求时会自动切换到其他机器上面访问.欢迎分享,转载请注明来源:夏雨云
评论列表(0条)