打听下浪潮信息与赞华中 国未来合作的主要方向?
近日,IDC和Gartner不约而同公布了2019年第三季度全球服务器市场的报告,数据显示情况高度一致。IDC报告数据显示,本季度全球服务器厂商收入同比下降6.7%,为220亿美元,出货量同比下降3%,为307万台,相比上一季度,降幅收窄。全球服务器市场出货量和销售额的前三位依然是戴尔、HPE和浪潮,出货量份额分别为16.4%、10.9%和10.3%。戴尔、HPE出货量同比下降10.2%、9.3%,浪潮保持了稳健增长,同比增长11.1%。
IDC 2019年第三季度全球服务器市场报告
转眼2019年已经结束,浪潮在过去一年的市场表现可圈可点。Gartner/IDC 2019Q3数据共同显示,浪潮服务器持续增长,出货量占全球份额超10%,中国份额超37%,稳居全球第三、中国第一。
浪潮信息副总裁、浪潮服务器产品部总经理沈荣
这两份报告除了显示全球服务器市场需求放缓、出货量整体下降之外,在厂商排名方面,浪潮的身影同时出现在了这两份报告中。在浪潮信息副总裁、浪潮服务器产品部总经理沈荣看来,云计算走过十年历程,全球公有云市场规模增长4倍以上,成为带动服务器市场的主要增长点。浪潮抓住契机,以远高于全球服务器市场平均增长水平的速度快速成长。
云计算十年下数据中心变革
从2009年到2019年,云计算正好历时十年。云计算是2009年开始萌芽,虚拟化支撑了云计算的快速发展。在过去十年,全球服务器市场规模翻了一倍。
这十年云计算对服务器市场结构的改变巨大,互联网行业的崛起以及多节点、定制化服务器的崛起,驱动服务器市场新格局。比如云是当前服务器市场的主体,IT基础设施云化,云基础设施超越传统,IDC预计云IT基础设施的支出到2022年占比将达到57.6%
全球在云化IT基础架构的支出不断增加,推动全球市场结构不断变化。IT基础架构的集中化,标准化,催生了超大规模数据中心的发展;同时超大规模数据中心的发展也推动了OCP等开放计算的发展,软件定义技术的发展让融合趋势尽显。
同时,AI、云计算、边缘计算等需求要求革新IT基础设施,传统的数据中心和原有计算模式已无法满足业务快速发展的需要,计算、存储和网络设备之间的关系需要被打破并重新定义,需要在新技术的基础上完成架构变革。
从某种意义上看,云计算不仅是一场技术变革,而是产业整体变革。以云计算为核心的技术创新和商业变革使得人类社会加速迈向智慧时代。从传统信息社会到智慧社会,本质是信息社会的发育完善,是“计算社会”的发育完善,计算力已经像水电一样渗透到社会、文化、生产生活的每一个领域。传统计算正在被智慧计算取代。
浪潮的智慧计算解决之道
在智慧时代,面对全面数字化的世界,浪潮提出了解决之道,那就是融合、开放、敏捷和生态。
融合是未来计算基础设施架构核心形态。这表现为IT基础设施融合,计算、存储、网络在融合,硬件解耦池化再辅以软件定义,可以实现软件定义计算、软件定义存储、软件定义网络;ICT融合,电信运营商通过“计算+NFV/SDN”推动ICT基础设施融合;IT/OT融合,管理信息的IT系统和管理生产的OT系统将进一步深入关联,互联互通,协同工作,大幅提升智慧时代的工业生产力。
在产品层面,浪潮的服务器平台从1.0走到2.0,通过连接、池化和重构的技术,将CPU和各种协处理器(GPU、FPGA和XPU)更紧密结合,利用全互联NVSwitch、PCIe 4.0、Open CAPI等新型超高速内部、外部互连技术,增加不同计算资源的协同能力,通过软件定义实现业务自动感知和资源自动重构,使计算的性能和效率实现大幅度的提升。
浪潮针对CSP公有云和传统企业用户的私有云两类应用需求细分为两个子系列,产品形态涵盖了高密度、刀片和整机柜等不同形态,及面向CSP的产品主要有天蝎整机柜系统SR 、OCP整机柜OR和高密度服务器i24、i48等。面向传统企业用户的主要包括整机柜系统InCloudRack、刀片系统I9000等。
OTII
沈荣表示,基于融合趋势,浪潮与产业合作伙伴进行了积极探索。比如在ICT融合方面,浪潮与中国移动、中国电信、中国联通、Intel等公司共同发布面向通信应用的开放 IT 基础设施项目——OTII(Open Telecom IT Infrastructure)标准,并发布了首款基于OTII标准的边缘计算服务器NE5260M5。此外,浪潮联合中国TOP通信运营商,开发针对性的边缘服务器及其解决方案。
毋庸置疑,我们处于一个开放的世界,而开源的力量无处不在。自2012年以来,开放计算的发展十分惊人。目前在服务器领域,全球有三大开放社区,中国的ODCC和美国的OCP、Open19。
沈荣说, 开放意味着透明化,同时开放基于开放标准,使得整个人类的效率得到极大提升。迄今为止,符合OCP标准的服务器已经部署超过100万节点,符合ODCC标准的服务器已经部署数十万节点。浪潮积极参加开放计算社区,发展开放计算生态。目前浪潮是ODCC和OCP、Open19的共同会员、ODCC技术委员会成员,并是ODCC天蝎服务器最大的供应商。
除了开放,现在前端高速变化的业务需求对后端的基础设施提出了更高的要求。我们需要以更敏捷的方式创造计算力,为前端应用提供强大的源动力。浪潮以JDM模式为依托,实现计算力供给端与需求端的紧耦合,通过与各方合作伙伴的协同创新,以敏捷开发、制造、交付的能力,实现计算力生态一体化与多元化场景需求的紧耦合。
JDM
沈荣表示,JDM是浪潮为了适应互联网公司需求特性而进行的业务模式创新,本质是以客户需求为基点,构建敏捷的产业链,或者说对产业链进行互联网化改造。在JDM模式下,浪潮凭借对前沿技术的领先预研能力,以及平台化和模块化的技术策略,能够将创新的应用需求迅速转化具体产品,一款新品的研发周期从1.5年压缩到9个月,客户提出需求最快可以3个月交付样机,生产交付方面,浪潮订单交付周期从15天缩短至5-7天,在2019年百度春晚红包项目中,面对百度突发的大量需求,浪潮和百度创造了8小时交付10000节点的业内最快交付部署速度的纪录。
浪潮服务器产品部副总经理陈彦灵
浪潮服务器产品部副总经理陈彦灵也补充说,在浪潮的产品线里,未来可能分为两类,一类是通用标准化产品,另外是面向超大规模数据中心的JDM定制化产品。
除了济南智能工厂,浪潮苏州生产基地今年也正式开工,其不仅是浪潮服务器智能制造基地,也是服务器制造技术研发基地。该基地服务器板卡加工技术达业界领先水平,标志着我国服务器智能制造水平上的又一次提升和增强。
在生态建设方面,浪潮融合全球生态圈,进行前沿研究和技术孵化,同时打造应用方案。比如百度ABC一体机就是百度与浪潮协同创新的典型。
沈荣表示,浪潮与互联网厂商有很紧密的合作,虽然在业务和客户有重合,但是大家知道自己的专长在哪里,每个人做自己专业的事情是效率最高的。默契与信任是生态建设的重要根基。
陈彦灵说,浪潮与互联网厂商是一加一大于二,每个人都有自己的所长,浪潮专注于新技术开发、根据应用需求提供落地解决方案,以及供应链整合,而互联网厂商了解应用,在软硬件整合方面双方具备很强的互补性。
数据中心下一个十年
我们即将步入21世纪的第二个十年,云计算变革还在深入发展,AI和边缘正在崛起。
全球互联网巨头纷纷自建数据中心,超大规模数据中心的数量仍在不断增长,他们更需要定制化设计的服务器,以优化工作负载性能,节省功耗。随着互联网巨头对硬件重构的探索越来越多,业界对数据中心硬件开源的呼声也越来越强,开放计算项目将向着多元化方向发展。
2019年被称为产业AI化元年,AI是未来市场增长的动力,AI服务器到2022年全球市场规模将达到176亿美元,复合增长率30.8%,占整个x86服务器市场的18.3%
浪潮服务器产品部副总经理陈彦灵
陈彦灵表示,浪潮早早就在AI层面展开了布局,目前浪潮硬件产品涵盖了GPU、FPGA和ASIC三大领域,产品线业界最全最丰富;开发了Caffe-MPI框架、AIStation等一系列AI平台软件,是具有全栈技术能力的AI平台方案提供商。根据IDC数据,自2018年至今,浪潮在中国AI基础架构市场的份额一直在50%以上。陈彦灵补充道:“未来AI会呈现巨大的增长,识别率大过训练,部署量远远大过50%以上,这方面浪潮也在布局。”
随着5G牌照的发放,边缘计算也将进入快速发展阶段。Gartner预测,到2020年,50%的大型企业将会把边缘计算列入规划,超过50%的工业物联网分析将在边缘进行,2017年不足10%;到2022年,50%以上的企业数据会在数据中心或者云之外产生或处理。这对于服务器市场结构也造成了巨大的影响,AI和边缘是服务器市场新的增长点。
沈荣表示,云计算十年带动了整个IT产业的发展变革,从产业分工到技术应用,到竞争格局。浪潮也随着产业的格局变革而积极变革。展望2020年,浪潮聚焦智慧计算,重点发展AI与边缘;坚持开放计算,进一步完善JDM互联网化敏捷模式;加速全球化战略,进一步加速国际化发展,继续扩展海外业务体系。
比如在技术创新方面,浪潮开展了高性能供电、液冷散热,大规模数据管理、面向不同应用服务器优化等基础研究,还包括与生态伙伴设计各种参考平台,提前布局下一个市场机会。
浪潮在不断打造JDM模式的同时,也发展融合架构、AI等平台方案,构筑深入行业市场的伙伴系统,抓住传统企业在云计算、大数据、AI等领域新需求,获得更大的份额。
除了健全边缘计算产品线外,浪潮还将面向不同的应用场景,开发针对性边缘服务器及其解决方案,如面向最早落地的通信运营商,开发通信边缘服务器,面向智能汽车、无人驾驶等应用场景,将开发车载边缘计算服务器;面向视频应用,开发视频存储/视频处理边缘服务器;面向智能家居,将开发家庭服务器/家庭网关等等,赋能边缘计算,支持5G开启美好的智能世界。
目前,浪潮在北美、日韩、欧洲以及东南亚和非洲等地区都有了完整的伙伴系统和业务系统,2019年,浪潮的海外业务持续扩张,2020年将实现更快增长。(文/李祥敬)
国内有年平均 PUE 低于 1.3 的数据中心吗
PUE不大于1.4在空调技术上是可行的。制约PUE的,我认为,现阶段主要是冷却技术、空调技术、如何高效排热的问题。
贴一个清华大学江亿院士的演讲:
各位来宾、各位专家、各位领导早上好!我好象是第一次参加绿色数据中心的技术大会,因为咱们不是搞计算机这行的,是搞空调,搞建筑节能的,但是好象也慢慢把我们推到这个行业了。为什么?是因为空调的能耗或者说派热降温的能耗在数据中心里占了比较大的比例。所以,刚才我听前面这位领导讲数据中心都快到了运行这个程度了,运行主要是能源消耗,能源消耗里就40%或者更多是空调的能耗。所以,怎么能够降低空调的能耗,一方面给国家的节能减排作贡献,一方面也使我们数据行业产生更好的经济效益,就变成重要的问题了,所以我今天跟大家汇报一下我们在这方面的想法跟体会。
从空调的特点来看,现在随着计算机电子技术的发展,芯片技术都比原来高,主机的发热度越来越大,这样导致空调排热成为这里面大的部分。后面有一些细的发展状况不说了,就直接看到空调里头。现在统计大致的结果,对于中小型的数据中心大概PUE值都在2,或者以上,这是空调占了一半或者还多的一个能源消耗。对大型的IDC机房管理做的比较好的,这时候空调效率相对比较高,但是也能占到40%左右的能耗。
所以,降低数据中心的能耗可能一个是提高服务器的使用效率,没活儿的让它歇着,一方面减少了空气的运行能耗,当然,电源也有可以提高的技术。空调应该有很大的潜力,空调里面的能耗由什么构成?以前一想说制冷机,压缩机耗电多,实际上压缩机耗电在50%-60%左右,除了压缩机之外,风机也能占在40%或者更多的空调耗能。
现在的情况什么样?大概有这么几块:第一、因为全年制冷,所以绝大部分的数据中心制冷机都开了,这是一年来总的空调的考点状况,可以看出冬天、夏天区别很少,北京、上海、广州冷的地方,热的地方区别很少,应该说冬天天凉了,北京空调越来越大幅度下来,这个变化也不大,所以全年度在这儿用。然后,有关发热密度非常大,负责把这些热量排走,所以循环风特别大。并且风吹的还厉害,不行把风量减少,降低送风温度,但是当冷源温度低于屋子里温度的时候,蒸发器就凝水,恨不得天天都出湿,出了湿又怕屋子里太干,所以又有了一些加湿器,这边除湿,那边又得加湿,又得用电,冬天大冷的天还得制冷,这构成了现在数据中心,无论是大的,还是小的空调能源消耗高的主要问题。
有这样问题是坏事儿,反过来又是好事儿。说明咱们在这儿的潜力特别大,有很大的潜力可以把空调能源消耗降下来。那么,走哪条道?怎么做?一听说这个空调跟你们建筑节能是一码事,建筑节能都抓围护结构保温,咱们整这个,围护结构,效果非常小,或者无效果,为什么?因为一个IDC密一点的机房一平米大概产热量3-5千万,通过围护结构进入或者出去的热量不会超过折合在占地面积上不会超过50瓦,所以,围护结构的影响很小,就是1%,2%的影响。当然,通过一些技术,避免外墙直接太阳辐射,比来我这儿热,再拿太阳照我,尽可能的密闭,别让风进来,这是很重要的。可能有些专家说,风渗进来,有什么不好,如果房子做的不密闭,就是不可控制的室外渗风,是凉快了,但是湿度下降了,夏天热容器不好,而且由于室外的湿度变化大,我数据中心里面希望湿度维持基本稳定不变,给我添加湿、除湿的麻烦事儿。因此,通过各方面应该把房子做密闭了,对目前来说不是保温的事儿,而且密闭的事儿,密闭最重要。
那么,怎么把热量排出去,马上前几年一些企业想办法说既然冬天不开制冷机,而且外边凉,最简单的通风换气吧,是通过凉风进来,把热量排走,这是有点节能,但是恐怕数据中心这么做不太合适,为什么?室外的灰尘赃,机器得干净,湿度室外是变化的,夏天北京的一立方米空气有2克的水汽,另外中国是烧煤的国家,70%的化石能源都来自于煤,燃煤就出硫,硫化物到室内,就会导致表面发生腐蚀现象,所以这是不行,您的冷却系统是为主机服务的,要是有损于主机,无论是灰尘还是硫化物,还有湿度都会影响主机的寿命,这是绝对不能有的。因此,说就想法通过过滤消除灰尘,想法加湿、除湿改变湿度,想法脱硫,当把这些东西都架上,就发现投入的成本和能源消耗就不低了,而且维护管理的工作量立刻上去了,那么这么大的数据中心要求高可靠性运行,于是这事儿有点别扭了。
还有通过热交换把凉气取回来,这个思路是挺好,对于一些小规模的计算中心,像一个大楼里的数据中心有时候还可以,但是对于大规模的机房是无法实现的,是因为直接走风道这么大发热量得有多大的风量直接室外来回换气,风道的体积在那儿摆着不合适,然后维护工作量非常大,尤其还是赃。所以,室外的低温必须想法用上,是通过室外的新风,怎么通过某种能量凉下来,最后把机器里面的热量带走。
所以,整个的数据中心的空调跟咱们楼里的空调概念不一样,它的核心事儿就是怎么把芯片那儿出来的热量通过某种介质传热,传完之后,几次交换,最后导到室外去就这么一个任务。所以,这时候根本目标就是让芯片的温度不要超过标准温度,然后把这个温度排出来。这样芯片表面温度和冷源温度的差跟热阻成正比,就是怎么把这个等效热阻降低了核心的事儿就变成了这么一个问题。温差小就是如果我芯片温度不许超过40度,如果我的温差是20度,只要室外温度低于20度,我就不用开冷空气就可以把热量排走,所以就要减少等效热阻。那么,这个等效热阻由什么构成?发现就像咱们的一个网络,三个电阻,三个等效热阻,哪三个过程?一个就是芯片跟空气之间的换热环节,这个差越大,温差就越大,比如我可以取平均温度,等效热阻就是这块面积除以热量,第一个环节就是容器跟芯片表面换热的环节。第二个环节,比如说我有一个精密空调跟水,或者室外的冷水换热,这冷水跟容器之间的换热环节,我们叫输送与换热热阻。第三个环节,循环介质与冷源之间换气,叫做冷源换热热阻。比如说室内温度到20度,实际只欠10度的温差,这时候冷空机提供的活儿就是这10度的温差。所以,把热阻减少了,无论是用自然冷源还是开冷风机都可以降低功耗。因此,核心的问题就是把这三个环节的热阻降下来。所以,就三个关键,第一、降低热量采集过程的热阻,同时不增加风机电耗。第二、降低热量传输过程中的热阻,同时不增加传输电耗。第三、找到温度更低的自然冷源,但是别破坏环境。
下面逐条看,采集过程中的热阻,实际的采集热阻,除了空气跟芯片换热之外,还有相当大的消耗是机房里面冷风跟热风的互相搀混,制冷机就是把冷风热的温度分开,分出冷热风,这个屋子里面又没地儿跑,又搀混起来了,所以避免冷风热机的搀混。比如说要是给定芯片温度,当搀混小的时候,回风温度可以更紧的接近芯片,如果我恒定芯片温度回风少的时候,这样就可以更大程度的利用这个资源。有一些实测的数据,是在大的IC机房里实测的,大家可以看出来,比如冷通道进来,从机房送出来应该这儿是16点几度,到这儿怎么就能30多度呢?它这儿上面还有一块挡,这30多度是哪儿来的?就是因为部分的过了服务器之后,服务器里面有空档,空档的热风又渗回来了,热风跟这些东西搀混到这些地儿,能到35度。为了保证上面服务器的这些效果,于是就得降低送风温度,为了保证上面差不多,结果把这个温差就拉大了,导致整个的冷交热的增加。所以,这儿看着排风有40度的,这些排风35、36度,总的到空调下一看,派风温度才28度,怎么降下来了?就是凉风过去跟热风搀和起来了,这样芯片大概在45度以上。如果避免了这些混合之后,就可以把回风温度很容易提高到35度,输送温度也可以提高到20度,保持芯片温度最高的温度不变,于是这温差小多了,采集的等效热阻下来了。当然,具体计算可以拿出温度差仔细算出来知道什么毛病,总的指导思想是这样的。所以,在机柜顶部架一些挡板,这样能够有点改善。但是由于金桂内刀片式服务器之间不可避免存在气流短路现象,因此,仍存在短路现象,使冷气流通道内有旁通过来的热气流,热气流通道内也会有旁通过来的冷气流。
还有就是直接把换热器安装在机柜内,在机柜内或者机柜旁制备冷空气,可以有效减少掺混这样现象,降低热量采集过程温差,可以减少风量、丰足,大幅降低风机电耗。所以,这是很重要一条,但是不能让柜子出水。
这样有一种做法,就是采用背板冷却,将空调系统热换器安装在装载IT设备的机柜上,根据机房内各个不同的机柜实现按需供冷,避免局部热。分布式制冷系统使空调系统的吸热端更接近热源。这是第一个减少采热采集过程中的热阻。
第二减少输配过程中的热阻,实际这个环节比如一条空调器,是空气跟水的换热,那么空气温度是这样的,水温度是这样的,就会看到有时候往往都不是平衡的,是带三角形性质的,只要带三角形性质,就浪费一部分温差。所以,想法调整两边的流量,使得两边的温差接近,可以有效的降低数配系统的等效热阻,或者减少等效温差。有时候说是由于我用背板,或者机柜里的换热器那里面不是走水,无论是走二氧化碳,还是走氟利昂,这是机柜内送派风温度,这是热管温度,这是室外侧进出口温度,是这么一个过程,(如图所示),还有一种换热器,每排的热管单独连接,这时候室内室外的温度就变小多了,尽管换热面积一样,它就强多了。当然,这样会导致热管布置起来要复杂,但是在二者之间,总有一个好的权衡去减少输送过程的热阻或者说降低它的温差。
第三条就是到底我们用什么样的室外的自然冷源和怎么把这自然冷源跟我的机械制冷有机的统一结合起来?因为有时候天热还得开冷机,这二者之间能不能实现一个比较自然的转换?我们现在看看到底把这个热量往哪儿排,实际在空气里面并不是一个空气的问题,咱们有三种温度,一种就是空气的干球温度,像今天大概室外27、28度,是天气预报说的温度。直接换热就是干球温度。但是,如果我对外面拿冷却塔喷水,就是湿球温度,大概23、24度。比如到五一湿球温度比干球温度低的多,所以通过冷却塔就可以降低湿球温度,还可不可以再降低,还有一种就是间接蒸发冷却,西部地区很多地方用它做空调,它可以把试问降到室外的露点温度,像现在这个时候,北京的露点温度低于20度了。
这是拿北京气侯为例,蓝的是全球的干球温度,红的是湿球温度,绿的是全年的露点温度的变化。所以,我要是安全露点温度考虑问题,全年北京市5876小时低于20度的时间占全年的67%,如果热阻做好了,就只有10%几的时间,做不好,15度的时候,露点温度也能占到77%的时间。所以这个比例还是挺大的。
那么,怎么跟制冷机统一起来,实现无缝连接,自然过渡呢?这是一个方案,包括几部分,先说柜子,刚才我讲背板式的换热,现在是上下的换热,屋子里的空气26度,从这儿进入机柜,两组换热器,一组一个管给19度,一个管给16度,经过两种换热,从26度到20度,经过发热的服务器,达到32度,然后经过两组换热器降温,又变成26度,再回来,维持屋子里的温度是26度,不是靠屋子里别地儿装的孔,而是靠这个机柜,屋子里的温度是由机柜决定的,由于屋子里的温度是16度,露点温度只有12、13度,我把物资弄密闭了,人也不怎么进去,里面没有湿的事儿。然后,这四组换散热器,拿热管引出来,这四组是16、19、22、25度,然后这个水就是跟这热管换热,把热量都带到水里去,所以从15恩度,涨到24度。然后,24度,如果室外是两管,冷空气不用开,直接经过间接冷却塔就能够把水温降大15度,如果温度再低,只要朝这风机跟这儿的转换装置,能够维持我进入到换热器全年只有15度。当室外温度高到30度,露点温度到18度,这时候冷却塔还能起一点作用,能起1/3的冷量还从这儿出,不足了再拿冷风机降一部分。所以,这个冷风机是连续的就能够使得冷风气从10%的复合逐渐加到5%的复合。冷却塔只要露点温度在20度以下,总能起点作用。
这样一个系统,这儿计算了一下,拿北京的气象条件可以看出来,如果是这么一个机房,跟一般传统的机房来比,咱们就直接取它一年用电量是百分之百,那么即使没有自然冷源,就是拿制冷机做,但是因为我减少了掺混,减少了数配能耗,能够节能40%几。如果用最好的间接冷却方式,用电量只有23%,能够节省70%的电量,所以有巨大的节能潜力。
按照这个思路,我们有一些机房的改造实例,这是清华大学图书馆的一个全校支持整个学老师、同学做研究的数据中心。它原来就是在这个屋子里头摆了一堆空调器,机器多了,热量还大,所以追加了好几台空调器。用了跟刚才这个图差不多的方式,结果总机柜里面的风机降到7千瓦,这时候能效比从2.7涨到8.2,就只用原来1/3的能耗。最热的时候,冷机都得开了,即使如此,能耗还能差一半。所以,全年下来总的能耗消耗能够降低60%左右,这就是一个实际案例,这个还有一些遗憾的地方,就是做得不彻底,做得彻底了,还能够进一步降低消耗量。
总结一下,就是数据中心排热的空调实际上有巨大的节能潜力和节能空间。它的核心是机房的气流组织怎么采集热量合理的空调器,其中几个基本原则,一个就是尽可能避免不同的温度的气流掺混,我们现在对机柜进行空调制冷的目的,不是对机房进行空调制冷,所以尽可能把冷源越贴近发热体越好,充分的利用自然冷源,有各种不同的法子获得不同温度的,然后想法介绍能耗,这样给出去的这些思路,今天讲的某一两个做法,实际在这个思路下发挥创新的精神还可以创造出好些各种各样的方案,真正把数据中心排热的空调能耗降下来。我们觉得完全按照目前大多数方式来比较,有可能把机房的空调节能达到70%以上,相当以机房用电量降低30%以上。刚才我听领导讲,国外发达国家比,机房的PUE到1.2,1.3那跟它机房的位置有关系。在不同的气侯条件下,实际上抓好这几条,以自然冷源为主,适当的加一点机械制冷的补充,解决一年里面20%,25%的节能,完全可以把我们国家不同地方数据中心的空调能耗都有效的降下来,应该做的比发达国家,比美国还好,谢谢大家。
第六届中国IDC年度产业大典将围绕哪些议题进行讨论,有哪些名人参加呢
第六届中国IDC产业年度大典聚焦IDC产业在云计算时代的挑战和机遇,围绕云数据中心发展之道、云计算平台与云应用实践等议题进行深层次探讨,并开设云计算技术架构实践与应用、云计算信息安全、云计算开放平台等专题论坛。
华为、浪潮、百度、阿里巴巴等一批行业龙头企业依托资金和技术优势,大力发展企业云战略。
大会将于2012年1月10日-11日在国家会议中心隆重召开。届时,国际云计算巨头、中科院云计算专家、大型企业CIO、云计算产业园、电信运营商等领导专家将共襄盛会,并围绕大会主题进行深入探讨。
全国idc数据中心有多少
在中国,主要IDC由ISP建设:
电信:
根据451 Research的于2017年7月发布的最新全球十大数据中心公司排名信息来看,中国电信数据中心数量:400多个。
联通:
在2017年6月的 第九届中国云计算大会上中国联通云数据总经理焦刚:中国联通已经规划布局超大型的云数据中心12个,覆盖196个地市,335个地市数据中心,总面积超过200平方米,总机架超过32万架,出口带宽60T,PUE小于1.5。
移动:
目前没有看到中国移动的数据中心建设远远落后于电信和联通,没有找到具体的公开数据,不过有一些数据(CNNIC的互联网发展报告)你可以参考:
1、国际出口带宽:移动是电信的 1/3,是联通的 1/2
2、IPv4地址数量:移动是电信的 1/3,是联通的 1/2
---------------------
除了上述ISP的IDC,还有教育网,科研网等ISP接入商,他们也会在专有领域里建设自己的IDC机房
---------------------
随着云计算的发展,一些云计算厂商也会自建机房。和运营商合建机房。
---------------------
当然,并不是所有的数据中心都会对公众开放服务。
数据中心也就是IDC机房将来的业务发展何去何从??
大厂掀起“养机”浪潮
在新基建的浪潮中,腾讯、阿里等大厂纷纷投入千亿布局建造超大规模数据中心。大厂为了“养机”也动用了各种新技术。数据中心作为基础设施,之前 一直在底层无人问津,不过随着数字化的快速推进,数据中心的变化将更能体现新基建“基建+科技”的内涵。对于数据中心而言,进行技术创新,能够合理存储和处理数据,满足上层需求,支撑数字经济腾飞,才能实现其真正价值。
下一波技术创新的制高点随着大厂的建设提速,国内数据中心遍地开花。据中国产业信息网统计,2020年全球IDC处理的数据流量将达到15.3ZB,占全球产生的流量99.35%;从数据可知IDC主导着全球的数据流量处理。
现在数据中心向着空间集约化、单机大型化的方向发展。超大规模的大型数据中心在2019年末增至504个,还有151个处于不同建设阶段的数据中心。集约化的发展使得单体机房的利用率得以提升,有助于发挥规模效应,降低前期建设成本以及后期运营成本,对于大公司来说,头部效应会更加明显。
1. 超大规模数据中心背后是惊人的耗电量。
服务器年功耗连续上升,机柜功率不足的老旧机房为了不掉电,以至于通过空置机位的办法来解决问题。这样不仅造成了空间的利用率低,也会造成电力利用率的下降,同时还形成不必要的浪费。据预测,2020年中国数据中心耗电量为2962亿千瓦时[3],超越三峡发电量,所以说解决能耗问题刻不容缓。
2. 数据中心安全运行指标与日俱增
数据中心需要完善的安全出入管理规定和消防系统、以及具备事故应急和人员安全应急流程制定的能力。保证所有基础设施正常运行的同时,还需要及时对所有设备进行维护和修理。
3. 令人崩溃的运维
半夜故障工单催人醒,处理不慎易进坑。日常巡检是数据中心运维过程中最重要的一环,通过运维人员日复一日,重复上千次抄表中保持警觉性发现设备存在的隐患。纯粹依靠人力并非行业发展所需,日常运维应借助合适的辅助工具,让有限的人力摆脱机械性的工作。
那么如何让数据中心做到绿色发展,智能规划,轻松运维?Hightopo 和国内其他公司都在积极的这个问题。
建立可视化的运维管理平台 痛点迎刃而解可视化重塑数据中心机房
针对数据中心系统复杂、多场景和动态性的特点。以 HTML5 的 WebGL 标准实现 3D 的图形渲染技术,以及基于浏览器内核嵌入到小程序实现更方便传播。并采用hightopo轻量架构使其支持跨平台展示,实现多端口海量数据的分析。
数据中心环境可视化
利用3D仿真技术,对机房内多种设备进行建模,对设备进行实时监控以及全生命周期维护。同样为了确保数据中心机房正常运转,运维系统也具备烟雾温湿监控、动力监控、门禁等监控功能,实时监测机房内部环境,及时发现存在的问题,可远程控制系统调控运行状态。
资产与能耗管理可视化
为了解决数据中心能耗过大的问题,系统对数据中心整体环境的年度用电量、机柜租用率、楼宇IT用电量、柴油发电机、电气容量等进行实时监控并提供相关历史数据,方便管理者进行节能调整。还支持对资产准确定位,记录设备型号和状态,确保机柜高使用率,避免资源浪费,细化运维能节省约20%的总运营成本。
可视化运维管理
通过可视化管理,改变数据中心的运维模式。管理者可通过线上监控系统了解设备健康状况,可远程查看机柜的检修记录、履历信息和历史故障,为评估设备安全提供了直观的数据基础。运维人员摆脱了机械性的工作,缓解运维压力。同时也对数据中心人员分配提供了人性化的方案。
迎接智能运维时代由于边缘计算和5G的大带宽所产生的巨额流量使得数据中心建设遍地开花,大规模且密集的IDC更需要精细、自动、可视化的管理。正如 Hightopo 所提供的数据中心机房可视化解决方案,帮助企业在能耗、运维、和人力资源上做到精细化管理,使其走向节能增效的发展道路。在数字经济腾飞的时代下,数据中心可视化改造更应未雨绸缪。
参考资料:官网——Web组态
百度百科——图扑软件