华为UPS电源UPS2000-A-1KTTL 1KVA/800W
华为UPS电源UPS2000-A-1KTTL 1KVA/800W
华为UPS电源UPS2000-A-1KTTL 1KVA/800W
华为UPS电源UPS2000-A-1KTTL 1KVA/800W
华为UPS电源UPS2000-A-1KTTL 1KVA/800W

UPS2000-A-1KTTL华为UPS电源UPS2000-A-1KTTL 1KVA/800W

参考价: 面议

具体成交价以合同协议为准
2020-11-02 15:04:23
825
属性:
供货周期:现货;
>
产品属性
供货周期
现货
关闭
北京恒泰正宇科技有限公司

北京恒泰正宇科技有限公司

免费会员9
收藏

组合推荐相似产品

产品简介

华为UPS电源UPS2000-A-1KTTL 1KVA/800W
38AH以上出现非人为质量问题三年内免费更换同等型号的全新电池,请广大客户放心采购!

详细介绍

 

华为UPS电源UPS2000-A-1KTTL 1KVA/800W

华为UPS电源UPS2000-A-1KTTL 1KVA/800W

UPS2000-A 系列基于在线式双变换技术,是小容量场景的理想供电
解决方案,可全面消除各类电网问题。 支持塔式安装,标机内置电池。
产品特性
高可靠
• 超宽电压输入范围,有效减少转电池次数,延长电池寿命
• 在线式双变化技术,为客户提供稳定可靠的供电
智能管理

 

 

不久前,上海出台了更苛刻的政策。《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)》的通知中关于基础设施的要求:推进数据中心布局和加速器体系建设。统筹空间、规模、用能,加强三角区域协同,布局、绿色数据中心,新建机架控制在6万个,总规模控制在16万个。推动数据中心节能技改和结构调整,存量改造数据中心PUE值不高于1.4,新建数据中心PUE值限制在1.3以下。开展计算资源布局规划和资源配置方案研究,实施技术试验及模式研究。依托数据中心布局,建设基于中央处理器(CPU)、图形处理器(GPU)等的计算中心,面向人工智能的计算加速资源占新增数据中心机架总量的50%。

这些年来,从PUE值1.5到1,4,再到这次的1.3。北京、上海陆续交替出台的限制政策,折射出当地政府对于数据中心发展的微妙态度。

之所以说这次的要求更“苛刻”,是因为PUE的优化可不是一纸发文就能搞定的,它的背后牵扯到数据中心产业链的方方面面。甚至可能会在不久的将来深刻改变产业格局。

据笔者了解,大部分国内正在运营的超过5年以上的数据中心PUE值都在2.0以上。少部分新建数据中心可以达到1.4甚至1.3的水平。(可参考旧文:十年过去了,PUE,现在还剩下多少利用价值?)不过请大家注意,这里的数字是在特定情况下的测量数据。是有很大的“水分”在里面,比如冬天测试,气温低不需要花费很多能耗用来给服务器降温;比如业务还没上线,大部分设备都在空转甚至关机。据公开资料显示,三年前阿里在张北建造的数据中心,设计PUE值也才1.25。而张北的年平均气温(2.6℃)足足比上海(17℃)低了十多度。

由此可见这个1.3的标准有多大难度了。当然,如果只是要求低PUE值的话,还是有很多办法可以做到的。

 

    那么,PUE这个东西到底受到哪些因素的制约?

首先是电路传输的损耗。从市电进入数据中心开始,为了保证服务器不宕机不断电,一般市电输入会接到UPS系统上,经过UPS的二次转换(交流到直流,直流再到交流),再把电流输送给服务器等IT设备。而UPS本身在能量转换过程中是有损耗的,目前一般的高效UPS转换效率在90%~96%之间,实际运行效率通常在85%~95%之间。取个平均值,按90%的效率计算。不考虑其他因素,即便只使用UPS系统,那数据中心本身的PUE值是1/0.9=1.11。如果没有采用新的供电方式,还是使用主流的UPS供电,那么是不可能做到1.1以下的。除非在测试时作弊。也许有人会说某某家数据中心的高压直流(HVDC)可以做到啊,但别忘了,互联网的方案是“市电直供+高压直流”,市电(效率几乎100%)承担了一半甚至全部的负载,而高压直流设备本身的转换效率并不会比UPS高。

• 可选SNMP/MODBUS/ 干接点/USB 等通讯方式
• 支持延时关机,适时安全关闭计算机应用系统及操作系统
• 提供邮件告警、短信报警等多种报警上报方式
易用灵活
• LCD 显示,友好人机界面,实时监控,操作便捷
• 标机内置电池,方便易用
主要用途
• 中小型企业,大型企业分支机构,银行网点
• 网络,通信系统,自动控制系统交流供电
• 精密仪器设备的交流供电
• 大型超市,家庭,办公室等其他交流供电场景

客户背景

中国民航信息集团公司(简称中航信)是民航、旅游、交通运输业的信息技术及商务服务提供商,服务于国内外航空公司、机场、销售代理、旅行社、酒店及民航组织。中国航信所运营的计算机信息系统和网络系统扮演着行业信息中枢的角色,是民航业务生产链条的重要组成部分,被行业和媒体誉为“民航健康运行的神经”。

业务挑战

数据中心网络承载多板块核心业务

平稳高效灵活至关重要

作为市场的航空运输旅游业信息技术和商务服务提供商,中航信的核心竞争力依赖高效的信息系统。中航信的信息系统包括航空信息技术服务、结算及清算服务、分销信息技术服务、机场信息技术服务、航空货运物流信息技术服务、旅游产品分销服务、公共信息技术服务等七大板块。数据中心网络作为承载七大板块核心业务的基础设施,对于保证业务平稳运行至关重要。

随着业务的快速发展,中航信原有数据中心在可靠性、可扩展性等方面已经无法满足业务高速增长的需求。为了支撑业务的快速发展,中航信在北京后沙峪启动了数据中心新建项目,目标是建立起一套充分满足新一代业务和应用发展需要的高性能、高可靠、可灵活扩展的数据中心基础网络环境。

解决方案

量身打造面向下一代的数据中心云基础网络

在深入研究中航信业务核心业务诉求的基础上,华为为中航信量身打造 “面向下一代的CloudFabric数据中心网络方案”。该数据中心网络方案以华为CloudEngine系列数据中心交换机为核心,具备高性能、高可靠、易用性强、支持虚拟化等特性,为中国航信打造高品质的云基础设施网络奠定了坚实的基础。

Trill大二层技术,构建无阻塞、低延迟的网络架构,满足航信云计算的需求

中航信业务系统的升级和转型要求网络支持无阻塞、低延迟转发,并利用大二层组网技术充分利用交换机之间的多条转发路径,提升转发效率。基于Trill技术构建的网络架构能够很好地满足中航信的业务需求。

 

· 相对于传统的xSTP技术,华为CE12800数据中心交换机支持的Trill技术在防止二层环路风暴,等价路径转发,以及快速收敛方面具有明显的优势。

· 采用MSTP传统二层ETH技术的网络,可以无缝接入Trill大二层网络,MSTP网络下挂接的服务器可以和Trill网络下挂接的服务器彼此进行二层通信,实现业务的灵活迁移。

支持一虚多,构建虚拟网络资源池,资源按需分配

 

 其次是制冷的损耗。服务器工作会发热,必须使用空调等设备给服务器降温,否则服务器会因为温度过高而宕机。数据中心使用的电能中,很大一部分都是用来给服务器制冷用的。如果去除服务器本身工作的耗电,剩下的电费中大概有七成都是被空调等制冷设备消耗掉了。所以高效的制冷系统可以很大程度上减少能源损耗。风冷空调、水冷空调、蒸发冷却、自然冷却(也翻译成免费冷却)、服务器液冷都是目前,但通常来说,更高效的制冷方式也意味着更高的建设成本。
  
  还有就是选址和气候方面的影响。建在内蒙的数据中心肯定比建在深圳更节能,因为北方平均气温低,不需要太多的能耗用于给设备降温。
  
  另外还有建设方式的影响。比如模块化数据中心(微模块、MDC、预制数据中心)目前就是大家*的一种可以节省能源、减少建设时间的数据中心建造方式。
  
  那么,这个新政策又会带来哪些影响?
  
  1、模块化数据中心(微模块或MDC)这种方式成为新建数据中心标配。
  
  苛刻的PUE,必然会导致大家都选择采用微模块或者说密闭通道+近端制冷的方式来建设数据中心。因为只有这样才能在架构上
  单一设备生产商的生存空间进一步被压缩。对于设备生产商来说,不管是主动还是被动,只有“被集成”到微模块的整体方案里,才有可能参与竞争,价格会进一步被拉低。除了原有的传统(其实也就不到10年)微模块生产商,越来越多的厂商、集成商、甚至资本方都会来“插一脚”,价格战只会更加激烈。
  
  差异化成为厂商救命稻草。对大多数中小微模块玩家来说,既做不到财大气粗的自己垫资建机房,也做不到从IT到风火水电甚至云平台的垂直整合方案,拼成本也不会比自有工厂的机柜、配电厂商更低。那么就只有在差异化新特性上面想办法了,比如比别人更多的使用空间、更炫酷的外观设计、增加诸如容量管理、资产管理、灯光色彩管理等新功能。这些新特性新亮点都会成为价格战之外打击对手的“控标”手段。
  
  2、数据中心产业加速向二三线城市过渡。
  
  事实上,从近年来北京、上海陆续出台对新建数据中心的限制政策,可以很明显的看出:一线城市政府已经对数据中心(大数据、云计算)这些新名词没那么热衷了,高科技华丽外表的背后其实是高能耗的现实。

 但对更多的二线三线城市和省份来说,因为有贵州、内蒙等成功案例在前,数据中心、大数据、各种产业园区概念,还是可以作为新的增长点,对当地经济发展做出贡献。我们可以推测:

· CE12800通过VS(Virtual System)技术提供业界高的1:16设备虚拟化能力,将一台物理设备虚拟成多立的逻辑设备,对不同的分区进行逻辑隔离,同时共享核心交换机。

· 各个逻辑隔离区域的虚拟交换机故障不会影响到其他虚拟交换机,网络的安全性得到增强。

· 使用VS技术将设备虚拟化,物理设备复用,资源按需分配,提高设备利用率,在保证扩展性的同时,降低客户的设备投资和运维成本。

设备级高可靠和网络级高可靠,保障7*24小时业务永续

针对中航信的业务特点,华为数据中心网络解决方案从多层面保障中国航信网络的可靠性。华为CloudEngine系列交换机依托工业级的超高可靠性,提供99.999%的高可靠性保障,保证网络核心长期稳定运行,保证业务不间断。

· 核心CSS集群避免网络单点故障,为网络核心加上双重保险。

· 核心网络通过部署TRILL大二层网络,整网资源高效利用,多路径保障网络链路的可靠性。

· ISSU不中断业务软件升级,满足用户业务的永续性需求,提供了NSA无缝恢复技术,所有业务保持不中断。

客户收益

华为为中航信打造高效、可靠、灵活的数据中心网络,可满足中航信未来5-10年内业务扩展对于网络的核心诉求,支撑生产运行保障、电子商务、电子政务、旅客服务、航空安全和决策支持等各领域信息化水平的提升。华为数据中心网络解决方案助力中航信深化和扩大信息技术应用,为我国民航业持续健康快速发展提供有力支撑。

不久前,上海出台了更苛刻的政策。《上海市推进新一代信息基础设施建设助力提升城市能级和核心竞争力三年行动计划(2018-2020年)》的通知中关于基础设施的要求:推进数据中心布局和加速器体系建设。统筹空间、规模、用能,加强三角区域协同,布局、绿色数据中心,新建机架控制在6万个,总规模控制在16万个。推动数据中心节能技改和结构调整,存量改造数据中心PUE值不高于1.4,新建数据中心PUE值限制在1.3以下。开展计算资源布局规划和资源配置方案研究,实施技术试验及模式研究。依托数据中心布局,建设基于中央处理器(CPU)、图形处理器(GPU)等的计算中心,面向人工智能的计算加速资源占新增数据中心机架总量的50%。

这些年来,从PUE值1.5到1,4,再到这次的1.3。北京、上海陆续交替出台的限制政策,折射出当地政府对于数据中心发展的微妙态度。

之所以说这次的要求更“苛刻”,是因为PUE的优化可不是一纸发文就能搞定的,它的背后牵扯到数据中心产业链的方方面面。甚至可能会在不久的将来深刻改变产业格局。

据笔者了解,大部分国内正在运营的超过5年以上的数据中心PUE值都在2.0以上。少部分新建数据中心可以达到1.4甚至1.3的水平。(可参考旧文:十年过去了,PUE,现在还剩下多少利用价值?)不过请大家注意,这里的数字是在特定情况下的测量数据。是有很大的“水分”在里面,比如冬天测试,气温低不需要花费很多能耗用来给服务器降温;比如业务还没上线,大部分设备都在空转甚至关机。据公开资料显示,三年前阿里在张北建造的数据中心,设计PUE值也才1.25。而张北的年平均气温(2.6℃)足足比上海(17℃)低了十多度。

IDC的产业区域化。像曾经的制造业一样,数据中心也在加快从北上广深向周边区域扩散。目前已经可以看到形成的通州、怀来、内蒙等地的环北京产业圈;形成江苏、浙江等地的环上海产业圈;以及坐落在东莞、佛山、深汕合作区;广州外围城市的环珠三角产业圈。而未来这个扩散趋势只会更快。

  各地政务型数据中心主导。对远离一线城市的内地二三线城市来说,当地并没有众多的大型互联网企业,大型企业,来作为对数据中心的需求方。所以笔者认为还是会以雪亮工程、智慧城市、政务云等政府类项目所需要的配套数据中心建设为主。在满足自身需要的同时,对外招商引资。但除了低廉的租金和电价之外,因人才缺乏、网络时延等问题,对*们吸引力有限。

3、新的温控方式、制冷技术会加快推广。

很多更加节能的新型制冷方式这些年大家已经屡见不鲜,但之所以没有推广开来,除了技术成熟度之外,更多的还是成本原因。

事实上,更*的制冷系统往往意味着更高的建设成本,更可靠的供电系统往往意味着更多系统冗余和能耗。所以互联网的市电直供再节能,金融企业也不会采用;液冷的效率再高,也不能打动中小企业租户。

  能耗、安全、价格三者之间的平衡代表了各方的博弈。PUE是政府部门对运营方提出的要求,而用户更关心安全和价格。能降低成本的技术才是好技术。如果新技术的初期投入过大,而对使用成本的降低帮助有限,那么势必很难普及。有人提出用湖水制冷、海水制冷,甚至数据中心建在船上,不过目前来看都还不能大规模普及。

建设成本的增加会体现在终用户价格上(机柜租赁、云服务等),如果能切实减少运营成本(比如电费),通过几年的时间可以在短期内收回初期投资,使得整体TCO更低,让用户看到更实际的好处(低价),新的技术才有希望得到大规模推广。

4、节能改造、节能认证相关行业会更受青睐。

随着政府的重视,数据中心的节能工作毫无疑问会受到更多的关注。比如机房的节能认证、PUE认证会逐渐成为新建数据中心的“准生证”。而相关的工程改造、节能认证行业也会因此收益。

据笔者了解,目前不少行业组织和协会均可以提供测试认证,比如电子节能技术协会、绿格、信息通信研究院等。而绿格(中国)还在去年专门推出了针对微模块的PUE测试认证。

公开数据显示,业内有厂家可以做到全年PUE值1.245的数据,不过要说明的是,这是基于北京地区温度数据计算出的结果。如果是在上海,仅仅依靠微模块本身,不借助其他手段,几乎不太可能做到年平均PUE值在1.3以下。更不用说广州、深圳等南方地区了,能做到1.4就不错了。

5、边缘计算的新机会点。

在大家都在讨论大型数据中心的PUE限制时,似乎很少有人注意到下面这条:推进边缘计算资源池节点规划布局。

啥意思?大的不让建了,可以搞小型微型的嘛。数据中心基础设施的那点事,无非就是集中还是分散、零存还是整取。什么分布式电源、末端制冷,就是这么被大家折腾出来的。

   而随着5G建设被运营商提上日程,随之而来的边缘计算需求也会快速爆发。笔者预计,2019年,作为边缘计算资源池的载体—一体化机柜或者可以叫微微模块(miniDC)将会迎来更大的发展。对厂家来说,这是个好消息

由此可见这个1.3的标准有多大难度了。当然,如果只是要求低PUE值的话,还是有很多办法可以做到的。

    那么,PUE这个东西到底受到哪些因素的制约?

首先是电路传输的损耗。从市电进入数据中心开始,为了保证服务器不宕机不断电,一般市电输入会接到UPS系统上,经过UPS的二次转换(交流到直流,直流再到交流),再把电流输送给服务器等IT设备。而UPS

 

本身在能量转换过程中是有损耗的,目前一般的高效UPS转换效率在90%~96%之间,实际运行效率通常在85%~95%之间。取个平均值,按90%的效率计算。不考虑其他因素,即便只使用UPS系统,那数据中心本身的PUE值是1/0.9=1.11。如果没有采用新的供电方式,还是使用主流的UPS供电,那么是不可能做到1.1以下的。除非在测试时作弊。也许有人会说某某家数据中心的高压直流(HVDC)可以做到啊,但别忘了,互联网的方案是“市电直供+高压直流”,市电(效率几乎100%)承担了一半甚至全部的负载,而高压直流设备本身的转换效率并不会比UPS高。

上一篇:铅蓄电池行业定义及分类 下一篇:铅蓄电池维护保养技巧分析
热线电话 在线询价
提示

请选择您要拨打的电话:

当前客户在线交流已关闭
请电话联系他 :