| Twitter | Del.icio.us | Comments (23) | | Edit

Comments Powered by Disqus

留言评论 | Comments (23)

在北京的老idc 电力问题很严重,确实要买安培的。
公价300元1安培每月。

引用的那个表可信不可信不说,你在杭州应该知道,金华义乌,很多企业自备柴油发电机,柴油难加的事情。

其他电力紧张的地方我不清楚,目前在天津电力还是比较充足的。至于托管的机器是按尺寸算钱还是按电力算钱,其实两种都有,比如按U报价,4U之内多少钱,超过4U或者定制的比如小机,刀片的,那电力就要另行计算了。

至于楼上说的柴油发电机,那应该是电力冗余的设备,防止因市电断供导致服务终端。通常数据中心都是通过市电,电瓶和柴油发电机组三层电力保证供电稳定的。

另外是环保问题,我觉得国内现在还没有这个意识,IBM,hp,EMC啥啥的天天念叨绿色这个绿色那个的,那都是烧钱的锦上添花乱坠的玩意儿。

国内的IDC普遍存在电力供应紧张问题,初期设计容量低,中期需求增长迅猛,后期增容艰难缓慢...有人说天津充足,是不是规模和接触面不够广,无论是联通还是电信,都有限电政策,远低于尺寸容量...不深入接触系统管理和设计是不会有体会的...

米国貌似电费实际算起来也很复杂,用电量大小肯定是有关的(超过配额单价提高),峰谷电有些地方也有。

IDC的电力是要求高保障电力(高保障电力线路+昂贵的UPS+应急发电设备),所以成本要比普通的工业用电高很多。
另外,几乎所有——如果不是全部的话——的IDC都是限电的,一个柜子不能超过多少安培,如果是老机房的话,限得还是很厉害的,往往一个柜子不是因为空间不够或带宽,而是因为电力不够而不能塞更多的设备,所以额外买电的事情在IDC客户里还是不少的。
我们就有考虑电力问题购买低能耗设备的情况,事实上,设备能耗已经成为我们购买设备的一个不可忽视的指标,甚至在一些能耗大户的设备上,能耗成了考虑的很重要的因素。

问题不是这么说的,价格只是一个因素而已。

如果机器的能耗更低的话,一个机架在相同的能耗下,能放更多的机器,这个才是重要的。

另外,杭州IDC的计费,是按机架计费的,流量基本是送的。

而机架的计费,影响最大的就是电力成本。电力消耗过大,导致的问题很多,比如有机架,但是无法放设备,另外,因为密度不够,导致需要申请新的IDC

还有,机房的制冷设备,受设备的能耗影响非常大,在中国,基本上设备消耗多少能耗,空调就要消耗多少能耗来制冷。

@piner

相同的能耗,恐怕物理大小更主要吧?

国内的电费也太贵了。。。
设备都要算电流。。。

“国泰君安电力行业分析师王威表示,从历年的情况来看,商业用电量占总体用电量较低,为2%左右,尽管下调商业用电电价会缩减电网公司的收益,但是由于占比较低,从操作层面上来看反而易行。”

呃,看来办公室的电费将要有一定程度的下降?

你好

我正在用ultraedit处理很多数据
这些数据每一行由数字打头
相同开头的行被放在一起
没有空白行

我要做的是把有相同开头的行提出来单独存放
这些行从1~5000+都有
完全手工真是要死人

请高手指点

IDC 浪费现象很严重,很多强大的服务器上只跑几个很小的网站。所以虚拟化很重要,可以帮助节约电力。

把一个服务器隔成多个虚拟服务器后可以极大的利用:
计算资源(CPU 90%都是空闲的吧?为什么不和其他人共享呢,内存?硬盘?带宽?)
物理空间(用不着这么物理服务器,用不着这么多机架了、机柜,插座,网线,布局,...)
电力(少了物理服务器,当然少用电了)
IP地址
管理、维护费用

1 举 n 得啊!

环境问题确实是个大问题,但是有些环保组织的做法也值得商榷。为了环保而环保,最后造成的伤害更大

你太武断了,不知道你去过哪些超级IDC没有,光制冷就和主机用电严重不成正比了。现在IDC的制冷方式还是很原始的,机器越多制冷效率越低。还有ups。

发现有这么多人讨论IDC,还真挺有意思。

按目前国内租用的IDC来说,确实不必考虑如何节电,因为运营商一直闭门造车,人家不在乎是否浪费电,电费是算在客户身上。

楼主,IDC的耗电是非常巨大的,远远不是不是如你所言。对于一个大型互联网公司来说,假设有5万台2U服务器,每台实际平均功率300瓦计算,PUE按2.5计算,那么年均总耗电投入时50000*0.3*2.5*24*365*1.1=361350000 圆人民币。约等于3.6亿人民币。若以上2U机架式服务器每台2圆,那么5000台相当于10亿圆。若按3-4年淘汰,那么生命周期内,电费相当于设备投入的固定资产投资。很可怕吧。

如果这是你自己的数据中心,那么,在公司内成立一个节能项目小组,还是很有必要的吧。很小的一个改动,比如优化气流管理、提升环境温度就可以每年节约数千万的电费。看,这些人的价值多大?

国内电价很贵,以此为基础,对于大型互联网公司来说,有几点需要注意:

1.数据中心是战略性基础设施,等IT硬件规模大到一定程度就能意识到数据中心的健壮性对于大型互联网公司的长远发展是多么重要。

2.在20000台服务器规模左右开始规划自建数据中心。一个大型数据中心项目,从规划、设计、建设、调试,起码需要3年时间。而你有50000台服务器规模的时候,你已经找不到地方安置这些服务器了。如果预测未来公司发展良好,那么需要预测达到50000台服务器规模还需要多久,如果只需要1年,那多半你就要被自己玩死了。

3.数据中心是系统化工程,高科技,切忌以机房来看待它。电力很难抢,一般上万千瓦的电力供应,需要配置变电站,搞一个变电站出来,有那么容易吗?

4.淘汰老服务器,让新的,性能更强的服务器发挥作用。假设50台即将淘汰的老服务器性能相当于10台新服务器的性能;假设耗电相当。那么,50台老设备一年的耗电是36万人民币,新服务器是7.2万。假设新服务器单机3万人民币,那么10台式30万。购买新服务器,3年的固定资产投资、电费是:7.2+30=37.2万。使用老服务器的耗电是108万人民币。看看哪个划算?大公司的老板们,好好算下账吧,看看每年自己浪费了多少钱。

这点,对于租用IDC机房来说,钱照样浪费。自己琢磨一下就明白。

如果发自内心的希望环抱,自然会有很多新的思路,肯定不只楼主那一种算法。
不懂电力技术,只是觉得,对于环保,态度应该可以更积极一些。
推荐一篇文章:

http://www.gemag.com.cn/gemag/new/Article_Content.asp?D_ID=9016

电费的问题确实很大,07年的时候ibm的老外跑过来讲他设计的环保型设计,但是要改造国内的机柜,结果被否了。

其实现在看来,电力的浪费并没有想像中的那么难以解决吧,20000台以上的国内企业,刀片和虚拟化用的都不少,已经很高效了,当然了,完全解决肯定还需要一定的时间

谁应该考虑这个问题呢?

用户和数据中心提供者都需要考虑。

用户为什么考虑?因为大部分运营商都是以机柜形式租赁,给你一个电流值限制,比如10A,13A,16A等。如果你的服务器是低功耗的,那么一个机柜放的服务器会更多;如果你更注重程序的开发,能更好的利用机器的硬件性能,那么你可以用更少的服务器。还有一个很重要的原因,现在IDC资源是很紧张的。

数据中心提供者为什么要考虑节能?因为节能就是增效。

至于2万台及以上规模的互联网公司,如下:腾讯、百度、阿里巴巴、网易、盛大、搜狐等。数量不少了吧,有的可能没到2万,但也很接近了。

其他二线互联网公司,经过一段时间发展,也会有很大的规模。规划到建成一个大型数据中心,起码要三年时间,等到了上万台规模再考虑,似乎有点迟了。

盈利性质的公司,对节能的态度是增效;比较现实的情况不是为了环保。相信google这个巨无霸也不是为了环保。当然,顺便可以展示一下自己的社会形象。

美国一度电才2毛人民币

我看象百度 网易 腾讯这些的服务器怎么也不止2万左右吧, 也不知道一年要花多少钱

各位结合下fenng的问题讨论下,其实fenng下的结论,在现在看来其实就是这样的。同样给你1个运维人员,你肯定不会优先安排他去做IDC节能相关的事。

unixren显然更专业地专注于IDC的能源问题。

关于本文

这篇文章由 Fenng 于 July 27, 2009 11:18 PM 发布.

上一篇:或许真的无法帮你什么.

下一篇:关于OakTable Network --TOP 前言摘录.

回到 首页 查看最近发表的文章或者查看所有 归档文章.