百度百科   
 
高教思政
 
 
 
 
 
 
 
 
 
 
低碳计算技术:2050年展望(之二)
论文编辑部-新丝路理论网   2011-04-03 22:09:49 作者:中国期刊界http://www.jiaoyu85.com/index.php 来源: 文字大小:[][][]
 作者:张进京译

编者按:构建社会主义和谐社会,必须走循环经济之路,必须充分利用信息与通信技术最大限度地减少人类行为留在地球上的碳脚印。英国在发展低碳经济的战略政策制定和实施方面,提出了很多出色的方案,他们的经验值得我国借鉴参考。英国联合信息系统委员会2009年发布的《低碳计算技术:2050年展望》介绍了英国碳排放减少的战略和计划,分析了信息与通信技术应用对减少温室气体排放,遏制全球变暖的潜在贡献。报告提出的观点可以带给我们很多启迪。本报告全文较长,本刊拟分4期连载,以飨读者。

 

4 技术与标准

        在本节中,我们分析与低碳ICT相关的观念、技术和标准。讨论领域分成六类:数据中心;高教部门;能源密集型计算;存储;终端用户设备;打印机。我们首先讨论每一领域都有的与特殊技术相关联的能源效率问题。然后讨论依靠本地资源,通过成熟技术或员工能够快速纠正问题。最后讨论每一领域较长期的解决方案,这些解决方案不是所需投资太大,就是需要更多的技术验证。

4.1数据中心与能源密集型计算

        在高等教育和成人教育机构中,数据中心和各部门的服务器从来都是连在一起的,所以把服务器集中到数据中心是比较容易的事。把设备集中在一起可以提高能效,集中度越高,对环境的影响越小。
        数据中心能耗极大,所以留下的碳脚印非常大。大量装有处理器的设备紧凑地放在控制室内一排排的架子上,有时会有几千台设备,它们运行时会散发热量,为保持数据中心的安全运行温度,就要消耗相当大的电能来冷却降温。2007年,Gartner 公司估算,数据中心的能耗大约占ICT整个行业能耗的四分之一。英国联合信息系统委员会最近发布的一份报告指出,高等教育行业大约有215000台服务器,产生的CO2排放量大约占高教行业ICT应用造成的CO2排放总量的四分之一,估算结果与Gartner的相同。
        过去几年,网上服务的增加,架构的变化(所谓云计算的兴起,即把处理转移到数据中心)和信息与数据存储量的扩大,导致对数据中心需求的不断增长。2007年,美国环境保护署预测,根据目前的能源效率发展趋势,在5年之内(从2006年算起),美国数据中心的能耗会增加75%,但现在看来,这个数字会被突破。计算机运行研究所的调查报告表明,高端数据中心能耗的年增长率达20-30%。
        现在让人担忧的,不仅是排放问题,还有对不断增长的数据中心的供电基本保证的问题。计算机运行研究所最近对311个美国的数据中心经理做了调查,发现他们中有42%的人认为,在两年之内,他们的电力供应会不够,39%的人说,他们的制冷能力会不足。还没有哪个公司认为自己不存在供电能力不足的问题,差别仅在开始着手解决这一问题之前的缓冲时间有多少。在英国,对供电问题的争论颇多,例如在人口密集的东南地区。

4.1.1运行状况:数据中心带来的问题
         数据中心的能耗问题可以分为两类:数据中心中安装的设备的基本能耗和包括IT设备冷却和数据中心周边电力分配在内的基础设施服务次生能耗。数据中心设计的生命周期通常是10年到20年,这就意味着数据中心采用新技术的速度会大大落后于一般的ICT领域,这是影响次生能耗的原因。
数据中心的能源利用效率不高,从发电厂到数据中心的电能损失相当大。而电能在数据中心又会产生次生消耗的特殊问题。在数据中心,把交流电转变为直流电要额外耗能,产生热量,所以还要去除这个热量,保证设备安全运行。最后,基础设施服务如制冷和不间断电源又要消耗相当一部分电能,所以总的算起来,发电厂发的电实际上只有7%被服务器使用。

  4.1.1.1不间断供电(UPS)系统
        在停电后和备用发电机启动前的间隙,不间断供电系统可保证数据中心设备运行不中断。不间断供电系统的辅助功能是改善供电条件(例如在电网电压过高、过低或出现峰值跳动时保护设备)。在数据中心,不间断电源是一种低效能源,据美国能源部劳伦斯伯克利国家实验室估算,UPS的能耗损失占数据中心能源总消耗的5-12%。在高教领域,不间断供电通常依靠的是电池备份,这里有两个主要问题要考虑:
(1)充放电电池失效造成的电池对环境的影响(例如产生数量相当大的对环境产生巨大影响的物质,比如铅)。一般来说,电池的更换周期是5年,这样就产生了大量的废弃物。
(2)交流电(输入数据中心)向直流电(给电池充电)转换的失效,以及直流电转换成向IT硬件供电的交流电的失效。
 
  4.1.1.2冷却
        数据中心冷却系统消耗的能量一般来说都是无效的。几年前,一个典型的数据中心托架设备的耗能是1-2kW。现在则是12-20kW,很快就会到35kW。即便是采用低电压器件的精心设计的刀片插架系统,能耗也会达22kW。必须把这些能耗产生的大量热量去除,才能使服务器在安全温度下运行。这些都是典型数据,应该指出的是,高教行业目前的能耗水平还没有这样高,但冷却仍然是一个非常重要的问题。据SusteIT公司的估算,数据中心总能耗的四分之一到一半用在了冷却过程中。在设计不佳的数据中心,冷却能耗会超过一半。

4.1.2数据中心问题的短期处理
        有若干技术和方法是数据中心经理根据自己的情况马上就可以采用最恰当的方案。有些示范案例中包含有详细的短期解决方案,最典型的例子是欧盟数据中心能效管理法典。美国环境保护署关于数据中心的报告也列举了由绿色网格集团提出的最佳方案和最先进技术的详细建议。不过这些建议都是基于美国的情况提出的,目前欧洲和美国的供电系统和冷却系统之间还是有很大不同的。
        确定能效基准的办法有好几种。英国计算机学会数据中心特殊利益组(目前完成了测试第二版)提供的是免费工具,它是由英国计算机学会和Romonet 碳信托基金公司共同研制的。在美国,国家数据中心能源效率信息计划的重点是证明和基准,而能源部则公布了数据中心节能最佳案例研究。牛津大学最近受委托撰写了一个关于中央数据中心设计的报告,读者或许会对这个报告感兴趣。报告包括一些取自欧盟管理法典的建议和数据中心与ICT工作人员之间的讨论。
        建议数据中心经理学习和采纳欧盟提供的最佳案例经验,正式签约参加欧盟管理法典,承诺参加各类节能活动,在采购程序中考虑节能。鉴于可用的建议又多又复杂,在本节后面我们要对短期解决方案做个小结,(短期解决方案不是从技术上彻底解决,而是重组或投资于相对成熟的技术),对于中期的实验工作,应该进行跟踪,因为它是未来有潜力的解决方案。对于数据中心,这些建议主要针对两类重要的低效供电:基本能耗和次生能耗。
 
  4.1.2.1降低基本能耗:虚拟化和更换硬件
        对第一类问题,采用简单分类的办法就有效:
减少设备,也就是说,把没有使用的服务和设备关闭,并移出数据中心;合并设备,也就是说,把同一地点的多种服务合并到一台服务器上,例如,把多个网站和数据库放到一个硬件上;虚拟化;使用能效更高的硬件。
        采用上述办法时,首先要考虑的是用最小的改变获得最大的效益。例如,虚拟化一台服务器要提前6个月解除其功能,这样做就没有意义了。
(1)虚拟化
        在一台计算机上运行一种操作系统,支持少量应用的概念已经过时,人们更为熟悉的客户——服务器模式,现在已经从标准PC机转到数据中心运行。现在经常发生的情况是,一台功能很强大但使用不充分的服务器只运行自己的操作系统和做单一的应用。
        现在,随着硬件处理能力的大幅度提升,人们认识到可以对硬件做虚拟化处理,实际上就是把一个单片硬件分割,形成几台独立的计算机同时运行的效果,从而自动生成所需的处理能力。一台功能强大的计算机运行一个虚拟化的软件,我们通常称之为藉由虚拟层,它会建立几个虚拟机(VM),每一台机器都能在软件里复制计算机的硬件功能,也就是说每一台机器都有传统的,分离式的用户机器的功能。用户通过用户屏幕上某种形式的控制面板使用特殊的虚拟机。
        这不是什么特别新的东西,早在上世纪60年代,大型计算机主机就采用了这种概念,但在客户服务器模式被广泛采用后,这种做法实际上就被弃用了。不过近几年来,功能强大的台式PC机、部门服务器控制室和中央数据中心的数量在急剧增加,而它们的能力又没有得到充分利用,出现了所谓的“服务器蔓延”现象,这就使人们对这种模式的合理性产生了疑问,转而对虚拟机技术产生了越来越多的兴趣。虚拟机技术有两种不同类型的终端应用。第一类是数据中心内部服务器的虚拟化,也就是用一台物理机器复制几台服务器。第二类是用中央共享的机器虚拟用户的台式PC机,或者是用瘦客户端取代台式PC机,或者是保留现有的PC机,把中心应用做本地化处理(通过大家知道的“台式机流媒体”方法)。很明显,通过虚拟化把利用不足的设备在深层次整合可以大幅度降低能耗,尚不清楚的是桌面虚拟化时是否要保留PC机。
        虚拟化的最大优点就是可以使处理能力、存储和网络需求同基础物理设备相分离,提供“虚拟基础设施服务”。这就是说,一系列服务可以通过最有效的硬件来提供,每台虚拟机都可以在不同的硬件构造之间方便地移动,就像在软件文档之间移动一样。这样,几十台很少使用的机器就可以用几台重负荷的服务器所取代。一般来说,虚拟服务器运行效率为65-85%,而普通服务器的使用效率只有7-20%。在一些公共部门,利用率会更低。例如环境署在调查中发现,上面说的虚拟化之前的服务器使用率实际上太高了,大多数服务器的使用率不到5%。
        虚拟化是有成本的,成本的大小依虚拟化的类型和规模而有所不同。成本包括购买客户剩余计算能力的费用,新的或要添加的服务器硬件费用,人员再培训费用和虚拟机执照费用。这些费用可能相当大,对虚拟化的成本效益,现在还有些争议。弗洛斯特认为,与其他绿色ICT技术的成本效益相比,服务器虚拟化和利用客户富余能力的方法是“资源密集型”的,成本极高。
        虽然存在这些问题,但欧盟数据中心行为法典仍然建议优先考虑虚拟化,正如英国计算机学会数据中心工作小组的里安姆•纽柯比所说,只要非虚拟化的新应用要先经过高层批准,法典就会有效,就能制止服务器蔓延。
        虚拟化虽然是一种相对比较成熟的技术,但未来几年可能还会发展,所以我们在下面的第5.1.4节中继续对虚拟化进行讨论。
(2)采用能效更高的硬件
用户希望他们采用的物理设备要少,成本要低,效率要高。优选服务器设备的原则如下:
①采购时优先考虑能效高的设备。
②考虑设备的运行温度范围,从2012年起按欧盟标准进行采购。
③通过低电压处理器系统等手段提高供电效率(低电压处理器可以使CPU节电一半)。
④采用元件共享系统,如供电、联网、风扇等共享,现在已有“刀片”系统这样常见的打包组合。
⑤采用主动元件管理系统,例如只向风扇供应所需电量,控制风扇转速,实现最佳能耗。
⑥采用低负荷时可部分关闭的系统(例如关闭处理器)。
采用刀片系统应该慎重。虽然刀片系统能够解决诸如降低能耗,压缩尺寸等问题,但还应在现在的离散服务器和刀片系统之间进行比较。如果选用了一个刀片系统,而且在系统生命周期的头两年不是满负荷运行,那么用户可能会发现,其耗能实际上比取代的分离系统耗能的总和还要多。当然刀片系统还在不断改进,不应被视为不佳解决方案。

    4.1.2.2降低次生能耗:冷却与电力传输
        减少了数据中心中安装的ICT设备的运行耗能,第二类的耗能,也就是基础设施服务的耗能,就会自动降低。不过要记住,最大的能耗发生在电力输送分配和冷却环节,仅把运行能源效率最大化是不够的。实际上,在产生热量的设备(服务器)和冷却基础设施之间维持良好的平衡,永远是重要的。所以,在服务器退出运行和合并之后,重新考虑冷却设备也是重要的。
(1)冷却
        目前数据中心采用两类冷却,或者是空冷,或者是液体冷却(通常是水冷)。这两种冷却方式之间最大的不同在于成本和系统密度容量。在一个托架上,水冷的能量密度要大的多。高校的数据中心由于物理空间大,大多采用空冷。水冷需要的空间小,但成本高。在英国的高校数据中心,虽然空间不是问题,但也开始在高端设备区安装水冷系统。最近的两个例子是在布里斯托尔大学的国家超级计算机中心和爱丁堡大学的高端万亿次计算机中心安装了水冷系统。
        数据中心通常是按照通信产业协会的TIA-942标准专门布置的。该标准不仅界定了运行系统的恢复力、层级和特点,而且规定了空冷数据中心的最佳配置。标准包括增强气流,减少热量的技术规范,架空瓷砖地板的建议和设备托架冷热通道替换设置的建议。在冷空气通道,托架上的设备是面对面的,地板瓷砖打孔,在热空气通道,托架上的设备是尾对尾的,地板瓷砖不打孔。冷空气通过冷气通道地板上的孔被吸上来,经过设备后再从热空气通道流出去。
        高校服务器控制室的布局通常很糟,从一个服务器通道吸出的热空气往往又直接送到了临近通道的进气孔。这种布局很明显是低效的,最后常常需要再额外安装空调。欧盟数据中心行为法典指出:“设备常常会被过度空冷……超过需要的过度冷却也是浪费能源”。这一点值得我们注意。各机构要做出很大努力,确保他们的数据中心不以这种方式浪费能源。
        数据中心管理者要想取得直接的改进效果,就要控制空气气流,优化冷却过程。度量改进效果的一个简单方法是移动通道的地板瓷砖,在电缆周边加垫圈,封闭地板上的空隙,然后在用隔板堵住托架上的空隙,阻断冷热通道之间的气流。近两年,许多数据中心为进一步度量冷却效果,用塑料窗帘封堵通道端口,用透明顶棚盖住通道,阻断冷热气流通道,阻止热空气向冷通道的流动,使空调循环无法进行。控制气流,改善冷却的办法对高校来说是成本效益很好的简单解决方案,而且能很快安装实施。欧盟数据中心行为法典提出的更简单的解决方案是在数据中心的不同区域,根据不同的环境要求,采用不同的气流和冷却方式。
更复杂的解决方案是用流体力学分析数据中心的气流,然后采用主动管理技术控制气流,根据数据中心的散热需求自动调节制冷。
        就控制气流来说,用新鲜空气制冷是最常用的。只要把排出的热气与室外的新鲜空气混合(假如室外温度合适的话),然后再送回室内就可以了。只有在必须的时候,才启动空调。纽科姆详细介绍了这种技术,包括空气冷却节能装置。威尔曼则进行了一项投资回收的案例研究,他的研究结果是,用计算机控制的室外空冷,与空调相比可以节能70%。值得注意的是,在英国电信公司的107个21世纪网络数据中心中,空冷已大量使用,并取得了成功,冷却成本降低85%以上。
        还有一些制冷模式,虽然不是按照TIA-942标准配置的,但效率更高,特别是在热密度高的“热点”环境,例如在刀片服务器托架上使用时。有几个厂家生产出了带有辅助制冷装置的托架,例如在设备架的后部安装有制冷单元和风扇。无需外部制冷的全内在环境冷却方式现在分为四类:
①整体冷却的密封托架(例如惠普公司的氟利昂模块冷却系统);
②整体冷却自备通道(例如APC公司的InfraStruXure);
③包括整体冷却系统的运输集装箱中的便携式数据中心(例如Sun公司的模块数据中心);
④刀片托盘中的水冷系统。
这些装备可以构建目前效率最高的数据中心,但这样的数据中心也有不足,主要是在有些情况下要安装水管冷却系统。对于较小的数据中心,可以完全不搞分离的服务器控制室,采用橱柜式的数据中心,使用周边普通办公室的空气冷却,这是室外空气冷却系统的变体。在英国,Kell 系统公司生产的产品已经在几个大学示范应用。
(2)供电:电压调节与相位平衡
        欧盟数据中心行为法典强调了供电设备的重要性,指出了此类设备对数据中心效率的重大影响,因为这类设备一旦安装就会运行很多年。法典指出,在数据中心设计过程中,认真选择供电设备可以在设施生命期内大大节约能源。近期能提高现有设施能效的途径是供电调整。
        电压调节和相位平衡产品是日本首先开发出来的。基本思路是通过克服实际供电电压和电子设备所需电压之间的差异来优化电压,从而提高能效。这类产品如PowerPerfector 和 EMS PowerStar。
到目前为止,这些产品尚未在高校数据中心广泛使用。这可能是因为人们对这些产品缺乏认识,也可能是因为有些ICT供电是开关模式的,这些产品并不总是适用。但是,PowerPerfector公司在萨里大学的案例研究表明,采用这些产品大约可节能11%。还有一些公司生产此类产品,但大多要进行供电性能预评估,估算如果安装此类产品成本能降低多少。环境署最近在东北部的6个站点安装了这类产品。

4.1.3近期发展
        有不少技术尚在实验阶段,少数技术在试用,探索是否可推广。如果实验取得成功,很多技术就有可能在未来3-5年内被采用。

  4.1.3.1不间断供电(UPS)
        如上所述,在数据中心,UPS是一种低效能源,负荷不同的时候,效率也不同。生产厂商在说明书中标出的测量结果差距很大。伯克利实验室估计,在数据中心的总能耗中,UPS的能效损失约占5-12%。UPS技术近期开发研究的重点是提高充放电电池的能效,分析这些电池的环境影响,这里有两类技术值得指出:
(1)飞轮UPS
        系统中有一个在真空中旋转的又大又重的轮子,通电时,只需一点点电能就能维持轮子的旋转。一旦断电,飞轮的惯性可以保持飞轮继续高速旋转,并发电驱动服务器运行,虽然发电时间不长,但足以维持到备用发电系统如柴油发电机启动。略有改动的应用是把飞轮作为电池型UPS的备份,利用飞轮的惯性提供能量,消除电池供电的小毛病,延长电池寿命。飞轮系统的重大缺陷是物理尺寸太大,大多数高校服务器控制室不太可能安装这种系统,当然较大的数据中心和高性能计算机房还是可以考虑安装的。
(2)燃料电池
        供电系统一般被认为是一种较长期的技术,本报告将在第5节中予以详细讨论,但是这里要提的一个例子是供数据中心使用的APC公司的氢基燃料电池。这种电池可以提供高达30kW的电力,电力足以维持一对服务器托架所需。该公司声称,一旦断电,燃料电池要经过30-40秒才能启动运行,时间与一台标准的发电机相似。所以燃料电池要保持数据中心的电池处于充满电状态,直到干线供电恢复。

  4.1.3.2冷却
        上面已经说过,数据中心内部设备的冷却要消耗大量能量。在设计新的数据中心或翻新老的数据中心时,有两个方面需要考虑:首先,在设计时要考虑用于冷却的能量百分比最小,其次,要把排出数据中心的热量作为副产品使用。
(1)排架冷却
        传统的冷却方式是冷却整个房间,较新的数据中心已开始探索靠近服务器设备的冷却方法。这种方法是把冷却设备置于各排设备托架间,或直接置于托架系统的前后面。到目前为止,还只有少数高校在试验这种方法。
        还有一些别的方法,例如,安装特殊的托盘,把服务器机壳内的冷却风扇移到托架上,用创新的解决方案,如垂直气流来冷却。这类系统的缺点是必须使用特殊的服务器托盘。
(2)在较高温度下运行数据中心
        许多公司和机构都在试验较高温度下数据中心的运行,在理论上,数据中心内部的设备在这样的温度下是不能正常运行的。这方面的主要标准是由美国供热、制冷和空调工程师协会(ASHRAE)制定的,欧盟也采用这个标准。2008年,该协会推出了ASHRAE数字设备环境指南。指南建议,在不同的湿度下,运行的温度范围在18-27 oC之间。但是,如前所述,从2012年起,欧盟计划采购的新设备要适应更宽的运行温度范围,在5-40 oC之间。值得注意的是,迫于压力,许多设备制造厂商已经修改了自己设备的运行温度范围,所以用户应选择运行温度范围最大的设备制造商。
        有些机构走得更远。在ASHRAE的指南颁布之后,人们普遍接受了要在ICT设备可承受的范围内运行的观点,支持数据中心运行的环境通常是在指定湿度下20 oC至24 oC 的温度范围。英国电信公司的经验是,设备可以在更高的温度下运行,例如在50 oC运行。其他一些公司,如戴尔,谷歌和英特尔也一直试着在更高的温度下或在降低湿度控制的情况下运行数据中心,努力避免不必要的能量损失。但是,并非每个人都相信这个办法。应当指出的是,标准的IT设备有时在超过35 oC运行时,由于内置风扇以最大速度转动,会导致不成比例的高能耗。对1U ‘pizza box’(比萨盒)设备来说,这种现象特别明显。
        数据中心完全不用空调是不是可以,也进行过一些试验。例如,英特尔在沙漠中间建了一个数据中心,同时还建了一间标准的数据中心控制室。数据中心未装空调,仅用空气节热器把室外带有沙漠沙尘的,未经过滤的,干燥的空气抽进来。试验表明,带有空气节热器的房间耗能比装空调的控制室少67%。两个房间中设备的可靠性没有太大区别,这说明现代的服务器和开关齿轮可以经受比说明书上限定的恶劣得多的环境。

    4.1.3.3采用直流供电
        数据中心的用电效率是相当低的。电能以交流(AC)的方式长距离传输,但数据中心中的计算机设备大多是使用直流电的(DC)。一般来说,数据中心使用的是交流电,在设备那里再转换成直流电(虽然供电方式在细节上有所不同)。一台典型的PC机或服务器配备有供电盒,把供电干线网上的交流电转换为三种直流电,电压分别是3.3V、5V和12V。PC机或服务器的集成电路部分(例如CPU主板),使用的是3.3V和5V的直流电,而光盘驱动马达则需要更高的电压。把交流电转换为直流电要消耗电能,产生热量,还要把这些热量消除掉,所以说这种转换是低效的。
        最近几年,关于在数据中心究竟是采用直流电好还是交流电好的争论一直不断。呼吁采用直流供电架构的人认为,取消交流电向直流电的转换,可以节能10-20%,而数据中心周边的直流电传输又能额外节电10%。直流供电架构的一个例子是加利福尼亚能源委员会的未来项目数据中心。另一个例子是英国电信公司,它是英国最大的公司用电户,公司制定的21世纪网络计划对这一问题进行了调查。英国电信公司估计,CPU造成的电网损失总量(即电力从电网输送到数据中心之后的损失),采用交流供电为60%,采用直流供电为35%。
        直流供电的拥护者指出,电信公司数据中心采用的48 V 直流电可以作为全球标准。电信公司的数据中心一般只做一次交流电向直流电的转换,然后用直流电向中心的设备供电,这样就避免了较小规模的交流电向直流电的低效转换。一些领先的服务器供应商销售以这种方式直流供电的产品,所以说,非电信系统的数据中心采用直流供电不是完全不可能的。
        但是,数据中心行业的许多管理人员在没有看到效率提高和安全保证的明显证据之前,并不愿意做这样根本性的改变。这是争论的根源。还有一个特殊的问题是,在数据中心传输48 V的直流电需要大电流,所以要使用昂贵的,更粗的铜电缆。因此,计算机产业正在考虑采用高电压(300-400V)直流供电,但这又带来了安全问题,而且需要有新的电缆和连接器标准,这些标准目前还没有。
        鉴于这些争论,伯克利实验室与Sun微系统公司、英特尔、思科等共同演示了直流供电理念,并分析了相关的技术。绿色网格公司对这项实验工作做了详细的分析和评论。对这些实验的精确分析可能有点复杂,因为如上所述,对于究竟多大的直流电压效率最高的问题一直在进行着探索。北美的偏见使这一问题更为复杂。在欧盟,交流电压高,转换为直流的能效损失比美国要小。尽管如此,我们还是建议数据中心的管理者们跟踪了解这些争论的最新进展。这些争论对是否广泛采用直流为基础的可再生能源尤为重要。
        谷歌对供电能源一向很关心。谷歌设备的主板需要不只一种直流电压,能源利用效率很低,所以他们直接要求硬件厂商确保所有供应给主板的元件都只有一种电压。谷歌还根据设备元件在特定时刻的功能动态调整供电,即所谓的动态电压调整,这种技术最先用于移动计算。

    4.1.3.4共享数据中心
        共享数据中心是一种组合技术和服务,一些机构已开始研究如何发挥共享数据中心的潜力。在英国高等教育基金会的支持下,德比大学、萨尔福德大学和谢菲尔德海拉姆大学最近进行了一项关于共享数据中心潜力的研究,而约克郡和亨伯赛德郡城域网则在同系列的可行性研究中调查了虚拟数据中心。对数据中心的研究调查,可以通过商业合作伙伴进行(采用部分或全部的外协模式),也可以在观点类似的组织之间合作进行。但是,必须克服的最大障碍是要让高等教育行业满意。首先,数据保护法和其他一些数据管理案例要求各大学在管理学生的个人敏感数据时要遵循一些规则,这些信息必须保存10年以上。数据中心保存这些信息必须遵循英国的法律。
        共享数据中心的另一个固有的问题是,对业务系统(一个高校机构可能有若干这样的系统)和更多的专家服务,例如研究设备控制和大型计算机管理的意义不见得很大,硬件设施的地方化,则对研究工作更为重要。这类系统一般属于高校机构的物理基础设施,而高校机构必须雇请专家来运行和监控这些设备。

作者简介:

保罗•安德森,技术作家,英国联合信息系统委员会技术观察报告技术编辑。他毕业于利兹大学计算机科学专业,在学术界和产业界从事计算技术工作20多年。2007年获英国工程与物理科学研究委员会的年度计算机科学作家奖。
盖纳•巴克豪斯,英国联合信息系统委员会技术观察报告项目经理。她委托和参与了《技术的未来》报告的撰写。她还从事技术工作,2002年以“新的电子出版系统设计”项目获创新奖。2005年,她与保罗 安德森共同撰写了绿党大选宣言。
丹尼尔•柯蒂斯,牛津大学环境变化研究所能源保护高级研究员,英国联合信息系统委员会资助的低碳ICT项目的评估主管,该项目的目标是减少大学ICT基础设施运行造成的碳脚印。他的技术背景是能源保护,尤其熟悉能效和可再生能源技术。他在若干国家和国际组织,包括威尔士的替代技术中心和巴黎的国际能源署,参与过许多能源项目。
西蒙•雷丁,环境署创新顾问,可持续ICT发展的政府代表和国际专业组代表。
大卫•沃鲁姆,牛津大学电子研究中心技术经理,参与过许多技术基础设施建设项目,包括大学广域计算网格建设。他是英国联合信息系统委员会资助的低碳ICT项目技术设计师,该项目的目标是促进现有ICT资源的有效利用。现任英国电子科学工程任务组组长。
译者简介:
张进京,国家信息中心,高级工程师。

中国期刊界http://www.jiaoyu85.com/index.php

联系电话:029--85327298       投稿信箱:qikan85@163.com
编辑QQ651891680                直投杂志社QQ416480082

最新评论
发表评论
评论标题
评论内容
图片上传
表情图标

 
李 彬 以司法行政改革 
冯志军 戚叶雯 张  
魏明英 避税与反避税探 
靳利华 中俄毗邻区域生 
卿 红 基于宪法思维的 


覃俊丽 公益助学类社会 
蒲一帆 讲好中国扶贫故 
吴化杰 张瑞敏 “后扶 
周荣 昆明市巩固提升脱 
崔国鹏 三大行动背景下 
杂志简介 稿件要求 汇款方式 联系方式

CopyRight (C)2005-2015 Www.xinxi86.Com  All Rights Reserved..  陕ICP备15009280号
所有论文资料均源于网上的共享资源及期刊共享,请特别注意勿做其他非法用途
如有侵犯您论文的版权或其他有损您利益的行为,请联系指出,论文网在线会立即进行改正或删除有关内容