作者 / 速途网 乔志斌
如果你看到一台服务器,主板和电路一半都浸没在“水”里,并“咕噜咕噜”地冒着气泡,那么这台服务器不一定就意味着报废了,还有可能是阿里云的浸没式液冷服务器。
这种“浸没式液冷散热技术”,是将所有IT设备浸没在绝缘、无腐蚀性的冷却液中,通过液体与元件直接接触带走热量,再将冷却液流出在CDU(冷液分配单元)中进行热交换,实现散热的效果。
据介绍,这种散热方式其最大的优势便是“高效”,由于冷却液与设备直接接触,热传导效率要比传统风冷高近百倍,节能超过70%。 在1月6日的发布会上,阿里巴巴正式宣布将“浸没式液冷数据中心技术规范”向全社会开放。这项规范旨在用一套标准流程为下一代绿色基地型数据中心的建设提供设计依据,通过液冷技术的普及,降低全社会的能耗水平。
会后,速途网采访到了阿里巴巴基础设施的首席架构师以及IDC研发总经理高山渊,以及阿里巴巴资深技术专家钟扬帆。采访中,两位大咖分享了研发进模式液冷的创新意义,并展望了这项技术的前景。
液冷散热,节能更稳定
图:阿里巴巴基础设施的首席架构师以及IDC研发总经理高山渊(左)、阿里巴巴资深技术专家钟扬帆(右)
说到云技术,人们通常想到的是软件方面的创新,而硬件方面的创新则谈论较少,实际上,软件架构的创新决定了算法的先进程度,而硬件上的创新则决定了数据中心算力以及服务稳定性,两者在发展过程中相辅相成。而浸没式液冷技术,恰恰就是用来解决服务器可靠性、运维等方面的效率。
说到浸没式液冷的技术优势,除了热转化率高之外,还具备节能、高密度、稳定性等方面的优势。
在节能方面,高山渊透露了一组数字,ODCC报告显示,传统的风冷数据中心整个能效平均在1.6左右,而利用浸没式液冷则可以接近1。如果以2018年中国整个数据中心的用电量1609亿度计算,占全社会用电量2.35%,超过了上海市全社会的用电量,如果全部用液冷替代话我们可以降低到968亿度,结合中国整个数据中心每年巨大的增长量,节能效果非常显著。
在密度方面,传统风冷对空间部署管理方面浪费严重,而采用浸没式液冷轻松的实现60千瓦,甚至120千瓦的设计,让我们整个系统会做的非常非常的优化。
稳定性方面,传统风冷最大的噪音是风的流动,就是风扇带来的噪音,另外一个原因是振动,振动导致所有的机械元器件很大的失调率,包括其他的灰尘静电等等因素都会影响电子元器件的稳定性和寿命。而阿里巴巴在采用浸没式液冷的一年半运行中,实现了超过50%的稳定性的提升,故障率下降了50%。
开放标准,云基建创新造福行业
2019年以来,阿里巴巴在IT基础设施的自主研发和技术创新投入不断加大,除了液冷技术外,还自主研发了400G光模块、存储部件、智能供电技术等创新产品。
高山渊介绍称,硬件产业非常强调“规范”,所有的规范能够相互兼容之后,才能够把各个业界不同的技术集成在一个产品里面。
然而因为硬件有很巨大的投资成本,技术门槛比较高。而硬件开放,则是通过开放的方式,将投入换来的技术标准也好,技术的know-how,踩过的这些雷也好,让大家都知道,然后大家贡献出来,推动行业发展,而不是成为沉没成本。
近两年,软件开源相对来说比较成熟,而硬件开源来说则是方兴未艾,正在成为行业巨大发展趋势。所以,阿里巴巴希望从这个角度出发,通过开放标准的方法,形成行业共同的规范,让合作伙伴可以发挥自己的技术优势来完成项目。
面向未来,既要做大、也要做小
在采访中,速途网了解到,浸没式液冷散热技术的开放,不仅要做大,还要做小。
要做“大”,指的是推广。通过将技术开放给业界,通过群策群力能够一起把技术做得更成熟,然后整个业界能够更大规模去部署,然后让整个社会享受到科技普惠的力量。
而做“小”,指的是让液冷技术“小型化”。钟扬帆向速途网表示,在小规模场景由于可能缺乏专业的维护团队,对稳定性需求更高,同时,由于场地往往是受限的,所以凭借小型化、高密度等优势,液冷都是非常有竞争力的。
但小型化同样具有挑战,高山渊表示,例如边缘计算场景,很多时候对环境的要求是比较苛刻的,在一些户外、厂房等比较恶劣的环境下,会在技术上面临比较大的挑战。
高山渊还透露,阿里巴巴已经针对小规模应用,开展了相关的研发研发项目,最快今年就会有DEMO产品问世。
人们常说“万事开头难”,无论对于技术而言,最大的挑战之一,便是谁能够走出第一步,让技术走出实验室,让产业慢慢成熟起来。相信随着液冷服务器规范的开放,会有更多液冷厂商都可以按照这个标准完善、研发、生产相关产品,未来3-5年中实现从风冷到液冷的技术升级,带领我国IT基础设施再上一层楼。