【IDCC2019】对话:液冷数据中心的未来
|
到2011年开发下一代计算机,服务器部门提出来我们要重新设计,要更加高的设备密度,单机柜可能达到45千瓦。后来我跟老板摊牌,我说你要么换介质,要么换人,我干不了。我们讲科学,空气到一定程度以后,物理特性的极限就到了。所以到2011年之后我们就开始转入服务器液冷的研究,到2014年开发了冷板式的单机柜可以到45千瓦的服务器。到今年我们刚刚部署完的单机柜160千瓦的制冷需求的服务器。我们看到未来计算机能力的发展,一个是基于CPU计算能力的发展,一个是连接更多的计算节点,但是有一个前提是瓶颈,是网络的瓶颈,所以要求我们计算节点之间,十年前的那台计算机占据了会场这么大的一个房间,现在的计算机还是这么大,因为通讯已经成为瓶颈。意味着我们只能往一起堆,现在一个主板是八个GPU,GPU比CPU的功耗还要大,不远的未来,下一代会到300千瓦一个机柜,300千瓦机柜可能是液冷的极限。 我只谈我们超算领域,超算领域我能看到的未来,可能在3年之内达到300千瓦。我也很高兴在超算领域的先进技术能够应用到IDC领域,谢谢大家。 王晨:液冷时代现在确实是已经到来,但是从长期来说,应该还是风冷和液冷共同存在的场面会维持比较长的时间,这是我个人的看法。谢谢。 王建新:阿里上午也讲了,主要是浸没式,汪总这边用的是风冷式,刚才沈总讲了,在超算行业也是践行了液冷好多年了。我想问一下,如果我们扩展来看,IDC行业、超算行业,还有上午讲到边缘计算、移动计算,不同的行业对未来的计算量的产生都可能会用到液冷,陆海空三种不同的行业怎么适配的?或者哪种方式适合哪种行业?喷淋式适合哪个行业? 汪斌强:规模不大的时候我觉得用哪种技术都可以,但是规模大了以后就要看在实际应用中出现一些什么问题,怎么解决,冷板最早用的就是超算,因为超算的核心计算芯片集中热量要把它散出去,用冷板更简洁方便。现在各个领域应用的规模都不大,基本上都是在探索、摸索阶段。比如就我们这个公司的喷淋,目前在四个领域都在做。一个是数据中心,再就是边缘计算,再就是超算,还有一个是5G的基站,这四个领域都在做。数据中心我们公司做得早一点,大概2016年就开始做了,目前规模最大的就是40个机架,上百个机架,现在在深圳那边有几家跟腾讯、中兴合作通过了能评,大概有400、200个机架,但是还没有建设。前面的测试就是50个机架以下,有20个机架、40个机架,也有十几个机架的。用的时间最长的就是在上海复旦大学有一个安全实验数据场,这里用了16个机架,已经用了一年半,但是在用的过程中有出现了一些问题,在工程中不断优化和解决。 (编辑:网站开发网_盐城站长网 ) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |

