大规模的并行计算几乎可以看成是下一个十年将出现一个全新计算机架构的“寒武纪”大爆发,在那个时候,学术界和工业界计算机架构师将迎来一个激动人心的时代。
并行计算是一切高性能计算,也是AI算力指数级爆发的基础。AI、L、量子计算、生物计算等等前沿技术应用,都依靠并行计算做支撑。
并行计算现在已经处在一个全新的时代。207年获得图灵奖的计算机体系结构大师Hennessey和Pattersn指出,无论是在指令级处理的技术还是多核处理技术,通用处理器固有的低效率和缩放比定律、摩尔定律的终结,使得处理器架构师和设计者已经不太可能在通用的处理器上再保持显著的性能改进。“计算机体系结构的改进、创新必须和并行算法、并行软件的改进创新同步进行,越是高层的改进得到的性能和效率的提高越大。不管是突破摩尔定律还是冯诺依曼瓶颈,都必须跨层次进行。”
而在疫情防控过程中,李院士所带领的团队在大规模并行计算方面为抗疫救灾做出了重大的贡献。
****突发,高性能计算、人工智能等先进计算技术的应用在病毒研究及疫情防控中发挥了重要作用。随着近期“新基建”大潮的助推,未来几十年并行计算将真正迎来“黄金时代”。
因为疫苗与抗病毒新药研制涉及复杂的数学模型,必须借助数值方法应用并行计算求解,并行处理技术将在对抗病毒中发挥不可替代的作用。
同样的还有分子动力学模拟,对于这种运算力和运算性能具有庞大要求的模拟运算,并行计算模式几乎是为他量身打造的。
但是非常遗憾,在这一方面的研究,大家还是做的太少。原因非常多,其中两个最重要的就是:
一个是目前用超级计算机来进行分子动力学模拟效果并不是特别好,实验结果并不准确,有这功夫,还不如去做实验探究来的精确,数据更具有价值;
第二个就是模拟的时间太短了,比如说你用超级计算机算了一个月,才能够模拟出他碰撞的一秒,这可真是太尴尬了…要知道用超算来进行模拟运算并不便宜,那他这一次来举例,虽然两个人都不差钱儿,但是就那么短短的三次实验,就烧掉了两百多万美元,还什么都没有做出来。
你要说做实验的话,就算是他烧了,还能剩下一点儿灰呢,但是这个模拟运算过程中出现故障以后,计算机中残存的那些数据基本上没有太大的价值。
所以李院士虽然是这方面的专家,但是现实中并没有太多的机会来给他大展拳脚。一个院士所能够得到的支持还是太少了,最起码相较于大卫肖,还有王峰这种自己又非常非常有钱而且还有人脉的人,它能够得到的资源支持就不够看了。
但是这显然已经是过去式了,再有了王峰的财力支持之后,再加上大卫肖的技术团队现有的技术资料,以及海思这样的专业半导体设计团队的鼎力支持,老李就没有打过这么富裕的仗了!