用户登录

你在这里

2021年11月杂志俱乐部:原子模拟的机器学习潜力

魏高的照片

魏高

德州大学圣安东尼奥分校机械工程系

在这个期刊俱乐部中,我们简要总结了机器学习(ML)在原子材料建模方面的概念、最新进展和工具。我们希望它能对这个领域的新手和计划开发自己或利用他人ML潜力的读者有益。欢迎提出意见和讨论。

1.机器学习(ML)潜力的上升

原子模拟已经成为力学家用自下而上的方法研究材料力学行为的重要工具。万博体育平台在模拟中,描述原子间相互作用的原子间势决定了模拟结果的保真度。经典原子间势的主要缺点是受限于固定的函数形式和较少的拟合参数。因此,它们可能无法提供可靠的预测,例如,在高应力、大变形或接近失效的力学问题中。相比之下,机器学习电位不依赖于物理功能形式(因此更加灵活),而是必须从训练数据集中学习能量表面的物理形状。因此,如果训练数据集(通常来自第一性原理计算)涵盖足够的物理,那么训练良好的ML潜力能够提供与第一性原理结果相当的准确预测。到目前为止,我们已经看到了许多为各种材料系统开发ML势的成功例子,例如[1-4]。

在以计算为导向的材料设计方案下,结合大数据的发展(如材料项目),通过快速准确地识别具有感兴趣特性的材料系统,ML潜力在加速新材料的发现方面发挥着重要作用。例如,最近的一项研究表明,两种新型超不可压缩硬材料MoWC2和ReWB(从399,960个过渡金属硼化物和碳化物的筛选中)被鉴定出来,并通过实验成功合成[5]。在另一个例子中,作者筛选了132600个具有ThCr2Si2原型晶体结构元素修饰的化合物,共鉴定出97个新的独特稳定化合物,将高通量搜索的计算时间提高了130倍[6]。

2.ML电位的类型

ML电位大致可分为两类:(1)基于描述符的ML潜力,其中描述符(也称为“指纹”)用于描述系统中原子的环境,该环境需要满足必要的旋转,平移和排列不变性以及唯一性[7],以及(2)。端到端ML电位,它不需要固定的描述符,而是直接从原子类型和位置学习原子环境。尽管端到端机器学习潜力利用了最新和先进的特征学习人工智能技术,但仍然没有证据表明端到端机器学习潜力在预测准确性方面优于基于描述符的机器学习潜力。

3.基于描述符的ML势

基于描述符的机器学习势可以根据不同类型的描述符和不同类型的机器学习模型进行分类。我们首先对基于描述符的电位的工作原理进行了初步解释,如图1所示,使用神经网络作为示例性ML模型。考虑一个包含3个原子的单元素系统。选择一个描述符将每个原子的坐标映射到包含4个分量的特征向量(Gij).然后,将这些向量作为同一神经网络的输入,该神经网络由2个完全连接的致密层(每个层有5个神经元)组成,最后是一个线性层。神经网络可以看作是一个由权重矩阵和偏置向量(在训练过程中进行优化)参数化的高维函数。图1中的方程展示了神经网络内部的数学过程,其中W1、W2、W3为每一层的权值矩阵,b1、b2、b3为相应的偏置f为密层激活函数。神经网络的直接输出是原子的势能。此外,原子力可以通过使用描述符的梯度来计算(必须在训练之前生成)。神经网络可以通过最小化损失函数(例如平均误差)来训练,损失函数可以通过使用总势能、原子力和应力来测量。一旦神经网络被训练,它可以用来预测每个原子的能量和力以及一个新的原子系统的应力,这个系统可能有不同数量的原子,但必须用相同类型的描述符编码。

NNP

图1.具有3个原子的单元素系统的基于描述符的神经网络电位图。

图1所示的机器学习电位框架可以通过使用不同类型的描述符和不同的机器学习模型进行定制,从而产生许多不同类型的基于描述符的机器学习电位。具有代表性的有:(1)贝勒和帕里内洛神经网络的潜力(NNP)[8,9]:采用原子中心对称函数(ACSF)作为描述符,高维神经网络作为ML模型,其中ACSF通过径向和角向分布函数的组合来描述原子局部环境;(2)高斯近似势[10]:它使用原子位置平滑重叠(SOAP)作为描述符,高斯过程回归作为ML模型,其中SOAP是局部原子密度的函数展开;(3)光谱邻域分析电位(SNAP)[11],它采用双谱分量(局部原子密度的另一种函数展开)作为描述符,并使用线性回归模型对数据进行拟合。(4)矩张量势(MTP)[12]:它使用旋转协变张量来描述原子局部环境以及线性回归模型,其中张量可以被视为一系列径向和分布函数,如ACSF。显然,机器学习潜能的性能取决于描述符和机器学习模型的选择。最近的一项研究[13]比较了基于描述符的机器学习电位在一系列晶体结构上的性能,如图2所示“最优”的MTP、NNP和SNAP模型的计算成本往往比“最优”的GAP模型低2个数量级,更好的精度只能以更高的计算成本为代价。最后,在这些方法中没有绝对的赢家。混合描述符和ML模型可以提高性能,尽管我们还没有看到这样的研究。

比较

图2.几种基于描述符的机器学习电位在一系列晶体结构上的性能比较[13]。

4.端到端基于图的ML电位

端到端的机器学习电位都是基于用图来描述原子系统的概念,其中机器学习网络的拓扑是基于原子结构的拓扑。端到端机器学习潜力的早期开发(从2015年到2017年)主要集中在分子上。2017年,一群谷歌研究科学家对文献中现有的端到端基于图的电位之间的共性进行了抽象消息传递神经网络(MPNNs)框架[14],其中在原子和键上定义特征向量,原子和键分别表示为节点和边。消息只是作用于特征向量的函数。该消息函数在节点间迭代传递,以学习原子系统的图结构并更新特征向量。这种迭代过程与卷积神经网络中的迭代过程类似,所以可以称之为卷积。值得注意的是,使用不同的消息函数可以导致各种基于图的ML潜力。最近,升级的方法已应用于固态材料。在这里,我们介绍三个有代表性的。(1)晶体图卷积神经网络(CGCNN)[15],可以看作是具有特殊消息功能的mpnn的一种特例。图3显示了晶体图的原理图,其中原子和键成为节点和边缘。该神经网络由两部分组成:第一部分,通过传递消息的R卷积学习特征向量,然后通过L1全连通密集层学习特征向量;在第二部分中,将特征向量汇集成单个特征向量,然后传递到另一个L2全连接致密层进行计算输出。显然,与图1所示的神经网络相比,特征学习是独特的部分。(2)SchNet[16],它是一种基于连续滤波卷积的深度神经网络架构。连续滤波器,作为经典滤波器的一代,用于处理均匀间隔的数据,如图像像素,被引入处理不均匀间隔的数据(原子位置)。(3)材料图网络(MEGNet)[17],它是基于最近的图网络的,可以看作是以前的基于图的神经网络的超集。MEGNet的一个独特之处在于,它将全局状态变量(如温度)纳入训练中,以便直接预测与状态相关的属性,如自由能。注意到SchNet和MEGNet可以应用于分子和固态材料。

CGCNN

图3晶体图卷积神经网络示意图[15]。(a)图的构造。(b)神经网络的结构,包括特征学习层(R卷积层和L1隐藏层)和计算输出层(L2隐藏层和输出层)。

5.ML势的工具

近年来,随着基于描述符和端到端ML潜力的各种新的ML方法的开发,已经开发了许多现成的开源包。即使对于同一类型的方法,也开发了不同的工具来实现某些特殊需求。在这里,我们将介绍几个文档完备且维护良好的工具,这些工具已连接到完善的原子模拟包(如LAMMPS和ASE)。(1)n2p2:它是一个用c++编写的基于Behler-Parinello神经网络电位的包。它可以用来训练具有势能和原子力的电位,并为LAMMPS提供接口。这个工具编码了机器学习潜能的所有方面,包括特征生成、神经网络训练和预测。这使得它对那些可以简单地将其视为黑盒的用户友好。然而,增加一些新特征也更具挑战性,比如将压力作为训练变量之一。(2)差距:一个用Python接口包装的Fortune包,由在第3节中介绍的提出GAP方法的作者开发。它在QUIP程序中运行,QUIP程序是LAMMSP中的一个插件包,因此GAP通过QUIP连接到LAMMPS。此外,它还与ASE连接。(3)SchNetPack一个基于python的包,包含第3节中介绍的端到端ML潜在的SchNet,其中ML模型是通过Pytorch实现的。封装连接到ASE,但不连接到LAMMPS。(4)KLIFF最近为促进整个原子间潜能开发过程而开发的一个包。该包可用于拟合传统的经验电位以及Behler-Parinello类型的神经网络电位(用PyTorch实现)。它与在同一组中维护的KIM包集成在一起,能够与包括LAMMPS和ASE在内的许多材料模拟包进行通信。(5)AtomDNN:我们小组最近开发了一个包,用于训练基于Behler-Parinello类型的神经网络电位,其中我们使用LAMMPS作为计算器来生成描述符并使用tf。模块,以训练势能与能量,力和应力。训练电位使用Tensorflow C api与LAMMPS集成,这些api直接与LAMMPS一起编译。代码是用户友好的,可以很容易地定制,以实现特殊需求。

6.总结与展望

机器学习电位已经证明了它们对原子模拟的重要性,以及通过有效的性质预测来设计新材料。随着新的人工智能技术的发展,该领域,特别是端到端基于图形的潜力,仍处于快速发展之中。对于力学万博体育平台家来说,机器学习电位提供了一种新的方法来训练含有丰富力学信息的有意义数据集的电位,从而可以在原子尺度上高保真地研究目标力学问题。机器学习也被应用于许多其他细观和连续尺度的力学问题,以改进现有的力学或材料模型或从数据中学习新的模型。将来有可能利用来自多个尺度的数据来训练有意义的多尺度材料模型,这些模型可以预测基于原子和中观尺度结构的综合宏观材料行为。

参考:

[1]王晓明,王晓明,王晓明,等。“机器学习是硅原子间通用的潜力。”物理评论X8.4(2018): 041048。

[2]张晓明,李晓明。“开发石墨烯的机器学习潜力。”物理检查B97.5(2018): 054303。

[3]王晓明,王晓明。“多层石墨烯的混合神经网络潜力。”物理检查B100.19(2019): 195419。

[4]张建军,张建军,张建军,等。冶金机器学习III: Al-Mg-Si的神经网络潜力。物理评论材料5.5(2021): 053805。

[5]左云星,等。arXiv预印本arXiv:2104.10242(2021)

[6]吴哲。“开发一种改进的晶体图卷积神经网络框架,以加速材料的发现。”物理评论材料4.6(2020): 063801。

[7]王晓明,王晓明,王晓明,等。“On代表化学环境。”物理检查B87.18(2013): 184115。

[8]王晓明,王晓明。"高维势能面的广义神经网络表征"物理评论信98.14(2007): 146401。

[9]贝勒,Jörg。"构建高维神经网络电位的原子中心对称函数"化学物理杂志134.7(2011): 074106。

[10]王晓明,王晓明,王晓明,等。高斯近似势:量子力学的准确性,不含电子物理评论信104.13(2010): 136403。

[11]张建军,张建军,张建军。自动生成量子精确原子间势的光谱邻域分析方法计算物理杂志285(2015): 316-330。

[12]王晓明,王晓明。矩张量势:一类系统可改进的原子间势多尺度建模与仿真14.3(2016): 1153-1173。

[13]左云星,等。“机器学习原子间潜能的性能和成本评估。”物理化学学报A124.4(2020): 731-745。

[14]王晓明,王晓明。“传递量子化学的神经信息。”机器学习国际会议.PMLR, 2017年。

[15]谢田。"晶体图卷积神经网络用于准确和可解释的材料特性预测"物理评论信120.14(2018): 145301。

[16]王晓明,李晓明,王晓明。“schnet——分子和材料的深度学习架构。”化学物理杂志148.24(2018): 241722。

[17]陈驰,等。“图形网络是分子和晶体的通用机器学习框架。”材料化学31.9 (2019): 35

附件 大小
形象的图标NNP.png 553.58 KB
形象的图标comparison.jpeg 150.71 KB
形象的图标CGCNN.png 441.73 KB

评论

郑佳的照片

你好,魏,非常感谢你提供这样一个信息丰富的教程。一个简单的问题:对于基于描述符的机器学习电位,我们可以直接使用原子的坐标作为神经网络的输入吗?如果我们必须把坐标转换成描述符作为输入,标准的过程是什么?很多谢谢!

魏高的照片

嗨,郑,

谢谢你的关注!如第5节所列,大多数基于描述符的包只要求原子坐标作为输入,这些输入通过描述符函数(如第3节所列的ACSF、SOAP)在内部转换为描述符。有些包(如n2p2)隐式地运行描述符生成,因此用户不方便(或不可能)看到描述符。在我们的代码(AtomDNN)中,我们通过定制的LAMMPS compute命令(可以找到)来计算描述符(目前支持ACSF和SOAP)在这里与一个例子),并使描述符生成通过定义良好的数据管道.通过这种方式,可以在不训练网络的情况下计算描述符。还有其他工具,例如DScribe,它仅用于计算多种类型的描述符。然而,我们发现它在计算描述符的导数时很慢(这是计算原子力和应力所需要的)。对于SOAP描述符,您还可以使用妙语直接得到描述符。

黄睿的照片

亲爱的魏,

感谢你对机器学习潜力的精彩总结。我喜欢读这本书,了解最新的技术。我想问两个问题:

(1)如何训练机器学习模型?正如你提到的,机器学习潜能的性能取决于描述符和机器学习模型的选择。另外,我认为这也取决于训练和训练使用的数据。你能详细说明训练机器学习模型的步骤吗?

(2)如何使用其中一个机器学习工具(第5节)作为原子模拟的黑盒?我假设这些工具已经以这样或那样的方式进行了训练,因此可以直接用于代替标准经验电位(例如在LAMMPS中)。就这么简单吗?

再次,我对你在这一领域所做的工作印象深刻,并祝贺你最近获得了CAREER奖!

鲁伊

魏高的照片

亲爱的瑞,

非常感谢你的友好和鼓励的话。回答你的问题:

(1)你提出了一个重要的观点:ML潜力的性能高度依赖于训练数据。只有涵盖基本物理兴趣的高质量数据才能产生可靠的ML潜力。因此,开发ML潜力从数据生成开始,通常使用DFT计算。首先,必须精心制备各种原子结构。例如,原子结构可以来自基于完美晶体结构的原子位置和晶格常数的随机扰动。此外,典型的缺陷结构可以被构建到数据中。最近,我们还利用从微推弹性带和二聚体计算中得到的原子结构来为数据提供相变信息,从而更好地对势能面进行采样。如今,越来越多的研究人员公开分享材料数据集,这样人们就可以重复使用这些已经可用的数据集,并在需要时用特定的物理兴趣来丰富它们。在原子结构确定之后,只需要运行DFT计算来获得将用于训练的兴趣的输出,例如能量、力和应力。

ML模型的输入是精心准备的原子结构。当使用基于描述符的方法时,这些结构被转换为描述符。这种转换可以在第5节中描述的包中自动完成,而不会受到干扰。ML模型的输出取决于应用程序。大多数时候,势能、原子力和应力作为输出。ML模型(例如神经网络)可以使用一些机器学习平台(如Tensorflow和Pytorch)方便地构建,这些平台提供了用于训练模型的库函数。当损失稳定在一个误差范围内时,为了获得良好的收敛性,可以对许多超参数进行调整。训练完成后,机器学习模型可以保存为机器学习电位,以后可以像经典电位一样使用。

(2)第5节中描述的工具可以用作黑盒,产物(ML势)可以直接用于MD或MS模拟。除了Schnet之外,这些工具都可以连接到LAMMPS并像经典电位一样使用。

亲爱的魏,

感谢你提供了一本内容丰富的杂志。

虽然我在机器学习领域已经有一段时间了,但当涉及到这个特定领域(机器学习原子模拟的潜力)时,我绝对是一个新手。事实上,这个杂志俱乐部版是我第一次接触这个研究领域. ...看起来最近在这个领域确实有很多活动,人们似乎也用很多创造力来解决问题。总之,非常令人印象深刻!即使你把其他的东西放在一边,像“将高吞吐量搜索的计算时间加快130倍”这样的事情也会让人印象深刻!]

好了,现在,请允许我问几个新手问题……

这些方法如何适用于涉及极化的系统/现象?在这个方向上有什么工作或显著的成果吗?

高吞吐量搜索的增益究竟是如何产生的?…如果我理解正确的话,这些势就会被整合到像LAMMPS这样的MD /原子封装中,对吧?因此,简单地说,运行时的计算复杂度也应该或多或少保持不变,对吧?如果是这样,怎么会还有收益呢?

最好的

——特

魏高的照片

嗨特,

谢谢你的兴趣和问题。对于你的第一个问题,是的,极化效应可以用ML电位来描述,只要这个电位是用电荷的信息训练的。最近有一项研究(Nature communications 12.1(2021): 1-11)专门针对这类问题。你的第二个问题是关于机器学习潜力的获得。与经典电位相比,ML电位的主要优点是它们可以更准确,尽管它们通常仍然比经典电位慢。

魏高

王浩然的照片

亲爱的魏,

感谢您总结了MD模拟中ML潜力的最新发展。我不是在这个领域工作。你的评论满足了我的好奇心。

我有两个问题要问。

(1)在MD模拟中,一些原子间电位可以捕获键的断裂/形成,如Reaxff;有些潜力无法做到这一点。你提到机器学习电位是从DFT中学习的。那么,现有的ML电位是否能够捕获键断裂/形成?有没有成功的例子?

(2)您提到端到端基于图的机器学习电位的早期开发主要集中在分子上。这是否意味着e端到端基于图的机器学习电位是聚合物系统的更好选择?

谢谢,

Haoran

魏高的照片

亲爱的Haoran,

谢谢你的兴趣和问题。

(1)与那些反应电位一样,不需要在用DFT数据训练的ML电位中定义固定键,因此ML电位能够捕获键断裂/形成。有一些很好的例子,如文中列出的参考文献[1-4]。

(2)分子可以更方便地用图来描述,因此首先用端到端的ML势来研究分子。然而,基于描述符的ML电位也被用于分子。潜力的表现不仅取决于机器学习模型,还取决于许多其他因素,如数据集的质量,描述符的选择(或特征学习的质量),以及训练和验证过程的严谨性。因此,在预测精度方面,我没有看到基于描述符和端到端ML潜力之间的严格比较。如果有人希望机器尽可能多地从数据中学习(也许比人类设计的描述符更好),那么端到端模型就会胜出。随着人工智能技术的快速发展,这种动机正在推动新方法的发展。然而,目前,基于描述符的机器学习电位更好地连接到大型模拟器,如LAMMPS,所以如果最终目标是大规模MD模拟,那么从基于描述符的电位开始可能是一个不错的选择。

最好的

魏高

英丽的照片

你好,

非常感谢这个及时的话题和领导伟大的讨论。

除了你的总结,还有一些相关的工作可能会有用:

1) ML潜在工具,如DeepMD是另一个优秀的包,链接到LAMMPS使用。DeepMD包可以重现最近水分子的温度-压力相图PRL纸对于极端环境下的许多力学问题来说,这是一个有趣的演示。它也赢了2020年ACM戈登·贝尔奖

2)由于我们希望避免机械变形过程中的非物理相互作用(能量,力或应力),因此物理信息的ML势可能特别有用。想象我们只训练机器学习潜在的从平衡条件,它不能用于大变形模拟:)最近用于材料原子建模的物理信息人工神经网络可以很好地解决这个问题,为ML潜力开辟了另一条适用于大变形、断裂等的途径。

3) ML势不仅适用于全原子分子模拟,也适用于粗粒度分子模拟。当基于DFT数据训练机器学习电位时,它可以再现量子精度,具有典型的全原子分子模拟的效率。类似地,ML粗粒度模型可以存档全原子精度,而计算成本要低得多。它将为我们用更少的计算时间来模拟许多大型力学问题打开另一扇门。我们最近有一篇关于这个话题的评论文章,有机分子和聚合物粗粒度模型的机器学习:进展、机遇和挑战

再一次,这只是我的个人意见。

我期待着你在这个领域的精彩作品和更多的讨论:)

最好的,应

魏高的照片

亲爱的英,

感谢您的宝贵意见!正如你所提到的,DeepMD当然是另一个有用的工具。PINN也是一个有趣的方向,我认为它是经典经验势和ML势的结合。感谢您分享您关于CG系统的ML潜力的评论文章。

最好的

订阅“2021年11月期刊俱乐部:原子模拟的机器学习潜力”评论

最近的评论

更多的评论

辛迪加

认购辛迪加