显式有限元-神经网络框架及神经网络预测应力误差分析

显式有限元-神经网络框架及神经网络预测应力误差分析的图1


论文链接:

https://link.springer.com/article/10.1007/s11440-023-01980-8

在隐式有限元求解器中,如果采用牛顿迭代求解非线性问题,在每一个积分点上都需要精确计算材料切线矩阵。如果采用神经网络搭建的本构模型,神经网络在精确评估当前材料切线矩阵不够精确时候,非线性迭代可能会出现不收敛现象。

有学者尝试过,采用自动微分计算材料矩阵

显式有限元-神经网络框架及神经网络预测应力误差分析的图2

但是,神经网络只是在应力应变数据对上进行训练,预测一阶倒数的效果并不好。可以参考Czarnecki, W. M., Osindero, S., Jaderberg, M., Swirszcz, G., & Pascanu, R. (2017)的图3(如下所示),即使加入了在训练中加入了一阶导数,模型的在一阶导数的预测上与真实值仍然有一定差距。

显式有限元-神经网络框架及神经网络预测应力误差分析的图3
显式有限元-神经网络框架及神经网络预测应力误差分析的图4

因此,我们将基于神经网络的本构模型与显式有限元求解器,以绕过对切向矩阵的需求。显式有限元求解的控制方程:

显式有限元-神经网络框架及神经网络预测应力误差分析的图5
显式有限元-神经网络框架及神经网络预测应力误差分析的图6

通过计算更新加速度,基于时间积分,更新节点位移即可。

这项工作展示了从双轴、挡土墙和刚性条形基脚模拟中提取的宏观结果和高斯点应力-应变曲线。

首先,将神经网络在IME模型(Isotropic elastic, von-Mises yield surface and Exponential hardening)模拟得到的数据集上训练。然后将神经网络嵌入到显式FEM中计算,下图展示神经网络重现IME模型的模拟结果。神经网络能够完全重现IME模型的模拟结果。

显式有限元-神经网络框架及神经网络预测应力误差分析的图7
显式有限元-神经网络框架及神经网络预测应力误差分析的图8

然后神经网络在CSUH(Critical State Unified Hardening)模型Yao, Y. P., Liu, L., Luo, T., Tian, Y., & Zhang, J. M. (2019)模拟得到的数据集上进行训练。神经网络初步训练后嵌入到FEM计算中,模拟结果如下图所示。模型在初始阶段计算良好。在加载的最后阶段,即将进入临界状态的时候,由于预测误差累计,模拟结果产生偏差。右边的剪应变云图的剪切区也有细微的误差。在有限元计算中嵌入的基于神经网络的模型几乎能够在宏观层面上重现本构模型计算结果。

显式有限元-神经网络框架及神经网络预测应力误差分析的图9
显式有限元-神经网络框架及神经网络预测应力误差分析的图10

进一步检查积分点上的应力应变,如下图所示。模型在初始阶段预测结果较好,但是随着加载的进行,误差逐渐增大,FEM-NN计算结果与CSUH模型计算结果偏差逐渐增大。

显式有限元-神经网络框架及神经网络预测应力误差分析的图11
显式有限元-神经网络框架及神经网络预测应力误差分析的图12

随后,提出了一种检查-修正的方法,通过增加训练数据集覆盖的空间提高神经网络预测的泛化能力,迭代优化基于网络的有限元计算。

显式有限元-神经网络框架及神经网络预测应力误差分析的图13
显式有限元-神经网络框架及神经网络预测应力误差分析的图14

下图展示了神经网络采用检查-修正方法优化效果。初次训练后(NN 0),FEM-NN的计算结果较差。优化到第三次的时候,神经网络模型开始能够展示基础的剪切贯穿破坏。优化到第12次之后,计算结果逐渐收敛。

显式有限元-神经网络框架及神经网络预测应力误差分析的图15
显式有限元-神经网络框架及神经网络预测应力误差分析的图16

最后,我们检查了神经网络嵌入到FEM后,积分点上的预测误差的出现和传播的过程,如下图所示。在双轴压缩模拟中,右下角的误差出现后处于波动的状态,没有急剧增长。但是在挡土墙和条形基础的模拟中,误差出现后逐渐累计并且扩散。误差值越来越大,并且误差逐渐传播到其他邻近积分点上。这种误差的累积和扩散极有可能导致输入超出神经网络本构的训练范围,最终导致计算失败。积分点的最佳预测并不能保证基于神经网络的计算取得成功,但最差的预测会导致计算失效。

显式有限元-神经网络框架及神经网络预测应力误差分析的图17
显式有限元-神经网络框架及神经网络预测应力误差分析的图18

THE

END

文章来源: WHU高坝结构课题组

默认 最新
当前暂无评论,小编等你评论哦!
点赞 评论 收藏
关注