一种残膜回收机防缠绕挑膜装置的制 一种秧草收获机用电力驱动行走机构

二维结构的问题无关机器学习拓扑优化方法、介质及产品

2022-11-30 13:42:14 来源:中国专利 TAG:


1.本发明涉及结构力学技术领域,特别涉及一种二维结构的问题无关机器学习拓扑优化方法、介质及产品。


背景技术:

2.在进行连续体产品设计时,拓扑优化方法可以帮助工程师设计创新结构和产品,并已在各种工业领域得到了大量成功应用。然而,众所周知,求解一个拓扑优化问题往往需要巨大的计算量。特别是对于大规模的三维实体问题的优化,由于“维度灾难”的存在,其计算量是难以承受的。因此如何减少拓扑优化中的计算量,一直是该领域内的热门研究方向。
3.随着人工智能(ai)和机器学习(ml)的快速发展,近年来,人们对利用 ai/ml技术来解决与拓扑优化相关的高计算成本问题产生了极大的兴趣。但是许多研究都集中于在给定的优化参数(如设计领域、边界条件以及外部负载的位置/大小)和最终优化的结构之间建立端到端的关系,以实现所谓的实时拓扑优化。尽管已经取得了令人鼓舞的结果,但当这些方法被应用于解决训练集之外的问题时,仍然缺乏对其性能的系统性研究。此外,由于这些方法旨在构建优化参数和优化结构布局之间的直接映射,必须求解大量的各种类型的拓扑优化问题,以生成训练ml模型所需的样本,因此,存在计算成本过高、缺乏通用性等显著缺点。
4.目前研究设计人员开始关注局部特征,建立了一套从粗网格到细单元的神经网络,实现在粗网格的拓扑优化下,得到更细单元的描述。尽管该方法大幅度提升了优化效率,但仍然存在一些值得进一步解决的挑战性问题:
5.首先,在该方法中构建的ml模型并不是完全独立于问题,必须预先求解大量具有特定边界/负载条件的拓扑优化问题(例如,弯曲/扭转主导的问题等),以生成用于训练ml模型的样本,但是目前至少在理论上还无法保证所采用的训练问题对于解决更普遍的拓扑优化问题是否仍有代表性;
6.其次,为了保持所开发的ml模型的计算效率和预测精度之间的平衡,现有的相类似方法中的粗单元的大小不能采取太大的数值(通常为细单元大小的2-3倍),这将不可避免地限制了有限元分析的提升效率。


技术实现要素:

7.针对现有的拓扑优化方法,通用性不强,粗单元的大小不能采取太大的数值,限制了有限元分析的提升效率。
8.针对上述问题,提出一种二维结构的问题无关机器学习拓扑优化方法、介质及产品,通过构建机器学习模型,利用机器学习模型对最耗时的多尺度形函数进行计算,代替了原有扩展多尺度有限元中多尺度形函数复杂的计算,从而充分发挥出了线性边界条件下的扩展多尺度有限元方法的高效性,实现了有限元的分析时间数量级上的降低。
9.一种二维结构的问题无关机器学习拓扑优化方法,包括:
10.步骤100、构建机器学习模型;
11.步骤200、利用所述机器学习模型计算粗单元节点的多尺度形函数值;
12.步骤300、根据所述多尺度形函数值及扩展多尺度有限元模型对二维结构连续体进行拓扑优化;
13.其中,所述步骤200包括:
14.步骤201、将粗单元中的细单元密度分布输入所述机器学习模型,所述机器学习模块利用前馈神经网络对所述粗单元节点的多尺度形函数值进行预测,并输出预测的多尺度形函数值。
15.结合本发明所述的机器学习拓扑优化方法,第一种可能的实施方式中,所述步骤100包括:
16.步骤110、随机生成所述机器学习模型的训练样本;
17.步骤120、计算所述机器学习模型的损失函数;
18.步骤130、利用所述训练样本及损失函数对所述机器学习模型进行训练。
19.结合本发明第一种可能的实施方式,第二种可能的实施方式中,所述步骤 120包括:
20.步骤121、计算多尺度形函数值的预测值与真实输出之间的第一部分均方误差;
21.步骤122、计算由预测的多尺度形函数值计算得到的刚度矩阵与扩展多尺度有限元模型精确计算的刚度矩阵之间的第二部分均方误差;
22.步骤123、利用所述第一部分均方误差、第二部分均方误差获取所述损失函数。
23.结合本发明第二种可能的实施方式,第三种可能的实施方式中,所述步骤 130包括:
24.步骤131、采用tensorflow中的自动微分机制,通过随机梯度算法得到机器学习模型中所述损失函数权系数的导数;
25.步骤132、通过adam优化器更新所述机器学习模型的权系数。
26.结合本发明第三种可能的实施方式,第四种可能的实施方式中,所述步骤 200包括:
27.步骤210、获取大尺度粗单元中的细单元密度分布(ρ1,ρ2,...,ρ
m-1
,ρm);
28.步骤220、将所述细单元密度分布(ρ1,ρ2,...,ρ
m-1
,ρm)输入到所述机器学习模型,获取多尺度形函数值
29.其中,所述多尺度形函数值满足公式(1):
[0030][0031]
其中,n为单个粗单元中细单元的总节点数,所述大尺度粗单元的边界位移为线性分布。
[0032]
结合本发明第四种可能的实施方式,第五种可能的实施方式中,所述步骤 200还包括:
[0033]
步骤230、获取所述细单元密度分布(ρ1,ρ2,...,ρ
m-1
,ρm)的密度平均值ρ;
[0034]
步骤240、若所述的密度平均值ρ满足:
[0035]
小于第一阈值或者大于第二阈值ρ,
[0036]
则用机器学习模型预测相应粗单元的多尺度形函数并计算其刚度矩阵;
[0037]
其中,所述第一阈值大于第二阈值ρ。
[0038]
结合本发明第五种可能的实施方式,第六种可能的实施方式中,所述步骤 300包括:
[0039]
步骤310、利用大尺度粗单元离散整个设计域;
[0040]
步骤320、利用小尺度的细单元离散所述大尺度粗单元,以获取二维结构连续体的整个模型小尺度的网格模型;
[0041]
步骤330、利用所述细单元描述粗单元在小尺度下的各向异性。
[0042]
结合本发明第六种可能的实施方式,第七种可能的实施方式中,所述步骤 300还包括:
[0043]
步骤340、根据能量守恒规则,利用公式(2)计算大尺度粗单元的刚度矩阵ke:
[0044][0045][0046]
其中,kf是第f个细单元的刚度矩阵,m为大尺度粗单元中细单元的总数;
[0047][0048]
je=1,

,4,l
[je]
表示在相应的大尺度粗单元中的第f个细单元的第
je
个局部节点的全局索引号;
[0049]
步骤350、利用所述大尺度粗单元的刚度矩阵ke计算整个模型的整体刚度矩阵;
[0050]
步骤360、利用所述整体刚度矩阵并根据公式(3)计算粗网格节点的位移:
[0051][0052]
其中,e=1,...,ne,ne表示整个设计域中粗单元的总数;
[0053]
步骤370、根据所述粗网格节点的位移,利用公式(4)计算细单元节点位移
[0054][0055]
其中,所述细单元为平面四节点的双线性单元。
[0056]
第二方面,一种计算机可读存储介质,包括指令,当所述指令其在计算机上运行时,使得所述计算机执行如第一方面任意一项所述的方法。
[0057]
第三方面,一种包含指令的计算机程序产品,当其在计算机上运行时,使得所述计算机执行第一方面任意一项所述的方法。
[0058]
实施本发明所述的基于机器学习的问题无关的拓扑优化方法、介质及产品,通过构建机器学习模型,利用机器学习模型对最耗时的多尺度形函数进行计算,代替了原有扩展多尺度有限元中多尺度形函数复杂的计算,从而充分发挥出了线性边界条件下的扩展多尺度有限元方法的高效性,实现了有限元的分析时间数量级上的降低。
附图说明
[0059]
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0060]
图1是本发明中问题无关机器学习拓扑优化方法实施方式第一示意图;
[0061]
图2是本发明中问题无关机器学习拓扑优化方法实施方式第二示意图;
[0062]
图3是本发明中问题无关机器学习拓扑优化方法实施方式第三示意图;
[0063]
图4是本发明中问题无关机器学习拓扑优化方法实施方式第四示意图;
[0064]
图5是本发明中问题无关机器学习拓扑优化方法实施方式第五示意图;
[0065]
图6是本发明中问题无关机器学习拓扑优化方法实施方式第六示意图;
[0066]
图7是本发明中问题无关机器学习拓扑优化方法实施方式第七示意图;
[0067]
图8是本发明中问题无关机器学习拓扑优化方法实施方式第八示意图;
[0068]
图9是本发明中问题无关机器学习拓扑优化方法实施方式中的粗单元与细单元示意图;
[0069]
图10是本发明中问题无关机器学习拓扑优化方法实施方式中的多尺度形函数位移边界条件示意图;
[0070]
图11是本发明中问题无关机器学习拓扑优化方法实施方式中的ml模型中的神经网络示意图;
[0071]
图12是本发明中问题无关机器学习拓扑优化方法实施方式中的实施例1悬臂结构连续体分布示意图;
[0072]
图13是本发明中问题无关机器学习拓扑优化方法实施方式中实施例1悬臂结构连续体优化结果对比示意图;
[0073]
图14是本发明中问题无关机器学习拓扑优化方法实施方式中实施例1悬臂结构连续体拓扑优化时间占比示意图;
[0074]
图15是本发明中问题无关机器学习拓扑优化方法实施方式中实施例2mbb 连续体分布示意图;
[0075]
图16是本发明中问题无关机器学习拓扑优化方法实施方式中实施例2mbb 连续体拓扑优化结果对比示意图;
[0076]
图17是本发明中问题无关机器学习拓扑优化方法实施方式中实施例3mbb 连续体拓扑优化结果示意图;
[0077]
图18是本发明中问题无关机器学习拓扑优化方法实施方式中实施例3mbb 连续体
算法迭代步时间示意图;
具体实施方式
[0078]
下面将结合发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的其他实施例,都属于本发明保护的范围。
[0079]
名称解释
[0080]
ann-emsfem:基于人工神经网络的扩展多尺度有限元
[0081]
ann:人工神经网络
[0082]
mbb:简支梁
[0083]
tensorflow:基于数据流编程的符号数学系统
[0084]
ml:机器学习
[0085]
piml:问题无关的机器学习
[0086]
oc:最优准则法
[0087]
simp:变密度法
[0088]
针对现有的拓扑优化方法,通用性不强,粗单元的大小不能采取太大的数值,限制了有限元分析的提升效率。
[0089]
针对上述问题,提出一种二维结构的问题无关机器学习拓扑优化方法、介质及产品。
[0090]
方法实施方式
[0091]
实施例1
[0092]
一种二维结构的问题无关机器学习拓扑优化方法,如图1,图1是本发明中问题无关机器学习拓扑优化方法实施方式第一示意图;包括:
[0093]
步骤100、构建机器学习模型;步骤200、利用机器学习模型计算粗单元节点的多尺度形函数值;步骤300、根据所述多尺度形函数值及扩展多尺度有限元模型对二维结构连续体进行拓扑优化;步骤200包括:步骤201、将粗单元中的细单元密度分布输入机器学习模型,机器学习模型利用前馈神经网络对粗单元节点的多尺度形函数值进行预测,并输出预测的多尺度形函数值。
[0094]
本实施方式中的基于机器学习的问题无关的拓扑优化方法,主要采用扩展多尺度有限元(emsfem)方法进行有限元分析,并采用机器学习模型来计算相应的大尺度单元的形函数,从而大大减少拓扑优化中有限元的分析计算时间。一旦在线下得到了emsfem框架中的形状函数与大尺度单元中的细单元的密度分布之间的机器学习模型中的神经网络模型。扩展多尺度有限元(emsfem) 中最为耗时的部分,即多尺度形函数的计算,便可直接被训练好的神经网络模型所替代,从而充分发挥出emsfem的高效性,将有限元的分析时间实现数量级上的降低。
[0095]
与现有技术不同的是,本实施方式不再关注结构响应的预测,而是聚焦于有限元分析方法的源头——形函数。这是本实施方式可以适用于任何边值问题的最根本保障。与现有技术相比,本实施方式中的关于机器学习模型中的机器学习方法中的piml技术是真正
独立于问题的,因为它不依赖于任何特定的拓扑优化问题来收集训练样本,只需要将粗单元中材料分布的细单元密度分布信息作为输入。一旦训练完成,所开发的机器学习模型(ml模型)可用于解决由同类型偏微分方程描述的任何类型的拓扑优化问题,而无需任何修改。
[0096]
通过构建机器学习模型,利用机器学习模型对最耗时的多尺度形函数进行计算,代替了原有扩展多尺度有限元中多尺度形函数复杂的计算,从而充分发挥出了线性边界条件下的扩展多尺度有限元方法的高效性,实现了有限元的分析时间数量级上的降低。
[0097]
优选地,如图2,图2是本发明中问题无关机器学习拓扑优化方法实施方式第二示意图;步骤100包括:步骤110、随机生成机器学习模型的训练样本;步骤120、计算机器学习模型的损失函数;步骤130、利用训练样本及损失函数对机器学习模型进行训练。
[0098]
当emsfem应用于拓扑优化时,emsfem的多尺度形函数的计算在每一步迭代中都必须重新计算相应的多尺度形函数,这是因为粗单元的细单元密度分布(材料分布)是随着迭代过程变化的。在这种情况下,即使使用emsfem进行结构分析,也不能有效减少有限元分析的时间。
[0099]
为了解决有限元分析耗时的问题,本实施方式使用线下训练好的ml模型代替了耗时的在线多尺度形函数的计算。在本实施方式中,ml模型的输入是某个粗单元中的细单元密度分布,输出是该粗单元节点的多尺度形函数值,即密度分布,输出是该粗单元节点的多尺度形函数值,即以及
[0100]
根据这些节点形函数的预测值,便可快速地生成粗单元的刚度矩阵,用于 emsfem分析。用于预测多尺度形函数的机器学习模型中的人工神经网络示意图如图11所示,图11是本发明中问题无关机器学习拓扑优化方法实施方式中的ml模型中的神经网络示意图。实际上,它的每一层的激活函数分别被设置为elu函数或tanh函数。由于多尺度形函数必须满足公式2中的等式约束,这就意味着,对于二维情况,中16个取值只有12个是独立的。也即,一旦的值被确定,以及就可由公式2直接计算得到。因此,本实施方式中的ml模型只需将的值设为神经网络的输出,以及将由公式2根据ml模型的预测值计算得到。
[0101]
优选地,如图3,图3是本发明中问题无关机器学习拓扑优化方法实施方式第三示意图;步骤120包括:步骤121、计算多尺度形函数值的预测值与真实输出之间的第一部分均方误差;步骤122、计算由预测的多尺度形函数值计算得到的刚度矩阵与扩展多尺度有限元模型精确计算的刚度矩阵之间的第二部分均方误差;步骤123、利用第一部分均方误差、第二部分均方误差获取损失函数。
[0102]
本实施方式中ml模型并不依赖具体的优化问题,因此用于训练的样本可以随机生成,无需在优化过程中收集样本。在本实施方式中,每个粗单元中的细单元密度都是[0,1]之间的随机数。ml模型的损失函数由两部分组成:一个是多尺度形函数值的预测值和真实输出之间的第一部分均方误差;另一个是由预测的多尺度形函数计算的刚度矩阵和由emsfem精确计算得到的刚度矩阵之间的第二部分均方误差。本实施方式中的损失函数第二部分均方误差可以理解为对输出施加的物理约束,以保证emsfem的粗单元刚度矩阵的准确
性,这直接决定了emsfem获得的位移场的准确性。
[0103]
优选地,如图4,图4是本发明中问题无关机器学习拓扑优化方法实施方式第四示意图;步骤130包括:步骤131、采用tensorflow中的自动微分机制,通过随机梯度算法得到机器学习模型中损失函数权系数的导数;步骤132、通过 adam优化器更新机器学习模型的权系数。
[0104]
在本实施方式的实际训练过程中,采用了tensorflow中的自动微分机制,通过随机梯度算法得到了损失函数关于神经网络中权系数的导数。最后,通过 adam优化器更新相应的权系数。
[0105]
为说明对较大粗单元的有效性,构建了两个深度神经网络实施例,分别预测m=25(5
×
5)和m=100(10
×
10)的多尺度形函数。对于m=100的深度神经网络,该网络的中间层共有11层,其中激活函数分别设置为[tanh,elu,tanh,elu, tanh,elu,tanh,elu],每层的激活函数数量分别设置为[100,120,140,160,180,200, 180,160,140,120,100]。对于m=25的神经网络,中间层的层数以及相应的激活函数设定与m=100的神经网络相同,但每层中激活函数的数量被设定为[50,60, 70,80,90,100,90,80,70,60,50]。
[0106]
优选地,如图5,图5是本发明中问题无关机器学习拓扑优化方法实施方式第五示意图;步骤200包括:步骤210、获取大尺度粗单元中的细单元密度分布 (ρ1,ρ2,...,ρ
m-1
,ρm);步骤220、将细单元密度分布(ρ1,ρ2,...,ρ
m-1
,ρm)输入到机器学习模型,获取多尺度形函数值
[0107]
其中,多尺度形函数值满足公式(1):
[0108][0109]
其中,n为单个粗单元中细单元的总节点数,大尺度粗单元的边界位移为线性分布。
[0110]
如图9,图9是本发明中问题无关机器学习拓扑优化方法实施方式中的粗单元与细单元示意图;二维问题中,emsfem的多尺度形函数公式(5)所示:
[0111][0112][0113]
其中,上式子中分别是第e个粗单元中的第i个节点沿x、y方向的位移,分别是该粗单元内部细单元中第l个节点沿x、y方向的位移(如图9 所示)。emsfem中最关键的便是计算细单元中每个节点上的的值,其中i=1,

,m。这些多尺度形函数值是通过对粗单元节点分别设置和并沿
相应的边界施加适当的边界条件,分析计算得到的。
[0114]
优选地,如图6,图6是本发明中问题无关机器学习拓扑优化方法实施方式第六示意图;步骤200还包括:步骤230、获取细单元密度分布(ρ1,ρ2,...,ρ
m-1
,ρm) 的密度平均值ρ;步骤240、若的密度平均值ρ满足:小于第一阈值或者大于第二阈值ρ,则用机器学习模型预测相应粗单元的多尺度形函数并计算其刚度矩阵;其中,第一阈值大于第二阈值ρ。
[0115]
如果粗单元内平均密度大于或小于ρ,则会被分别归类为实体单元或弱材料单元。这两种粗单元的emsfem多尺度形函数和刚度矩阵都可以预先存储,在优化过程中直接调用即可。采用这种处理方法,特别是对于大规模算例以及低体分比的优化问题,可以大大减少生成粗单元刚度矩阵的计算时间。
[0116]
优选地,如图7,图7是本发明中问题无关机器学习拓扑优化方法实施方式第七示意图;步骤300包括:步骤310、利用大尺度粗单元离散整个设计域;步骤320、利用小尺度的细单元离散大尺度粗单元,以获取二维结构连续体的整个模型小尺度的网格模型;步骤330、利用所述细单元描述粗单元在小尺度下的各向异性。
[0117]
在emsfem分析中,模型中存在两种单元,即大尺度的粗单元以及小尺度的细单元。通过构造合理的多尺度形函数,只进行大尺度下的有限元分析即可得到小尺度上节点位移。在实际操作中,首先用粗单元离散整个设计域,再使用细单元将粗单元离散,从而得到整个模型小尺度的网格模型。详细的小尺度下的材料不均匀性可以由细单元合理地描述。多尺度形函数则建立了粗单元节点位移与细单元节点位移之间的联系。两者结合从而实现了在只进行大尺度上的有限元分析的情况下,可以得到小尺度下节点位移的分布。
[0118]
优选地,如图8,图8是本发明中问题无关机器学习拓扑优化方法实施方式第八示意图;步骤300还包括:
[0119]
步骤340、根据能量守恒规则,利用公式(2)计算大尺度粗单元的刚度矩阵ke:
[0120][0121][0122]
其中,kf是第f个细单元的刚度矩阵,m为大尺度粗单元中细单元的总数;
[0123][0124]
je=1,

,4,l
[je]
表示在相应的大尺度粗单元中的第f个细单元的第
je
个局部节点的全局索引号;
[0125]
步骤350、利用大尺度粗单元的刚度矩阵ke计算整个模型的整体刚度矩阵;
[0126]
步骤360、利用整体刚度矩阵并根据公式(3)计算粗网格节点的位移ue:
[0127][0128]
其中,e=1,...,ne,ne表示整个设计域中粗单元的总数;
[0129]
步骤370、根据粗网格节点的位移,利用公式(4)计算细单元节点位移
[0130][0131]
其中,细单元为平面四节点的双线性单元,如图10,图10是本发明中问题无关机器学习拓扑优化方法实施方式中的多尺度形函数位移边界条件示意图,采用了四节点的单元,并假设粗单元的边界位移是呈线性分布。离散粗单元的细单元为常用的平面四节点的双线性单元。
[0132]
为对比不同尺度粗单元网格的结果,本实施例采用了两种不同尺度的粗单元离散整个结构,即5
×
5和10
×
10。同时为保证优化结果具有可对比性,设计域中包含的细单元总数应保持一致,即为3200
×
1600,如图12,图12是本发明中问题无关机器学习拓扑优化方法实施方式中的实施例1悬臂结构连续体分布示意图。因此两组粗网格的规模分别640
×
320和320
×
160。如图13,图13是本发明中问题无关机器学习拓扑优化方法实施方式中实施例1悬臂结构连续体优化结果对比示意图,本实施例中的连续体的问题无关的机器学习拓扑优化方法 (piml)的优化结果与经典的simp方法所得到的结果十分相似。特别是对于 5
×
5的情况,两种方法得到的优化结果的柔顺度几乎完全相同(相对误差仅为 8.80
×
10-5
)。此外,本实施例的过滤半径仅为细单元大小的3倍,小于粗单元的大小,但优化后的结构中并不存在棋盘现象或qr模式。这是传统的多分辨率拓扑优化方法很难达到的效果。这一结果清楚地表明了piml中的机器学习模型预测粗单元刚度矩阵准确性与有效性。
[0133]
此外,图13中还给出了本实施例平均每步的时间t
it
。与经典simp方法相比,本实施例piml中的平均每步的时间t
it
虽然只减少了75.77%(10
×
10)和 74.52%(5
×
5),但值得注意的是,在本实施例中,如图14所示,图14是本发明中问题无关机器学习拓扑优化方法实施方式中实施例1悬臂结构连续体拓扑优化时间占比示意图;但piml中的ann-emsfem平均每步时间中占绝大部分的是oc更新变量的时间(77%以上),而在simp方法中,占绝大部分的却是有限元分析时间(80.82%)。如果仅关注有限元分析时间,即图14中的 ann-emsfem有限元时间(值得注意的是本实施例的有限元时间是包括生成粗单元的emsfem形函数和计算细单元节点位移的时间),可以看出相比直接求解细单元网格下的有限元分析,本实施例的ann-emsfem分析时间减少了10 余倍。而且由于求解线性代数方程的计算复杂度与其系数矩阵维数的立方成正比,可以预见,拓扑优化需要求解的模型规模越大,本实施例对有限元分析的加速就越明显。此外,由于计算粗单元刚度阵的过程是各自独立的,因此可以自然地采用并行计算技术,以进一步提高求解效率。
[0134]
实施例2
[0135]
为了证明本实施方式中ml模型中的神经网络可以被用于任何具有相同类型单元的结构拓扑优化问题,本实施方式还提供了另一经典的mbb连续体算例 (如图15所示,图15是本发明中问题无关机器学习拓扑优化方法实施方式中实施例2mbb连续体分布示意图)。上述两种方法相应的优化结果以及求解时间如图16所示,图16是本发明中问题无关机器学习拓扑优化方法实施方式中实施例2mbb连续体拓扑优化结果对比示意图。同样可以看出,
本实施方式中的piml拓扑优化方法得到的两种粗单元尺寸下的优化结构与直接使用simp方法得到的结构非常相似。两种方法得到优化结构的柔度的相对误差也非常小(分别为5.21
×
10-4
(5
×
5)和8.60
×
10-3
(10
×
10)),验证了所提出的ml模型的通用性。同时,本技术中的piml拓扑优化方法中平均每步的时间仅为simp方法的30%左右,这充分说明了本技术优化方法高效性。
[0136]
实施例3
[0137]
与实施例2不同的是,在本实施例中将细单元网格规模扩大到了4亿,即 40000
×
10000,每个粗单元包含10
×
10=100的细单元,但考虑模型的对称性以及电脑内存的限制,实际只计算了该模型的一半,即2亿的细单元网格。优化后的结构如图17所示,图17是本发明中问题无关机器学习拓扑优化方法实施方式中实施例3mbb连续体拓扑优化结果示意图。可以看出,分辨率越高,优化后的结构细节也就越多。在图18,图18是本发明中问题无关机器学习拓扑优化方法实施方式中实施例3mbb连续体算法迭代步时间示意图中,本实施例 ann-emsfem中的ann时间是指ann生成形函数以获得每个粗单元的刚度矩阵的计算时间,而emsfem时间则是细单元网格节点位移的计算时间。可以看出,本实施例对于这个超大规模的拓扑优化问题,使用本实施例方法之后,在20多步之后的迭代步中,有限元分析时间(ann时间与emsfem时间之和) 仅约为2分钟。本技术实施方式大部分的计算时间(超过85%!)是花在更新设计变量上的,有限元分析已不再是占算法时间的主要部分。
[0138]
第二方面,一种计算机可读存储介质,包括指令,当指令其在计算机上运行时,使得计算机执行如第一方面任意一项的方法。
[0139]
第三方面,一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行第一方面任意一项的方法。
[0140]
实施本发明的一种二维结构的问题无关机器学习拓扑优化方法、介质及产品,通过构建机器学习模型,利用机器学习模型对最耗时的多尺度形函数进行计算,代替了原有扩展多尺度有限元中多尺度形函数复杂的计算,从而充分发挥出了线性边界条件下的扩展多尺度有限元方法的高效性,实现了有限元的分析时间数量级上的降低。
[0141]
以上仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
再多了解一些

本文用于创业者技术爱好者查询,仅供学习研究,如用于商业用途,请联系技术所有人。

发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表

相关文献