在众多可靠度计算方法中,蒙特卡罗模拟(MCS)方法最为简单直接,相比于一次[1]和二次可靠度方法[2],它在处理高度非线性及存在多个验算点问题方面也能保证较高精度.然而,在结构响应计算成本非常昂贵的情况下,MCS方法不适用于直接求解失效概率.为平衡失效概率计算精度与效率,利用代理模型来辅助可靠度分析是一条可行的思路.基于代理模型的可靠度分析方法分为基于验算点迭代的代理模型法及不依赖于验算点的代理模型法两类.前者通过代理模型近似代替真实功能函数,用以迭代搜寻验算点,如基于多项式响应面[3]、Kriging模型[4]、RBF模型[5]、SVM模型[6]等的可靠度分析方法.显然,此类方法不适用于多验算点问题,且迭代过程的收敛性很难保证.第二类代理模型则是利用代理模型形成功能函数在整个分布域内的近似,而不依赖于验算点,如基于PCE[7]和PDD[8]的代理模型及将主动学习代理模型与MCS方法相结合的方法(RBF-MCS方法[9]、SVM-MCS方法[10]、AK-MCS方法[11]等).其中,PCE和PDD等代理模型的构成对可靠度精度至关重要,但是其构成的合理确定仍具有较大的挑战性,且对于高维问题的计算效率有待于进一步提高.相对而言,基于主动学习代理模型的方法由于其广泛的适用性和高效性而受到关注,其中AK-MCS方法可以给出预测结果的统计特性,应用最为广泛.在AK-MCS方法中,学习函数与收敛准则是影响可靠度分析精度与效率的两个关键因素,因而在研究中受到重点关注.学习函数本质上是训练样本的选择准则.用训练样本更新Kriging模型时,模型会受到两部分影响:第一部分是训练样本自身对模型的影响,第二部分是训练样本影响区域内的样本对模型的影响.根据是否考虑训练样本更新产生的区域影响,学习函数可分为不考虑区域影响的学习函数与考虑区域影响的学习函数两类.前者只考虑训练样本自身对模型产生的影响,如U函数[11];然而,在实际更新过程中,训练样本更新产生的区域影响不可忽略.后者在一定程度上考虑了训练样本更新产生的区域影响,在概率密度函数值较大的区域分配了更多权重,如LIF函数[12]、AK-PDF函数[13]等,但LIF函数在维数为奇数下涉及积分计算,不便于应用;而AK-PDF函数可能会将远离极限状态曲面的样本加入更新,对极限状态曲线拟合改善有限.收敛准则实质上是Kriging模型对功能函数逼近精度的终止准则,常见的收敛准则有三类.第一类收敛准则要求对所有分布区域的样本点一视同仁,当所有样本都满足同等的逼近精度时模型停止更新,如最大EFF函数准则[14]、最小U函数准则[11]等;然而,对于概率密度函数值较小的样本,过高的精度对失效概率的精度改善有限.第二类收敛准则不要求对所有样本点一视同仁,给概率密度函数值较大或不确定性较高的样本分配了更多权重,模型在加权后的样本达到同等的逼近精度时停止更新,如最大CCL函数准则[15];然而,若模型在极限状态空间附近对功能函数的拟合程度不够,则可能造成可靠度分析误差.第三类收敛准则不要求对所有样本点一视同仁,最终根据所有样本点的总体逼近误差确定收敛准则,如基于失效概率预测误差的收敛准则[16];然而,未考虑模型对样本预测的随机性可能会导致提前收敛.针对上述问题,本研究提出基于新的学习函数与收敛准则的改进AK-MCS可靠度分析方法.通过分析训练样本对失效概率误差贡献的影响,在考虑样本自身对误差影响的同时,考虑受样本更新影响的区域内样本对误差贡献的影响,进而提出训练样本选择的两步法,然后基于误差与失效概率提出一种新的收敛准则.1 Kriging模型及AK-MCS误差分析1.1 Kriging 模型不失一般性,假设结构的功能函数为Y=G(X),(1)式中X={X1,X2,…,Xd}为包含d维随机变量的向量.给定包含k个初始训练样本的集合S(t)=[x1(t),x2(t),…,xk(t) ]T及其对应的响应集Y(t)=[G( x1(t) ),G( x2(t) ),…,G(xk(t)) ]T,对G(X)引入Kriging模型[11-13]可得G(X)=f(X)T×P+Z(X),(2)式中:f(X)为回归多项式的基函数向量,取为常数1组成的向量1;P为回归系数向量;Z(X)为方差为σz2的零均值高斯过程,其协方差函数为Cov[Z(xi),Z(xj)]=σz2R(xi,xj,θ),(3)其中,R(xi,xj,θ)为样本xi=[xi,1,xi,2,…,xi,d]T与xj=[xj,1,xj,2,…,xj,d]T之间的相关函数.选用高斯模型R(xi,xj,θ)=exp-∑l=1dθlxi,l-xj,l2,(4)模型参数θ=[θ1,θ2,…,θd]T可由最大似然估计确定θ=argminσz2detR1/k,(5)式中:R=[Rij]k×k(Rij=R(xi(t),xj(t),θ) (i,j=1,2,…,k))为相关函数矩阵;det(R)为R的行列式.根据式(2),G(x)亦可表示为G(x)=μG(x)+ZG(x),(6)式中:μG(x)为样本的预测值;ZG(x)为方差为σG2(x)的零均值高斯过程,且有:μG(x)=P_+r0TR-1(Yt-1P_),(7)σG2(x)=σ̲z2[1-r0TR-1r0+uT(1RTR-11)-1u],(8)P_=(1TR-11)-11TR-1Yt,(9)σ̲z2=(Yt-1P_)TR-1(Yt-1P_)/k,(10)u=1TR-1r0-1,(11)r0=R(x,x1t,θ),R(x,x2t,θ),...,R(x,xkt,θ)T,(12)式中r0T为相关向量.1.2 AK-MCS误差分析1.2.1 AK-MCS原理若通过学习,函数逐步从MCS的候选样本集Ω=[x1,x2,…,xNMC]T中选择合理的训练样本用以更新模型Kriging模型,且以μG(x)代替G(x),那么由AK-MCS方法确定的失效概率为:P̲f=∑i=1NMCI̲(xi)/NMC;(13)I̲(xi)=1(μG(xi)0),0(μG(xi)≥0), (14)Pf的变异系数为δ=1-P̲f/(NMCP̲f). (15)采用AK-MCS方法进行结构可靠度分析的流程可参考文献[11].1.2.2 AK-MCS的误差分析MCS方法计算失效概率Pf的表达式为:Pf=∑i=1NMCI(xi)/NMC;(16)I(xi)=1(G(xi)0),0(G(xi)≥0). (17)根据式(6),若μG(xi)已知,则G(xi)为随机变量;显然G(xi)0为随机事件,由式(17)可知I(xi)为服从0-1分布的离散随机变量,且有PrI(xi)=1=I̲(xi)+sgn(U̲(xi))∙Φ(-U̲(xi)),  (18)式中:sgn(⋅)为符号函数;U̲(xi)=μG(xi)/σG(xi).(19)于是I(xi)的期望为E(I(xi))=I̲(xi)+sgn(U̲(xi))Φ(-U̲(xi)).(20)联合式(13)、(16)和(20)可得Pf的期望为E(Pf)=∑i=1NMCE(I(xi))/NMC=∑i=1NMCI̲(xi)/NMC+∑i=1NMCsgn(U̲(xi))Φ(-U̲(xi))/NMC=P̲f+∑i=1NMCsgn(U̲(xi))Φ(-U̲(xi))/NMC.(21)令sgn(U̲(xi))Φ(-U̲(xi))/NMC=e(xi)=Δei,(22)式(21)可简写为E(Pf)=P̲f+∑i=1NMCei=ΔP̲f+∑ei,(23)式中∑ei为Pf与相同样本集的Pf的均值之间的差异.若将Pf视为标准解,则∑ei度量了AK-MCS方法相对于MCS方法的全体候选样本的总误差均值,ei为μG(xi)的预测误差对Pf误差的贡献.1.3 更新训练样本对误差贡献的影响根据Kriging模型中样本的功能差异,在第h次更新之后可将候选样本集Ω分解为3个子集,即已有训练样本构成的集合Ω1=[x1(o),x2(o),…,xk0(o)]T、第h+1次更新的新增训练样本集合Ω2=[x(m)]T及剩余候选样本构成的集合Ω3=[x1(r),x2(r),…,xNMC-k0-1(r)]T,且Ω=Ω1∪Ω2∪Ω3.结合式(22)和(23)易知∑eih=∑j=1k0ehxjo+ehx(m)+∑u=1NMC-k0-1ehxur=ΔeΩ1h+eΩ2h+eΩ3h, (24)利用新增训练样本更新模型后,总误差为      ∑eΩih+1=∑j=1k0eh+1xjo+eh+1x(m)+∑u=1NMC-k0-1eh+1xu(r)=ΔeΩ1h+1+eΩ2h+1+eΩ3h+1, (25)式中上标h和h+1分别代表第h次更新和第h+1次更新的Kriging模型的相应结果.在模型更新前后,集合Ω1中样本的U(⋅)值都很大,因此eΩ1h和eΩ1h+1均趋近于0,更新训练样本对Ω1中样本的误差贡献影响可忽略.在模型更新前,x(m)的误差eΩ1h≠0;模型更新后,其U(⋅)值变大,即eΩ2h+1≈0.因此,模型更新前后x(m)的误差改变量为∆e=|e(h)(x(m))|.显然,模型更新对于x(m)的误差贡献的影响是确定的.集合Ω3中样本的误差贡献在模型更新前为已知,但在未更新前,很难精确评估eΩ3h+1.换言之,模型更新对于Ω3中样本的误差贡献影响不能预先确定,可将eΩ3h+1-eΩ3h视为模型更新对误差贡献的不确定性影响.2 两步法及改进的AK-MCS方法2.1 最优训练点选择的两步法2.1.1 考虑区域影响的学习函数虽然eΩ3h+1-eΩ3h在更新前不能精确评估,但根据式(22)、(24)与(25)知其取决于模型更新前后Ω3中样本的μG(∙)与σG(∙)的变化,显然两者均与相关函数矩阵息息相关,因此可根据相关函数的特质近似评估模型更新对eΩ3h+1-eΩ3h的影响.由式(4)可知:对于同一个Kriging模型,参数θ为固定值,样本间距离越小相关函数值越大.因此,x(m)对临近点的影响大于对较远点的影响.考察与x(m)相距某一距离的薄圆环区域,该区域内的样本误差贡献取决于区域内的样本数量和区域内样本误差贡献的大小.显然,前者与x(m)处的概率密度函数值f(x(m))成正比,后者与模型更新前x(m)的误差贡献|eh(x(m))|正相关.为评估利用x(m)进行模型更新对误差贡献的不确定性影响,可引入如下学习函数,F(x(m))=e(x(m))f(x(m)).(26)2.1.2 训练样本选择的两步法基于前文分析,挑选训练样本时可在重点关注训练样本自身对误差贡献影响的前提下,兼顾其对误差贡献的不确定性影响,可由如下两步法实现.首先,将eh(⋅)值位于区间[0.97,1]max{|ei|}内的所有样本组成待选训练样本集S;然后,在S中挑选出不确定性影响最大的样本x(m),即x(m)应满足x(m)=argmaxxi∈SF(xi).(27)2.2 基于总误差的收敛准则∑ei为全体候选样本的总误差均值,能大致度量Pf相对于Pf的真实误差大小,因此高精度的可靠度结果必然对应着较小的∑ei.然而,∑ei本身具有随机性,真实误差在模型更新过程中会有波动,因此高精度的可靠度结果必定对应着稳定的∑ei与Pf.基于此,给出如下收敛准则,即∑eih/E(Pfh)eps1;(28)∑eih+1-∑eih+P̲fh+1-P̲fh/E(Pfh)eps2, (29)式中:Pfh和Pfh+1为第h次和第h+1次更新时的Pf 值;E(Pfh)为第h次更新时的E(Pf);eps1与eps2为收敛限值,均取为0.1%.2.3 改进的AK-MCS方法实现步骤改进AK-MCS方法(AK-EF)具体步骤如下.a.采用拉丁超立方抽样产生N0个样本,构成初始训练样本集,并调用真实功能函数计算其对应的响应,取N0=12.同时,用MCS方法生成候选样本集Ω.b.调用Matlab中的DACE工具箱,基于当前训练样本集及其响应建立Kriging模型.c.按照式(27)确定新增训练样本x(m),将其加入已有训练样本集并计算其响应.d.重复步骤b~c,直至同时满足式(28)和(29)所示收敛准则.e.计算失效概率Pf及其变异系数δ.若δ≤5%,则停止迭代,否则将Ω扩容10倍再转至步骤c.3 算例分析用4个算例验证AK-EF方法的适用性,并将AK-EF方法与AK-MCS方法[11]、AK-PDF方法[13]进行对比.此外,为进一步考察所提学习函数与收敛准则的性能,用所提学习函数与收敛准则替换掉AK-MCS方法中的学习函数与收敛准则,形成两种组合方法,即AK-MCS+EF方法(采用文献[11]所提收敛准则,但以所提F(⋅)作为学习函数)与AK-EF+U方法(以式(28)和(29)控制收敛,但采用文献[11]所提学习函数),并且将这两种方法的计算结果也纳入对比.为保证公平,各方法采用相同的初始训练样本集和相同的候选样本集.各方法的精度由相对误差εr评估,即εr=(Pf-P̲f/Pf)×100%,此外,以功能函数调用次数Ncall评价各方法的效率,且以各方法运行10次的结果评估其稳定性.算例1 高度非线性算例考察某一高度非线性功能函数[16],即GX=sin(2.5X1)+2-0.05(X12+4)(X2-1),式中X1~N(1.5,12),X2~N(2.5,12),且相互独立.各方法的失效概率计算结果见表1.这几种方法的精度大体相当,但AK-EF方法效率最高,且AK-PDF方法的学习函数并不能达到改善计算效率的目的.10.13245/j.hust.240298.T001表1算例1的失效概率计算结果方法NcallPf/10-2εr/%10次1次标准差10次1次10次1次MCS2×1053.1223.138AK-MCS35.1342.4273.1213.1300.0230.220AK-PDF37.7353.4663.1223.1380.0000.000AK-MCS+EF33.7331.0053.1223.1380.0000.000AK-EF+U29.1291.5783.1203.1370.0350.032AK-EF28.9280.8313.1213.1370.0020.032为进一步体现训练样本的选择差异,图1给出了3种方法训练样本的空间分布.由图1可知:AK-EF方法挑选的新增训练样本均位于极限状态曲线附近,且大部分具有较高的概率密度值,兼顾了训练样本对误差的确定性影响和不确定性影响.AK-MCS方法仅考虑了训练样本对误差的确定性影响,可能会出现对精度改善不显著的概率密度值较低的样本;AK-PDF方法在一定程度上考虑了训练样本对误差的不确定性影响,但可能会出现对极限状态面拟合改善有限的远离极限状态面的样本.为更全面地比较各方法的性能,将各方法均运算10次,结果的平均值与标准差亦示于表1.各方法均具有良好精度,但AK-EF方法的整体效率优于其他方法且具有更好的稳定性.10.13245/j.hust.240298.F001图13种方法的训练样本空间分布此外,表1中也给出了AK-MCS+EF与AK-EF+U方法的计算结果,这两种方法均具有较高精度,但AK-MCS+EF方法整体效率略高于AK-MCS方法,此差异完全因采用不同学习函数而产生,这说明采用所提F(∙)函数挑选训练样本对效率有一定改善作用;就效率标准差而言,AK-MCS+EF方法的效率标准差小于AK-MCS方法,即说明所提F(∙)函数能同时改善效率和稳定性.AK-MCS与AK-EF+U方法均采用文献[11]所提学习函数挑选训练样本,仅收敛准则不同,两者精度都很高,调用功能函数的均值与标准差分别为35.1,29.1与2.427,1.578,这说明采用文献[11]所提学习函数时,所提准则控制收敛比文献[11]准则控制收敛更高效且稳定性更好.综上所述,F(∙)学习函数和收敛准则均有改善AK-MCS方法性能的作用,在这几类方法中,同时采用F(∙)学习函数和收敛准则的AK-EF方法整体效率最高,且稳定性最好.算例2 四分支串联系统考察某包含四分支的串联系统[11],功能函数为GX=min{(X1-X2)+6/2,3+0.1(X1-X2)2-(X1+X2)/2,(X2-X1)+6/2,3+0.1(X1-X2)2+(X1+X2)/2},式中X1和X2为相互独立的标准正态随机变量.各方法的失效概率计算结果见表2.就效率而言,AK-EF方法调用功能函数次数的平均值为71.2,效率明显高于其余方法.此外,对比AK-MCS方法、AK-MCS+EF方法与AK-EF+U方法、AK-EF方法这两组计算结果可知:将文献[11]中的学习函数替代为F(∙)学习函数,采用文献[11]所提收敛准则时,调用功能函数次数均值和标准差由83.5,4.843变为81.2,2.821;采用本文所提收敛准则时,调用功能函数次数的均值和标准差由71.9,5.127变为71.2,4.423,这说明采用F(∙)学习函数有提升方法效率和稳定性的作用.AK-MCS方法和AK-EF+U方法均采用文献[11]所提学习函数,仅收敛准则由文献[11]所提收敛准则变为本研究所提收敛准则,调用功能函数次数均值和标准差就由83.5,4.843变为71.9,5.127,效率明显提升但稳定性略微降低;观察AK-MCS+EF和AK-EF的计算结果亦能得到类似结论.通过这两组对比可知:对于此算例,所提收敛准则能明显提升方法的效率,但对效率的稳定性未有改善.10.13245/j.hust.240298.T002表2算例2的失效概率计算结果方法NcallPf/10-2εr/%10次1次标准差10次1次10次1次MCS2×1054.4804.455AK-MCS83.5854.8434.4804.4550.0000.000AK-PDF114.313416.4384.4794.4550.0190.000AK-MCS+EF81.2792.8214.4804.4550.0000.000AK-EF+U71.9725.1274.4684.4400.2680.337AK-EF71.2644.4234.4764.4550.0930.000算例3 非线性弹簧振子考察文献[17]所示非线性弹簧振子的可靠度,功能函数为GX=3r-(2F1/mω02)sin(0.5ω0t1),式中:X=(m,c1,c2,r,F1,t1);ω0=[(c1+c2)/m]0.5.各变量相互独立且服从正态分布:m~N(1,0.052),c1~N(1,0.12),c2~N(0.1,0.012),r~N(0.5,0.052),F1~N(1,0.22),t1~N(1,0.22).表3为不同方法对该算例的失效概率计算结果.各方法均有较好的精度,但AK-EF方法整体须调用功能函数的次数最少,说明该方法不仅适用于处理较高维数的问题,而且兼顾精度与效率.此外,通过观察各方法调用功能函数次数的均值与标准差的变化规律可知:对于此算例,所提学习函数对方法性能的影响和算例2类似,但在收敛准则对方法性能的影响方面有所区别,说明所提收敛准则有明显提升方法效率的作用,但对方法稳定性的影响无明显规律.10.13245/j.hust.240298.T003表3算例3的失效概率计算结果方法NcallPf/10-2εr/%10次1次标准差10次1次10次1次MCS2×1042.8182.765AK-MCS53.1563.8332.8192.7700.0220.181AK-PDF61.6628.8682.8182.7650.0000.000AK-MCS+EF51.9532.9142.8182.7650.0000.000AK-EF+U42.1375.9412.8212.7650.1900.000AK-EF41.4411.5622.8172.7650.0440.000算例4 桁架结构考察文献[12]中的桁架结构,包含10个相互独立随机变量,其分布信息见表4.该结构的功能函数为GX=s0-s(X),式中:X=(P1,P2,P3,P4,P5,P6,A1,A2,E1,E2);s(X)为节点O处的挠度V,由有限元分析计算得出;s0为s(X)的阈值,取0.105 m.10.13245/j.hust.240298.T004表4桁架结构的分布信息变量分布均值标准差P1~P6/N极值I型5.0×1047.5×103A1/m2对数正态2.0×10-32.0×10-4A2/m2对数正态1.0×10-31.0×10-4E1/Pa对数正态2.1×10112.1×1010E2/Pa对数正态2.1×10112.1×1010表5统计了各种方法的失效概率计算结果.AK-EF方法平均仅须调用81.1次功能函数,即可得到平均相对误差为0.026%的失效概率计算结果,相较于其他各方法效率更高.此外,所提学习函数与收敛准则对方法性能的影响和算例3类似.10.13245/j.hust.240298.T005表5算例4的失效概率计算结果方法NcallPf/10-2εr/%10次1次标准差10次1次10次1次MCS2×1041.9502.030AK-MCS98.41046.1191.9512.0300.0260AK-PDF122.910024.8651.9502.0300.0000AKMCS+EF97.0923.6611.9502.0300.0000AK-EF+U81.4894.8411.9532.0300.1280AK-EF81.1723.7801.9512.0300.02604 结语通过分析训练样本对失效概率误差贡献的影响,提出了一种基于新学习函数与收敛准则的改进AK-MCS可靠度分析方法.通过对AK-MCS方法进行误差分析,得到全体候选样本以及单个样本对误差的贡献.综合考虑可靠度分析精度与模型稳定性,提出了新学习函数和收敛准则,算例结果表明:所提学习函数不仅能提升方法的效率,还能改善其稳定性;所提收敛准则能明显提升方法的效率,但对其稳定性的影响无明显规律.结合所提学习函数与收敛准则,形成一种改进的AK-MCS方法(AK-EF),算例结果表明:AK-EF方法适用于高度非线性、多个失效域和较高维度问题,并且在进行结构可靠度分析方面有较高的效率、精度和稳定性.

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读