压缩感知[1-2]技术能以远低于奈奎斯特定律的采样率对信号测量,并高概率重建信号.传统压缩感知重建算法虽有完备的理论证明,但计算复杂度高,实时性较差,并且重建精度有限,很难在现实中应用.深度学习技术近年来飞速发展,其处理复杂任务的能力和良好的特征学习能力引起了研究者的广泛关注,基于深度学习的压缩感知技术(DLCS)为图像压缩感研究[3-5]打开一扇新的大门.研究者采用端到端的技术将传统压缩感知中的采样和重建过程映射到网络框架中,DLCS的网络模型一般由多个网络层和激活函数堆叠而成,目前最常见的有去噪自动编码器、卷积神经网络、多尺度残差重建网络等[6-10].这种方法不仅能够实时重建图像,而且其图像重建效果优于传统压缩感知方法.然而,深度学习技术内在的黑盒特性使DLCS缺乏数学理论的支撑[11],重建网络的搭建缺乏理论指导,重建网络的鲁棒性难以保证,网络性能的改进依赖于经验和调参技巧,影响了DLCS的进一步发展.另外在纯数据驱动的条件下,深度学习技术的性能依赖于训练数据的数量和质量,在缺乏大量高质量训练数据的情况下,例如医学成像、3D重建等领域,深度神经网络的性能可能会快速下降,结果甚至比传统方法更差[12-17].因此对DLCS方法的可解释性研究成为新方向[18],它能指导网络的设计和改进,降低网络对数据集数量和质量的要求.目前,算法展开是一种具备可解释性的DLCS方法,它采用传统迭代算法来指导神经网络的设计,结合了传统算法有理论证明的优势,同时又具有深度学习的高性能和实时性,且网络层数少于通用神经网络.由于神经网络的搭建遵循了传统重建算法的指导,因此算法展开既能高效重建信号,又使信号重建过程具备一定的可解释性[19].算法展开通常先选定一种传统迭代算法,然后将传统算法的每一次迭代展开成网络的一层,算法中涉及的参数转化为网络参数,这样网络的前向传播相当于执行了传统算法的有限次迭代.算法展开网络使用反向传播进行训练,从训练集中学习模型参数,网络训练的迭代过程可看做传统算法参数优化过程,因此有效地克服了通用神经网络可解释性不足的问题.与通用神经网络相比,展开网络具有较高的参数效率,且需要较少的训练数据;另外,由于展开网络自然地继承了传统算法的结构和领域知识,而不是从密集的训练数据中学习这些信息,因此它们往往比通用网络具有更好的泛化能力[20-23].算法展开最早在2010年由文献[24]提出,用于稀疏编码问题的求解,文章基于迭代收缩阈值算法[25](ISTA),建立了LISTA(Learned ISTA)模型.此后,算法展开技术广泛应用于解决信号和图像处理中的许多重要问题[26-32].2018年,文献[33]受ISTA的启发提出了ISTA-Net,它将ISTA转换为深层网络形式用于图像压缩感知重建.ISTA-Net在保持计算速度的同时重建效果显著优于基于网络的压缩感知重建算法.2019年,文献[34]将交替方向乘子法[35](ADMM)展开到名为ADMM-CSNet的深度网络中,ADMM-CSNet从真实数据中学习稀疏性约束和正则化权值,提高了网络的适应性和重建性能.2020年,文献[36]基于传统的平滑投影Landweber(SPL)算法提出了一种新的图像压缩感知网络——SPLNet,利用SPL-Block实现传统SPL算法的迭代过程.2021年,文献[37]基于近似消息传递 (AMP)算法[38]的去噪视角,提出了一种新的深度展开模型——AMP-Net,利用采样矩阵和卷积神经网络拟合原始图像与输入之间的差异,以此表征图像的先验信息.目前基于压缩感知的综述大多基于传统方法,主要分析了测量矩阵、贪婪匹配追踪重建算法和凸松弛重建方法.近年来深度学习技术在压缩感知领域广泛应用,文献[17]对DLCS方法进行综述,从基于先验知识的重建方法、纯数据驱动的重建方法和混合先验知识与数据驱动的重建方法分析了重建算法的特点及网络结构,但未深入研究压缩感知的可解释性.文献[18]从自解释模型、特定模型解释、不可知模型解释和因果可解释性四个方面对深度学习的可解释性方法进行综述,但未针对压缩感知领域做可解释性分析.算法展开网络是利用深度学习网络对传统重建方法进行了展开处理,具备一定的可解释性,是目前DLCS的重要研究方向,然而目前缺乏面向压缩感知的算法展开方法综合分析.本研究首先根据传统迭代算法,将算法展开网络分类,如表1所示;然后从表1中选择了具有代表性的网络,概述其对应的传统算法原理,再分析主流算法展开网络及其特点;最后总结讨论了算法展开网络当前存在的问题,并提出了未来的研究方向.10.13245/j.hust.221103.T001表1算法展开网络分类及应用传统算法算法展开网络网络类型应用ISTALISTA[24]自动编码器自然图像ISTA-Net[33]卷积神经网络自然图像TISTA[39]前馈神经网络自然图像NLISTA[40]循环神经网络通用模型QISTA-Net[41]卷积神经网络自然图像ADMMADMM-Net[42]卷积神经网络磁共振图像ADMM-CSNet[34]卷积神经网络自然图像AMPLAMP[43]前馈神经网络通用模型AMP-Net[37]卷积神经网络自然图像LDAMP[44]卷积神经网络自然图像AMPA-Net[45]卷积神经网络自然图像全变分算法[46]TVINet[47]卷积神经网络磁共振图像Landweber迭代算法VN[48]自动编码器磁共振图像SPLNet[36]卷积神经网络自然图像1 压缩感知模型压缩感知重建是在先验约束,如稀疏性条件下,解决信号求逆问题,数学建模为minx 12Φx-y22+λΨx1,(1)式中:x∈RN×1为待重建信号;Φ∈RM×N为测量矩阵;y∈RM×1为测量信号;λ为正则化参数;Ψ为变换;正则化条件为变换Ψ∈RN×N下的稀疏约束.有很多优化算法用于解决此问题[49].本研究根据主流算法展开网络,从传统迭代算法中选取了ISTA,AMP和ADMM这三种,首先概述每种迭代算法的原理,然后分析该算法被展开的方式及网络特点.这种深度展开网络既具备了传统迭代算法的理论基础,又有深度神经网络高效的计算能力.2 ISTA及其展开网络2.1 ISTA算法原理ISTA算法是一种基于梯度的方法,在每一次迭代中,可微项的梯度被投影,然后其被阈值缩小为一个特定的值.待重建信号通过x收缩阈值操作来更新,具体迭代式为zk=y-Φxk;(2)xk+1=ηλ(xk+ρΦTzk),(3)式中:k为迭代次数;zk∈RM×1为第k次迭代的即时重建信号;ρ为步长;ηλ(⋅)为软阈值函数,具体表达式为[ηλ(x)]i≜sign (xi)(xi-λ),(4)其中,λ为阈值参数,sign (⋅)为符号函数.2.2 LISTA算法LISTA是一个高效的迭代阈值求解算法,它在ISTA的启发下,利用比通用网络更少的网络层,能优化出良好的近似最优稀疏编码.为展开LISTA,将式(2)和式(3)整合为xk+1=ηλ((I-ρΦTΦ)xk+ρΦTy),(5)再将式(5)中的参数做一个隐式替换,即:Hx=I-ρΦTΦ;Hy=ρΦT,式中I∈RN×N为单位矩阵.将LISTA的每一次迭代看作为一层神经网络,这一层包括了式(5)中的矩阵向量乘法、求和和软阈值等操作.LISTA算法中的k次迭代等价于k层这样的网络级联,形成一个深度网络,如图1所示,网络中Hx,Hy和ηλ中的阈值为可训练参数.10.13245/j.hust.221103.F001图1LISTA算法结构图与ISTA相比,LISTA算法利用数据驱动的方法优化迭代过程中的参数,这种通过网络学习得到的参数矩阵减小了阈值收缩算法的迭代次数,从而实现对式(1)的快速求解,显著提高了稀疏编码效率.2.3 ISTA-Net算法受ISTA算法的启发,文献[33]提出ISTA-Net,该方法很好地结合了传统优化算法和深度网络算法的优势,将ISTA的迭代步骤映射到深度网络结构中,既大幅度提高了计算效率,又赋予了网络明确的可解释性.ISTA-Net用传统矩阵测量,重建部分由一个线性初始重建网络和一个非线性深度重建网络组成.原始图像先分块,再用矩阵Φ测量后得到y.在初始重建网络部分,通过求解最小二乘问题得到相应的线性映射矩阵,即Qinit=XYT(YYT)-1,(6)式中:X∈RN×Nb为训练集图像块组成的矩阵,其中Nb为训练集图像块的个数;Y∈RM×Nb为对应的测量值矩阵.则有Qinit∈RN×M,初始重建结果为x0=Qinity.在深度重建网络部分,将传统ISTA算法中的迭代更新步骤映射到一个深层网络体系结构中,网络中的每一个阶段对应传统ISTA算法中的一次迭代过程.在ISTA-Net的深度重建中,将ISTA算法中式(2)和式(3)转化为两个独立的模块,残差模块zk和近似估计模块xk,即:zk=xk-1-ρΦT(Φxk-1-y);(7)xk=argminx 12x-zk22+λΨx1.(8)在zk模块中,步长ρ不同于ISTA中的固定步长,而是为增加网络的灵活性,可在不同的迭代中变化.在xk模块中,用一种非线性变换函数F(⋅)来稀疏自然图像,取代人工设计的稀疏变换矩阵Ψ,该函数由两个无偏差项的线性卷积算子组成,即F(x)=V(γReLU(W(x))),(9)式中:V(⋅)和W(⋅)分别为两个卷积操作;γReLU(⋅)为整流线性单元.反变换F˜(⋅)与F(⋅)结构相似,但卷积核参数设定不同,因此式(8)用网络展开后变为xk=F˜k(ηλk(Fk(zk))),(10)式中λ为迭代模块中可学习的参数.并且在ISTA-Net的每个重建阶段中,其变换参数和阈值参数F˜k(⋅),Fk(⋅)和λk都不同.图2为ISTA-Net的网络框架图.10.13245/j.hust.221103.F002图2ISTA-Net网络结构图ISTA-Net中所有参数都是采用反向传播端到端学习,网络将迭代收缩阈值算法与深度学习相结合,其在图像重建效果上明显优于DLCS网络.TISTA[39]是另一种基于ISTA的深度学习稀疏信号恢复算法.与ISTA-Net不同之处在于TISTA使用了误差方差估计,提高了收敛速度.在Set11数据集下的对比实验,与主流的DLCS网络,例如ReconNet[50]相比,ISTA-Net重建图像的峰值信噪比(PSNR)平均提升了2.02 dB.在ISTA-Net的基础上,ISTA-Net++[51]和OPINE-Net+[52]对其进一步改进,并将重建图像的PSNR分别平均提升了1.68和3.66 dB.由此可见:基于ISTA算法展开的网络充分利用了传统优化算法与深度方法的优点,使重建网络既具备可解释性,又有良好的重建性能.3 AMP及其展开网络3.1 AMP算法原理近似信息传递算法AMP可看做ISTA的一个改进版本,它对残差项做了修正,能更好地权衡稀疏表达和下采样之间的矛盾[53].针对式(1)所描述的目标函数,AMP迭代优化过程为zk=y-Φxk+bkzk-1;(11)xk+1=ηλk(xk+ΦTzk),(12)式中:bkzk-1∈RM×1为昂萨格校正项,可加速AMP的收敛;ηλk(⋅)为阈值收缩函数,随迭代次数而改变.3.2 LAMP算法LAMP算法是一种基于学习的近似消息传递算法,它将AMP算法中的(Φ,ΦT)表示为(Ak,Bk),且Ak=βkΦ,Bk=ΦTCk,其中,βk为步长,βk0且Ck∈RM×M.LAMP算法迭代过程为:zk=y-Akxk+bkzk-1;(13)xk+1=ηλk(xk+Bkzk).(14)LAMP与LISTA的主要思想相同,将算法的每一次迭代转化为单个网络层,执行k次迭代等价于一个k层神经网络的前向传播,网络结构如图3所示.10.13245/j.hust.221103.F003图3LAMP算法结构图与LISTA相比,LAMP通过展开AMP算法,在深度神经网络中使用昂萨格校正项,加快了算法的收敛速度,且在LAMP的每次迭代中,阈值收缩函数的阈值λ随着zk的变化而变化.另当LISTA与LAMP收敛到相同值时,LAMP算法需要的网络层数更少.3.3 AMP-NET算法文献[37]从去噪的视角出发,将AMP算法中信号近似估计项看做原始信号与噪声项之和,并设计由神经网络组成的去噪模块来模拟重建迭代.由于分块测量会造成分块效应降低重建质量,因此AMP-Net在去噪模块后级联去块效应模块,以提升去噪后再拼接图像的重建质量.AMP-Net由测量模块和重建网络两个部分组成.在AMP-Net测量部分,对输入图像进行逐块测量,并且将测量矩阵和重建网络一起训练;重建网络由初始化模块和多个重建模块组成,重建模块由去噪模块和去块效应模块级联而成.AMP-Net网络结构如图4所示.10.13245/j.hust.221103.F004图4AMP-Net网络结构图在初始化模块部分里,首先图像块测量值通过一个初始化矩阵,维数被线性地恢复至原有图像块大小,该初始化矩阵采用全连接层代替;然后将各图像块拼接为完整的图像,作为后续重建模块的输入.在重建网络部分,每一个重建模块由一个去噪模块和一个去块效应模块级联而成.去噪模块对应AMP算法对信号估计的优化迭代过程,具体来讲,由式(11)和式(12)可得第k次迭代的第i个图像块为xik=ΦTzik-1+xik-1-(ΦTΦ-I)(xi-xik-1),(15)式中(ΦTΦ-I)(xi-xik-1)看作噪声项,且I∈RN×N,xi-xik-1用一个可训练的深度模型Rk(⋅)替代,再引入一个可训练参数αk改进优化去噪模块,以进一步提高重建过程的灵活性.去块效应模块Gk(⋅)采用ResNet[54-55]中的残差结构,去除拟合的图像加性块效应.AMP-Net从去噪视角提出了一种新的算法展开模型,采用去块效应模块,提升了图像重建质量,性能优于大多数DLCS算法,在一定的范围内,模型的性能会随着重建模块数量的增加而提升.与ReconNet[50]相比,在Set11数据集下AMP-Net重建图像的PSNR平均提升了2.36 dB.此后,文献[45]在AMP算法的基础上提出了一个新的展开的网络,并引入了注意力机制模块,进一步将重建图像的PSNR平均提升了3.3 dB.4 ADMM及其展开网络4.1 ADMM算法原理当使用ADMM算法解决凸优化问题时,将式中稀疏变换及稀疏性约束条件作了更宽泛的定义,将问题建成更通用的模型,即minx 12Φx-y22+∑i=1Cλig(Dix),(16)式中:λi为正则化系数,用来权衡数据保真项和正则化项;g(⋅)为非线性正则化函数;Di∈RM×N为转换矩阵.ADMM首先通过变量分裂,引入独立对偶变量z∈RM×1,将式(16)变为minx,{z}i=1C 12Φx-y22+∑i=1Cλig(zi);s.t. zi=Dix(∀i).(17)其对应的增广拉格朗日函数为Lρ(x,z;εi)=12Φx-y22+∑i=1Cλig(zi)+ρi2Dix-zi+εi22, (18)式中:εi∈RM×1为二元变量;ρi为惩罚系数.ADMM通过交替最小化式(18),双变量更新,求解过程为      Xk:xk=ΦHΦ+∑i=1CρiDiTDi-1ΦHy+∑i=1CρiDiT(zik-1-εik-1);Zk:zik=S(Dixk+εik-1;λi/ρi);Mk:εik=εik-1+ηi(Dixk-zik), (19)式中:ηi为常数参数;S(⋅)为具有参数λ的近端映射.通过式(19)的迭代更新,可构建展开网络学习每一层中的参数λi,ρi,ηi和Di,本研究用网络模块Xk,Zk和Mk对应变量xk,zik和εik的更新.4.2 ADMM-CSNet算法文献[34]将ADMM算法展开成ADMM-CSNet,将式(19)中的变量更新用神经网络模块代替.ADMM-CSNet中每个迭代阶段主要包含重建层Xk、辅助变量更新块Zk和乘数更新层Mk这三个模块,其中Zk可分解为一个卷积层Ck和非线性变换层Sk,网络结构如图5所示.10.13245/j.hust.221103.F005图5ADMM-CSNet网络结构图重建层Xk将上一层的输出zik-1和εik-1作为输入,输出定义为xk=ΦHΦ+∑i=1CρiDiTDi-1ΦHy+∑i=1CρiDiT(zik-1-εik-1), (20)式中ρi为第i个惩罚参数.卷积层Ck通过卷积运算将图像转换到变换域,用一系列可学习的滤波器代替传统算法中的稀疏变换.对于第k个迭代阶段的重建图像xk,卷积层Ck输出为cik=Dikxk.非线性变换层Sk执行非线性变换.该层来源于式(19)中定义zk时的收缩函数S(⋅),但其在网络中并没有设定为正则化项中的收缩函数,而是使用分段线性函数去学习更通用的函数.乘数更新层Mk的输出定义为εik=εik-1+ηik(cik-zik),式中ηik为可学习的参数.ADMM-CSNet的网络架构可以从数据中学习原来须要手工设计的领域知识,例如变换域、变换域中稀疏正则化项和最优化算法的超参数,并达到在不同图像任务下最优恢复图像的目的,较好地恢复图像清晰的边缘和更多的图像细节,且在测量数减少近10%,运行速度提升约45倍的情况下,重建质量与传统重建算法相当.在相同的数据集下,与DLCS图像重建方法相比,例如SDA[6]与ReconNet[50],ADMM-CSNet的PSNR平均提升了12.10和8.17 dB.ADMM-CSNet利用数据驱动的方法对图像模型和变换稀疏性进行判别学习,提高了图像重建的精度和速度.5 展望近年来,算法展开技术利用传统迭代算法提升了网络的可解释性,并且在更简洁的网络架构下,网络性能与泛化能力优于通用神经网络.虽然算法展开网络在可解释图像压缩感知中有了一定的进展,但是其本身不够成熟,还有很多值得研究的问题有待解决.a.具体展开方式的设计.目前常用的传统迭代算法有AMP,ISTA和ADMM等一阶优化方法.对选定的迭代算法构建展开网络后,有时会引入高度非线性或是不平滑的操作,例如硬阈值操作,这些操作不利于网络的训练,因此对于如何选定迭代算法,该算法具体用何种方式展开,哪些参数是可训练的,哪些参数须要修正,须要更细致地探索和研究.b.展开网络的理论分析.由于使用了神经网络对原有的迭代模块进行非精确的展开和计算,原有优化算法的收敛性等理论性质已经不再被保持,因此须要分析展开过程对原有理论性质的影响,深入了解新的网络结构机制.当进一步探索迭代算法展开时,关键参数与网络结构的对应关系,参数的尺寸、网络的深度这些网络设计的关键因素如何影响网络的收敛性和通用性.c.资源受限平台上的应用实施.基于展开的压缩感知技术在资源受限的大数据场景下具有重要的实用意义.当应用平台(如数码单反相机和移动设备)的存储和计算资源受限时,若直接部署通用的神经网络,则由于大量的参数须要训练,因此难以实施.若将通用网络压缩剪裁后再部署,则其性能会显著下降.而基于展开的压缩感知网络由于利用了领域的先验知识,网络规模远小于通用网络.因此,如何根据实际的应用平台,设计高效的展开网络是值得关注的方向.6 结语本研究首先回顾了可解释压缩感知领域中算法展开网络现状,然后选取三个具有代表性的传统迭代算法,分析了其展开模式及其在压缩感知领域中的应用,最后讨论了算法展开的局限性和挑战,并提出了未来研究的可能方向.算法展开作为一种沟通基于模型方法和基于数据驱动方法的桥梁,使基于深度学习的压缩感知方法保持了高时效和高质量重建性能,同时结合了领域知识,降低了网络结构复杂性,使网络具有一定的可解释性,具有重要的研究前景.

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读