模糊C均值聚类算法(FCM)[1]是一种揭示数据内在结构的重要工具,已广泛应用于模式分析与机器智能等众多领域[2].它是一种基于模糊理论的聚类算法,其计算数据属于某一类的隶属度.这种得到数据属于某一类可能性而不得到数据标签的聚类算法也称为软聚类,该特性使得其在图像分割中能取得更好的效果[3].在此基础上,带有邻域信息的模糊C均值算法(FCM_N)[4]被提出,当对一个像素点进行聚类时,不仅考虑像素点本身,而且考虑与其相邻的像素点.之后还有很多类似的带有邻域信息的模糊C均值算法被提出用于图像分割,文献[4]对核磁图像强度不均匀的特征假设了一个误差,并将其引入FCM中来进行核磁图像分割;文献[5]改进了FCM_N,提出FCM_N_S1和FCM_N_S2,并引入核的方法于FCM_N中,提出基于核的FCM_N(KFCM_N)来进行图像分割;文献[6]在引入邻域信息时考虑邻域数据点与中心数据点的位置,提出基于局部空间信息的模糊C均值聚类算法(FLICM);文献[7]假设核磁图像不均匀导致的偏差是稀疏的,在目标方程后加入误差的L1正则项,并在实验中取得了较好的效果.在图片取得好的分割结果后,针对模糊聚类算法缺乏抑制不同噪声能力的特点,文献[8]提出自适应鲁棒图形模糊聚类分割算法,用鲁棒距离代替平方距离,并对正则因子采用自适应调节得到具有更强抗噪声能力的模糊聚类算法;文献[9]联系上下文之间的差异,通过引入可靠的邻域与中心像素点的度量进行图像分割,提出可以抗噪声且能较好保留边缘细节的模糊聚类算法;文献[10]结合形态学重构的方法得到了一个较为快速且表现良好的算法.现有研究引入邻域信息时只考虑了它们之间对于图像的位置差异,大多没有考虑邻域中心点像素值邻域像素值之间的差异,这导致之前的方法不仅无法适用于更大的邻域,并且当进行图像分割时无法避免过度分割.为此,本研究引入数据之间的相似度的信息,使得算法呈现高度的鲁棒性,并且能有效避免过度分割.1 背景知识1.1 模糊C均值算法模糊C均值算法是一种基于模糊理论[11]的算法,相比于硬聚类算法,FCM计算的是每个数据点的隶属度,而不是某个数据点属于哪一类.假设有n个数据X=x1,x2,...,xn,其中xi∈R+m×1为第i个数据,则FCM的目标函数f1为f1=∑i=1n∑j=1cuijm||xi-vj||22,(1)式中:U∈R+n×c为隶属度矩阵;uij∈[0,1]为U的第i行第j列元素,表示第i个数据点属于第j类的可能性;vj为第j类的聚类中心;c为聚类中心的个数;m为用于控制模糊度的参数.当m趋近于无穷时,求得的uij都相同,此时得到的结果是最模糊的.由于FCM考虑到了所有的数据点,因此其聚类中心会受到隶属度很小的数据点的牵引,出现收敛速度慢的问题.相关研究提出了一些解决办法,如:对手抑制式模糊C-均值算法[12]采用竞争学习的思想对第二大的隶属度进行抑制,可以在有效增加收敛速度的同时而不改变fuzzy的性能;抑制式FCM(S-FCM)[13]在进行迭代时不仅抑制对手,而且会抑制其他比最大隶属度低的隶属度.除了抑制的方法外,也有采用选取一部分数据先进行聚类得到聚类中心后再带入整个数据集进行计算的方法,以此来减少计算成本,提高算法效果,如在线模糊C均值(Online Fuzzy C-means)[14]、基于粒子群优化的模糊C均值(SP-FCM)[15].除了改进其收敛速度外,针对控制模糊度的参数m,最大化熵模糊C均值聚类算法(MEFCM)[16]被提出用于避免m的设置,算法通过设置正则项的参数来进行模糊度的控制.针对聚类数目的不确定性,文献[17]使用基于谱系的方法进行聚类数目的确定,文献[18]还提出一种基于广义加权的方法来处理不同数据分布的数据集.1.2 带有邻域信息的模糊C均值聚类算法为了更好对图像进行分割,引入数据点在图像中的邻域信息,从而得到对图像更好的分割效果,其目标函数f2可以表示为f2=∑i=1n∑j=1cuijm‖xi-vj‖22+λ∑i=1n∑j=1cGij,(2)式中:λ为正则参数,其值越大,邻域信息对结果的影响就越大;Gij为包含着第i个数据点属于第j类的邻域的信息,对于FCM_N,有Gij=uijmN∑k∈𝒩i‖xk-vj‖22,(3)其中,𝒩i为xi的邻域,通常包含着以xi为中心的3×3的窗口的像素,N为𝒩i中数据的个数.FCM_N用于图像分割有很好的性能,但是要求的计算成本很高,为解决这个问题,出现了很多改进,FCM_N_S1是其中一种,其Gij为uijm‖x¯i-vj‖22,其中x¯=∑k∈𝒩ixk/N,代表邻域的平均值.可以看到这种方法类似于均值滤波,而FCM_N_S2中的x¯i则是用的邻域中像素点的中值,方法类似于中值滤波.本研究使用类似高斯滤波的方法,使得图像可以适用于更大的邻域.1.3 考虑位置信息的模糊C均值聚类无论是FCM_N还是FCM_N_S1,FCM_N_S2,都是直接对邻域每个点赋予相同的权重,而没有考虑邻域于中心像素值的位置关系.在此基础上,FLICM被提出,其Gij为Gij=∑k∈𝒩i,k≠i1dik+1(1-ukj)m‖xk-vj‖22,(4)式中dik为第i个像素到第k个像素在图像上的距离.这样引入邻域信息也被其他算法借鉴,如DSFCM_N[7]也使用相似方法考虑邻域的信息,其目标函数为J'=∑i=1n∑j=1cuijm∑k∈𝒩j11+dkjxk-ek-vj22+∑q=1lλq∑k∈𝒩j∑j=1nejqp/(1+dkj), (5)式中e为基于核磁图像成像强度不均匀而假设的偏差因子.可以看到其借鉴了FLICM引入邻域信息的方式,对相关邻域的点赋予基于位置信息的权重.2 带有深度邻域信息的模糊C均值2.1 带有深度邻域信息的聚类目标函数构建基于之前的研究,提出带有深度邻域信息的模糊C均值聚类算法(FCM_DN),不仅考虑了邻域数据与中心点的位置关系带来的信息,而且考虑了邻域像素点与中心像素点本身像素值差异的信息.对于第i个数据点属于第j类的目标函数为fij=uijm‖xi-vj‖22+λN∑k∈𝒩iwikuijm‖xk-vj‖22,总的目标函数为f=∑i=1n∑j=1c fij,式中wik为xi邻域里面的对于xk赋予的权重,在本算法中有wik=w1ikw2ik,(6)其中,w1ik为基于邻域像素点与中心点在图像中的位置的权重,w2ik为反映邻域像素点与中心像素点之间相似度的权重.在FLICM和DSFCM_N中,有wik=1/(1+dkj),它考虑了邻域像素对于中心点的在图像中的位置信息,当像素点在图像中相隔越远时,所得到的权值越小;相隔越近,所得到的权值越大.基于这样的规律,使用高斯滤波器的值作为相应的邻域的赋予的权值,即基于邻域像素点对于中心点所在图像位置的权值为w1ik=exp[-dik2/(2σ12)],(7)式中σ1为一个须要自行设置参数.σ1越小则靠近中心像素点的邻域像素点被赋予的权重越大,若σ趋近于0,则只有中心点会被赋予权值1,其他像素点都为0;若σ取很大,则w1ik=1.关于w2ik有很多种,本研究将详细介绍.由于FCM_DN在计算权重时不仅考虑了图像的位置信息,而且考虑了数据点之间本身的相似度,因此可以适用于更大的邻域,使得在进行单个数据点进行聚类时可以有更大的视野,保证了图像分割的准确度,同时避免了图像的过度分割.2.2 数据点相似度的求解数据相似度的求解方法有很多,可以直接使用w2ik=‖xi-xk‖2,但是这更类似于构造一个图,进而求解图中与xi连接的数据点及它们之间的权重.对于这种情况,首先要判断与哪些邻域数据点与xi连接,进而赋予相应的权重,可以使用如下两种方法.a.0-1权重:若xi与xk相连,则将权重赋为1,否则将权重赋为0.虽然这种方式计算较为方便,但是不适用于全连接图.b.高斯核权重:若xi与xk相连,则有w2ik=exp(-‖xi-xk‖22/σ22),(8)通过它可以得到超高维数据的信息.实验中使用高斯核权重,并且假设每个数据点都与中心点相连.2.3 问题求解带有深度邻域信息的模糊C均值聚类的求解可以表示为:min∑i=1n∑j=1cuijm‖xi-vj‖22+λN∑k∈𝒩iwikuijm‖xk-vj‖22;s.t. ∑j=1cuij=1,uij∈[0,1]. (9)可使用拉格朗日方法求解上述优化问题,求解过程与传统的FCM类似,令θi为∑j=1cuij-1=0的拉格朗日乘子,则拉格朗日函数为ℒ=∑i=1nuijm‖xi-vj‖22+λN∑k∈𝒩iwikuijm‖xk-vj‖22+∑i=1nθi∑j=1cuij-1.分别求得ℒ对uij和vj的导数为:∂ℒ∂uij=muijm‖xi-vj‖22+λN∑k∈𝒩iwikuijm‖xk-vj‖22+θi;(10)∂ℒ∂vj=2∑i=1n(vj-xi)+λN∑k∈𝒩iwikuijm(vj-xk).(11)通过求解式(10)并代入∑j=1cuij-1=0,可求得uij的更新公式,通过求解式(11)可求得vj的更新公式,最后得到:uij=uijm‖xi-vj‖22+λN∑k∈𝒩iwikuijm‖xk-vj‖22∑a=1cuiam‖xi-va‖22+λN∑k∈𝒩iwikuiam‖xi-va‖22;vj=∑i=1nuijmxi+λN∑k∈𝒩iwikxk∑i=1n1+λN∑k∈𝒩iwikuijm.可以看到当λ=0时,FCM_DN与FCM是等价的.算法有多个参数须要自行设定,包括正则参数λ、用于控制体现邻域像素点位置信息的权重的σ1,以及计算数据点相似度可能用到的控制权重的参数σ2.3 实验结果3.1 比较算法为体现算法的良好性能,使用如下算法与所提出的算法进行比较.模糊C均值算法(FCM)[1]:最经典的模糊聚类算法之一.在线模糊C均值算法(OFCM)[13]:通过提取一部分数据来依次进行计算以减少计算成本的模糊C均值算法.基于粒子群优化的模糊C均值算法(SPFCM)[15]:通过粒子群优化的思想来找到数据更好的解.带有邻域信息的稀疏偏差模糊C均值算法(DSFCM_N)[7]:在假设图像有偏差的基础上认为偏差是稀疏的模糊C均值算法.基于核的对手抑制模糊C均值算法(RSKFCM)[12]:针对FCM收敛速度慢,采用竞争学习中抑制对手的思想提出的算法,实验中采用核距离来将数据映射到更高维.带有邻域信息的FCM(FCM_N):通过邻域信息的引入使得算法更适用于图像分割.自适应时空强度约束和隶属度关联的鲁棒模糊C-均值(FCM_SICM)[19]:使用双边滤波图片与原图自适应融合,和隶属度关联加快收敛,以得到鲁棒性好且计算成本低的方法.此外,还有基于核的OFCM(OKFCM),基于核的SPFCM(SPKFCM)和简化的FCM_N(包括FCM_N_S1和FCM_N_S2).3.2 人造数据上的实验首先针对算法的鲁棒性,在人造数据集上通过引入不同程度的噪声进行实验.加入椒盐噪声后的图片如图1所示,其FCM_DN分割结果如图2所示.对图1中不同程度的椒盐噪声列出其分割结果的像素准确率(PA),如表1所示.10.13245/j.hust.221117.F001图1加入不同程度椒盐噪声后图片10.13245/j.hust.221117.F002图2加入椒盐噪声图片的FCM_DN分割结果10.13245/j.hust.221117.T001表1椒盐噪声图片分割准确率对比结果算法10%噪声20%噪声50%噪声80%噪声FCMOFCMOKFCMSPFCMSPKFCMDSFCM_NRSKFCMFCM_NFCM_N_S1FCM_N_S2FCM_SICMFCM_DN95.26094.91095.25894.91094.910100.00050.08099.99599.99599.995100.000100.00090.20350.41590.20350.41550.415100.00050.08099.98099.98399.34850.00099.99350.11350.11350.11350.11350.11399.77862.36576.94099.76862.24350.00099.90850.06850.06850.06850.06850.06850.07850.06850.43550.42550.11550.00099.518%从表1可以看到:FCM_DN都能取得99%以上的准确率,并且当椒盐噪声到达80%时,其他所有算法都只有50%的准确率,FCM_DN依旧能保持性能,可见所提出的算法具有很强的鲁棒性.3.3 现实数据集上的结果使用HORSE(Weizmann Horses,https://www.msri.org/people/members/eranb/)数据集上的前200张图片和SED(Segmentation Evaluation Database)[20]进行实验.除PA外还使用归一化互信息(NMI)及模糊聚类的指标,即划分系数(PC)和划分熵(PE),进行比较实验.PC(PC)和PE(PE)的计算方法分别为:PC=1n∑i=1n∑j=1cuij2;PE=-1n∑i=1n∑j=1cuijlnuij.HORSE数据集对比结果如表2所示,PA和NMI越大表示聚类效果越准确,PC越大表示聚类出来的结果越明确,效果越好,越小表示结果越模糊.而PE则相反,PE越小表示结果越明确,效果越好.10.13245/j.hust.221117.T002表2HORSE数据集对比结果算法PANMIPCPEFCMOFCMOKFCMSPFCMSPKFCMDSFCM_NRSKFCMFCM_NFCM_N_S1FCM_N_S2FCM_SICMFCM_DN69.5572.4468.7267.7966.5669.1965.4270.4269.9469.8658.2570.3618.5820.1317.8515.6914.4119.6810.3319.7319.2719.1028.5720.4285.6284.6776.7972.3064.1696.2364.8982.7482.7582.7573.1878.1624.4325.9937.0442.6052.727.7451.6728.8828.8828.8840.3235.31%由于提出的算法引入邻域信息时使用了数据点之间的相似度作为权重,因此可以适用于更大的邻域,实验中FCM_DN使用了15×15的邻域进行图像分割,其中,σ1=10,σ2=300,λ=30.从表2和表3可以看到:FCM_DN都能得到最好的NMI,PA和FCM_DN都能得到前三的准确率,但是对于实际分割出来的图片,其他算法都呈现出过分割的现象,而FCM_DN由于可以适用于更大的邻域,因此克服了聚类方法用于图像分割时产生的过分割问题.但是由于引入大量的邻域信息也使得分类出来的结果不太明确,在表2和表3中可以看到PE和PC都属于中等水平.特别地,在SED数据集的NMI结果对比中,本算法比其他算法高1.78%~26.90%.图3~图5为比较算法与原算法相应的比较,可以看到提出的算法确实避免了图像的过度分割.10.13245/j.hust.221117.T003表3SED数据集对比结果算法PANMIPCPEFCMOFCMOKFCMSPFCMSPKFCMDSFCM_NRSKFCMFCM_NFCM_N_S1FCM_N_S2FCM_SICMFCM_DN74.8877.4273.9772.0971.1271.3367.2976.2175.2975.2660.2976.4923.6326.5822.7217.4816.0021.5611.6026.4024.8624.671.4628.3687.1187.0179.5676.4369.4195.3367.4484.3384.3384.3372.3980.1021.9822.3432.9636.7745.859.2448.3726.2326.2326.2343.1132.03%10.13245/j.hust.221117.F003图3SED数据集中文件“100_0109”的结果10.13245/j.hust.221117.F004图4SED数据集中文件“redberry_rb03”的结果10.13245/j.hust.221117.F005图5SED数据集中文件“windowcn_0078”的结果3.4 参数分析FCM_DN中额外引入了σ1及用于计算数据相似度时可能使用的σ2,其中:σ1用于控制邻域中数据点于中心的位置计算出来的权重;σ2用来控制体现数据点相似度的权重.当σ1→∞,σ2→∞时,FCM_DN与FCM_N是等价的,因为此时有wik=w1ikw1ik=1×1=1.图6所示为不同大小邻域的结果,可以看出:更大的邻域能有效防止图片过分割,但是更大的邻域也会带来参数选择的困难,须要找到合适的参数来赋予邻域合适的权重.在参数选择合适的情况下,更大的邻域可以是整张图片,因为相关的权重会随着距离中心像素点的距离而衰减.10.13245/j.hust.221117.F006图6SED数据集中文件“100_0109”使用不同大小邻域结果4 结语本研究提出一种带有深度邻域信息的模糊C均值聚类算法,在传统算法的基础上引入数据点的相似度作为引入邻域信息时的权重,避免了模糊C均值聚类算法用于图像分割时常伴随的图像过分割.分别在人造数据集和现实数据集上进行实验,结果证明:本算法相对于其他比较算法具有较强的鲁棒性,且可以避免图像过分割.

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读