织物疵点检测在面料生产的质量控制中起着至关重要的作用,传统的通过人工目测检查疵点效率低且误检率高,通过视觉技术进行面料图像疵点检测一直是纺织行业研究的热门问题.在疵点检测任务中,图像分割方法通过分析坯布疵点图像特征,分割出疵点边缘,进而将疵点区域从坯布背景中提取出来,能够辅助评价疵点对坯布质量影响的严重程度.图像分割方法主要是基于视觉显著性的方法,其受生物视觉启发,通过构建图像区域的显著性特征来实现目标区域与背景区域的分割[1].常见的显著性特征可分为局部差异性特征、全局稀缺性特征、高层语义特征等.局部差异性体现在疵点与周围面料存在明显的特征差异,全局稀缺性是指从整幅图像来看,疵点区域出现的频率远远低于坯布背景,缺乏丰富的特征信息.以对比度计算为主的空域模型,其显著性原理多为将图像直接二值化,然后在灰度图上集中提取特征值进行判断.文献[2-3]分别采用梯度方向直方图(HOG)和基于局部对比度的方法(RC方法)提取疵点特征来检测织物疵点.基于局部对比度的方法容易在疵点附近产生高显著值,但无法高亮地显示完整区域,而基于全局对比度的方法能够给相似图像区域分配相近显著值,均匀高亮整个区域,但存在边缘模糊的情况.此外,更多研究者开始考虑局部与全局特性相结合的方法,并加入频域处理方法.文献[4]提取织物图像的全局和背景关联值作为两种显著性特征,用支持向量机进行分类.谱残差(SR)系列模型[5]对亮度特征进行二维傅里叶变换得到幅度谱和相位谱,经过低通滤波器去除原图中冗余信息得到显著区域.一种改进频率调谐的傅里叶变换(FT)算法[6]应用非局部均值滤波器替代高斯滤波器,基于平均最大类间方差区分疵点和背景,增强对背景纹理的平滑和降噪能力,但只考虑了一阶平均颜色,显著区域与背景的对比不够明显.随着图像处理技术的发展,彩色图像能提供比灰度图像更为显著的信息.结合疵点区域颜色、方向、边缘、纹理等图像特征,根据疵点图像在HSV(色调、饱和度、数值)颜色空间中的不同特征表现形式,建立疵点显著性分层检测模型[7].也可以利用多尺度局部转向核将红绿蓝(RGB)织物图像转换至颜色空间,通过奇异值分解和中心周围定义计算颜色通道特征,最后映射生成疵点显著图[8].文献[9]提出一种基于全局位置和局部细节互补的RGB-D显著性检测框架,设计交互模块从RGB图像中有选择地进行特征表示,定位具有精细边缘细节的显著目标.坯布疵点图像分割问题的主要挑战在于提取疵点的显著特征,但坯布图像中疵点相对占比小、视觉上不显著,且在实际生产环境中获取的图像存在噪声,单一的显著性特征方法对噪声非常敏感,无法完全聚焦在疵点,会导致疵点的漏检;因此,利用图像底层属性综合描述疵点特征,设计复合型的显著性特征来度量疵点与坯布背景的差异性,以提高疵点与背景纹理的区分程度是更为有效的方法.坯布疵点图像分割的另一挑战则是坯布疵点形状各异,图形学上呈现不规则几何形状,难以分割出疵点区域.目前主要的方法有阈值分割、边缘检测算子及基于深度学习的边缘检测网络,其原理是根据灰度、颜色、纹理和形状等特征把图像划分成若干互不交迭的区域,并使这些特征在同一区域内呈现出相似性,而在不同区域间呈现出明显的差异性[10].其中,阈值分割是常见的直接对图像进行分割的算法,主要思路是用最佳阈值将图像的灰度直方图分割成两部分,使两部分类间距离最大,突出目标区域[11-13].边缘检测算子主要通过图像中像素强度、颜色或纹理等梯度的不连续性差异分割目标物体的边缘轮廓.Sobel算子[14]基于相邻像素在目标边缘处水平和垂直方向的灰度加权差为极值来检测边缘轮廓.Prewitt算子[15]提升轮廓检测图像噪声的平滑程度,但定位精度存在一定偏差.改进Canny算子通过加入非最大抑制和双阈值过程来取得更精细的轮廓和更准确的定位[16].疵点边缘和面料背景分界模糊,受到图像采集时光照等的影响,所以选择适用于不同场景的最佳边缘检测算子须要多次试错.近年来,随着深度学习技术的发展,基于深度学习的轮廓检测方法致力于从数据中直接学习原始图像和轮廓标注之间的映射关系.文献[17]提出了一种基于卷积神经网络(CNN)的深度监督网络,利用相关因子处理过拟合训练数据,对织物疵点和非疵点进行高效分类.文献[18]提出一种卷积特征更丰富的精确边缘检测器,充分利用高层语义特征和精细细节特征分割出高质量轮廓.深度学习模型是通过搭建多层级特征提取网络来获得对边缘细节的学习能力,对于坯布图像上相对占比小的疵点,经过多层卷积的疵点信息反而会丢失;此外,因为深度学习检测模型需要大量疵点图像样本作为模型训练提取特征的基础,所以在坯布疵点图像数据量较少的情况下,会导致训练欠拟合的模型失效.现有基于阈值分割的方法大多在疵点和坯布背景区域像素灰度值或其他特征存在明显差异的情况下,经过大量实验仔细筛选分割阈值,但采用固定阈值分割疵点的检测方法往往表现不佳,分割得到的疵点边缘粗糙,与实际疵点形状不一致,影响后续对疵点类型的判断;因此,针对坯布图像上疵点不规则形状准确分割问题,引入分割阈值自适应生成方法,对每幅坯布图像计算生成最佳分割阈值,选取多个阈值最大程度上完整保留图像中的疵点边缘细节,从而获得形状精准且完整的疵点区域.本研究提出了一种基于显著性检测的坯布疵点图像自适应分割方法,该方法将视觉显著性机制和传统图像分割方法相结合,综合利用全局、局部及边界信息,提出包含局部光强差对比度、高密度连续性区域特征和Lab色彩空间颜色敏感度特征在内的多视觉显著性特征提取方法;在种子点邻域生长机制下实现多种显著性特征的融合,构造出疵点区域的粗糙显著图;结合疵点显著图,设计分割阈值自适应生成方法,实现疵点边缘细节的精细检测,为后续对疵点的识别与分析等高层应用提供精确结果.1 显著性特征提取方法本研究通过分析坯布图像上疵点的图像特征,针对疵点相比坯布背景的对比度弱、疵点像素表现为高频集中的连续区域以及颜色差异,设计如图1所示的坯布疵点图像局部光强差对比度、高密度连续性区域特征和Lab色彩空间颜色敏感度显著性特征,通过特征函数搜索满足坯布图像疵点的特征并映射出位置,实现坯布疵点信息的完整表示.10.13245/j.hust.240599.F001图1坯布疵点图像多视觉显著性特征函数设计1.1 局部光强差对比度对比度可反映图像中像素值的突出程度,是典型的显著性特征.针对坯布疵点区域像素局部强度高、对比度大的特点,本研究提出局部光强差对比度特征,克服了全局强度差对比单个疵点像素与整幅图像强度时容易湮灭的不足,增加了疵点区域像素与超像素的局部对比,其特征函数为SF,k=skN+ΔskN,(1)式中:下标F为特征;skN为超像素Ik相对坯布图像I的全局强度差,N为归一化符号,∀skN∈[0,1],Ik为该坯布图像超像素集合I˜中第k个超像素,表示一块均匀致密含有面料和疵点特征信息的图像区域;ΔskN为疵点像素强度高于Ik的局部强度差,skN=||p¯k2-p¯2||max(||p¯k2-p¯2||),(2)其中,p¯为面料背景像素均值,p¯k为Ik的超像素值,即组成Ik的所有通道像素均值.有      ΔskN=∑j=1h∑i=1w(pk2(i,j)|pk(i,j)p¯k-p¯k2)/Vk /max(||p¯k2-p¯D,k2||), (3)式中:w和h分别为Ik的长和宽;i和j分别为Ik中单个像素坐标;Vk为满足pk(i,j)p¯k条件的疵点像素个数;p¯D,k为疵点局部像素值高于超像素值p¯k的均值.由于疵点局部强度差是单个疵点像素值的计算,差值极为明显,因此加入局部强度差对比度会提升疵点特征的显著性.1.2 高密度连续性区域特征区域特征是图像显著性特征中用于描述具有相似性和连续性的像素集合.针对疵点区域在图像上表现为像素密度高且有连续边界的特点,本研究提出高密度连续性区域特征,克服了采用强度差对比度函数会同时将高频疵点特征和高频噪点表征出来的缺点,设计了能够区分频发疵点和偶发噪点两类像素的奖惩机制,其特征函数为QF,k=Fk(Δpr)eqk/max({Fk(Δpr)eqk})1-Fk(Δpr)eqk/max({Fk(Δpr)eqk}),(4)式中:r为Ik中第r个像素;Fk(Δpr)为惩罚因子,定义为Ik中可能是疵点的像素总数,Fk(Δpr)=∑r=1whfrΔpr), (5)其中fr(Δpr)为单个像素满足最大超像素Imax值的条件函数,fr(Δpr)=1      (Δpr0),0      (Δpr≤0); (6)Δpr为Ik中第r个像素与Imax的差值,Δpr=pk(r)-max({p¯k}).(7)将Δpr代入式(6)条件函数对每个像素的判断,式(5)给出Ik中疵点像素值超过Imax值的总数.定义疵点像素的发生概率qk为Fk(Δpr)与Ik的面积之比,由式(4)可知qk越大,其显著特征值就越高,说明是疵点区域的可能性越大;反之则是高频噪声.1.3 Lab色彩空间颜色敏感度特征颜色特征是显著性特征中对图像尺寸、方向、视角等依赖性较小的特征之一.疵点是面料图像上的显著区域,也就是图像频谱中的高频成分,针对疵点对颜色敏感程度不同导致全局像素空间分布情况存在差异的特点,首先利用Lab色彩空间基本消除颜色分量之间的强相关性,然后根据图像上疵点对多个通道的色彩响应程度,通过Lab空间转换后定义颜色敏感度特征函数为LF,k=[|Lk-Lmax|+|ak-amax|+|bk-bmax]-1, (8)式中:Lmax,amax,bmax分别为Imax在Lab空间的明度分量和两个色度分量;Lk,ak,bk分别为Ik在Lab空间的明度分量和两个色度分量,由下式计算得到,Lk, ak, bkT=Mp¯kR/255, p¯kG/255, p¯kB/255T,M=0.381 10.578 30.040 20.196 70.724 40.078 20.024 10.128 80.844 4, (9)其中,M为RGB转Lab色彩空间的关系矩阵,p¯kR,p¯kG,p¯kB分别为Ik的RGB空间的颜色均值.LF,k值越大,反映Lk,ak,bk越接近各自通道最大值,说明Ik越接近Imax的明度和色度,颜色敏感度关联强则说明该超像素对应疵点的可能性更大.1.4 多视觉显著性特征集合搜索在设计好疵点的多视觉显著性特征函数后,须要利用该函数进行特征集合搜索,筛选出坯布图像上的显著性特征.对于光强差对比度特征集合{SF,k}进行显著性特征搜索,生成满足∀SF,kS¯F,k,k∈[1,K]∈I1条件的显著性特征集合{SF,k1},其中{SF,k1}⊆{SF,k},k1∈[1,K1]⊆[1,K].同理,对于高密度连续性区域集合{QF,k}和颜色敏感度特征集合{LF,k}进行相应显著性特征搜索,生成{QF,k2}和{LF,k3},其中{QF,k2}⊆{QF,k},k2∈[1,K2]⊆[1,K];{LF,k3}⊆{LF,k},k3∈[1,K3]⊆[1,K].K为I˜中的超像素数量,K1,K2,K3分别为I˜中满足光强差对比度特征、高密度连续性区域特征和颜色敏感度特征的超像素数量.根据特征集合序号映射生成三个显著性区域集合{DF,k1},{DF,k2}和{DF,k3},将同时满足三个显著性特征的区域定义为{DF,k}={DF,k1}⋂{DF,k2}⋂{DF,k3},(10)式中:k∈[1,K4];K4min(K1,K2,K3).若{DF,k}为空集,则说明没有同时满足三个显著性特征的区域,坯布图像不含有疵点.2 疵点图像自适应分割基于多视觉显著性特征提取方法获得的疵点特征一般比较粗糙,其中仍可能包含一些误检测的疵点和面料背景.为了提高疵点检测的精度,设计疵点显著图的自适应分割方法,先对显著区域特征再计算,构建出区域连续的疵点显著图,再通过分割阈值自适应的方法优化疵点显著性区域的边界细节,实现疵点准确检测.2.1 基于种子点邻域生长的疵点显著区域构建生成的显著区域{DF,k}中,尽管消除了高频噪声的影响,但仍旧存在极少数游离于连续区域外的子区域,这些子区域并不属于疵点,须要进行剔除.以{DF,k}集合中K4个元素作为种子点,基于种子点8邻域的空间距离计算公式对该集合进行筛选,1≤(xm-xn)2+(ym-yn)2≤2,(11)式中:m,n∈[1,K4];(xm,ym)为种子点坐标;(xn,yn)为种子点邻域坐标.在{DF,k}中各元素到种子点的距离若满足式(11),则保留该显著性子区域为邻域,反之舍弃.由此可以生成K4个种子点显著性区域,分别记为{D1},{D2},…,{DK4}.由以上种子点显著性区域构造出疵点显著性区域为{DF,q}={D1}⋃{D2}⋃…⋃{DK4},(12)式中q∈[1,Q]∈[1,K4],Q为疵点显著性区域Ik的总数.至此,坯布图像中所有含有疵点信息的区域按照疵点显著性特征函数和空间距离计算公式被提取,并构造出疵点显著图DF,q.2.2 分割阈值自适应生成获得疵点区域的精细边缘对于确定疵点位置和形状都极为重要,经过特征提取和距离计算的疵点显著性区域已经将疵点感受野扩大,但疵点在几何形态上呈现多种不规则形状,细微的差异给疵点精细边缘的分割带来较大困难.为了更好地获取具有精细边缘的疵点,须要对疵点显著区域的像素做进一步分割处理.获得精准疵点区域的关键在于如何自适应生成疵点显著性区域的分割阈值,对包含在疵点显著图的所有像素进行逐一分割,可以实现对疵点的精确提取.记疵点显著图DF,q中超像素为ID,q,疵点显著性区域像素点集合为U˜,像素均值为u¯=∑k=1Q∑j=1h∑i=1wID,q(i,j)/(whQ).(13)设∑q=1QID,q像素点集为U˜={u1,u2,⋯,uq,uq+1,⋯,uwhQ},采用3σ原则生成疵点的自适应分割阈值Vadp=v¯±3σv,(14)式中:正负号代表明度范围上从极明到极暗疵点的取值范围,对于每一张经过显著性特征筛选的坯布图像,在光强、颜色条件下将存在的疵点分为两种,疵点区域较面料背景明亮的为明疵点取正号,反之暗疵点取负号;v¯和σv分别为自适应疵点像素V˜集合的均值和方差,有v¯=1V∑q=1Vvq,(15)σv=∑q=1V(vq-v¯)2/(V-1),(16)其中vq为V˜中元素,对于uq s.t. u¯,由超像素集合U˜映射生成自适应疵点像素集合V˜,V˜=V˜1=v11,v12,⋯,v1V1      (uq≥u¯),V˜2=v21,v22,⋯,v2V2      (uqu¯). (17)结合前文所提出的显著性特征,在式(17)中,对于像素值高于初始显著性区域均值的像素,定义统一映射到明疵点像素集合V˜1,形成的集合元素个数为V1,而低于均值的像素则统一映射到暗疵点像素集合V˜2,其集合元素个数为V2.至此,对所有显著性区域的像素完成自适应阈值生成.根据生成的自适应阈值,对显著性疵点区域实现疵点像素筛选,对于uq s.t. Vadp,由集合U˜映射生成自适应分割像素位置坐标集合,其集合元素个数为T,      C˜adp={[x1adp,y1adp],[x2adp,y2adp],⋯,[xTadp,yTadp]},式中自适应分割后的疵点坐标为[xadp,yadp]=[∑t=1Txtadp/T,∑t=1Tytadp/T].3 实验验证本研究将坯布生产过程中出现的6类疵点及无疵点的坯布图像制作成GreyFabric数据集,该数据集包含600多张坯布图片,疵点类型分别是破洞、油污、断经、缺纬、豁子和色斑,如图2所示.10.13245/j.hust.240599.F002图2坯布疵点类型3.1 模型复杂度分析本研究模型算法的计算量由以下几个部分参数运算组成:a. Ik的超像素值和图像I的像素均值计算,计算量为whK+K;b. 局部光强度对比度和局部强度差计算,计算量为K+whK;c. 高密度连续性区域特征及其惩罚因子计算,计算量为K+whK;d. 颜色敏感度特征计算,计算量为4K;e. 疵点显著图均值和自适应分割阈值计算,计算量为whQ+(whQ+2V).模型总计算量FLOPs(浮点运算)为3whK+7K+2whQ+2V,其中:whK=WH;VwhQ,故总计算量可近似转换为关于图像I像素总数WH的一阶线性函数(3+4Q/K)WH+7K,Q/K为小于1的常数.根据大O表示法(Big-O notation)计算模型复杂度为O(n),因此其对图像的处理效率较快.3.2 多视觉显著性特征提取效果为了评估本研究设计的每种显著性特征的有效性,用多重视觉显著性模型(multiple visual saliency model,MVSM)简记所提出的多视觉显著性模型,用SF,k,QF,k,LF,k分别标记局部光强差对比度、高密度连续性区域特征和Lab空间颜色敏感度,用+表示模型所用的特征组合.其中,MVSM+SF,k,MVSM+QF,k,MVSM+LF,k,MVSM+SF,k+QF,k+LF,k分别简记为MVSM1~MVSM4.在平均精度(P)、召回率(R)及F度量这三种评价指标下,在数据集上对所提方法进行显著性实验测试.其中F度量定义为Fβ=(1+β2)PR/(β2P+R),式中β2设定为0.3,参考文献[10]中显著性检测精度对于召回率的重要性设定.同时,为了证明本文方法在显著性特征上的有效性,与其他经典显著性算法进行对比实验,如边缘算子Sobel,Prewitt和Canny,图像显著性算法LC和FT,以及两种基于OpenCV contrib的显著性检测算法SSFG和SSSR,由表1结果展示算法所获得显著性特征提取性能.10.13245/j.hust.240599.T001表1显著性特征提取模型性能统计评价指标MVSM1MVSM2MVSM3MVSM4SobelPrewittCannyLCFTSSFGSSSRP0.720.480.630.890.370.440.520.830.840.620.76R0.780.830.880.870.420.460.470.770.830.590.62F0.730.530.670.880.380.440.510.820.840.610.72对于基于单个特征进行显著性提取的模型MVSM1-3,从平均精度看,局部光强差对比度特征在描述疵点显著性时更为准确,这说明局部区域特征的加入能提供更为全面的全局对比度特征描述;从召回率看,高密度连续性区域特征相比较其他两种特征在描述显著性区域时更加全面;从F度量看,空间颜色敏感度特征对于疵点的显著性效果更好.为了直观展示多视觉显著性特征使用效果,本研究还选取了6类疵点的单张图片进行特征可视化说明,如图3所示.其中图3(a)为输入图片,图3(b)~(d)分别为采用SF,k,QF,k,LF,k这3种显著性特征模型(MVSM1~MVSM3)提取的映射图,图3(e)则为使用特征组合模型MVSM4提取的效果.10.13245/j.hust.240599.F003图3显著性特征提取结果可视化从平均精度和F度量对经典算法模型进行性能对比,LC,FT和MVSM4的模型性能要显著优于其他算法,说明这三种算法对于疵点的误检率低;但结合召回率看,LC和FT算法存在漏检情况,对疵点显著性提取能力不够.在所有模型中,MVSM4获得最优的平均精度、次优的召回率和最优的F度量,综合看来,模型MVSM4对于突显疵点的效果更好,不仅能完整覆盖疵点,还能减少提取到的显著背景特征.这表明基于局部光强差对比度、高密度连续性区域和Lab色彩空间颜色敏感度的特征组合能够描述疵点显著性区域,使显著性区域检测模型获得最佳的整体性能.3.3 疵点显著性区域自适应阈值分割定位实验本文方法针对疵点区域的精准检测主要包含显著性区域构建和阈值自适应分割两步,为了验证这种分步策略的有效性,本研究进行了显著性区域构建与阈值自适应分割的分步对比实验,现将模型MVSM+SF,k+QF,k+LF,k简记为MVSM.3.3.1 疵点显著性区域构建对比实验仅采用视觉显著性特征函数生成疵点显著性图,部分可视化例图如图4(a)所示,可以看出虽然疵点被突显,但还是存在错检的情况,所以结合区域生长方法进一步准确定位疵点.图4(b)展示了采用区域生长方法后,显著性模型的定位效果.从使用的特征和显著性区域的检测过程角度来看,加入基于区域生长的方法能够对图像像素值和像素间距离进行利用,从而增加MVSM模型对于疵点定位的准确程度,更为清晰地检测出均匀致密且连续的显著性区域,同时能够剔除一些误检背景.10.13245/j.hust.240599.F004图4显著性区域构建示例3.3.2 阈值自适应分割对比实验由于本文方法将疵点的检测定义为一个显著性区域的像素分类问题,即分类疵点显著性区域与背景区域,给出的是疵点区域像素的分类标记,其他对比方法给出的是区域的显著度,因而,本文方法与其他经典检测方法在结果的表现形式上有一定的区别和差异.根据以下图像检测指标来进行比对:真实标签和预测结果的交并比(IoU),平均交并比(MIoU),类别像素准确率(CPA),类别平均像素准确率(MPA).IoU是两个像素集合交集与其并集的重合比例,本研究分别对6类疵点计算Gt和分割的交并比;MIoU为标准的准确率度量指标,对所有类别疵点IoU求均值;CPA指单类别疵点被正确检测的概率;MPA为计算每个类别中被正确分类的像素与所有像素数量的比值,累加后求平均值,可以看作疵点总体准确度的衡量指标.为了证明阈值自适应生成的分割效果,给出部分示例图片分割所用的自适应阈值及提升数值,如表2所示.自适应生成的分割阈值较图像均值的准确度均有提升,尤其是油污、色斑类疵点的阈值准确度提升较大,能提高分割准确性.本研究所提出方法在6类疵点分割的图像检测指标如表3所示10.13245/j.hust.240599.T002表2采用自适应分割阈值准确度的提升效果示例图片编号图像均值自适应阈值提升百分比/%No.155207.551219.1575.59No.247103.77085.96217.16No.353222.973229.6783.01No.412159.496170.4246.85No.536224.676235.6914.90No.60184.55673.20713.4210.13245/j.hust.240599.T003表3阈值自适应生成下本文模型6类疵点图像分割结果疵点类别评价指标交并比准确率/%1(破洞)0.970 898.372(油污)0.985 399.213(断经)0.847 795.754(缺纬)0.831 498.015(豁子)0.979 3100.006(色斑)0.986 398.23(其中6类疵点图像的MIoU为0.933 5,MPA为98.26%).通过自适应生成分割阈值,分别统计每一类疵点的分割结果,可以分析出不同类型疵点之间的分割差异,破洞、油污、豁子和色斑类的区域型疵点像素被成功分割出来的比例更高,被正确检测的概率也高于断经和缺纬类的狭长形疵点.与其他算法的对比实验结果如表4所示,部分示例的检测结果如图5所示.图5(a)为输入图片,图5(b)为疵点区域真实检测结果,图5(c)~(i)为经典算法分割效果,图5(j)为本文方法检测结果.由于融合了全局信息、局部信息和边界信息,因此本文方法能更准确地提取疵点显著区域,更好地抑制面料背景非显著区域.10.13245/j.hust.240599.T004表4图像分割方法对比实验结果分割算法评价指标平均交并比平均准确率/%Sobel0.689 471.29Prewitt0.712 281.37Canny0.695 378.43LC0.836 789.37FT0.907 494.73SSFG0.896 393.81SSSR0.798 494.82本文方法0.933 598.2610.13245/j.hust.240599.F005图5阈值自适应分割结果对比实验示例从图像分割评价指标来看,MVSM模型在所有指标上都优于其他算法,整体性能最优.从区域内部致密性来看,MVSM模型较LC,FT,SSFG,SSSR算法提取的疵点显著性区域内部更加致密,与坯布图像的疵点区域重合程度更高.从提取区域的边界清晰度来看,MVSM模型较Sobel,Prewitt和Canny算子分割的疵点边界更加精确,边缘处细节更接近真实疵点形状.从检测精度来看,MVSM模型提取的显著性区域更接近真实疵点,且包含的误检像素更少.4 结语针对坯布疵点图像分割问题,提出了一种基于视觉显著性的自适应图像分割方法,考虑了坯布图像中全局、局部及边界语义信息,设计疵点多视觉显著性特征函数,并提出图像分割阈值的自适应生成算法.实验结果表明:该方法能够在坯布图像无任何先验信息情况下,自适应调整显著性区域分割阈值,获得边缘连续清晰的疵点图像分割结果,视觉上也更符合人眼视觉分割效果.本研究提出的图像分割方法主要针对坯布图像上显著性弱、形状不规则的疵点进行检测,但是分割出的疵点区域与实际疵点区域相比有些偏小,存在一定的像素损失.未来的工作将继续提高疵点检测精度,同时致力于更多类型面料的疵点检测,扩大算法的适用范围.

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读