触觉信息作为重要感官信息之一,能够实时反馈机器人抓取操作时与物体的交互力信息.触觉传感器与传统六维力传感器相比,能够直接将实时的交互力信息转换为电信号传递给机器人控制系统,为机器人精准抓取操作提供接触力反馈,有效避免了六维力向接触力转化过程中对动力学精确建模的需求.随着触觉传感器工艺与封装技术的不断成熟[1],开始广泛应用于机器人的接触力测量和交互[2-4].传统的单点压力传感器将机器人与目标的接触等效成点接触,难以充分反映真实的接触状态,使得基于单点压力传感器获取的接触力信息在用于抓取判别时,存在准确率不高、鲁棒性差等问题.而阵列式触觉传感器能够有效获取机器人末端执行器与物体之间的接触分布力信息,通过分布力信息解析机器人抓取时的接触状态,能够有效提高机器人感知能力,实现精确抓取.阵列式触觉传感器根据其原理不同可分为压阻式[5]、电容式[6]、压电式[7]和光电式[8]等多类.文献[9]通过视触觉传感器获得相应物体的触觉图像,进而判别抓取状态;文献[10]通过光电触觉传感器采集抓取物体信息,判别物体是否发生滑动.然而,上述光电式传感器易受外界干扰,且易受材料特性影响,导致精度受限.文献[11]在多指手每个指尖安装压阻式触觉传感器,通过触觉数据检测抓取状态并实时调整抓取力;文献[12]结合高灵敏度压阻式触觉传感器阵列与高运动分辨率机器人抓取系统,用以判别机器人抓取状态.基于压阻式的触觉传感器具有结构简单、测量范围广和成本低的优点,与电容式传感器相比噪声更小,与压电式传感器相比能够同时检测静态压力和动态压力,适合用于集成机器人的抓取系统.针对基于触觉数据的机器人抓取判别方法,文献[13]使用时空分层匹配追踪为触觉数据创建特征描述符,进而训练抓取状态分类器.然而,上述模型未能充分提取触觉特征信息,无法实现精确地抓取状态判别.文献[14]提出一种触觉卷积神经网络,通过深度学习技术进行机器人操作任务中不同接触状态的区分.上述方法在强大的GPU支持下针对较少种类物体的判断是可行的,随着物体种类的增加,计算量会大幅增加,计算效率难以保证,同时模型须要大量数据驱动,易出现过拟合,导致训练结果不佳,调参过程繁琐.综上,本研究基于压阻式的触觉阵列传感器,提出一种准确高效的机器人稳定抓取判别方法.利用触觉阵列传感器采集机器人抓取操作时的多点接触分布力信息,构建多类别物体的抓取触觉数据集,并基于多层感知机框架建立机器人稳定抓取判别模型,实现抓取状态的分类.该方法能够有效提取触觉的多点接触特征,避免训练过拟合和驱动数据需求大的问题,具备广泛的适用性与较高的鲁棒性.1 触觉阵列传感器的多点接触力测量原理本研究基于Sensitronics公司的高灵敏度柔性压阻阵列传感器搭建机器人抓取系统,图1所示为触觉阵列传感器内部的结构示意图.10.13245/j.hust.240623.F001图1触觉阵列传感器结构示意图本研究所用的触觉传感器厚度为0.4 mm,每个传感单元的面积为3 mm×5 mm,触觉阵列集成了16×10个等间距分布的压阻传感单元,传感单元的测量范围为3~150 kPa,经过测力设备测量标定,拟合压阻曲线如图2所示,图中曲线上每个点的垂直短线棒表示该点的误差范围.10.13245/j.hust.240623.F002图2触觉阵列传感器及其压阻曲线传感单元电阻值与压强的关系可表示为R=kpα,(1)式中:p为作用在传感单元上的压强;R为传感单元的电阻值;k为系数,且k=21 310;α为系数,且α=-1.15.从压阻曲线图可以得出:该触觉传感器当处于低压强时具有较高灵敏度,能够充分反映机器人抓取物体时的接触力变化.通过模拟电路测量当前传感单元的电阻值,即可根据式(1)求得压强p.通过将触觉阵列传感器安装在机器人手爪上,可以获得机器人抓取操作时接触力分布信息P∈Rm×n,表征为P=p1,1p1,2⋯p1,np2,1p2,2⋯p2,n⋮pm,1pm,2⋯pm,n,(2)式中:pi,j为阵列上第i行第j列的传感单元测量的压强,其中,i∈(1,2,…,m),j∈(1,2,…,n).对于本研究所用触觉阵列传感器,任意时刻的接触力信息都可用R16×10阶矩阵表示.2 面向机器人抓取的触觉图像数据集2.1 基于多点触觉信息的机器人抓取数据集表征阵列化的接触力信息在分布及相邻数据间的相关性上与RGB图像的像素数据具有很高的相似性,因此在特征提取上借鉴图像处理的相关方法,当构建数据集时将接触力信息转化为触觉图像.考虑测量过程中温度、测量个体及传感器自身所引入的误差影响,对获取的数据进行归一化处理,即P'=N(P),其中N(∙)为归一化函数.对于接触信息矩阵中的每一个元素,有pi,j'=N(xi,j)=pi,j-pminpmax-pmin,(3)式中:pi,j'为第(i,j)个传感单元数据归一化后的数值;pmax为当前数据矩阵中最大值;pmin为当前数据矩阵中的最小值.在式(3)的基础上建立接触力信息与RGB值(红绿蓝)的映射关系,得到能够表征机器人抓取操作时接触力分布信息的触觉图像,作为数据集的基础数据.为此,定义传感器测量的压强量程下限plower对应的颜色为蓝色[0,0,255],量程上限pupper对应的颜色为红色[255,0,0],量程中值(plower+pupper)/2对应的颜色为绿色[0,255,0].于是接触力信息与RGB值的映射系数η可以表示为η=002550255025500-1plower(plower+pupper)/2pupper.(4)则触觉图像可以表示为imgT,且对于imgT中的任意元素imgTi,j ∈ R1×3,有imgTi,j=pi,j'ηT.(5)利用式(5),可将接触力分布信息转化为触觉RGB图像.针对每个触觉图像对应唯一的机器人抓取状态,在此将机器人的抓取状态划分为稳定和滑动两类,用y∈(0,1)表示,其中:0代表物体滑动,抓取失败,对应的样本为负样本;1代表物体稳定,抓取成功,对应的样本为正样本.数据集中的每个元数据包含触觉图像和对应的抓取状态,数据集可以表示为Q={[imgT,y]v}v=1s,(6)式中:[imgT,y]v为数据集中的第v个数据;s为数据集的规模.2.2 机器人抓取触觉图像数据集构建选取不同形状与硬度的8种物体,即苹果、棒球、水瓶、杯子、罐子、开瓶器、橘子和网球,采集相应的触觉信息转化为触觉图像.为了充分获取机器人二指手抓取物体时的触觉信息,本研究采集触觉阵列传感器连续帧接触数据,其流程如下.a.二指手完全打开,放入抓取对象,使得物体位于触觉传感器的感知区域内.b.二指手缓慢闭合,直至二指手与物体接触,且触觉阵列传感器产生数据,以恒定速度竖直提升物体.c.提升至指定高度维持10 s,连续采集该过程的触觉传感器数据.d.若步骤c中物体不滑落,则标记抓取状态为成功抓取,并合并该过程中任一时刻的触觉数据记录为1组正样本.e.若步骤c中物体滑落,则标记抓取状态为失败抓取,并筛选滑落时刻的触觉数据对应记录为1组负样本.f.变更机器人末端执行器的抓取姿态和闭合程度,重复步骤a.根据上述步骤,采集抓取物体及对应触觉图像如图3所示.将不同物体的数据根据正负样本进行汇总并去重,得到1 562个样本.其中,训练集样本1 085个,测试集样本477个.10.13245/j.hust.240623.F003图3抓取物体及对应触觉图像(色标为不同压强下对应的RGB颜色)3 基于多层感知机的机器人稳定抓取判别模型考虑获取的触觉图像数据特点,基于多层感知机(MLP)构造机器人抓取状态判别模型,多层感知机能够以简洁的结构学习数据中深层次的非线性特征,适用于处理阵列式的触觉数据.为更好地提取触觉特征,将数据集中的触觉图像imgT灰度处理后转换为ain∈R1×mn向量作为模型的输入层lin,即模型的第一层.该数据变换关系为a1,n(i-1)+jin=‖imgTi,j‖1/3.将数据集中表征抓取状态的y作为模型的输出,即aout=y,对应的输出层用lout表示.定义相邻两层间的权重矩阵Wl和偏置向量bl.设置模型的损失函数Glog主体为对数损失函数Log Loss,并在损失函数中增加L2正则化项,从而使得模型在收敛过程中隐藏层权重系数尽量小,避免过拟合的问题.至此,得到模型结构如图4所示,通过输入层输入触觉图像变换后的触觉数据,模型输出层输出抓取状态判别结果,包括稳定与滑动两种抓取状态.10.13245/j.hust.240623.F004图4机器人稳定抓取判别的多层感知机模型结构图4 仿真与实验4.1 机器人稳定抓取判别模型的结构优选考虑抓取判别模型中不同隐藏层神经元数量与不同隐藏层层数对模型判别性能的影响,优选基于多层感知机的机器人稳定抓取模型结构,得到稳定抓取判别准确率最优的MLP模型结构.各隐藏层节点数Hc取值范围设定为30~130,间隔为10,其中c=1,2,…,L,L为隐藏层层数,L的取值范围为1~5,间隔为1.对模型在不同隐藏层数、不同隐藏层节点数下训练的损失函数值进行比较.图5为当L=2时得到的不同节点数对应的损失函数值.10.13245/j.hust.240623.F005图5当L=2时隐藏层不同节点数对应的损失函数值由图5可知:当L=2时,隐藏层设定节点数为[100,30]的多层感知机具有较好性能,此时训练的损失函数值最小为1.08×10-3.当L取其他值时,也可以得到对应隐藏层层数下使得损失函数最小的各层节点数,如表1所示.10.13245/j.hust.240623.T001表1不同隐藏层层数下的最优节点数对应的判别模型性能对比L模型结构最高准确率/%平均准确率/%1[30]99.7499.13±0.312[100,30]99.4999.28±0.283[100,100,30]99.7499.34±0.264[100,100,100,30]99.7499.49±0.235[100,100,100,100,30]99.7499.39±0.17对比不同层数多层感知机模型获得的抓取状态判别准确率,发现当隐藏层数为四层、各层节点数设置为[100,100,100,30]时的多层感知机结构具有最优性能.这是由于当隐藏层节点数设置过少时,网络非线性映射能力较弱,无法具备必要的学习能力和信息处理能力,难以充分提取触觉阵列传感器的接触力分布特征;当隐藏层节点数设置过多时,会提取冗余的特征信息,在学习过程中更易陷入局部极小点,不但无法进一步提升模型性能,反而会造成判别精度损失.4.2 基于不同算法框架的机器人稳定抓取判别模型性能对比为充分验证本研究所提方法的有效性,在同一数据集上对比多种基于机器学习的机器人稳定抓取判别模型的性能,包括最临近值(KNN)、逻辑回归(Logistic Regression)、支持向量机(SVM)和集成学习[12](Ensemble Learning).同时,也对比了基于深度学习的LeNet-5[15],ResNet-18[16]与DenseNet-121[17]在机器人稳定抓取判别上的性能,结果如表2所示.10.13245/j.hust.240623.T002表2基于不同算法框架的机器人抓取判别模型性能对比基准算法最高准确率/%平均准确率/%平均耗时/sKNN99.4999.49±0.100.172 9Logistic Regression98.7298.72±0.140.002 3SVM97.9597.75±0.170.003 5MLP99.7499.34±0.230.002 3Ensemble Learning99.7499.54±0.150.182 4LeNet-591.0091.00±0.340.203 8ResNet-1890.4790.47±0.280.314 0DenseNet-12190.1290.12±0.230.332 7由表2可知:本研究提出基于MLP的抓取判别模型,其抓取状态判别成功率最高达99.74%,高于以其他学习方法为基准的判别模型,这是由于多层感知机框架能够有效提取触觉阵列数据特征,因此提升了算法对抓取状态判别的表达能力.基于深度学习算法的LeNet-5,ResNet-18和DenseNet-121网络获得的准确率低于其他模型,一方面因为输入的触觉图像像素较少、复杂程度较低,机器学习算法已能较好提取其特征并正确判别抓取状态;另一方面是因为深度神经网络的可训练参数较多,所以在小样本训练集下的泛化能力较差.同时,本研究提出的模型具备高效性,平均耗时仅2.3 ms,计算效率均优于基准的判别模型,能够在实时应用和大规模数据处理等场景下更好地发挥作用.4.3 面向多类别物体的机器人稳定抓取泛化实验为验证本研究所提稳定抓取判别模型在机器人实际抓取过程中的有效性,通过对比数据集内外的物体验证模型泛化性能.抓取实验的测试物体如图6所示,将测试物体划分为数据集内物体(绿框)、与数据集相似的物体(红框)和与数据集不同的物体(蓝框)三类.数据集内物体包括矿泉水瓶与椰汁;与数据集相似的物体包括绿瓶(空)、绿瓶(满)、可乐与罐头;与数据集不同的物体包括海绵块、压力计、玩偶与纸盒.10.13245/j.hust.240623.F006图6泛化测试实验物体实验开展流程如图7所示,通过物体定位与路径规划模块将机器人移动至目标物体上方,闭合机器人二指手抓取物体,触觉传感器将采集到的触觉信息转化为触觉图像实时传递给上位机,进而基于本研究提出的机器人抓取判别模型对当前的抓取状态进行判别.10.13245/j.hust.240623.F007图7集成触觉传感器的机器人抓取实验流程图针对每类物体,分别进行15次稳定和滑动抓取操作,将本研究所提的稳定抓取判别方法得到的结果与实际抓取状态进行对比,结果如表3所示.10.13245/j.hust.240623.T003表3多类别物体抓取实验结果对比类别物体准确率/%平均耗时/ms数据集内矿泉水瓶99.024.7椰汁99.144.1与数据集相似绿瓶(空)94.504.9绿瓶(满)94.314.7可乐93.424.0罐头93.304.2与数据集不同海绵块86.356.0压力计88.173.9玩偶85.914.0纸盒86.114.1通过表3可看出:所提出方法当面对不同类型的物体时都能保持高效运行,处理速度快且稳定.在模型准确率方面,针对数据集内物体抓取的判别准确率最高,超过了99%,针对与数集相似物体也具有很高的准确率,绿瓶(空)与绿瓶(满)分别达到了93.50%和94.31%,平均耗时分别为4.9与4.7 ms,可乐与罐头的准确率为93.42%与93.30%,平均耗时为4.0与4.2 ms;而针对与数据集不同的物体则准确率相对较低,但四类物体仍达到了平均86.63%的抓取判别准确率,平均耗时为4.5 ms,说明本研究所提方法针对与数据集物体相关性较高的物体具有非常高的判别准确率,对其他物体也具有良好的泛化性和鲁棒性,同时表现出了良好的计算效率.为进一步探究模型在判别抓取与数据集不同物体时表现不佳的原因,通过混淆矩阵分析本研究所提判别方法针对数据集外的物体在不同判别状态(正样本-稳定状态和负样本-滑动状态)的判别准确率,如图8所示,图中每个方块内的数值代表该类别预测正确的数量占该类别总数量的比例.10.13245/j.hust.240623.F008图8不同数据集外物体的泛化实验混淆矩阵(色标为不同准确率下对应的RGB颜色)各物体的混淆矩阵表明:当机器人抓取与数据集相似的绿瓶(空)、绿瓶(满)、罐头和可乐时,判别模型对它们的正负样本均有较高的判别准确率,保持在平均94%左右;而当抓取与数据集不同的物体海绵块、压力计、玩偶与纸盒时,判别模型对正样本的判别准确率分别为90%,91%,91%和89%,低于与数据集相似物体.同时,对负样本的判别准确率分别为82%,85%,81%和83%,明显低于正样本.进一步分析抓取各类物体时的触觉图像如图9所示.10.13245/j.hust.240623.F009图9抓取目标的正负样本触觉图像通过图9可以看出:与数据集相似物体的正负样本均具有较多有效触觉数据,即在触觉图像中具有较多有效像素,因此模型能够充分提取并利用触觉特征实现准确的稳定/不稳定抓取状态判别;而与数据集不同的物体,其正样本的触觉数据量多于负样本,负样本的触觉信息不足使得模型无法有效提取触觉特征,导致模型当判别不稳定抓取状态时的精度较低.5 结语本研究基于压阻式触觉阵列传感器获取机器人抓取操作时的分布式接触力信息,提出一种高效精准的机器人稳定抓取判别算法.通过采集8种不同类别物体的接触力分布数据,映射为RGB图像构建物体抓取的触觉图像数据集.使用多层感知机算法作为基准框架构造机器人抓取状态判别模型,实现对物体抓取状态属于稳定或不稳定的判断,并通过仿真得到抓取判别性能最优的模型结构和参数.与基于其他学习算法框架的判别方法进行对比,结果表明:本研究所提方法具有99.74%的最高抓取状态判别准确率,同时该方法具有训练模型简单、所需数据集规模较小的特点,存在重要的工程应用价值.进一步通过实验验证本研究所提方法的泛化性,对与数据集相似的物体抓取判别准确率达94%,表现出良好的未知物体特征信息提取能力,通过提高触觉图像质量,可以进一步提升判别效果.未来的研究将进一步细化抓取状态判别分类,以防止抓取物体出现形变等问题,同时提高模型对于未知物体的泛化能力.

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读