在当前生产制造过程中,传统的机器人不仅要基于示教再现模式进行简单重复运动,还须离线编程以完成复杂轨迹动作,以实现小批量、多品种的柔性生产和多机器人协同工作.这些任务对于那些重复定位精度高、但绝对定位精度较差的工业机器人而言是一大挑战.机器人在制造和装配过程中可能遇到零件误差,连续高负载下的形变、碰撞,长时间使用导致的磨损老化,以及关节更换维修等问题.这些都可能导致实际运动学参数与标称参数之间的偏差,导致机器人末端执行器的绝对定位误差.在工业应用中,通常利用6R(6个旋转关节)机器人末端的6自由度特征,通过绕点精度来粗略检测机器人的绝对定位精度[1].在影响机器人绝对定位精度的因素中,运动学参数的偏差导致的精度误差占总误差的80%[2],因此,当机器人的重复定位精度足够时,运动学校准成为提高绝对定位精度的一种既经济又有效的方法[3].许多研究者提出了不同的校准方法,这些机器人的校准方法可分为开环校准和闭环校准[4].多家机器人制造商或其他机构提供一次性开环校准服务,然而这仅适用于拥有一台或几台机器人的客户,并且在复杂的工厂环境中部署测量设备既困难又耗时.目前,闭环校准方法并未广泛应用,具有成本效益的闭环校准方法具有很大的推广潜力.开环校准基于世界坐标系统测量机器人末端执行器的实际位置,常用的用于绝对校准的测量设备包括激光跟踪器[5]、球杆仪[6]和三坐标测量机[7] 等.这些精密测量设备能提供高精度的测量结果,但设备价格昂贵且需要熟练的操作人员.Sun等[8]和Filion等[9]分别提出了基于高精度外部测量设备的机器人开环校准方法,可以较高精度测量机器人末端位姿,实现机器人关节参数辨识并获得较好的校准结果,但是这些设备体积庞大,成本高昂[10].闭环校准通过测量末端执行器的相对姿态或位置,设置一定的约束条件(如平面、距离、单点和球约束[11])实现,不须要测量实际位置.闭环校准中的参数识别过程比较困难,但使用的测量设备价格较低.大多数闭环校准方法的主要缺点是需要大尺寸标定物、耗时多或精度低.Joubair等[12]借助安装在机器人末端的接触式探头和固定的高精度平板建立平面约束,实现了6R机器人的运动学校准,但是须要借助较大尺寸的高精度加工标准物体,且由于须要接触式测量,过程繁琐复杂、耗时较长.Wang等[13]基于机器视觉方法借助标准球建立了机器人末端的点和距离约束,实现了6R机器人闭环运动学校准,但为了达到0.02 mm的测量精度,需要较高像素的视觉传感器且测量范围较小.相机是常用的闭环校准测量设备[14],但是测量精度与测量范围成反比,无法满足高精度的大范围测量.Chen等[15]用PnP(Perspective-n-Point)算法实现了高精度的单目位姿测量,Lee等[16]用神经网络基于单目位姿测量实现了机器人手眼关系的在线校准,Sarabandi等[17]用手眼校准算法实现了机器人手眼关系的参数校准,但是手眼校准中不考虑机器人运动学误差,运动学误差对手眼校准精度造成影响.本研究提出了一种基于视觉多点位姿约束的6轴机器人闭环校准方法,首先基于工业应用中的逆解参数约束条件和手眼系统运动学耦合关系,提取工业环境中运动学校准最小参数集;基于高精度视觉位姿结果,采用位姿差分方法建立运动学闭环约束优化方程,用加权最小二乘方法实现参数寻优.本方法基于差分方法实现参数辨识,过程中不须要测量标定板实际位置,有利于工业现场应用.实际机器人校准实验表明,本研究提出的运动学校准方法可以实现对关节零位误差、连杆长度误差、手眼转换关系的辨识及补偿,结果显示机器人的末端绕点运动的平均距离从2.77 mm降低到0.42 mm.1 机器人手眼系统的运动学模型1.1 运动学模型构建本研究所用机器人为华数机器人HSR-JR605(如图1所示),其第一、二关节轴线相交于一点,第四、五、六关节轴线相交于一点,且标称重复定位误差为0.02 mm.与其他工业机器人一样,产品手册中并未提及绝对定位精度.10.13245/j.hust.240601.F001图1HSR-JR605机器人手眼系统在实际工业应用中,为了实现快速准确的机器人运动学反解运算,通常采用DH参数方法建立运动学模型方程,在机器人的运动控制中使用解析法逆解完成逆运动学运算.DH模型中相邻两连杆坐标系之间的转换关系可以用4个运动参数来描述,分别为连杆扭角αi-1、连杆长度ai-1、连杆偏移量di及关节角度θi.华数机器人HSR-JR605的构型如图2所示,各连杆标称运动学参数如表1所示.10.13245/j.hust.240601.F002图2HSR-JR605型工业机器人各连杆坐标系10.13245/j.hust.240601.T001表1HSR-JR605型工业机器人的连杆参数关节αi-1/radai-1/mmdi/mmθi/rad1000θ12π/200θ2(π/2)303600θ34π/290376.5θ45-π/200θ5(-π/2)6π/200θ6相邻关节连杆的转换矩阵为 T ii-1=cos θi-sin θi0αi-1sin θicos α'cos θicos α'-sin α'-dsin α'sin θisin α'cos θisin α'cos α'dcos α'0001,式中α'=αi-1.对于6自由度的串联连杆机器人,各个相邻连杆的转换矩阵相乘,可以得到机器人末端与机器人基坐标系的转换矩阵end0T=T10T21T32T43T54Tend5.在DH参数固定的情况下,end0T由机器人各关节角度确定.1.2 手眼系统建模本研究基于相机安装在机器人末端的Eye-in-hand系统研究机器人运动学校准算法.Eye-in-hand手眼系统的坐标系关系如下end0TTcamendT dcam=Td0,式中:camendT为相机坐标系到机器人末端坐标系的转换矩阵,是须要校准的未知量,由于在Eye-in-hand手眼系统中相机与机器人末端固连,因此camendT是未知常量;d0T为标定板坐标系到机器人基坐标系的转换矩阵,在校准过程中标定板固定不动,d0T为不变未知量.为保证相机坐标系到机器人末端坐标系的转换矩阵camendT中的旋转参数辨识的稳定性,用四元数表示旋转参数,四元数形式为(w,x,y,z),camendT可由手眼参数Re和Te控制:Re=[Re0,Re1,Re2,Re3];Te=[Te0,Te1,Te2];Re02+Re12+Re22+Re32=1.视觉测量条件下靶标位姿d0T的正解方程为d0T=T10T21T32T43T54Tend5TcamendT dcam.2 位姿测量和校准方法本研究提出了一种基于视觉多点约束的6轴机器人闭环校准方法,该方法在6R机器人末端安装单目相机,构建Eye-in-hand手眼系统.在适当位置放置一个可多角度识别的机器视觉标定板,作为单目位姿测量的目标.标定板上含有多组标定特征点,通过控制机器人手眼系统围绕标定板每一组特征点中心运动,并采集多个位姿状态下的机器人关节角度和相机坐标系下标定板特征点的位姿数据,建立了6R机器人运动学的多点位姿约束.在整个过程中,无须测量标定板的实际位置.2.1 单目位姿测量方法本研究通过单目视觉位姿测量的PnP算法[18],获得测量靶标相对相机的坐标转换关系.位姿测量需要相机的内参,本研究采用张氏标定算法,用相机标定工具箱实现相机的内参标定,用内参重投影误差作为相机位姿测量精度指标.在实验中选用非对称圆点标定板作为测量靶标,视觉测量靶标(标定板)中特征点为4行11列非对称排列,间距为10 mm,直径为5 mm,提取结果示例如图3所示.实验配置了MV-CA050-20UC相机,其分辨率为2 592×2 048,配备MVL-KF1628M-12MP定焦镜头,视野范围约30 cm×30 cm,以最大限度提高视觉位姿测量的位姿精度.10.13245/j.hust.240601.F003图3视觉位姿测量靶标及特征点提取结果用OpenCV中的张氏方法[19]标定相机内参,重投影误差为0.15像素.标定点组理论距离为84.85 mm,标称精度为0.01 mm,在30 cm左右距离下,测量两组标定板之间的距离误差作为视觉测量精度参数,相对误差为0.05 mm,如图4所示,位姿测量精度满足机器人标定中位姿测量需求,高于机器人校准后的绝对定位精度0.42 mm.10.13245/j.hust.240601.F004图4视觉位姿测量标定点组距离误差2.2 点约束校准方法本研究提出了一种多点位姿约束测量方法,通过将相机固定在机器人末端执行器上,形成Eye-in-hand手眼系统.选定的标定板作为测量靶标,被放置并固定在机器人常用的工作范围内,以便手眼系统能从多个角度拍摄到测量靶标.在校准过程中,无须测定标定板的实际位置.机器人手眼系统被控制绕标定板运动,确保标定板在相机视野的中心附近.每完成一次运动,系统会保存相机图像、视觉位姿测量结果和机器人关节角度数据.对每个校准点,进行多次位姿测量,以记录多组校准点的位姿数据.3 运动学参数辨识3.1 多点位姿约束校准模型3.1.1 误差模型在使用标准DH参数模型的JR605机器人控制系统中,d1和θ1可以转换为机器人安装底座的位姿参数,在机器人安装后可分别进行校准.末端执行器与相机固连造成关节6参数与手眼参数耦合,所以本研究将d6和θ6参数偏差包含在手眼参数中.由于使用标准DH参数模型,因此机器人可修正连杆长度参数有a2,a3和d3,可修正关节零位参数有θ2,θ3,θ4和θ5,以及手眼关系参数[Re0,Re1,Re2,Re3]和[Te0,Te1,Te2],记为可辨识参数w, w=[θ2,θ3,θ4,θ5,a2,a3,d3,Re0,Re1,Re2,Re3,Te0,Te1,Te2].位姿约束条件下,设标定板第i点实际位姿为iAb=f(w+Δw),标称位姿为inb=f(w),则标称位姿与实际位姿的偏差为:ΔP=PAb-Pnb=f(w+Δw)-f(w);f(w)=T10T21T32T43T54Tend5TcamendTdcam; Δw=[Δθ2,Δθ3,Δθ4,Δθ5,Δa2,Δa3,Δd3,ΔRe0,ΔRe1,ΔRe2,ΔRe3,ΔTe0,ΔTe1,ΔTe2].误差模型可以通过雅可比行列式展开获得 ΔP=∑i=0n∂f(w)∂aiΔai+∑i=0n∂f(w)∂diΔdi+∑i=0n∂f(w)∂θiΔθi+∑i=0n∂f(w)∂riΔri+∑i=0n∂f(w)∂θiΔti,简写成ΔP=JΔw.位姿矩阵T为齐次变换矩阵,可以表示为rxryrzp0001,式中rx,ry,rz遵循右手定则,rx×ry=rz.由于旋转矩阵的耦合性,取rx,ry,p作为位姿特征值进行简化,因此J为9×14位姿雅可比矩阵.3.1.2 多点位姿约束校准模型本研究提出的校准方法不须要测量标定板的实际位置iAb.通过控制机器人在工作空间的不同位姿下,用视觉位姿测量来获取标定板的标称位置,并据此建立单点位姿约束的方程组:J1Δw=P0PAb-P0P1b;J2Δw=P0PAb-P0P2b;J3Δw=P0PAb-P0P3b.通过差分方法,消除未知的iAb,建立单点差分位姿约束方程组:(J1-J2)Δw=-(P0P1b-P0P2b);(J2-J3)Δw=-(P0P2b-P0P3b);(Jn-1-Jn)Δw=-(P0P(n-1)b-P0Pnb).将多点方程组合,获得多点位姿约束方程组,记为KΔw=B. (1)通过方程(1)可以求解出Δw.3.2 机器人运动学参数校准流程多点位姿约束条件下机器人运动学参数辨识流程如下:首先,从实际测量中获取机器人参数、关节角度和视觉测量结果作为输入;然后,利用手眼校准算法获得初始手眼转换矩阵,该矩阵作为迭代初值;随后,采用加权最小二乘法迭代求解DH参数和手眼转换参数.运动学参数辨识流程如下.步骤1 输入在位姿测量过程中记录的关节角度数据和视觉位姿测量结果.步骤2 通过手眼校准算法得到手眼坐标转换关系的初始估计值.步骤3 基于输入数据,计算位置矩阵和雅可比矩阵,构造多点位姿约束方程(1).为提高辨识精度并避免奇异点,方程数量须要超过可辨识参数的数目.步骤4 由于多点位姿约束方程(1)是超定方程,本研究采用加权最小二乘方法进行迭代求解.该方法等价于求解方程(KTK+λI)Δw=KTB, (2)式中λ为权重,权重λ通过BTB的变化趋势进行变步长优化.步骤5 根据获得的Δw更新机器人参数,计算末端绕点误差edis.n个校准点,每点多姿态测量mn次,每个位姿相对该点平均位置误差的均值作为末端绕点误差,edis=∑kn∑i=1mkPki-P¯k/∑knmk.步骤6 如果未达到包括最大迭代次数、末端绕点误差等指标的停止迭代条件,则返回步骤3迭代计算.4 运动学校准实验4.1 实验设备为了验证本文方法的有效性,构建了一个机器人实验平台.该平台使用6R型华数HSR-JR605机器人作为实验对象,并在其末端安装了单目相机,构成了一个Eye-in-hand手眼系统,其系统组成见图5.实验中在适当的位置放置一个可多角度识别的机器视觉标定板,用作单目相机位姿测量的目标.标定板放置在常用工作空间内,主要针对机器人常用工作空间内的运动学校准和验证.通过控制机器人绕标定板中心运动,收集了多个位姿状态下机器人关节角度和相机坐标系下标定板位姿的数据.10.13245/j.hust.240601.F005图5校准实验系统组成4.2 校准结果在JR605机器人的校准实验中,收集了包括4组校准点在内的多位姿测量数据,总共267组.应用本文提出的算法,经过20次迭代,校准误差收敛至0.42 mm,具体的参数辨识结果见表2.校准后,机器人末端绕点的平均距离误差从2.77 mm显著降低至0.42 mm.校准前后机器人的末端位置误差见表3.如图6所示,末端误差对比表明校准后的误差更小.本研究采用一种特殊的多点约束视觉位姿测量方法,这与传统使用激光跟踪仪或其他测量设备进行机器人运动学校准在效果上无法直接比较.10.13245/j.hust.240601.T002表2校准后JR605运动学参数的补偿值关节αi-1/radai-1/mmdi/mmθi/rad1000θ12π/200θ2+0.004 830360.000-0.5070θ3+0.003 24π/290.000-1.056376.500-1.110θ4+0.002 25-π/200θ5+0.002 16π/200θ610.13245/j.hust.240601.T003表3校准前后机器人的末端位置误差时刻平均误差最大误差误差标准差校准前2.777.070.85校准后0.420.970.18mm10.13245/j.hust.240601.F006图6末端位置误差相机坐标系到末端坐标系的转换参数如下:Te=[32.544,2.878,317.583];Re=[0.715 6,-0.009 5,-0.016 8,-0.698 1].5 结语本研究提出了一种基于视觉位姿测量的机器人闭环运动学校准方法,该方法通过单目视觉系统控制机器人手眼末端多位姿拍摄固定标定板靶标,从而实现位姿测量.利用手眼系统的运动学方程,建立多点位姿约束,并采用位姿差分法和高精度视觉测量结果来构建优化方程,通过加权最小二乘法实现参数优化.该方法在保证高测量精度的同时,提高了自动化水平.本文方法使用机器人手眼系统中的常见相机以降低成本,并配合低成本标定板进行校准,简化了设备的安装和携带,且无须测量标定板的实际位置.高精度标定板靶标和亚像素特征提取算法进一步提高了测量精度和稳定性.校准过程可在机器人工位上完成,无须移动机器人,且对工作空间无特殊要求.低成本且易于安装的校准工具还可用于长期精度监测.本文所提出的校准方法还有改进空间:首先,位姿拍摄过程中的优化须要提高,以加快校准速度并扩大校准范围;其次,本研究目前只针对常用工作空间进行了校准和验证,在后续研究中须要对全工作空间进行校准和精度验证,以拓展机器人高精度工作范围;最后,视觉测量误差对校准结果的影响须要进一步研究.
使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,
确定继续浏览么?
复制成功,请在其他浏览器进行阅读