目前无人机已被广泛地应用于犯罪侦查、电力巡检、救灾及地质勘测等专业领域,无人机目标追踪也成为热门的研究方向.无人机目标追踪过程中须要以稳定精确的定位信息和可靠的避障能力作为前提,若无法正确判别并及时规避空中的障碍物,则势必导致无人机因撞击而坠毁,这将给无人机的目标追踪场景带来巨大的安全隐患.在无人机避障方面,研究者们做了大量工作.文献[1]提出的人工势场法假设了物体在环境中的运动受到一个虚拟力场的作用,其中感兴趣的目标点会对场中的机器人产生引力作用并驱动其前进,而周围的障碍物则会对机器人产生斥力作用,使机器人朝反方向远离.文献[2]基于快速搜索树提出了一种快速高效的局部航迹路径规划方法,通过迭代方式找到目标点,保证了路径规划的可行性.文献[3]研究的快速搜索随机树(rapidly-exploring random trees,RRT)算法在计算障碍物和差分约束的问题上展现出了良好的性能.此外还有粒子群算法[4]、蚁群算法[5]及灰狼优化算法[6]等.以上都是在有全球定位系统(GPS)的环境下,而在无GPS的环境下,文献[7]仅仅利用了单目视觉传感器来采集图像特征,通过基于视觉的同步定位和建图(simultaneous localization and mapping,SLAM)算法恢复无人机在未知环境下的位置信息,并对下一时刻的运动轨迹进行预测.文献[8]建立了环境模型,并在离线的环境中实时提取相机视野中的DAISY特征进行匹配,实现了无人机在六个方向自由度上的避障.文献[9]基于光流算法获取无人机所处场景的环境特征并结合非线性控制算法对无人机进行了飞行控制,最终实现了基于光流特征引导下局部避障.文献[10]从搭载的单目相机传感器获取感兴趣的场景信息,并结合运动匹配算法的方式实现无人机的自主避障.文献[11]利用焦距固定的单目传感器,根据图像平移进行测距并采取了碰撞盒模型来判定无人机是否会发生危险碰撞.文献[12]利用边沿检测算法对图像进行提取,然后将提取后的数据和超声波传感器的数据进行结合,从而完成了无人机避障.文献[13]提出了基于单目视觉实时定位和建图的无人机实时避障.文献[14]采用激光雷达,基于优化的迭代最近点(iterative closest point,ICP)算法进行三维重建,并利用RRT算法实现了在离线已知环境下的无人机方碰撞测试实验.文献[15]在无人机上搭载立体视觉传感器来测距,以此达到自主避障的目的.除视觉SLAM方法之外,其他低成本小型化的测距传感器也被用于无人机避障中.文献[16]对无人机搭载超声波传感器的避障问题在仿真环境中进行了相关实验,并验证了算法的可行性.文献[17]将多个超声波传感器搭载在了无人机上并对无人机降落区域进行障碍物检测,确保了无人机降落区域的平整性.文献[18]融合了超声波、光流、惯性测量单元(inertial measurement unit,IMU)传感器等多源异构传感器的数据,以获得更加稳定的距离信息.综上可知,国内外对于无人机避障方法的研究都取得了比较好的研究成果,但如何在追踪目标不确定情况下进行实时局部避障和如何保证立体视觉远距离测距精度等问题仍未解决,本研究针对无人机在追踪目标过程中实时避障的问题,提出了一种改进人工势场局部实时避障方法,实现了无人机实时局部避障.1 改进的人工势场模型由于无人机在实时局部避障过程中须要知道自身与障碍物之间的几何关系,因此建立机体坐标系与世界坐标系之间的几何关系模型,如图1所示.图中:oW-xWyWzW为世界坐标系;oU-xUyUzU为无人机自身的坐标系,即机体坐标系.无人机机头朝向为xU轴,yU轴与xU轴垂直并由原心oU指向机体右侧,zU轴可根据右手定则确定.10.13245/j.hust.210816.F001图1坐标系示意图局部避障算法在Matlab中仿真效果如图2所示,其中:小圆圈代表障碍物;大圆圈代表每个障碍物的作用范围.无人机从左下角出发,受到在右上角的目标点的引力作用,同时受到障碍物产生的斥力作用,最终合成避障的路径轨迹,可以看出无人机成功绕开所有障碍物并抵达目标点.10.13245/j.hust.210816.F002图2局部避障算法仿真效果图在无人机目标追踪场景下,无人机始终对视野中的目标进行追踪,不存在唯一且固定的目标点,而传统的人工势场法须要人为构造引力场和斥力场,目标位置产生引力,周围障碍物产生斥力.针对无人机实时局部避障的问题,本研究通过消去引力场,保留斥力场,重新建立人工势场模型,使其更加符合无人机追踪及避障的场景,并结合激光雷达数据,提出新的势场模型,如图3所示,图中ν(t,r)U为无人机机体坐标系沿预定跟踪轨迹的期望速度.通过搭载在无人机上方的二维激光雷达获取水平面深度信息、激光扫描范围内的每个障碍物的距离信息和角度信息.激光从右往左开始进行周期扫描,障碍物角度公式为10.13245/j.hust.210816.F003图3无人机避障斥力场作用图θoU=κ(So-Shalf)Δθ,式中:θoU为障碍物相对于无人机机体坐标系xU轴的角度;κ为障碍物系数,决定检测范围内选取的障碍物个数;So为激光雷达检测到障碍物的激光点;Shalf为激光雷达在无人机机体坐标系中处于xU轴的激光点;Δθ为激光分辨率.障碍物角度可以作为作用力的合成,重新构造的势场方程应满足若ρ(qi,qobs)ρo,则Urep(qi)=η{1/[ρ(qi,qobs)]-1/ρo}2/2; (1)若ρ(qi,qobs)≥ρo,则Urep(qi)=0, (2)式中:η为斥力尺度因子;ρ(qi,qobs)为物体和第i个障碍物之间的距离;ρo为障碍物的影响半径.势场梯度应满足若ρ(qi,qobs)ρo,则Frep(qi)=-∇Urep(qi)=η1ρ(qi,qobs)-1ρo∇(qi,qobs)ρ2(qi,qobs); (3)若ρ(qi,qobs)≥ρo,则Frep(qi)=-∇Urep(qi)=0, (4)式中∇(qi,qobs)为障碍物指向无人机的单位向量.第i个障碍物斥力的势场梯度分量Frep(qi)x和Frep(qi)y分别为:Frep(qi)x=Frep(qi)cos(θ(t,o)U+π);Frep(qi)y=Frep(qi)sin(θ(t,o)U+π),式中θ(t,o)U为障碍物相对于无人机机体坐标系的角度.将所有障碍物斥力分量叠加求得合斥力夹角为δ(t,o)U=arctan∑i=1nFrep(qi)y/∑i=1nFrep(qi)x,将势场的坐标值转换到世界坐标系下得到排斥矢量偏差值Δrt+1,rW=lcos θtW-sin θtWsin θtWcos θtWcos(δ(t,o)U)sin(δ(t,o)U),(5)式中:l为步长;θtW为无人机机体坐标系相对于世界坐标系的姿态角.假设无人机在t时刻的位置姿态在世界坐标系下为p(t,r)W,与追踪目标之间的偏差值为Δpt+1,rW=[ΔxW,  ΔyW]T,由于目标追踪采用单目视觉,故zW轴为0,为便于齐次变换,将Δpt+1,rW扩成四维向量Δp't+1,rW=[ΔxW,  ΔyW,  0,  0]T,在t+1时刻的期望位姿为pt+1,rW=pt,rW+Δp't+1,rW.同理,将排斥矢量偏差值Δrt+1,rW扩成四维向量,得到Δr't+1,rW,融合后得到无人机在t+1时刻的最终期望位姿为p't+1,rW=pt,rW+Δp't+1,rW+Δr't+1,rW,(6)通过将排斥矢量偏差值作为期望位姿估计的一部分,在实时目标追踪过程的同时实现实时避障.2 局部避障策略按照势场理论,只要避障范围内有障碍物存在,就会产生力的作用,而在实际的追踪和避障过程中,即使避障范围内出现了障碍物,若该障碍物无法对无人机造成威胁,则无须进行避障(如障碍物在无人机前进方向的后方).为实现这一目的,给定智能切换信号s.当s=1时,进入避障模式;当s=0时,进入跟随模式.若ρ(qi,qobs)与νt,rU的夹角在[-π/2,π/2]区间内,且障碍物到无人机速度方向的距离rou小于给定值rmin,则无人机开始进入避障模式,无人机局部智能避障过程见图4.10.13245/j.hust.210816.F004图4无人机局部智能避障示意图根据信号方程定义,即ξ=νt,rUρ(qi,  qobs);rou=||ρ(qi,  qobs)||arccosνt,rUρ(qi,  qobs)||ρ(qi,  qobs)||∙||νt,rU||;s=1    (ξ≥0,rourmin),0    (其他).式(1~4)可以改写为:若ρ(qi,qobs)ρo,则Urep(qi)=sη21ρ(qi,qobs)-1ρo2,Frep(qi)=-∇Urep(qi)=sη1ρ(qi,qobs)-1ρo∇(qi,qobs)ρ2(qi,qobs);若ρ(qi,qobs)≥ρo,则Urep(qi)=0,Frep(qi)=-∇Urep(qi)=0.当目标速度过快时,无人机可能因为来不及减速和变向而出现避障失败的情况,此时,设定一个动态排斥因子m,无人机速度越快,m越大,产生的Δrt+1,rW就越大,m的计算公式为m=a{exp[tanh(-b/||νt,rU||)]-c}+d,式中a,b,c和d为函数参数,参数根据实际需要选择.若取a=4,b=2,c=e-1,d=1,则函数曲线见图5,图中v为期望速度.式(5)可以改写为Δrt+1,rW=mlcos θtW-sin θtWsin θtWcos θtWcos(δ(t,o)U)sin(δ(t,o)U),10.13245/j.hust.210816.F005图5动态因子的调节函数曲线得到新的排斥向量偏差值,通过更新式(6),可以实现无人机动态目标追踪过程中的实时避障.3 避障策略仿真验证3.1 Matlab仿真验证将该算法在Matlab中进行仿真,在不同障碍影响距离(ρ)下的结果见图6,其中m=15.10.13245/j.hust.210816.F006图6仿真结果图6为目标物体在不同运动轨迹下无人机的避障效果,可以看出:当障碍物较均匀地分布在目标物体的运动轨迹两侧时,无人机避障轨迹大致与目标物体运动轨迹相同,如图6(a)和6(c)所示.当障碍物影响距离变小时,无人机的避障偏差值幅度也相对减小,如图6(b)所示.在障碍物作用下,无人机沿着障碍物合力反向运动,使得无人机避障轨迹与目标轨迹发生了偏移.障碍物越近,作用力越强.当大部分障碍物处于同一侧时,无人机避障轨迹和目标运动轨迹将发生较大的方向偏移,如图6(d)所示.仿真结果表明:该避障算法能准确反映出障碍物对无人机追踪轨迹的影响,并使无人机沿着障碍物反方向移动,实现避障,从而保证无人机在追踪过程中的安全性.3.2 GAZEBO仿真验证在ROS系统下使用GAZEBO建立仿真环境,环境场景包括居民住宅、办公高楼和加油站等.以移动机器人Turtlebot及无人机为对象,在仿真环境下实现无人机实时跟踪Turtlebot的同时进行局部避障.图7中Tutlebot的移动轨迹预先给定,无人机通过相机识别并跟踪目标物体Turtlebot.由图8可知:在加入避障算法前,无人机紧跟Turtlebot的运动轨迹,当Turtlebot移动到房檐下,无人机由于没有避障能力,因此直接撞到了墙体,导致机体倾翻.而启用避障算法后,无人机在追踪Trutlebot的过程中,能够根据周围环境进行实时地判断是否有障碍物出现.此时,无人机将不再只参考Turtlebot运动轨迹一个指标,它将周围激光雷达传感器扫描到的所有障碍物距离信息都考虑进来,最终获得一个更加合理有效的实时局部避障轨迹.对比Turtlebot的轨迹可知,无人机在追踪过程中会根据障碍物分布情况进行轨迹偏移,从而达到避障的目的.无人机自主追踪及避障算法在仿真环境中得到有效验证.10.13245/j.hust.210816.F007图7基于城市场景的仿真环境模型示意图10.13245/j.hust.210816.F008图8多传感器信息融合后的目标追踪轨迹图4 结语研究了无人机在追踪动态目标情况下实时局部避障的问题,得出以下结论:a. 结合激光雷达获得的二维平面距离和角度信息,通过重新建立人工势场模型,实现无人机在实时追踪目标的同时进行局部避障;b. 通过构造动态排斥因子和切换函数实现无人机的实时局部动态避障.仿真结果表明:本研究所提方法可以实现无人机在追踪动态目标的同时进行主动局部实时避障,保障无人机在飞行过程中的安全.

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读