1研究概述国内外对交通事件检测都进行了深入研究,但也存在诸多挑战。李家伟等[1]总结了国内外交通事件检测的发展,涉及理论主要为小波变换、SVM、深度学习网络等。李翠等[2]通过小波分解、重构车辆的积压长度原始信号实时报警检测交通事件。董美琳[3]以改进的YOLOv4和DeepSort相结合,采用HOG特征提取方式检测逆行交通事件,并收集构建了高速公路车辆数据集,一定程度上弥补了现有数据集的不足,但不能判别交通事件的多样性。张校梁[4]分析了交通事件发生后路段上下游的交通流特性,筛选出较为灵敏的特征后,提出了BOA-LSTM网络对多样化的交通事件检测并进行分类,效果显著。罗预欣等[5]在交通事件的特征提取上提出了3种优化策略,并以随机森林进行加权,在一定程度上提高了交通事件的检测精度。为了更好地理解交通事故检测模型的结果,ZHANG等[6]收集2019年在80条高速公路上发生的交通事件,根据事件发生的时间、持续时间和交通状态分析了交通事件与时空特征之间的相关性,结果表明时间特征对事件检测的影响大于空间特征。当高速公路发生交通事件而引发的交通事故,上下游交通流的时间性变化较空间性变化更为明显。BAO等[7]将Hom-Schunck光流算法集成到夜间高速公路视频监控系统中,提高了系统的检测精度。传统较为经典的夜间车辆检测方法有帧差法、车灯检测法、光流检测法等,实际原理都与光流有关。涂海清[8]基于YOLOv5s-se网络和CycleGAN网络对生成的夜间车辆仿真图片进行训练,依托Jetson Xavier NX平台实时检测夜间高速公路车辆。XIN等[9]分析路面灰度等级数变化过程,使用Robinson边缘检测算法建立矩形窗口,获取图像梯度值进而获取图像的中心点,提取出车辆的特征信息,实现准确预测。CUI等[10]基于卷积神经网络构建环境识别架构采集图像,使用图像增强算法对不同环境中的图像进行增强,弥补了在各种恶劣环境中的目标检测上的漏检和误检。本文提出了一种基于RAFT的高速公路夜间交通事件检测方法,直接以高分辨率更新单个流场,因此在快速运动的物体中也能准确地检测光流。该方法能有效地排除夜间不利因素和车辆车速本身带来的干扰,在高速公路精准地检测车辆和车速,就可以实现夜间交通事件的检测。2基于RAFT的夜间高速公路目标检测与追踪高速公路夜间交通事件检测的核心是完成车辆检测、跟踪、计算车速。无论是车辆抛锚、追尾,还是违章停车,都属于因车辆行驶速度而引起的车辆运动状态变化。夜间光线不足,受灯光干扰,难以识别车身,但通过识别灯的光流可以确定车辆位置。因此,本文构建了用于光流检测的RAFT深度学习网络进行网络训练,并结合DeepSort完成车辆识别和追踪,检测车辆的速度参数来检测夜间交通事件。技术路线如图1所示。10.19301/j.cnki.zncs.2024.02.003.F001图1技术路线2.1RAFT-车辆检测在RAFT体系结构中,特征编码器收集每个像素的特征,相关层计算像素之间的视觉相似度,更新算子在迭代中操作。RAFT中的更新算子属于轻量级,由卷积GRU组成,在迭代之间绑定权重,迭代次数可达100次以上,且不受网络规模的限制。2.1.1特征提取特征编码器应用于两个输入图像、输入图像和稠密特征映射之间进行低分辨率映射。将两个连续帧的图像P1和P2作为两个输入图像,计算稠密位移场,将P2中每个像素(u,v)映射到对应坐标:u'=u+f(u)1,v'=v+f(v)2 (1)特征编码器是由6块单元组成的卷积网络,两块1/2分辨单元,两块1/4分辨单元,两块1/8分辨单元。本文提取的P2特征以1/8分辨率输出,引入一个上下文网络,提取图像P1的特征,整个过程中特征提取阶段只执行一次。2.1.2视觉相似度计算通过单次矩阵乘法计算特征向量对之间的点积得到相关度,所有对之间的完全相关性用来计算视觉相似度。引入相关性金字塔,将核大小为1、2、4、8相关度的最后两个维度和一个等效的步幅汇集在一个包含位移信息的4层金字塔中,前两个维度保持高分辨率信息,帮助模型恢复快速运动物体的运动。所有层别的数据被组合成一个单一特征图,使用L1距离将半径内的整数偏移量指定为局部网格,使用局部邻域对相关度进行索引。从相关性金字塔索引创建特征映射,将P1中的每个像素转移到P2中,以得到当前的估计光流。2.1.3迭代更新更新运算符从初始起点估计流的序列。在每个周期之后,生成更新方向并将其应用于当前估计。光流、相关性和潜在隐藏状态都是此更新运算符的输入,将更新与修改的隐藏状态一起输出,可以准确锁定车辆的坐标。2.2DeepSort车辆追踪DeepSort跟踪算法属于基于特征和模型匹配的跟踪,主要用于行人目标的跟踪和检测,在行人检测方面性能优异,将该方法用于本文车辆跟踪。DeepSort跟踪算法主要分为匈牙利算法和卡尔曼滤波。坐标检测:采用基于RAFT的密集光流车辆检测算法,检测当前帧的bbox坐标。坐标转换:将检测到的bbox坐标转换为特征检测匹配目标检测detections。预测:Kalman滤波器通过上一帧的目标坐标和速度,预测出当前帧的目标坐标和速度tracks。级联匹配和IOU匹配:匈牙利算法求解前后两帧的相似度矩阵进行级联匹配,对所有状态为未确定态的轨迹和级联匹配中仍没有匹配成功的进行IOU匹配。更新:线性加权预测值和观测值的正态分布,更新目前帧预测的状态tracks。3实例验证3.1数据来源3.1.1训练数据本文使用的训练数据集是MPI-Sintel数据集。该数据集来自真实的计算机动画电影,包含了大运动和光反射场景,在训练集中,超过17.5%的像素有超过20 pix的位移,大约10%的像素有超过40 pix的位移。高速公路夜间恰恰为车辆大运动、遮挡以及光反射的复杂场景,故可作为本文算法训练的一个典型数据集。3.1.2测试数据为了验证本算法的有效性,选取在2020年南京绕城高速公路栖霞段采集的夜间监控视频图像作为实验数据,视频格式为“.mp4”。由于高速车辆行驶速度较快,每10帧图像选取1帧,累计选取包含车辆的1 200帧图像作为测试集。3.2结果分析3.2.1车辆检测通过实验,目标路段监控视频图像中RAFT算法提取行驶到ROI区域车辆的密集光流,建立连通域后检测到车辆。3.2.2交通事件检测效果当对目标车辆进行检测追踪后,通过对车辆的速度提取和判别,即可实现交通事件的检测和报警。目标路段限速80~120 km/h,当车辆速度不在限制速域内,将会触发交通事件报警并持续追踪。检测效果选取第27帧和第540帧图像做展示。超速检测如图2所示,交通事故检测如图3所示。10.19301/j.cnki.zncs.2024.02.003.F002图2超速检测10.19301/j.cnki.zncs.2024.02.003.F003图3交通事故检测图2中车辆速度已经超过了120 km/h,触发报警并定义为超速行驶。图3则为发生了较为严重的交通事故,检测车辆速度为low speed并发出报警,准确地检测追踪到事故双方车辆。3.3算法评价为了进一步评价算法在高速公路夜间交通事件检测上的鲁棒性,以YOLOv5+DeepSort作为对照实验,选取正检率RTP、漏检率RFN、误检率RFP和单帧运算时间t作为评价指标。本算法的正检率明显高于YOLOv5,提高了约7%。基于深度学习的YOLOv5检测算法与DeepSort追踪算法相结合,对于高速公路夜间车辆行驶的检测和特征提取存在较大误差。从第540帧图像检测效果可以证实,对于多车并行导致的光流遮挡,利用提取的灯光光流,能够在车辆并行时,根据稠密光流的光域判断是否为多目标车辆同时形成的光流,结合连续帧间的光流大小,确定多目标车辆并显示速度,在交通事件发生时基于RAFT的高速公路夜间交通事件检测算法也有较好的检测效果。采用测试数据的监控视频为30 帧/s,结合算法检测耗时,在保证检测精度的基础上,可以满足发生交通事件后持续跟踪的要求。4结语本文提出基于RAFT的高速公路夜间交通事件检测算法,结合夜间最显著的特征密集光流,提高了夜间车辆检测精度,消除了对向灯的光线干扰。DeepSort算法能够较好地完成夜间车速计算,判断车辆是否存在超速、异常低速、停车等异常交通事件检测,在当前智能化程度较低的高速公路环境下具有广阔的应用前景,也是智能交通系统中一项重要的进步。虽然依托高速公路上广泛使用的监控设备,检测率高、成本低、安装简单,但在硬件设施和检测技术上仍存在不足。对于车型的有效区分、适应高密度下连续车辆跟随的识别和夜间恶劣天气下交通事件的检测等都是后续研究的重点。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读