高级检索

基于改进YOLOv5s的矿井下安全帽佩戴检测算法

王媛彬, 韦思雄, 吴华英, 段誉, 刘萌

王媛彬,韦思雄,吴华英,等. 基于改进YOLOv5s的矿井下安全帽佩戴检测算法[J]. 煤炭科学技术,2025,53(S1):366−377. DOI: 10.12438/cst.2023-1839
引用本文: 王媛彬,韦思雄,吴华英,等. 基于改进YOLOv5s的矿井下安全帽佩戴检测算法[J]. 煤炭科学技术,2025,53(S1):366−377. DOI: 10.12438/cst.2023-1839
WANG Yuanbin,WEI Sixiong,WU Huaying,et al. Detection algorithm for wearing safety helmet under mine based on improved YOLOv5s[J]. Coal Science and Technology,2025,53(S1):366−377. DOI: 10.12438/cst.2023-1839
Citation: WANG Yuanbin,WEI Sixiong,WU Huaying,et al. Detection algorithm for wearing safety helmet under mine based on improved YOLOv5s[J]. Coal Science and Technology,2025,53(S1):366−377. DOI: 10.12438/cst.2023-1839

基于改进YOLOv5s的矿井下安全帽佩戴检测算法

基金项目: 

国家自然科学基金资助项目(52174198);陕西省重点研发计划资助项目;陕西省科技厅 陕西省秦创原科学家+工程师队伍建设资助项目(2022KXJ-166)

详细信息
    作者简介:

    王媛彬: (1977—),女,河南平顶山人,副教授,博士。E-mail:wangyb998@163.com

    通讯作者:

    韦思雄: (1995—),男,陕西西安人,硕士研究生。E-mail:3100740368@qq.com

  • 中图分类号: TP391.41

Detection algorithm for wearing safety helmet under mine based on improved YOLOv5s

  • 摘要:

    针对矿井下复杂环境所导致的人员安全帽检测算法精确度低、漏检率高等问题,提出一种基于YOLOv5s改进的矿井下安全帽检测算法。卷积神经网络在提取特征时由于计算机制容易导致图像全局上下文信息丢失,造成井下小目标安全帽的检测效果欠佳。为此,采用注意力机制CBAM与YOLOv5s进行融合,增强目标区域的特征图,弱化背景信息,从而帮助算法更好地定位小目标安全帽。同时,在YOLOv5s原有3个输出层的基础上新增了1个P2小目标检测层,增加了模型的多尺度感受野,可以同时捕获全局和局部上下文信息,提升了算法在复杂场景中针对小目标的检测能力。此外,采用EIoU损失替换原有的CIoU损失函数,解决预测框宽高比模糊的问题,保证回归框的精度,同时加快网络的收敛速度。通过将YOLOv5s主干网络中的普通卷积Conv替换为ShuffleNetV2,大幅减少模型参数量,提高了模型的识别速度。最后,将改进后的算法与YOLOv5s、SSD、Faster-RCNN以及YOLOv7算法进行对比分析,实验结果表明:将改进后的算法应用于矿井下人员安全帽检测中,相比于原YOLOv5s,准确率提升了2.9%,召回率提升了2.42%,参数量减少了7.6%,最终在矿井下安全帽检测的平均精度mAP@.5达到了87.5%。

    Abstract:

    Aiming at the problems of low accuracy and high missed detection rate of personnel safety helmet detection algorithm caused by complex environment under mine, an improved mine safety helmet detection algorithm based on YOLOv5s is proposed. Due to the computer system, the global context information of the image is easily lost when the convolutional neural network extracts the features, resulting in poor detection effect of the downhole small target safety helmet. To this end, the attention mechanism CBAM is fused with YOLOv5s to enhance the feature map of the target area and weaken the background information, so as to help the algorithm better locate the small target helmet. At the same time, a P2 small target detection layer is added on the basis of the original three output layers of YOLOv5s, which increases the multi-scale receptive field of the model and can capture global and local context information at the same time, which improves the detection ability of the algorithm for small targets in complex scenes. In addition, EIoU loss is utilized to replace the original CIoU loss function, solving the problem of fuzzy width-to-height ratio of the prediction frame, ensure the accuracy of the regression frame, and accelerate the convergence speed of the network. By replacing the ordinary convolutional Conv in the YOLOv5s backbone network with ShuffleNetV2, the number of model parameters is greatly reduced and the recognition speed of the model is improved. Finally, the proposed algorithm is compared with YOLOv5s, SSD, Faster-RCNN and YOLOv7 algorithms. The experimental results show that the improved algorithm is applied to the safety helmet detection of mine personnel. Compared with the original YOLOv5s, the accuracy of the proposed algorithm is increased by 2.9%, the recall rate is increased by 2.42%, and the parameter quantity is reduced by 7.6%. Finally, the average accuracy mAP@.5 of the algorithm in the mine safety helmet detection reaches 87.5%.

  • 安全是煤矿生产行业的重中之重,其中矿工的个人安全防护措施尤为重要[1]。在众多的防护措施中,佩戴安全帽是最基本且最重要的一项。然而,在复杂的井下环境中,难免会出现掉帽或者佩戴不当的情况。矿工在井下工作时未佩戴或者佩戴不当的情况屡见不鲜,这些都会极大增加他们面临的安全隐患[2]。一旦发生意外事故,不佩戴或佩戴不当的安全帽将导致头部受伤的风险大幅上升。

    为了确保矿工正确佩戴安全帽,传统的方法通常是通过人工检查,但这种方式效率低下且易出错。近年来,随着计算机视觉和深度学习技术的快速发展,利用这些技术进行安全帽佩戴的自动检测成为可能[3],这种方法能够大大提高检测的准确性和效率,而且能够进行实时监控。侯公羽等[4]利用Ghost卷积对YOLOv5的骨干网络进行重构,降低原有模型的复杂度,并使用双向特征金字塔网络(BiFPN)加强特征融合,同时引入坐标注意力(Coordinate attention)模块,提升了算法对安全帽检测的准确率。杜青等[5]通过采集实际矿山生产场景的图像,构建了矿山安全帽佩戴数据集,采用基于YOLOX改进的算法融合注意力机制,增强了算法提取全局特征的能力,在照度低、模糊、有人员遮挡的矿井图像中能够准确识别人员佩戴安全帽的状况。张锦等[6]使用K-means++算法重新设计先验框尺寸并将其匹配到相应的特征层,引入多光谱通道注意力机制,在训练迭代过程中随机输出不同尺寸的图像,增强了模型的泛化能力,满足施工场景下安全帽佩戴检测的精度要求。但是该算法采用了多光谱通道注意力机制,增加了模型的参数量,增大了模型的体积,可移植性变差。赵红成等[7]采用Focal Loss专注困难正样本训练,提高了YOLOv3模型在复杂环境下的鲁棒性,并且在原始网络基础上使用空间金字塔多级池化融合局部与整体特征,提高了多尺度检测能力。赵睿等[8]针对现有安全帽检测算法难以检测小目标、密集目标等缺点,采用DenseBlock模块改进YOLOv5s模型,提升了网络的特征提取能力并在网络颈部检测层加入SE-Net通道注意力模块,引导模型更加关注小目标信息的通道特征,以提升对小目标的检测性能。WANG等[9]通过使用可变形卷积(Deformable Convolutional Networks, DCN)网代替传统的卷积,在特征融合网络中引入了卷积注意力模块,用距离交叉联合损失代替原网络的广义交叉联合损失。LIU等[10]采用YOLOv4算法实现了对建筑工地现场施工人员的安全帽佩戴实时检测,但是没有针对特殊情况下进行改进,存在着对针对性的目标检测任务效果较差和鲁棒性弱的问题。

    上述安全帽检测算法虽然从不同方面提升了检测的性能,但都难以在复杂的场景下保持较好的检测效果。由于矿井环境的特殊性,实际中所采集的图像往往存在光照条件差、粉尘、遮挡等现象,同时,因为视频监控场景中的安全帽目标多为小目标,检测模型在复杂背景下难以正确区分目标与背景,使得采用深度学习方法进行安全帽检测的难度增大。因此,笔者从小目标细节信息和图像整体深层语义信息着手,在YOLOv5s模型的基础上,提出一种轻量高效的矿井下安全帽检测算法。

    YOLO系列一直以来都是工业应用中最受欢迎的检测框架,因为它在速度和精度之间有很好的平衡,深受研究者们的青睐,尤其是在YOLOv3[11]提出之后,拥有不错的检测速度。YOLOv4[12]较YOLOv3在速度相同的情况下,精度得到了提升。2020年提出的YOLOv5系列更像是YOLOv3和YOLOv4的综合,拥有不俗的精度和速度,性能更为均衡,此后3年间,YOLO系列快速更新了YOLOv6[13]、YOLOv7[14]以及YOLOv8[15]系列模型,但是在基础结构上并未做出更大的改进。而发展成熟的YOLOv5系列,已经在大量的工业领域进行部署应用,且有轻量化的优势。因此笔者以YOLOv5为基准模型来完成井下安全帽佩戴检测任务的研究。

    YOLOv5模型一直处于不断更新迭代的状态,造成了不同版本的网络结构略有差异。至今,官方已发布4个不同规模的算法模型,分别为YOLOv5s、YOLOv5m、YOLOv5l以及YOLOv5x[16]。通过对模型速度和检测精度进行综合考虑,最终选择基于YOLOv5s的模型,并根据矿井下特殊环境,针对性地调整网络结构来提升算法检测性能。YOLOv5s算法结构由输入端、主干网络(Back-bone)、Neck以及输出端(Prediction) 4部分组成[17]。输入端由Mosaic数据增强[18]、自适应图片缩放以及自适应锚框计算3部分组成。YOLOv5s的网络结构如图1所示。主干网络包括Focus模块、CBL模块以及SPP模块3个部分组成[19];Neck网络采用FPN+PAN[20]的特征融合结构,FPN(Feature Pyramid Network)是自上而下传输强语义元素,PAN(Path Aggregation Network)自下而上传达强定位元素,聚合不同层的检测参数,有利于物体的分类,减少信息的丢失,加强了网络特征的融合能力。输出端采用3种不同尺度的检测头进行特征聚合,对应不同目标大小,最终完成不同尺度的目标预测。

    图  1  YOLOv5s的网络结构
    Figure  1.  Structural framework of YOLOv5s

    针对矿井下安全帽检测存在漏检、误检的问题,在不损失YOLOv5s原有精度的同时降低模型参数量和计算量,达到在嵌入式设备部署的条件和作业现场对实时性与准确率的要求。模型改进工作如下:

    1)由于矿井下暗光、粉尘等影响,算法在卷积计算过程中,容易导致图像全局上下文信息丢失,从而造成特征损失的问题,因此引入CBAM注意力机制,提高井下安全帽的目标显著度,从而提升检测准确率。

    2)面向井下小目标安全帽的检测时,由于小目标检测依赖于高层细节信息和低层语义信息,简单的特征融合难以大幅提高其检测精度,因此笔者设计了P2小目标检测层,并融入YOLOv5s网络中,增加了多尺度感受野,提取被检测目标的全局与局部特征,更有利于目标的推理;

    3)针对回归框精度问题,采用EIoU代替原本CIoU,并在此基础上细化宽高比,这能够解决宽高比模糊等方面的问题,更有利于保证回归框的精度;

    4)引入轻量化网络ShuffleNetV2替代主干特征提取网络,以实现网络模型的轻量化。改进后的YOLOv5s模型如图2所示。

    图  2  改进YOLOv5s结构
    Figure  2.  Improved YOLOv5s network structure

    由于矿井下环境复杂,现场往往存在暗光、粉尘以及遮挡等影响,导致被检测图像中安全帽特征提取困难,为使模型更好地聚焦井下环境中的安全帽特征学习,降低模型对非目标特征的关注度,引入CBAM注意力机制以提高检测模型准确率。

    CBAM模型最大的特点是兼顾了全局最大池化GMP(Global Max Pooling)与全局平均池化GAP(Global Average Pooling)[21],通过组合2种池化策略,能够有效预防信息丢失的现象。CBAM主要包括2个模块:通道注意力模块(Channel Attention Module, CAM)以及空间注意力模块(Spatial Attention Module, SAM)[22]。通过串行的方式组合这2个子模块,序列化在2个维度中形成注意力特征图信息。其网络结构如图3所示。首先利用通道注意力模块修正输入特征图自适应特征,获得$ F' $,之后借助空间注意力模块对$ F' $进行校正,最终得到特征图$ F'' $。具体可采用下述公式:

    图  3  CBAM网络结构
    Figure  3.  CBAM network structure
    $$ F' = {M_{{{\mathrm{C}}}}}(F) \otimes F $$ (1)
    $$ F'' = {M_{\mathrm{S}}}(F') \otimes F' $$ (2)

    “$\otimes $”为元素级相乘,输入特征图$ F \in {R^{C \times H \times W}} $,通道注意力特征图$ {M_{\mathrm{C}}} \in {R^{C \times 1 \times 1}} $,空间注意力特征图$ {M_{\mathrm{S}}} \in {R^{1 \times H \times W}} $。

    将CBAM注意力机制引入YOLOv5s的Neck结构,能有效预防各类无关信息的干扰,促进待检测目标充分保持安全帽关键特征,这样有利于网络关注更多目标细节信息,从而保证检测精度。此外,充分发挥空间注意力机制,更有利于确定安全帽的目标位置。这是因为通道注意力机制能够保证建模特征通道,CBAM不仅关注通道维度的特征,也关注空间维度,且性能更为优越。所以通过增加CBAM,能够在不改变网络现有输入图像分辨率与网络深度、宽度的基础上,获取更多有效特征,这更有利于充分保障网络性能。

    在实际矿井工作场景中,工人往往分布在各个角落的远近场地,由于工人距离相机的距离差异较大,映射到图像中的安全帽尺度有大有小,尤其是包含多个安全帽目标的图像。为了进一步提升算法针对小目标安全帽的检测性能,在原始YOLOv5s算法的3个检测层基础上[23],增加了1个额外针对小目标的检测层,并命名为YOLOv5s−P2。

    改进后的模型改变了Neck端的特征融合方式,这是因为其中增加了小尺度的检测头,但整体上仍以FPN+PAN结构为主。其结构如图4所示,分析该模型的特征整合结构可知,C2对应主干网络提取的4倍;C3对应的是8倍;C4对应的是16倍;C5对应的是32倍。其中特征融合层包括F3、F4;检测层则包括P2、P3、P4、P5。

    图  4  YOLOv5s−P2特征融合结构
    Figure  4.  YOLOv5s−P2 features fusion structure

    在加入新的P2检测层后,网络能在4个不同尺度的特征图上做检测。改进后的网络将P3检测层,转变为F3特征融合层,并在之后持续采样特征图,并融合从主干网络中获取的4倍下采样特征图,之后由网络检测微小目标,检测结果从P2检测层中输出。在下采样的过程中,融合了大分辨率、浅层特征图的P2检测头,能够向深层特征图传递更多浅层特征信息。另外,网络因为引入P2检测头,极大地提高了对小目标的敏感度,这样更有利于算法检测小目标安全帽。

    在关于矩形框损失的评估方面,YOLOv5s采用CIoU LOSS[24]。其函数公式为

    $$ {L_{{\mathrm{CIoU}}}} = 1 - {\mathrm{IoU}} + \frac{{{\rho ^2}(b,{b_{{\mathrm{gt}}}})}}{{{c^2}}} + \alpha \upsilon $$ (3)
    $$ \upsilon = \frac{4}{{{\pi ^2}}}{\left(\arctan \frac{{{w_{{\mathrm{gt}}}}}}{{{h_{{\mathrm{gt}}}}}} - \arctan \frac{{{w_{\mathrm{p}}}}}{{{h_{\mathrm{p}}}}}\right)^2} $$ (4)

    式中:IoU表示预测、真实的两个物体框的交集面积、并集面积的比值,b,bgt分别为预测框和真实框的中心点,$ {\rho ^2}(b,{b_{{\mathrm{gt}}}}) $为欧式距离,c为同时含有预测框和真实框的最小闭包区域的对角线距离。这里的α为权重函数。υ用于说明长宽比的相似性,w为宽,h为高,gt为真实框,p为预测框。

    CIoU充分考虑了边界框的重叠面积、中心点距离以及长宽比等信息[25]。但是,无法精确确定长宽比,且CIoU也不能充分平衡正负样本。因此算法选用EIoU作为矩形框回归的损失函数,公式(5)表示EIoU Loss函数。

    $$ \begin{gathered} {L_{{\mathrm{EIOU}}}} = {L_{{\mathrm{IOU}}}} + {L_{{\mathrm{dis}}}} + {L_{{\mathrm{asp}}}} = 1 - {\mathrm{IOU}} + \frac{{{\rho ^2}\left( {b,{b_{{\mathrm{gt}}}}} \right)}}{{{c^2}}} +\\ \frac{{{\rho ^2}\left( {w,{w_{{\mathrm{gt}}}}} \right)}}{{C_w^2}} + \frac{{{\rho ^2}\left( {h,{h_{{\mathrm{gt}}}}} \right)}}{{C_h^2}} \end{gathered}$$ (5)

    EIoU Loss主要涉及如下3部分损失:重叠损失、中心距离损失、宽高损失。其中前半部分参数与CIoU一致,cCwCh分别为预测框与真实框最小外接矩形框的对角线长度、宽度和高度。相较于CIoU,EIoU最大特点是细节化了宽高比,解决了宽高比过于模糊的问题,有效提升了回归框的精度。

    考虑到安全帽检测系统需要在矿井作业现场实时运行,并且部署在嵌入式设备上使用时应满足资源限制条件。同时,系统还需要在保持识别准确率的情况下提供实时响应能力,这对算法模型提出了更高的速度和精度要求。为此,模型采用了ShuffleNetV2[26]作为轻量主干特征提取网络,替代原始YOLOv5s模型所用的Darknet−53主干特征网络。ShuffleNetV2通过群组卷积和通道融合等手段有效压缩特征图通道数,大幅减小参数量和计算量,实现较大幅度的计算资源优化。ShuffleNetV2的基本组成单元是Shuffle Unit,如图5所示,图5a图5b分别对应stride = 1和stride = 2的情况。

    图  5  Shuffle Unit结构图
    Figure  5.  Architecture of Shuffle Unit

    图中Conv代表“普通卷积层”,DWConv表示“深度卷积层”,BN表示“批归一化”,Channel Split表示“通道拆分”,Channel Shuffle表示从通道维度上随机打乱特征图的顺序再整合;Concat表示基于通道方向上拼接特征图;参考ResNet设计Shuffle Unit,首先需要先拆分通道,形成2路分支,为避免操作碎片化,对于左边分支不进行任何处理,右边分支由3个卷积构成[27],并且在右侧分支中,卷积保证输入特征矩阵一般等于输出特征通道数,出现最小的MAC值。为减少时间消耗,不进行逐点卷积,最后随机打乱特征图的通道维度,融合2个分支通道间特征信息。当stride = 2,不再拆分通道,采用ShuffleNetV2网络结构更有利于网络的轻量化。

    实验中使用的软硬件平台配置为Windows 10操作系统,Intel Core i5-12700F @2.90 GHz×6 CPU、NVIDIA GeForce RTX 3050、CUDA−10.1、使用Pytorch−1.2.0搭建深度学习框架。模型训练所用的参数设置:输入图像尺寸大小为640×640×3像素,模型训练的迭代次数设置为100,batch size设置为16。采用Nesterov Accelerated Gradient(NAG)优化器进行优化,其中,优化器动量设置为0.937。初始学习率设置为0.01,学习率衰减权重为0.0005,并通过余弦退火学习率衰减自动调整学习率,最终降为0.002。

    实验所使用的井下安全帽检测数据集来源于中国矿业大学智能检测与模式识别研究中心煤矿专用视频AI分析数据集CUMT-HelmeT,该数据集收集了地面及井下人员安全帽佩戴数据,其中总共包含样本数量6421张,使用Labelimg图像标注软件进行标注,标注的内容包括2类,分别是helmet和no-helmet,其中helmet代表佩戴安全帽,no-helmet代表未佩戴安全帽。最终按照8∶1∶1的比例将样本细分为训练集、验证集、测试集。

    实验使用精确率P(Precision)、平均均值精度mAP(mean Average Precision)、召回率R(Recall),来衡量改进后YOLOv5s网络对井下安全帽佩戴的检测效果。采用算法参数量(Params)、每秒浮点运算次数(FLOPS)以及每秒传输帧数(FPS)来评判实验算法的性能。

    其中精确率P为预测为正样本中实际正样本所占比例,其计算公式为(6):

    $$ P=\frac{\mathrm{TP}}{\mathrm{TP+FP}} $$ (6)

    式中:TP(True Positive)为检测目标被准确预测的样本个数;FP(False Positive)为背景部分被误检为检测目标的样本个数。

    对所有类别的平均精度AP(Average Precision)值取平均得到mAP值,可以衡量检测任务中待测数据集中所有类别的检测结果,其计算式为式(7):

    $$ \mathrm{mAP}=\frac{\displaystyle\sum\limits_{i=1}^NAP_i}{N} $$ (7)

    式中:N为样本的类别总数,P为精确率,实验默认在IoU阈值为0.5的情况下进行精度计算,即AP@0.5和mAP@0.5。

    召回率的计算式为(8):

    $$ R=\frac{N\mathrm{_{TP}}}{N_{\mathrm{TP}}+N_{\mathrm{FN}}} $$ (8)

    式中:$ N_{\mathrm{TP}} $为真正例,即井下安全帽图像被正确检测的图像数量;$ N_{\mathrm{FN}} $为假负例,即井下安全帽图像被漏检的数量。

    使用改进后YOLOv5s算法在数据集CUMT-HelmeT进行训练和测试。图6为在不同指标中实验算法的可视化收敛曲线,主要涉及验证集、训练集的置信度损失、边界框损失及类别损失loss曲线及如下4个度量性能指标(precision、recall、mAP@0.5、mAP@0.5:0.95)的收敛曲线,横坐标表示迭代次数epoch。

    图  6  实验算法损失值变化曲线对比
    Figure  6.  Comparison of change curves of the loss value of algorithm in this paper

    观察模型在CUMT-HelmeT的训练集和验证集上的loss曲线可知,模型的各项损失值较低,整体上看边界框损失处于0.07左右,置信度损失值维持在0.022。70次迭代后,分类损失的loss曲线趋近0。由4个性能度量指标曲线可知,模型各项指标均能以极快的速度进行收敛,最终mAP@0.5稳定在87.5%;准确率趋近于92.2%;召回率趋近于80.5%。

    为了探究实验算法对数据集中佩戴安全帽和未佩戴安全帽2种目标检测的具体提升情况,采用实验算法与原YOLOv5s模型进行实验对比。这2种算法在CUMT-HelmeT测试集上的P−R曲线如图7所示。

    图  7  不同模型在CUMT-HelmeT测试集上的P−R曲线
    Figure  7.  P−R curves of different models on CUMT-HelmeT test set

    P−R曲线与坐标轴围成的面积越大,AP值越高,模型性能越好。从图7可以看出,YOLOv5s所对应的P−R曲线所围成的面积小于实验算法,由此可得该算法在CUMT-HelmeT测试集中检测精确率高于原YOLOv5s模型。表1对比了YOLOv5s和实验算法在CUMT-HelmeT测试集上的性能评估指标。综合helmet和no-helmet这2类目标的检测结果可以看出,实验算法对于原始YOLOv5s算法的各项指标均有所提升,其中佩戴安全帽的检测精确率提升了5.4%,而未佩戴安全帽的检测精确率提升了4.9%。

    表  1  实验算法与YOLOv5s检测性能对比
    Table  1.  Detection performance of experimental algorithm is compared with that of YOLOv5s
    算法classP/%R/%mAP@0.5/%
    YOLOv5shelmet85.375.881.5
    no-helmet86.476.482.7
    all85.976.182.1
    实验算法helmet90.779.887.5
    no-helmet91.378.786.7
    all91.680.387.3
    下载: 导出CSV 
    | 显示表格

    为验证CBAM模块、ShuffleNetV2、P2检测层和损失函数改进这4种改进策略给模型带来的性能增益,在CUMT-HelmeT测试集上的消融实验结果见表2

    表  2  消融实验结果
    Table  2.  Ablation experiment results
    优化策略评价指标
    CBAMShuffleNetV2P2EIoUP/%R/%mAP@0.5/%参数量/M
    89.678.682.37.30
    88.377.885.49.15
    87.576.484.86.43
    89.878.885.76.51
    92.280.587.56.74
    下载: 导出CSV 
    | 显示表格

    表2可以看出,当YOLOv5s中加入CBAM注意力机制后,各项指标均有所提升,使用ShuffleNetV2修改主干网络后,一定程度上降低了其精确率,但该优化策略不仅减少了模型的参数量,同时也简化了计算过程,使模型的计算速度有一定的提高。后续通过添加P2小目标检测层又将精确率提升了1.1%,有效改善了针对小目标安全帽漏检情况,最后通过优化损失函数,进一步提升了网络性能。综上所述,实验中所做出的各项改进将精确率、召回率和mAP@0.5分别提高了2.9%、2.42%和6.32%,参数量降低了7.6%,在保证模型良好检测性能的同时进一步实现模型的轻量化。

    为进一步检验井下环境中,实验模型对安全帽佩戴检测的效果,将改进后的YOLOv5s模型与SSD[28]、Faster-RCNN[29]、YOLOv5s以及YOLOv7算法使用相同样本和训练环境进行客观指标对比。各模型训练曲线对比如图8所示,对比结果见表3

    图  8  实验算法与其他算法的可视化对比
    Figure  8.  Comparison between proposed algorithm and other ones
    表  3  不同算法对比实验
    Table  3.  Comparative experiments with different algorithms
    算法 mAP@0.5/% P/% R/% 模型参数量/M FLOPS FPS
    SSD 78.2 81.8 72.1 92.12 3.3G 22.1
    Faster RCNN 79.1 87.9 77.5 35.30 3.9G 16.3
    YOLOv5s 82.3 89.6 78.6 7.30 2.2G 15.8
    YOLOv7 86.3 91.3 80.9 36.49 4.3G 23.6
    实验算法 87.5 92.2 80.5 6.74 2.1G 21.5
    下载: 导出CSV 
    | 显示表格

    图8可以看出,与主流算法相比,实验模型在CUMT-HelmeT数据集上的各项指标均优于其他算法,召回率与YOLOv7相比略低一点,但实验算法的收敛速度比YOLOv7快。从表3可知实验算法的mAP@0.5达到87.5%,相较于SSD、Faster RCNN、YOLOv5s以及YOLOv7算法分别提高了11.89%、10.62%、6.32%和1.39%,网络识别精确率分别提高了12.71%、4.89%、2.9%、0.98%,召回率相比于SSD、Faster RCNN以及YOLOv5s分别提升了11.65%、3.87%、2.42%,实验算法在得到最高识别精度的同时将模型参数量降低到6.74M,相较于原YOLOv5s下降了7.6%,FLOPS远远低于其他算法,说明实验模型复杂度较低,同时FPS数值位居前列,要明显高于YOLOv5s和Faster RCNN,略低于YOLOv7和SSD。综合对比实验的结果可以得出:实验算法在矿井下针对安全帽的检测精度和速度之间取得较好的平衡,进一步证明了实验算法的有效性。

    为了更加直观的对比改进后的YOLOv5s模型的检测效果,针对不同算法下的矿井安全帽检测进行了实验,图9为检测结果。

    图  9  不同算法检测结果
    Figure  9.  Detection results of different algorithms

    根据图9检测结果可以看出,当图9c中被检测目标距离较远时,小目标安全帽在整个图像中像素占比很少,导致SSD与Faster RCNN算法产生漏检现象,由于实验算法引入小目标检测层更有利于表达小目标的特征,改进后模型降低了误检、漏检小目标的情况;而且在如图9b图9d中由于工人头灯照射影响,导致其他算法均有漏检或误检现象的出现,实验算法在加入CBAM注意力机制后,更有利于模型关注重要信息与重要位置,这能够有效减少因为受外界干扰或者昏暗的条件下漏检和误检的情况。而且通常情况下,也能够显著提高检测置信度。综上所述,改进后的YOLOv5s在井下环境中显著提高了模型的检测精度,提升了模型检测性能。

    1)针对井下人员安全帽检测算法的精确度低、漏检率高等问题,提出了一种基于YOLOv5s改进的矿井下人员安全帽检测算法,并且在YOLOv5s网络模型中增加了小目标检测层,提升模型对于小目标安全帽的检测精确度。

    2)在Neck网络中引入CBAM注意力机制提升模型检测性能,同时优化损失函数提升预测框的准确率,加速模型收敛。

    3)采用轻量化网络ShuffleNetV2代替主干特征提取网络,以实现网络模型的轻量化,平衡模型的检测速度和精度。

    4)实验结果表明,实验算法对矿井下安全帽的平均检测精度可达87.5%,其余各类指标均有较好的表现。在相同的实验环境下,与SSD、Faster RCNN、YOLOv5s以及YOLOv7目标检测算法进行对比实验,结果表明笔者提出的模型各项性能优于其他模型,在复杂的矿井环境中能够有效缓解漏检、误检现象。

  • 图  1   YOLOv5s的网络结构

    Figure  1.   Structural framework of YOLOv5s

    图  2   改进YOLOv5s结构

    Figure  2.   Improved YOLOv5s network structure

    图  3   CBAM网络结构

    Figure  3.   CBAM network structure

    图  4   YOLOv5s−P2特征融合结构

    Figure  4.   YOLOv5s−P2 features fusion structure

    图  5   Shuffle Unit结构图

    Figure  5.   Architecture of Shuffle Unit

    图  6   实验算法损失值变化曲线对比

    Figure  6.   Comparison of change curves of the loss value of algorithm in this paper

    图  7   不同模型在CUMT-HelmeT测试集上的P−R曲线

    Figure  7.   P−R curves of different models on CUMT-HelmeT test set

    图  8   实验算法与其他算法的可视化对比

    Figure  8.   Comparison between proposed algorithm and other ones

    图  9   不同算法检测结果

    Figure  9.   Detection results of different algorithms

    表  1   实验算法与YOLOv5s检测性能对比

    Table  1   Detection performance of experimental algorithm is compared with that of YOLOv5s

    算法classP/%R/%mAP@0.5/%
    YOLOv5shelmet85.375.881.5
    no-helmet86.476.482.7
    all85.976.182.1
    实验算法helmet90.779.887.5
    no-helmet91.378.786.7
    all91.680.387.3
    下载: 导出CSV

    表  2   消融实验结果

    Table  2   Ablation experiment results

    优化策略评价指标
    CBAMShuffleNetV2P2EIoUP/%R/%mAP@0.5/%参数量/M
    89.678.682.37.30
    88.377.885.49.15
    87.576.484.86.43
    89.878.885.76.51
    92.280.587.56.74
    下载: 导出CSV

    表  3   不同算法对比实验

    Table  3   Comparative experiments with different algorithms

    算法 mAP@0.5/% P/% R/% 模型参数量/M FLOPS FPS
    SSD 78.2 81.8 72.1 92.12 3.3G 22.1
    Faster RCNN 79.1 87.9 77.5 35.30 3.9G 16.3
    YOLOv5s 82.3 89.6 78.6 7.30 2.2G 15.8
    YOLOv7 86.3 91.3 80.9 36.49 4.3G 23.6
    实验算法 87.5 92.2 80.5 6.74 2.1G 21.5
    下载: 导出CSV
  • [1] 葛世荣,郝尚清,张世洪,等. 我国智能化采煤技术现状及待突破关键技术[J]. 煤炭科学技术,2020,48(7):28−46.

    GE Shirong,HAO Shangqing,ZHANG Shihong,et al. Status of intelligent coal mining technology and potential key technologies in China[J]. Coal Science and Technology,2020,48(7):28−46.

    [2] 王国法,徐亚军,张金虎,等. 煤矿智能化开采新进展[J]. 煤炭科学技术,2021,49(1):1−10.

    WANG Guofa,XU Yajun,ZHANG Jinhu,et al. New development of intelligent mining in coal mines[J]. Coal Science and Technology,2021,49(1):1−10.

    [3] 王国法,张良,李首滨,等. 煤矿无人化智能开采系统理论与技术研发进展[J]. 煤炭学报,2023,48(1):34−53.

    WANG Guofa,ZHANG Liang,LI Shoubin,et al. Progresses in theory and technological development of unmanned smart mining system[J]. Journal of China Coal Society,2023,48(1):34−53.

    [4] 侯公羽,陈钦煌,杨振华,等. 基于改进YOLOv5的安全帽检测算法[J]. 工程科学学报,2024,46(2):329−342.

    HOU Gongyu,CHEN Qinhuang,YANG Zhenhua,et al. Helmet detection method based on improved YOLOv5[J]. Chinese Journal of Engineering,2024,46(2):329−342.

    [5] 杜青,杨仕教,郭钦鹏,等. 地下矿山作业人员佩戴安全帽智能检测方法[J]. 工矿自动化,2023,49(7):134−140.

    DU Qing,YANG Shijiao,GUO Qinpeng,et al. Intelligent detection method of working personnel wearing safety helmets in underground mine[J]. Journal of Mine Automation,2023,49(7):134−140.

    [6] 张锦,屈佩琪,孙程,等. 基于改进YOLOv5的安全帽佩戴检测算法[J]. 计算机应用,2022,42(4):1292−1300.

    ZHANG Jin,QU Peiqi,SUN Cheng,et al. Safety helmet wearing detection algorithm based on improved YOLOv5[J]. Journal of Computer Applications,2022,42(4):1292−1300.

    [7] 赵红成,田秀霞,杨泽森,等. 改进YOLOv3的复杂施工环境下安全帽佩戴检测算法[J]. 中国安全科学学报,2022,32(5):194−200.

    ZHAO Hongcheng,TIAN Xiuxia,YANG Zesen,et al. Safety helmet wearing detection algorithm in complex construction environment based on improved YOLOv3[J]. China Safety Science Journal,2022,32(5):194−200.

    [8] 赵睿,刘辉,刘沛霖,等. 基于改进YOLOv5s的安全帽检测算法[J]. 北京航空航天大学学报,2023,49(8):2050−2061.

    ZHAO Rui,LIU Hui,LIU Peilin,et al. Safety helmet detection algorithm based on improved YOLOv5s[J]. Journal of Beijing University of Aeronautics and Astronautics,2023,49(8):2050−2061.

    [9]

    WANG L J,CAO Y Y,WANG S,et al. Investigation into recognition algorithm of helmet violation based on YOLOv5-CBAM-DCN[J]. IEEE Access,2022,10:60622−60632. doi: 10.1109/ACCESS.2022.3180796

    [10]

    LIU Y Y,JIANG W R. Detection of wearing safety helmet for workers based on YOLOv4[C]//2021 International Conference on Computer Engineering and Artificial Intelligence (ICCEAI). Piscataway,NJ:IEEE,2021:83−87.

    [11]

    REDMON J,FARHADI A. YOLOv3:an incremental improvement[EB/OL]. (2018−04−08)[2023−05−29]. https://arxiv.org/abs/1804.02767.

    [12]

    BOCHKOVSKIY A,WANG C Y,LIAO H. YOLOv4:optimal speed and accuracy of object detection[EB/OL]. (2020−04−23) [2023−05−29]. https://arxiv.org/abs/2004.10934.

    [13]

    LI C Y,LI L,JIANG H L,et al. YOLOv6:A single-stage object detection framework for industrial applications[EB/OL]. (2022−09−07) [2023−06−01]. https://arxiv.org/abs/2209.02976.

    [14]

    WANG C Y,BOCHKOVSKIY A,LIAO H M. YOLOv7:Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway,NJ:IEEE,2023:7464−7475.

    [15]

    Solawetz J,Francesco. What is YOLOv8? The ultimate guide [EB/OL]. (2023−01−11) [2023−06−02]. https://blog.roboflow.com/what-is-yolov8/.

    [16]

    REDMON J,DIVVALA S,GIRSHICK R,et al. You only look once:Unified,real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway,NJ:IEEE,2016:779−788.

    [17]

    SINGH S K. Multiple fault detection of rolling bearing through ensemble empirical mode decomposition of vibration signal[J]. International Journal of Engineering and Advanced Technology,2019,9(2):2724−2726. doi: 10.35940/ijeat.B3562.129219

    [18]

    ZHAO B Y,WU Y F,GUAN X R,et al. An improved aggregated-mosaic method for the sparse object detection of remote sensing imagery[J]. Remote Sensing,2021,13(13):2602. doi: 10.3390/rs13132602

    [19] 苗长云,孙丹丹. 基于改进YOLOv5s的带式输送机滚筒故障检测研究[J]. 工矿自动化,2023,49(7):41−48.

    MIAO Changyun,SUN Dandan. Research on fault detection of belt conveyor drum based on improved YOLOv5s[J]. Journal of Mine Automation,2023,49(7):41−48.

    [20] 郝帅,张旭,马旭,等. 基于CBAM-YOLOv5的煤矿输送带异物检测[J]. 煤炭学报,2022,47(11):4147−4156.

    HAO Shuai,ZHANG Xu,MA Xu,et al. Foreign object detection in coal mine conveyor belt based on CBAM-YOLOv5[J]. Journal of China Coal Society,2022,47(11):4147−4156.

    [21] 闫志蕊,王宏伟,耿毅德. 基于改进DeeplabV3+和迁移学习的煤岩界面图像识别方法[J]. 煤炭科学技术,2023,51(S1):429−439.

    YAN Zhirui,WANG Hongwei,GENG Yide. Coal-rock interface image recognition method based on improved DeeplabV3+ and transfer learning[J]. Coal Science and Technology,2023,51(S1):429−439.

    [22] 付国栋,黄进,杨涛,等. 改进CBAM的轻量级注意力模型[J]. 计算机工程与应用,2021,57(20):150−156. doi: 10.3778/j.issn.1002-8331.2101-0369

    FU Guodong,HUANG Jin,YANG Tao,et al. Improved lightweight attention model based on CBAM[J]. Computer Engineering and Applications,2021,57(20):150−156. doi: 10.3778/j.issn.1002-8331.2101-0369

    [23] 鞠默然,罗海波,王仲博,等. 改进的YOLO V3算法及其在小目标检测中的应用[J]. 光学学报,2019,39(7):0715004. doi: 10.3788/AOS201939.0715004

    JU Moran,LUO Haibo,WANG Zhongbo,et al. Improved YOLO V3 algorithm and its application in small target detection[J]. Acta Optica Sinica,2019,39(7):0715004. doi: 10.3788/AOS201939.0715004

    [24]

    ZHENG Z H,WANG P,LIU W,et al. Distance-IoU loss:Faster and better learning for bounding box regression[J]. Proceedings of the AAAI Conference on Artificial Intelligence,2020,34(7):12993−13000. doi: 10.1609/aaai.v34i07.6999

    [25] 张磊,李熙尉,燕倩如,等. 基于改进YOLOv5s的综采工作面人员检测算法[J]. 中国安全科学学报,2023,33(7):82−89.

    ZHANG Lei,LI Xiwei,YAN Qianru,et al. Personnel detection algorithm in fully mechanized coal face based on improved YOLOv5s[J]. China Safety Science Journal,2023,33(7):82−89.

    [26] 陈奎,刘晓,贾立娇,等. 基于轻量化网络与增强多尺度特征融合的绝缘子缺陷检测[J]. 高电压技术,2024,50(3):1289−1300.

    CHEN Kui,LIU Xiao,JIA Lijiao,et al. Insulator defect detection based on lightweight network and enhanced multi-scale feature fusion[J]. High Voltage Engineering,2024,50(3):1289−1300.

    [27] 邵小强,李鑫,杨涛,等. 改进YOLOv5s和DeepSORT的井下人员检测及跟踪算法[J]. 煤炭科学技术,2023,51(10):291−301.

    SHAO Xiaoqiang,LI Xin,YANG Tao,et al. Underground personnel detection and tracking based on improved YOLOv5s and DeepSORT[J]. Coal Science and Technology,2023,51(10):291−301.

    [28]

    LIU W,ANGUELOV D,ERHAN D,et al. SSD:Single shot MultiBox detector[C]// Computer Vision−ECCV 2016. Cham:Springer International Publishing,2016:21−37.

    [29]

    REN S Q,HE K M,GIRSHICK R,et al. Faster R-CNN:Towards real-time object detection with region proposal networks[C]//IEEE Transactions on Pattern Analysis and Machine Intelligence. Piscataway,NJ:IEEE,2017:1137−1149.

图(9)  /  表(3)
计量
  • 文章访问数:  30
  • HTML全文浏览量:  3
  • PDF下载量:  15
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-12-03
  • 网络出版日期:  2025-05-07
  • 刊出日期:  2025-05-31

目录

/

返回文章
返回