Processing math: 100%
  • 中文核心期刊
  • 中国科技核心期刊
  • RCCSE中国核心学术期刊
  • Scopus, DOAJ, CA, AJ, JST收录期刊
高级检索

煤矿井下巷道行驶车辆车前障碍物检测方法研究

闫明伟

闫明伟. 煤矿井下巷道行驶车辆车前障碍物检测方法研究[J]. 矿业安全与环保, 2024, 51(1): 168-174. DOI: 10.19835/j.issn.1008-4495.20230279
引用本文: 闫明伟. 煤矿井下巷道行驶车辆车前障碍物检测方法研究[J]. 矿业安全与环保, 2024, 51(1): 168-174. DOI: 10.19835/j.issn.1008-4495.20230279
YAN Mingwei. Research on detection method of vehicles road obstacle in underground roadway of coal mine[J]. Mining Safety & Environmental Protection, 2024, 51(1): 168-174. DOI: 10.19835/j.issn.1008-4495.20230279
Citation: YAN Mingwei. Research on detection method of vehicles road obstacle in underground roadway of coal mine[J]. Mining Safety & Environmental Protection, 2024, 51(1): 168-174. DOI: 10.19835/j.issn.1008-4495.20230279

煤矿井下巷道行驶车辆车前障碍物检测方法研究

基金项目: 

国家自然科学基金项目 52004207

陕西省自然科学基金项目 2022JM-314

详细信息
    作者简介:

    闫明伟(1975—),男,陕西榆林人,工程师,从事煤矿安全工程和智能化改造方面的研究工作。E-mail: 411737244@qq.com

  • 中图分类号: TD634; TP391.41

Research on detection method of vehicles road obstacle in underground roadway of coal mine

  • 摘要:

    为了解决巷道内运输车辆在行驶过程中对障碍物的检测易受到光照条件影响的问题, 提出了一种基于图像增强的障碍物检测方法。该方法先利用VOC数据集格式制作井下车辆行驶过程中的障碍物数据集, 然后利用MSR(Multi Scale Retinex)算法对井下采集到的低照度图像进行增强;通过改进CenterNet网络, 设计了ResNetBN-18轻量级网络, 再基于改进后的CenterNet目标检测算法训练数据集, 最后实现对井下运输车辆车前障碍物的准确检测。实验结果表明, 改进后的检测模型保持了原网络的高实时性, 检测精度比原网络提高了10.1%, 帧率提高了6.7%。

    Abstract:

    In order to solve the problem that the obstacle detection of transport vehicles in roadway is easily affected by lighting conditions, an obstacle detection method based on image enhancement is proposed. Firstly, the VOC data set format was used to produce the obstacle data set in the process of underground vehicle driving, and then MSR (Multi Scale Retinex) algorithm was used to enhance the low-illumination image collected in the underground. By improving the CenterNet network, the ResNetBN-18 lightweight network was designed, and the data set was trained based on the improved CenterNet target detection algorithm. Finally, the accurate detection of vehicles road obstacle in underground roadway was realized. The experimental results show that the improved detection model maintains the high real-time performance of the original network, and the detection accuracy is improved by 10.1%, the frame rate increased by 6.7%.

  • 近年来, 随着人工智能技术的不断发展, 煤炭行业开始不断加快推进智能化建设。特别是在煤炭行业智能运输过程中, 无人驾驶运输车扮演着重要角色, 主要包括无人驾驶电机车、无人驾驶胶轮车等。无轨胶轮车作为煤矿井下重要的辅助运输装备, 现阶段要实现无人驾驶还有很多技术难题需要攻克。而智能辅助驾驶技术是实现煤矿井下运输无人化发展的关键, 其技术核心主要包括感知、定位、规划、决策等模块, 其中感知是辅助驾驶过程中的重要部分 [ 1] 。井下巷道工况较为复杂, 运输环境存在不确定性, 因此, 需针对巷道复杂环境研究更加高效、准确的障碍物检测算法, 以保障巷道复杂环境下车辆的行驶安全。同时由于井下运输车辆工作时会遇到低光照度、盲区、障碍物较多等情况, 所以获取运输车辆行驶过程中周围环境障碍物信息显得尤为重要。

    目前主流目标检测算法分单阶段(One-stage)检测模型和双阶段(Two-stage)检测模型2种方法 [ 2] 。单阶段检测取消了候选框生成的步骤, 实现了端到端的检测, 该方法检测速度快, 但是检测精度相对于双阶段检测模型较低, 主要包括YOLO目标检测算法系列 [ 3] 、SSD检测算法 [ 4] 等。其中, YOLO系列算法根据每个特征单元预测检测框的位置和类别, 结合数据背景信息得出识别结果, 在保证准确率的同时有效解决了算法实时性的问题; SSD算法通过多尺度特征映射进行预测后, 生成不同大小的候选框, 并最终获得目标检测结果。双阶段检测方法通过卷积神经网络提取目标特征生成一系列候选框, 然后在候选框上进行回归和分类, 其特点是准确度高, 但识别速度相对单阶段检测方法较低。2014年,REN等 [ 5] 提出Fast R-CNN(Region-CNN)算法, 该算法利用选择性搜索的方法生成候选框, 通过卷积神经网络提取候选框的特征, 再利用SVM分类器进行分类回归得到识别结果;Mask R-CNN算法由HE等 [ 6] 在2017年提出, 该算法建立在Fast R-CNN的基础上, 首先生成候选区域, 采用ResNet作为特征提取网络, 然后再进行预测分割和分类回归, 最后得出检测结果。

    以上2类目标检测算法都是先找到可能是目标的锚框, 然后分类回归预测框。2019年,ZHOU等 [ 7] 提出CenterNet算法, 其将目标建模成一个点, 即目标框的中心点, 通过热点图找到中心点, 然后通过中心点的图像特征回归得到目标的其他特征, 该方法没有锚框机制, 无需花费时间去寻找锚框, 这有效减少了计算量, 且实时性优于其他网络算法, 故笔者选择CenterNet算法作为障碍物检测算法。

    为解决井下低照度环境下运输车辆车前障碍物检测实时性差、漏检率高的问题, 笔者将CenterNet算法应用于煤矿井下运输车辆车前障碍物检测系统, 结合图像增强算法对CenterNet目标检测算法进行改进, 在满足实时性高的需求下, 降低目标检测的漏检率, 进一步辅助驾驶人员更加安全地完成井下运输任务。

    MSR(Multi Scale Retinex)是在单尺度SSR(Single Scale Retinex)算法的基础上发展而来, SSR算法是通过高斯环绕函数对图像的3个通道分别估计亮度值, 获取最终的反射图像 [ 8] 。与Retinex理论 [ 9] 降噪原理类似, 算法合理地假设了图像的构成, 将观察到的图像看成是一幅有乘性噪声的图像, 入射光的分量就是一种乘性的、分布相对均匀、变化缓慢的噪声 [ 10] 。Retinex算法会估计图像中各个噪声的位置, 并能消除噪声, 算法流程图如 图 1所示。

    图  1  Retinex算法流程图
    Figure  1.  Flow chart of Retinex algorithm

    输入原始图像 S( x, y), 将颜色分通道进行处理。将每个分量的元素值转换到对数域, 图像中物体的反射性质表示为 R( x, y), 入射光线为 L( x, y), 首先将图像 I( x, y)在对数域展开, 即:

    logI(x,y)=logR(x,y)+logL(x,y) (1)

    再通过高斯环绕函数 F( x, y)估计亮度图像, 计算公式如下:

    F(x,y)=Ke(x2+y2)/c2 (2)

    式中: K为高斯环绕函数的个数; c为高斯函数的标准偏差。

    然后对增强后的图像加权融合得到最终的图像, 输出图像计算公式如下:

    Ri(x,y)=Kkωk{logSi(x,y)log[F(x,y)Si(x,y)]} (3)

    式中: R i ( x, y)为图像增强输出; 下标 iR, G, B, 分别代表 3个光谱色带(红、绿、蓝); S i ( x, y)为图像在光谱带的分布; *为卷积运算;当 k=1时,MSR退化为SSR,从保证兼有SS高、中、低3个尺度的优点来考虑, k通常取3,且 ω 1= ω 2= ω 3=1/3。

    MSR图像增强算法在增强图像细节和对比度的同时, 具有色彩保真能力, 有着更好的视觉效果。使用MSR图像增强算法能有效提高井下低照度环境下图像的对比度, 突出井下环境的细节信息, 增强后的图像更易于被识别。

    CenterNet检测算法属于One-stage检测模型, 算法精度相较于传统的One-stage和Two-stage模型有很大的提高。在相同速度条件下, CenterNet的检测精度比YOLOv3高4%, 该算法是在CornerNet目标检测算法的基础上利用目标中心点来预测目标。通过将图像信息输入到卷积神经网络, 得到一张热力图。将热力图的峰值中心点记为目标中心点, 然后利用中心点位置特征回归得出目标的实际尺寸及位置 [ 11] 。CenterNet网络结构首先对采集到的图像进行预处理, 利用ResNet网络 [ 12] 进行特征提取, 然后输出一组关键点; 最后利用最大池化(Maxpooling)筛选保留关键点, 然后回归预测框。CenterNet网络结构如 图 2所示。

    图  2  CenterNet网络结构
    Figure  2.  CenterNet network framework

    ResNet-18网络由VGG19网络进行改进得到。ResNet-18网络添加了含有残差单元的短路机制, 利用多个有参层来学习输入与输出之间的残差, 并使用平均池化层替代全连接层。该网络结构在收敛速度上表现更好, 分类的准确度更高 [ 13] 。ResNet-18网络结构如 图 3所示。

    图  3  ResNet-18网络结构图
    Figure  3.  Structure diagram of ResNet-18 network

    ResNet-18的残差计算是由一系列残差块组成, 基本网络单元如 图 4所示。图中残差块的输入x是上一层网络的输出特征映射, 通过残差结构计算得到最终输出: F(x)+x。

    图  4  ResNet-18残差单元
    Figure  4.  Resnet-18 residual unit

    在障碍物检测过程中存在障碍物过小的问题, 而在多层卷积神经网络中, 特征信息经过卷积和池化的操作会丢失大量信息, 导致检测精度降低 [ 14] 。通过将深层特征与浅层特征进行融合来解决该问题, 在特征提取网络中, 深层特征具有丰富的语义信息, 感受野大, 而浅层特征具有更多的细节信息, 感受野较小 [ 15] 。当检测障碍物较大时获取深层特征会使得检测效果更好;与此相反, 障碍物较小时获取浅层特征效果更好。因此,小障碍物更适合在浅层特征进行预测 [ 16] 。综上分析, 对CenterNet特征提取网络改进如下:

    1) 将图像统一至像素大小224×224后输入网络, 先经过一个卷积核大小为7×7的卷积层进行2倍下采样, 变成像素大小112×112包含64个通道的特征图;

    2) 去掉原有的最大池化层, 然后分别经过4个残差模块(Conv2_x、Conv3_x、Conv4_x、Conv5_x)提取特征, 同时进一步下采样, 从Conv2_x到Conv5_x的输出特征图尺寸分别为上一层输入特征图尺寸的1/2;

    3) 将Conv5_x输出的特征图直接采用2倍最邻近上采样, 将获得的特征图与Conv4_x的输出特征图相加进行特征融合, 然后采用相同方式对得到的融合特征图进行上采样, 最后得到像素大小为128×128的融合特征图。

    特征融合结构工作原理如 图 5所示。

    图  5  特征融合结构
    Figure  5.  Feature fusion structure

    该融合特征图下采样倍数为2, 相较于最顶层特征具有更高的分辨率, 包含了更多检测小目标需要的细节信息, 并且对目标的定位能力更强。在该融合特征图上分别使用卷积得到预测热力图、宽高图及偏移图, 最后输出检测结果 [ 17]

    多次引入浅层特征会增加计算量, 导致实时性差 [ 18] 。选择检测实时性最好的ResNet-18作为主干网络, 并对网络结构中的残差单元进行改进, 在不改变其网络深度的情况下, 检测精度有了较大提升 [ 19] 。ResNet-18网络改进前的残差单元如 图 6(a) 所示。将原有的ResNet-18中残差模块单元的第一层卷积通道数压缩至1/2, 第二层3×3卷积替换成2个1×1的卷积, 改进后的残差单元如 图 6(b)所示。

    图  6  残差单元改进
    Figure  6.  Residual unit improvement

    常见的注意力机制分为两大类: 通道注意力、空间注意力。大多数现有的方法致力于开发更复杂的注意力模块以获得更好的性能, 这不可避免地增加了模型的复杂性。通道注意力模块如 图 7所示。特征图输入之后进行维度压缩, 分别经过最大池化层与平均池化层得到1个一维矢量, 经过多层感知机实现维度转换。

    图  7  通道注意力模块
    Figure  7.  Channel attention module

    ECA-Net注意力机制由SENet改进而来。SENet模型是通道注意力模型, 该模型顺着空间维度对特征进行了压缩, 二维的特征通道变成1个实数。这个实数具有全局的感受野, 并且输出的维度和输入的特征通道数相匹配。由于降低维度会导致特征信息不完整, 不利于学习通道注意力特征, 而ECA-Net通过适当的跨通道交互降低模型复杂度, 避免了降维, 在保证高性能的基础上, 减少了模型的复杂性。由于ECA-Net降低了模型复杂度, 同时能很好地保持性能,故在baseline model上添加了ECA-Net模块 [ 19] 。模型整体结构如 图 8所示。

    图  8  ECA-Net模型结构
    Figure  8.  ECA-Net module structure

    增加ECA-Net注意力机制可以增强车辆和行人的特征, 抑制不相关的特征, 从而提高对障碍物的检测精度 [ 20- 22] 。相比于其他注意力机制, ECA-Net插入后对网络的时间复杂度影响较小, 并且ECA-Net的性能增益更高。

    利用MSR算法对井下采集的低照度图像进行增强操作, 同时在CenterNet网络的基础上设计了ResNetBN-18轻量级网络, 通过改进的网络结构进行数据集的训练, 生成相应的权重文件, 之后进行检测。具体步骤如下:

    1) 采集井下图像数据, 构建井下障碍物数据集(VOC数据集格式), 用于后续操作;

    2) 考虑到井下复杂环境, 尤其是光照条件的影响, 故选取MSR算法对低照度图片信息进行增强;

    3) 选取CenterNet网络结构为基础并进行相应改进, 实现后续目标检测;

    4) 设计ResNetBN-18轻量级网络, 配合图像增强后的VOC数据集, 通过CenterNet网络, 生成相应的权重文件;

    5) 获取相应的改进模型。

    系统整体框架如 图 9所示。

    图  9  ResNetBN-18整体系统框架
    Figure  9.  ResNetBN-18 Overall system framework

    试验选用的操作系统为Ubuntu 18.04;ROS环境为ros-melodic;cuda-11.3, cudnn8.1;计算机硬件为Intel(R) Core(TM) i7-11800H CPU、16 GB RAM、GeForce GTX3060显卡;传感器选用Intel Realsense D435摄像头;编译语言为Python, 搭载Pytorch 1.10.2和Opencv 3.4.1。数据集采集环境在西安科技大学煤炭科技研究中心矿区井下模拟巷道。

    数据集选用PASCALVOC格式, LableImg软件标注生成xml文件, 图像数据分别为测试集共500幅图像、训练集2 000幅图像, 每幅图像平均包含3.4个障碍物目标。由于是针对低光照环境下障碍物的识别, 所以测试集中低光照现象较多。为了减少测试时间, 直接对测试集中的图像进行增强处理, 然后进行障碍物检测测试。利用改进后的ResNetBN-18网络训练数据集, 训练epoch(迭代次数)为50, 训练完成后Loss曲线如 图 10所示。

    图  10  Loss曲线图
    Figure  10.  The graph of Loss

    设置信度为0.5, 模型训练完成后车辆与行人的Precision值变化如 图 11所示。

    图  11  对行人和车辆的预测精度值
    Figure  11.  Prediction accuracy value of vehicles and people

    为了验证改进后的网络性能,通过帧率和平均准确率来对网络进行评价,计算公式如下:

    P=TpTp+Fp (4)
    A=Tp+TnTp+Tn+Fp+Fn (5)
    Ap=ApcN (6)

    式中: P为查准率; T p为目标判断正确的个数; F p为错误目标判断正确的个数; A为准确率; T n为错误目标中判断错误的个数; F n为正确目标判断错误的个数; A p为平均准确率(平均精度); A pc为类别c的平均精度; N为样本类别数量。

    同时, 将本文方法与其他主流的检测模型进行对比, 对比结果如 表 1所示。可以看出, 本文提出的方法平均精度比原有网络提高了10.1%, 帧率基本相同。虽然平均精度比Fast R-CNN低, 但是平均帧率比Fast R-CNN高21 fps, 在CenterNet模型的基础上增高了6.7%, 达到了提高实时检测精度的效果。

    表  1  多种检测算法对比
    Table  1.  Comparison of various detection algorithms
    模型类别 平均精度/% 帧率/fps
    Fast R-CNN 89.7 27
    Yolov3 84.5 52
    CenterNet(ResNet-18) 75.6 45
    本文算法 85.7 48
    下载: 导出CSV 
    | 显示表格

    为进一步体现煤矿井下低照度运输车辆车前障碍物检测方法的性能, 选取井下巷道人员行走和车辆行驶场景作为测试图像, 分别对CenterNet(ResNet-18)原模型与改进后算法进行测试对比, 结果如 图 12所示。

    图  12  算法改进前后检测结果
    Figure  12.  Detection results before and after algorithm improvement

    图 12(a)可以看出,图像中的检测框中在巷道低照度环境下, 巷道中的工作人员和车辆均被漏检。从 图 12(b)可明显看出, 在图像增强后, 改进后的算法有效降低了漏检率, 同时图像对比度较输入图像高, 证明了改进后的算法在巷道车前障碍物检测中取得了好的成果。

    根据煤矿井下巷道内行驶车辆在低照度场景下对周围障碍物检测实时性高、漏检率低的要求, 提出了一种低照度障碍物检测方法。设计ResNetBN-18算法替换CenterNet网络中的残差单元, 在原网络残差单元中的卷积层后融入BN层。

    经试验验证, 改进后算法检测的平均帧率达到48 fps, 检测精度比原网络提高了10.1%, 帧率提高了6.7%,能满足煤矿井下巷道行驶车辆感知系统的需要, 为井下安全运输提供了有力保障。但算法还有待优化, 一方面井下采集到的数据复杂、数据集庞大, 另一方面算法对于距离较远时障碍物检测准确度不高。未来将对网络结构进一步优化, 使其能够适用于其他工业环境。

  • 图  1   Retinex算法流程图

    Figure  1.   Flow chart of Retinex algorithm

    图  2   CenterNet网络结构

    Figure  2.   CenterNet network framework

    图  3   ResNet-18网络结构图

    Figure  3.   Structure diagram of ResNet-18 network

    图  4   ResNet-18残差单元

    Figure  4.   Resnet-18 residual unit

    图  5   特征融合结构

    Figure  5.   Feature fusion structure

    图  6   残差单元改进

    Figure  6.   Residual unit improvement

    图  7   通道注意力模块

    Figure  7.   Channel attention module

    图  8   ECA-Net模型结构

    Figure  8.   ECA-Net module structure

    图  9   ResNetBN-18整体系统框架

    Figure  9.   ResNetBN-18 Overall system framework

    图  10   Loss曲线图

    Figure  10.   The graph of Loss

    图  11   对行人和车辆的预测精度值

    Figure  11.   Prediction accuracy value of vehicles and people

    图  12   算法改进前后检测结果

    Figure  12.   Detection results before and after algorithm improvement

    表  1   多种检测算法对比

    Table  1   Comparison of various detection algorithms

    模型类别 平均精度/% 帧率/fps
    Fast R-CNN 89.7 27
    Yolov3 84.5 52
    CenterNet(ResNet-18) 75.6 45
    本文算法 85.7 48
    下载: 导出CSV
  • [1] 鲍久圣, 张牧野, 葛世荣, 等. 基于改进A *和人工势场算法的无轨胶轮车井下无人驾驶路径规划[J]. 煤炭学报, 2022, 47(3): 1347-1360. https://www.cnki.com.cn/Article/CJFDTOTAL-MTXB202203027.htm

    BAO Jiusheng, ZHANG Muye, GE Shirong, et al. Underground driverless path planning of trackless rubber tyred vehicle based on improved A * and artificial potential field algorithm[J]. Journal of China Coal Society, 2022, 47(3): 1347-1360. https://www.cnki.com.cn/Article/CJFDTOTAL-MTXB202203027.htm

    [2] 王鑫鹏, 王晓强, 林浩, 等. 深度学习典型目标检测算法的改进综述[J]. 计算机工程与应用, 2022, 58(6): 42-57. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202206003.htm

    WANG Xinpeng, WANG Xiaoqiang, LIN Hao, et al. Review on improvement of typical object detection algorithms in deep learning[J]. Computer Engineering and Applications, 2022, 58(6): 42-57. https://www.cnki.com.cn/Article/CJFDTOTAL-JSGG202206003.htm

    [3]

    REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA. IEEE, 2016: 779-788.

    [4]

    LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot MultiBox detector[C]//European Conference on Computer Vision. Cham: Springer, 2016: 21-37.

    [5]

    REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149. doi: 10.1109/TPAMI.2016.2577031

    [6]

    HE K, GKIOXARI G, DOLLAR P, et al. Mask R-CNN[C]//2017 IEEE International Conference on Computer Vision(ICCV), 2017: 2980-2988.

    [7]

    CHEN Y K, ZHANG P Z, LI Z M, et al. Dynamic scale training for object detection[J]. ArXiv e-Prints, 2020: arXiv: 2004.12432.

    [8]

    SINGH B, DAVIS L S. An analysis of scale invariance in object detection - SNIP[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. IEEE, 2018: 3578-3587.

    [9] 于方程, 张小俊, 张明路, 等. 基于改进CenterNet的自动驾驶小目标检测[J]. 电子测量技术, 2022, 45(15): 115-122. https://www.cnki.com.cn/Article/CJFDTOTAL-DZCL202215017.htm

    YU Fangcheng, ZHANG Xiaojun, ZHANG Minglu, et al. Automatic driving small target detection based on improved CenterNet[J]. Electronic Measurement Technology, 2022, 45(15): 115-122. https://www.cnki.com.cn/Article/CJFDTOTAL-DZCL202215017.htm

    [10] 琚长瑞, 袁广林, 秦晓燕, 等. 基于特征融合的CenterNet小目标检测方法[J]. 舰船电子工程, 2022, 42(4): 39-42. https://www.cnki.com.cn/Article/CJFDTOTAL-JCGC202204011.htm

    JU Changrui, YUAN Guanglin, QIN Xiaoyan, et al. CenterNet small object detection method based on feature fusion[J]. Ship Electronic Engineering, 2022, 42(4): 39-42. https://www.cnki.com.cn/Article/CJFDTOTAL-JCGC202204011.htm

    [11] 徐仲谋, 杨亦乐, 董飞, 等. 基于CenterNet-GYolov3的车辆检测方法[J]. 软件, 2020, 41(5): 25-30. https://www.cnki.com.cn/Article/CJFDTOTAL-RJZZ202005006.htm

    XU Zhongmou, YANG Yile, DONG Fei, et al. Vehicle detection method based on CenterNet-GYolov3[J]. Computer Engineering & Software, 2020, 41(5): 25-30. https://www.cnki.com.cn/Article/CJFDTOTAL-RJZZ202005006.htm

    [12]

    HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, NV, USA. IEEE, 2016: 770-778.

    [13] 刘腾, 商少伟, 葛赟, 等. 基于CenterNet改进的车辆检测方法[C]//中国计算机用户协会网络应用分会2020年第二十四届网络新技术与应用年会论文集. 北京, 2020: 190-196.

    LIU Teng, SHANG S W, GE Yun, et al. Improved vehicle detection method based on CenterNet. [C]//China computer users association network application branch in 2020, the 24th network technology and application essays. Beijing, 2020: 190-196.

    [14] 魏玮, 杨茹, 朱叶. 改进CenterNet的遥感图像目标检测[J]. 计算机工程与应用, 2021, 57(6): 191-199.

    WEI Wei, YANG Ru, ZHU Ye. Target detection of improved CenterNet to remote sensing images[J]. Computer Engineering and Applications, 2021, 57(6): 191-199.

    [15]

    WANG Q L, WU B G, ZHU P F, et al. ECA-net: Efficient channel attention for deep convolutional neural networks[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, WA, USA. IEEE, 2020: 11531-11539.

    [16]

    LI Y T, LI M G, ZHU H, et al. Development and applications of rescue robots for explosion accidents in coal mines[J]. Journal of Field Robotics, 2020, 37(3): 466-489. doi: 10.1002/rob.21920

    [17]

    FANKHAUSER P, BLOESCH M, HUTTER M. Probabilistic terrain mapping for mobile robots with uncertain localization[J]. IEEE Robotics and Automation Letters, 2018, 3(4): 3019-3026. doi: 10.1109/LRA.2018.2849506

    [18]

    CHEN X, YAN B, ZHU J W, et al. Transformer tracking[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, TN, USA. IEEE, 2021: 8122-8131.

    [19] 秦学斌, 薛宇强, 景宁波, 等. 露天煤矿自动驾驶矿卡车前障碍物检测算法研究[J/OL]. 金属矿山, 1-12[2023-03-06]. http://kns.cnki.net/kcms/detail/34.1055.TD.20220906.1527.002.html.

    QIN X B, XUE Y Q, JING N B, et al. Research on obstacle detection algorithm in front of automatic driving mine truck in open pit coal mine[J/OL]. Metal Mine, 1-12[2023-03-06]. http://kns.cnki.net/kcms/detail/34.1055.TD.20220906.1527.002.html.

    [20] 杨克虎, 龙启航, 汪嘉文, 等. 基于自注意力机制的矿井次光照图像语义分割研究[J]. 矿业安全与环保, 2023, 50(5): 9-18. doi: 10.19835/j.issn.1008-4495.2023.05.002

    YANG Kehu, LONG Qihang, WANG Jiawen, et al. Research on semantic segmentation of mine sub-illumination images based on self-attention mechanism[J]. Mining Safety & Environmental Protection, 2023, 50(5): 9-18. doi: 10.19835/j.issn.1008-4495.2023.05.002

    [21] 王洪栋, 郭伟东, 朱美强, 等. 一种煤矿井下低照度图像增强算法[J]. 工矿自动化, 2019, 45(11): 81-85. https://www.cnki.com.cn/Article/CJFDTOTAL-MKZD201911016.htm

    WANG Hongdong, GUO Weidong, ZHU Meiqiang, et al. An enhancement algorithm for low-illumination image of underground coal mine[J]. Industry and Mine Automation, 2019, 45(11): 81-85. https://www.cnki.com.cn/Article/CJFDTOTAL-MKZD201911016.htm

    [22] 由韶泽, 朱华, 李猛钢, 等. 井下低照度环境下的钻孔机器人目标跟踪器[J]. 矿业安全与环保, 2022, 49(5): 11-17. doi: 10.19835/j.issn.1008-4495.2022.05.003

    YOU Shaoze, ZHU Hua, LI Menggang, et al. Target tracker of drilling robot under low-illumination environment in coal mine[J]. Mining Safety & Environmental Protection, 2022, 49(5): 11-17. doi: 10.19835/j.issn.1008-4495.2022.05.003

  • 期刊类型引用(0)

    其他类型引用(3)

图(12)  /  表(1)
计量
  • 文章访问数:  122
  • HTML全文浏览量:  46
  • PDF下载量:  43
  • 被引次数: 3
出版历程
  • 收稿日期:  2023-04-05
  • 修回日期:  2023-04-19
  • 网络出版日期:  2024-02-27
  • 刊出日期:  2024-02-19

目录

/

返回文章
返回