Longitudinal tear detection for conveyor belts based on line structured light
-
摘要:
针对传统的输送带纵向撕裂检测系统存在光照抗干扰能力差、运算效率低及泛化能力弱的问题,研究了一种基于线结构光的纵向撕裂检测技术。以线结构光作为图像采集系统,应用Topk完成图像预处理,减少数据冗余和内存使用量;对YOLOv5网络的基础算子进行降维,减少模型参数量和浮点运算量;将该检测技术移植到嵌入式设备中,研制了速度快、精确度高的矿用本安型纵向撕裂检测系统。实验结果表明:降维YOLOv5的运算量和参数量均低于传统方法,在输入特征图分辨率为640 px×2 592 px时,F1score为0.951 1,优于其他方法;仿真实验中检测的精确度P为95.14%,召回率R为92.63%;工业试验中成功检测出输送带的纵向撕裂。
Abstract:To address the limitations of traditional longitudinal tear detection systems—including poor illumination resistance, low computational efficiency, and weak generalization capability—this study proposes a novel detection technology based on line structured light.The line structured light is used as the image acquisition system, and then Topk is used to pre-process the image for the purpose of reducing data redundancy and memory usage; dimensionality reduction was applied to the base operators of the YOLOv5 network, effectively reducing both the model parameters and floating-point operations (FLOPs); the detection technology has been successfully ported to an embedded system, resulting in the development of a high-speed and highly accurate intrinsically safe longitudinal tear detection system designed for mining applications.The experimental results show that the operand and parameter quantity of the dimensionally reduction YOLOv5 are lower than the traditional methods, and the F1score is 0.951 1, which is better than other methods when the resolution of the input map is 640 px×2 592 px; The accuracy of detection P in the simulation experiment is 95.14% and the recall rate R is 92.63%;in industrial trials, the technology successfully detected longitudinal tearing in conveyor belts.
-
带式输送机运载能力强、运输成本低,可连续稳定运行,是煤矿生产中最常用的输送设备[1]。在带式输送机输送的物料中经常会混杂一些大块矸石、铁钎等异物[2],当这些异物传送至转载点时可能穿透输送带或卡在漏斗、溜槽等部位从而划破输送带,导致输送带纵向撕裂。数据统计表明,一条输送带在其生命周期中发生一次纵向撕裂的概率约为20%。输送带一旦发生纵向撕裂且未被及时发现并停机,短时间内就会造成长距离甚至整条输送带毁坏,影响煤矿正常生产,造成巨大的经济损失,严重时还会危及周边作业人员的生命安全。因此,研究输送带撕裂检测技术对于保障煤矿安全生产具有十分重要的意义[3]。
目前,基于机器视觉的输送带撕裂检测技术是煤矿智能化的研究热点之一[4-5]。LYU等[6]研究了基于线激光的纵向撕裂检测方法,用改进的灰色重心法提取激光线的中心线,再根据中心线的特征检测纵向撕裂,保障了检测的准确性和实时性,但如果输送带成槽深,激光线曲率变大,使用灰色重心法提取激光线则会出现断裂现象,难以在不同应用场景迁移;徐辉等[7]提出了基于多道线性激光的输送带撕裂检测算法,研究分组中心法提取激光特征,结合输送带速率实现纵向撕裂特征识别及定量分析,但该方法适用条件严苛且井下条件复杂,故泛化能力弱;LIU等[8]研究了基于注意力机制的时序特征检测网络,提高了撕裂目标的检测率,但检测效率低,实时性无法满足;张梦超等[9]采用Yolov4-tiny网络对输送带表面划伤、撕裂、破损和击穿等4种损伤类型进行分类检测,但井下的光照条件差,如果无法清晰成像,则此方法有可能失效。
针对以上问题,研究了一种基于降维YOLOv5[10](R-YOLOv5)的输送带纵向撕裂检测系统,同时研制出矿用本安型嵌入式纵向撕裂检测仪。其核心原理:①将大尺度高分辨率的线结构光图像作为输入,解决井下补光问题;②在保持分辨率不变的条件下,进行特征压缩,减少信息冗余;③研究YOLOv5神经网络,将基础算子进行降维,得到运算量小、参数量少的撕裂检测神经网络。该纵向撕裂检测系统具有运算速度快、检测率高的优点。
1. 撕裂检测系统
纵向撕裂检测所需的硬件由线激光投射器、高速摄像仪和具有神经网络处理单元(NPU, Neural-Network Processing Unit) 的嵌入式核心板组成,这是典型的线结构光采集系统[11]。硬件安装于上下输送带之间,距离上输送带20~35 cm,高速摄像仪提取输送带下表面的图像特征,成像图是具有特殊结构信息[12-13]的数据。撕裂检测系统硬件安装如图 1所示。
2. 基于R-YOLOv5的撕裂检测算法
2.1 图像采集与预处理
2.1.1 图像采集
带式输送机的输送带宽度为0.6~1.6 m,由于摄像仪的视角有限,窄输送带可以完整成像,但宽输送带只能看到带面的一部分, 如图 2所示。
由图 2(a)能看出输送带边缘、托辊和撕裂特征,撕裂水平宽度为39 px;由图 2(b)明显观察到撕裂特征,撕裂宽度为114 px。图像采集使用高分辨率、高采集速率的摄像仪,优点是不会丢失小目标特征[14-15],但会导致待处理的数据量急剧增大。
2.1.2 图像预处理
图像预处理的目的是提取激光条纹图像的关键信息[16],减少数据冗余,提高检测效率。
设输入图像为Iin,图像尺寸为h×w,其中高h、宽w。灰度值较大的点必定是激光条纹区域,那么提取激光条纹的数学计算公式如下:
{[\boldsymbol{X}, \boldsymbol{Y}]=\operatorname{Topk}\left(\boldsymbol{I}_{\mathrm{in}}, k\right)} (1) \boldsymbol{T}=\operatorname{Cat}(\boldsymbol{X}, \boldsymbol{Y}) (2) 式中:张量X、Y分别为保存灰度值和行的索引号;Topk为沿图像高的方向提取灰度值最大的k个元素;T为Cat(Concatenate, Cat)将X、Y张量按通道拼接起来形成新的张量, 即图像预处理结果。
由于Iin的尺寸为h×w,经过Topk运算之后,X、Y的尺寸都为k×w,再经过Cat模块后,最后输出T的尺寸变为k×w×2,图像预处理结束。由于k的取值远远小于h,通过预处理极大地压缩了图像信息,压缩率为2k/h。
2.2 基于R-YOLOv5的神经网络
提出一种降维的YOLOv5神经网络,记为R-YOLOv5。其中主要创新点是对神经网络的基础算子和损失函数进行优化。
2.2.1 神经网络降维
YOLOv5神经网络主要分为4个部分[17]:输入模块Input、骨干模块BackBone(黄色部分)、中间模块Neck(白色部分)和预测模块Prediction(蓝色部分)。BackBone、Neck和Prediction组成了整个计算网络,降维的重点主要是针对这3个部分。YOLOv5整体结构如图 3所示。
由图 3可知,YOLOv5由许多模块组成,这些模块可以再细分成如图 4所示的基础算子,包括标准卷积模块CBL,依次执行卷积算子Conv、批标准化Bn(Batch normalization)和激活函数LeakyRelu。
改进的主要思路是保持网络整体结构不变,对焦点模块Focus、卷积层Conv、池化层Maxpool和上采样UpSample等基础算子进行降维。已知图像预处理输出结果T,尺寸为k×w×2(高×宽×通道),记为Tk×w×2。改进方案如下:
1) 焦点模块Focus
将Tk×w×2按宽进行采样,取奇数列和偶数列得到2张子图,再按通道拼接。因此,输出特征图高不变,宽的尺寸是原来的1/2,通道是原来的2倍。焦点模块降维过程如图 5所示。
2) 卷积层Conv
改进网络的卷积层与原网络一一对应。排除Prediction阶段,原网络中使用核为n×n、步长为s×s的卷积层,改进网络优化核为1×n、步长为1×s的卷积层,且通道数不变。这样只对宽的维度进行卷积运算,卷积层的参数量就降为原来的1/n,运算复杂度降为原来的1/n。
3) 池化层Maxpool
与卷积层Conv改进方案类似,Maxpool的核尺寸设置为1×n、步长为1×s,对宽的维度进行池化运算,运算复杂度降为原来的1/n。
4) 上采样UpSample
只对宽的维度进行插值运算,高的维度不插值,输出特征图的宽是输入特征图的2倍,高不变。
5) Prediction阶段的卷积Conv
也称为输出层,卷积Conv的核为k×1、步长为1×1,卷积边界不进行补零,所以卷积将高由k降为1。输出特征图V(1)、V(2)、V(3)变为1×宽×通道,再折叠为宽×通道,其宽分别是T的1/8、1/16、1/32,目的是提取不同尺度的撕裂特征。
通过以上优化可以看出,输入特征图Tk×w×2依次经过Focus和第一个CBL模块后,直到输出层前,宽和通道的尺寸保持与原始YOLOv5s相同,大部分的运算层的参数量减少为原来的1/n;高为k保持不变,经过输出层后,高变为1。
原始网络和降维网络的输入与输出特征图的尺寸对比见表 1。
表 1 输入与输出特征图对比Table 1. Comparison of input and output feature maps特征图 尺寸/px 原始网络 降维网络 T h×w×3 k×w×2 V(1) \frac{h}{8} \times \frac{w}{8} \times c \frac{w}{8} \times c_{\mathrm{opt}} V(2) \frac{h}{16} \times \frac{w}{16} \times c \frac{w}{16} \times c_{\mathrm{opt}} V(3) \frac{h}{32} \times \frac{w}{32} \times c \frac{w}{32} \times c_{\mathrm{opt}} 注:c=nanchor×(5+nclass),其中5表示5个维度(横坐标、纵坐标、宽、高和置信度),nanchor为锚框数,nclass为类别数;copt=nanchor×(3+nclass),为输出特征图通道数,其中3表示3个维度(横坐标、宽和置信度),降维后已经没有高这个维度。 2.2.2 损失函数设计
YOLOv5损失函数计算公式如下:
L_{\text {total }}=\lambda_1 L_{\mathrm{cls}}+\lambda_2 L_{\mathrm{ojb}}+\lambda_3 L_{\text {ciou }} (3) 式中:λ1、λ2、λ3分别为损失函数加权系数;Lcls、Lojb、Lciou分别为分类损失、置信度损失、定位损失。
损失函数的优化主要是针对Lciou进行的,Lcls和Lojb保持不变。Lciou是采用CIOU(Complete Intersection over Union, CIOU)[18]损失函数,计算公式如下:
\left\{\begin{array}{l} L_{\text {ciou }}=L_{\text {iou }}+\frac{\rho^2\left(P_{\mathrm{d}}, P_{\mathrm{g}}\right)}{\beta^2}+\alpha \nu \\ L_{\text {iou }}=1-\left|\frac{P_{\mathrm{d}} \cap P_{\mathrm{g}}}{P_{\mathrm{d}} \cup P_{\mathrm{g}}}\right| \\ \alpha=\frac{\nu}{L_{\text {iou }}+\nu} \\ \nu=\frac{4}{\pi^2}\left(\arctan \frac{w_{\mathrm{g}}}{h_{\mathrm{g}}}-\arctan \frac{w_{\mathrm{d}}}{h_{\mathrm{d}}}\right)^2 \end{array}\right. (4) 式中:Liou为交并比(Intersection over Union, IOU)度量函数;Pd、Pg分别为检测框、真实框;wg、hg分别为真实框Pg的宽、高;wd、hd分别为检测框Pd的宽、高;ρ2为两框中心点的欧氏距离,px2;β为两框最小矩形的对角线长度,px。
在设计CIOU度量时,主要考虑检测框和真实框的重叠度、中心点距离、长宽比。由于在输出特征图中,检测框的纵坐标和高均被降维,Pd、Pg均由矩形变为线段,因此长宽比无法计算。为此,令ν=0,优化定位损失Lciou如下:
\left\{\begin{array}{l} L_{\text {ciou }}=L_{\text {iou }}+\frac{\rho^2\left(P_{\mathrm{d}}, P_{\mathrm{g}}\right)}{\beta^2} \\ L_{\text {iou }}=1-\left|\frac{P_{\mathrm{d}} \cap P_{\mathrm{g}}}{P_{\mathrm{d}} \cup P_{\mathrm{g}}}\right| \end{array}\right. (5) 式中:ρ2为线段中心的欧氏距离,px2;β为两线段的最小长度,px; \left|\frac{P_{\mathrm{d}} \cap P_{\mathrm{g}}}{P_{\mathrm{d}} \cup P_{\mathrm{g}}}\right|为线段的交并比,如图 6所示。
从形式上来看,CIOU等价于DIOU(Distance Intersection over Union)。
2.3 图像后处理
由R-YOLOv5推理结果可以计算检测框的横坐标和宽,IOU的计算依然成立。因此,对推理结果使用非极大值抑制[19],获得撕裂的横坐标、宽。当图像中检测出纵撕的横坐标和宽时,说明存在纵向撕裂。
3. 实验与分析
实验使用的数据来源于中煤科工集团重庆研究院带式输送机仿真实验室,输送带宽度为0.65 m,运行速度3 m/s。实验用电脑为ubuntu 20.04操作系统,显卡为NVIDIA GeForce RTX 3090。
由于传统的目标检测神经网络的输入特征图高宽为416 px×416 px或者640 px×640 px,本系统的摄像仪采集图像分辨率为2 048 px×2 592 px,如图 7(a)所示。以高分辨率作为目标检测网络的输入,会导致嵌入式核心板内存不足而推理失败。为了避免推理失败且统一输入特征图的尺寸,根据先验知识划定兴趣检测区域,分成5个640 px×640 px的小图像,图 7(b)~(c)分别为红框和黄框的放大图,尺寸为640 px×640 px,重叠区域为640 px×160 px。
3.1 不同方法对比分析
为了验证R-YOLOv5的有效性,与文献[9]的YOLOv4-tiny和文献[20]的YOLOv5进行对比实验。
由于R-YOLOv5采用线结构光成像,YOLOv4-tiny采用补光装置、可见光成像,笔者构建了2个样本:线结构光样本库和可见光样本库。摄像仪安装在上、下输送带之间,打开激光线投射器,运行输送带,进行线结构光录像;再关闭激光线投射器,打开补光装置,进行可见光录像。将录像切片成图片,经过人工标注后,成为线结构光样本库和可见光样本库。
使用线结构光样本库对R-YOLOv5和YOLOv5进行训练和推理,使用可见光样本库对YOLOv4-tiny和YOLOv5进行训练和推理。
分析线结构光样本库,激光线的宽度约为12 px,最大不超过16 px,那么在R-YOLOv5中,设置Topk的参数k=16,即可包含整个激光条纹信息。
评价指标有浮点运算量(floating point operations, FLOPs)、参数量(Parameters, Params)和F1score。F1score是精确度P(Precision)和召回率R(Recall)的一种调和平均,计算公式如下:
F_{\text { 1score }}=\frac{2 P R}{P+R} (6) 输入分辨率是训练和推理的输入图像分辨率。YOLOv5网络规模由小到大可以分为s、m、l和x 4种,只取s和l进行实验。在统计验证集的F1score时,由于YOLOv4-tiny、YOLOv5运算结果是矩形框,提取横坐标和宽,剔除纵坐标和高,评价标准就与R-YOLOv5相同。
对比结果见表 2。
表 2 性能对比Table 2. Performance comparison序号 算法名称 输入分辨率/px 样本库 浮点运算量/(109次) 参数量/(106个) F1score 高 宽 1 YOLOv4-tiny 640 640 可见光 11.12 5.85 0.873 3 2 YOLOv5s 640 640 可见光 16.57 7.24 0.877 8 3 YOLOv5l 640 640 可见光 109.59 46.56 0.892 5 4 YOLOv5s 640 640 线结构光 16.57 7.24 0.904 5 5 YOLOv5l 640 640 线结构光 109.59 46.56 0.927 1 6 R-YOLOv5s 640 640 线结构光 4.72 3.86 0.899 8 7 R-YOLOv5l 640 640 线结构光 30.95 24.68 0.947 5 8 R-YOLOv5s 640 2 592 线结构光 19.10 3.86 0.906 3 9 R-YOLOv5l 640 2 592 线结构光 125.33 24.68 0.951 1 对比表 2中1、2、3项可得:在可见光样本库中,YOLOv4-tiny的F1score相对较小,浮点运算量和参数量越大,F1score越大。
对比表 2中2、3、4、5项可得:对YOLOv5分别使用线结构光样本和可见光样本训练,线结构光的F1score更高,s模型高0.026 7,l模型高0.034 6。从理论上分析,可见光反馈纹理信息,必然存在更多干扰;线结构光反馈轮廓信息,干扰较少,因此,线结构光更能反映纵向撕裂特征。
对比表 2中4、5、6、7项可得:在640 px×640 px分辨率和结构光样本的条件下,R-YOLOv5s与YOLOv5s对比,浮点运算量和参数量分别减少71.51%、46.69%,F1score减小了0.004 7,可以忽略;R-YOLOv5l与YOLOv5l对比,浮点运算量和参数量分别减少71.76%、46.99%,F1score增大了0.020 4。因此,本方法可有效降低运算复杂度,提升处理速度。
如果利用640 px×2 592 px的分辨率对YOLOv4-tiny和YOLOv5进行训练,将网络移植到嵌入式设备中,在进行推理时,由于设备性能限制,显示设备内存不足,导致推理失败;而本方法能成功移植并推理,这也证明了图像预处理方法的有效性。
对比表 2中6、7、8、9项可得:640 px×2 592 px与640 px×640 px比较,相同规模R-YOLOv5的参数量是相等的,浮点运算量增加了305%,但是640 px×2 592 px处理一帧图像仅仅需要一次推理,640 px×640 px需要5次。因此,在640 px×2 592 px条件下,R-YOLOv5运算效率更高。
在精确度方面,F1score前三分别是R-YOLOv5l(640 px×2 592 px)、R-YOLOv5l(640 px×640 px) 和YOLOv5l(可见光)。可见,本文方法具有较高的检测精度。
3.2 仿真与工业试验
本系统选择R-YOLOv5l(640 px×2 592 px)为检测模型,有2点原因: ①F1score最佳;②移植到嵌入式设备瑞芯微3399pro每次推理时间为140 ms左右,且一次推理处理4张图像,帧率约为28帧/s。
在重庆研究院输送机实验室进行仿真实验。将3条存在撕裂的输送带安装到带式输送机上,每条输送带在输送机上运行一段时间,将检测结果录像,最后通过人工观察,并统计算法性能。检测结果:真实纵撕数为190,误检数为9,漏检数为14,计算精确度P为95.14%,召回率R为92.63%。检测实验效果如图 8所示。
由图 8(a)发现漏检现象,由蓝色矩形标识漏检位置,撕裂靠近输送带边缘,激光线向水平方向投影,撕裂的实际宽度只有12 px,目标太小导致失败。从现场的角度来看,输送带成槽,底部到摄像仪的距离约为40 cm,输送带边缘到摄像仪的距离约为65 cm,所以当撕裂的位置越靠近边缘,距离摄像仪越远,撕裂宽度变小,更难被检出。图 8(b)~(d)是正确检出撕裂结果,红色矩形的横坐标、宽表示撕裂检测结果的横坐标、宽,为了不遮挡撕裂原图,在激光线上方展示,矩形宽度分别为21、32、29 px。这说明撕裂的宽度直接影响检测结果。
在天地王坡煤业公司进行工业性试验,设备安装于运输巷的带式输送机上。试验检测结果如图 9所示。
第一天安装运行,检测出宽度为58 px的撕裂(见图 9(a)),经过讨论推断该撕裂不影响输送带安全,可以继续使用。为了减少此类撕裂报警,将宽度阈值设为60 px(忽略小于宽度阈值的报警),第三天,检测出宽度为71 px的撕裂(见图 9(b))。再次调高阈值为100 px,第十四天,检测出宽度为123、148 px的撕裂(见图 9(c)~(d)),经人工观察确认,两者属于同一条纵向撕裂,且该撕裂可能会引起安全事故,因此该条输送带停机检修。成功完成输送带撕裂检测任务,通过工业性试验证明了本系统可在不同煤矿场景应用,具有较强的泛化能力。
4. 结论
1) 在图像预处理阶段,研究Topk提取激光条纹特征,将h×w的图像信息转换为k×w×2的特征图,数据压缩率为2k/w。在嵌入式设备中,Topk降低了高分辨率图像内存使用量,使撕裂检测算法成功运行。
2) 提出了基于R-YOLOv5的纵向撕裂检测算法。保持YOLOv5框架不变,对网络的底层算子进行降维,使得浮点运算量和参数量减少;在损失函数方面,矩形框的定位损失优化为线段的定位损失,在低维度DIOU损失函数等价于CIOU。实验表明:在分辨率640 px×640 px和线结构光样本库下,R-YOLOv5s、R-YOLOv5l与YOLOv5s、YOLOv5l对比,浮点运算量分别减少71.51%、71.76%,参数量分别减少46.69%、46.99%,F1score提高了-0.004 7、0.020 4,因为该负值非常小,可以忽略;R-YOLOv5在分辨率640 px×2 592 px与640 px×640 px进行对比,640 px×2 592 px具有更快速的处理速度,且YOLOv5l(640 px×2 592 px)的F1score为0.951 1,是最大值。本算法降低了网络推理的运算量,提升了撕裂检测精确度。
3) 研制了矿用本安型撕裂检测系统,进行了现场实验,检测精确度P为95.14%,召回率R为92.63%,但当撕裂宽度不超过12 px时,出现漏检现象;在天地王坡煤业公司进行工业性试验,成功检测出输送带撕裂。表明该撕裂检测系统可有效检测输送带的纵向撕裂,可在不同煤矿场景应用,具有较强的泛化能力。
-
表 1 输入与输出特征图对比
Table 1 Comparison of input and output feature maps
特征图 尺寸/px 原始网络 降维网络 T h×w×3 k×w×2 V(1) \frac{h}{8} \times \frac{w}{8} \times c \frac{w}{8} \times c_{\mathrm{opt}} V(2) \frac{h}{16} \times \frac{w}{16} \times c \frac{w}{16} \times c_{\mathrm{opt}} V(3) \frac{h}{32} \times \frac{w}{32} \times c \frac{w}{32} \times c_{\mathrm{opt}} 注:c=nanchor×(5+nclass),其中5表示5个维度(横坐标、纵坐标、宽、高和置信度),nanchor为锚框数,nclass为类别数;copt=nanchor×(3+nclass),为输出特征图通道数,其中3表示3个维度(横坐标、宽和置信度),降维后已经没有高这个维度。 表 2 性能对比
Table 2 Performance comparison
序号 算法名称 输入分辨率/px 样本库 浮点运算量/(109次) 参数量/(106个) F1score 高 宽 1 YOLOv4-tiny 640 640 可见光 11.12 5.85 0.873 3 2 YOLOv5s 640 640 可见光 16.57 7.24 0.877 8 3 YOLOv5l 640 640 可见光 109.59 46.56 0.892 5 4 YOLOv5s 640 640 线结构光 16.57 7.24 0.904 5 5 YOLOv5l 640 640 线结构光 109.59 46.56 0.927 1 6 R-YOLOv5s 640 640 线结构光 4.72 3.86 0.899 8 7 R-YOLOv5l 640 640 线结构光 30.95 24.68 0.947 5 8 R-YOLOv5s 640 2 592 线结构光 19.10 3.86 0.906 3 9 R-YOLOv5l 640 2 592 线结构光 125.33 24.68 0.951 1 -
[1] 周传玲. 煤矿带式输送机常见事故原因分析及预防[J]. 矿业安全与环保, 2005, 32(2): 72-75. ZHOU Chuanling. Cause analysis and precaution of common accidents of mine belt conveyor[J]. Mining Safety & Environmental Protection, 2005, 32(2): 72-75.
[2] 雷世威, 肖兴美, 张明. 基于改进YOLOv3的煤矸识别方法研究[J]. 矿业安全与环保, 2021, 48(3): 50-55. LEI Shiwei, XIAO Xingmei, ZHANG Ming. Research on coal and gangue identification method based on improved YOLOv3[J]. Mining Safety & Environmental Protection, 2021, 48(3): 50-55.
[3] ZAKHAROV A, GEIKE B, GRIGORYEV A, et al. Analysis of devices to detect longitudinal tear on conveyor belts[J]. E3S Web of Conferences, 2020, 174: 03006.
[4] WANG Y M, MIAO C Y, MIAO D, et al. Hazard source detection of longitudinal tearing of conveyor belt based on deep learning[J]. PLoS One, 2023, 18(4): e0283878.
[5] LI X G, SHEN L F, MING Z X, et al. Laser-based on-line machine vision detection for longitudinal rip of conveyor belt[J]. Optik, 2018, 168: 360-369.
[6] LYU Z W, ZHANG X G, HU J D, et al. Visual detection method based on line lasers for the detection of longitudinal tears in conveyor belts[J]. Measurement, 2021, 183: 109800.
[7] 徐辉, 刘丽静, 沈科, 等. 基于多道线性激光的带式输送机纵向撕裂检测[J]. 工矿自动化, 2021, 47(7): 37-44. XU Hui, LIU Lijing, SHEN Ke, et al. Longitudinal tear detection of belt conveyor based on multi linear lasers[J]. Industry and Mine Automation, 2021, 47(7): 37-44.
[8] LIU M, ZHU Q G, YIN Y F, et al. Damage detection method of mining conveyor belt based on deep learning[J]. IEEE Sensors Journal, 2022, 22(11): 10870-10879. doi: 10.1109/JSEN.2022.3170971
[9] 张梦超, 周满山, 张媛, 等. 基于深度学习的矿用输送带损伤检测方法[J]. 工矿自动化, 2021, 47(6): 51-56. ZHANG Mengchao, ZHOU Manshan, ZHANG Yuan, et al. Damage detection method for mine conveyor belt based on deep learning[J]. Industry and Mine Automation, 2021, 47(6): 51-56.
[10] 何雨, 田军委, 张震, 等. YOLOv5目标检测的轻量化研究[J]. 计算机工程与应用, 2023, 59(1): 92-99. HE Yu, TIAN Junwei, ZHANG Zhen, et al. Lightweight research of YOLOv5 target detection[J]. Computer Engineering and Applications, 2023, 59(1): 92-99.
[11] 于龙龙, 李艳文, 栾英宝, 等. 基于二维平面靶标的线结构光标定[J]. 仪器仪表学报, 2020, 41(6): 124-131. YU Longlong, LI Yanwen, LUAN Yingbao, et al. Line structured light calibrating based on two-dimensional planar target[J]. Chinese Journal of Scientific Instrument, 2020, 41(6): 124-131.
[12] 吴峰. 面向工业现场检测的结构光三维轮廓测量技术研究[D]. 北京: 清华大学, 2015. WU Feng. Research on 3-D profile measurement technology of structured light for industrial field detection[D]. Beijing: Tsinghua University, 2015.
[13] 游磊, 朱兴林, 陈雨, 等. 基于全卷积神经网络的输送带撕裂检测方法[J]. 工矿自动化, 2022, 48(9): 16-24. YOU Lei, ZHU Xinglin, CHEN Yu, et al. Tear detection method of conveyor belt based on fully convolutional neural network[J]. Industry and Mine Automation, 2022, 48(9): 16-24.
[14] 杜紫薇, 周恒, 李承阳, 等. 面向深度卷积神经网络的小目标检测算法综述[J]. 计算机科学, 2022, 49(12): 205-218. DU Ziwei, ZHOU Heng, LI Chengyang, et al. Small object detection based on deep convolutional neural networks: a review[J]. Computer Science, 2022, 49(12): 205-218.
[15] 赵文清, 孔子旭, 赵振兵. 隔级融合特征金字塔与CornerNet相结合的小目标检测[J]. 智能系统学报, 2021, 16(1): 108-116. ZHAO Wenqing, KONG Zixu, ZHAO Zhenbing. Small target detection based on a combination of feature pyramid and CornerNet[J]. CAAI Transactions on Intelligent Systems, 2021, 16(1): 108-116.
[16] YU W B, LI Y, YANG H T, et al. The centerline extraction algorithm of weld line structured light stripe based on pyramid scene parsing network[J]. IEEE Access, 2021, 9: 105144-105152.
[17] 郝帅, 张旭, 马旭, 等. 基于CBAM-YOLOv5的煤矿输送带异物检测[J]. 煤炭学报, 2022, 47(11): 4147-4156. HAO Shai, ZHANG Xu, MA Xu, et al. Foreign object detection in coal mine conveyor belt based on CBAM-YOLOv5[J]. Journal of China Coal Society, 2022, 47(11): 4147-4156.
[18] ZHENG Z H, WANG P, REN D W, et al. Enhancing geometric factors in model learning and inference for object detection and instance segmentation[J]. IEEE Transactions on Cybernetics, 2022, 52(8): 8574-8586.
[19] BODLA N, SINGH B, CHELLAPPA R, et al. Soft-NMS—improving object detection with one line of code[C]//2017 IEEE International Conference on Computer Vision (ICCV). Venice, Italy. IEEE, 2017: 5562-5570.
[20] GUO X Q, LIU X H, ZHOU H, et al. Belt tear detection for coal mining conveyors[J]. Micromachines, 2022, 13(3): 449.