Processing math: 100%
高级检索

基于子图像分割映射点云空间的机器人避障算法

张立亚, 李晨鑫, 刘斌, 杨志方

张立亚,李晨鑫,刘 斌,等. 基于子图像分割映射点云空间的机器人避障算法[J]. 煤炭科学技术,2024,52(S2):368−374. DOI: 10.12438/cst.2023-0948
引用本文: 张立亚,李晨鑫,刘 斌,等. 基于子图像分割映射点云空间的机器人避障算法[J]. 煤炭科学技术,2024,52(S2):368−374. DOI: 10.12438/cst.2023-0948
ZHANG Liya,LI Chenxin,LIU Bin,et al. Obstacle avoidance algorithm based on sub-image segmentation and mapping point cloud space[J]. Coal Science and Technology,2024,52(S2):368−374. DOI: 10.12438/cst.2023-0948
Citation: ZHANG Liya,LI Chenxin,LIU Bin,et al. Obstacle avoidance algorithm based on sub-image segmentation and mapping point cloud space[J]. Coal Science and Technology,2024,52(S2):368−374. DOI: 10.12438/cst.2023-0948

基于子图像分割映射点云空间的机器人避障算法

基金项目: 天地科技股份有限公司科技创新创业资金专项资助项目(2023-TD-ZD005-005,2022-TD-ZD001,2022-2-TD-ZD001)
详细信息
    作者简介:

    张立亚: (1985—),男,河北定州人,副研究员,博士。E-mail:zhangliya@ccrise.cn

  • 中图分类号: TD679

Obstacle avoidance algorithm based on sub-image segmentation and mapping point cloud space

  • 摘要:

    煤炭传送带工作状态的巡检是保障安全生产的重要环节,巡检机器人作为智能化巡检常规手段,对于保障煤矿安全生产、实现井下减人增安具有重要意义。为了提高矿井巡检机器人在长距离、复杂工况下的避障能力,实时调整行径路线并实现对障碍物的避让,基于红外摄像仪与激光雷达多源传感融合的巡检避障系统,提出了一种基于子图像分割映射点云空间的机器人避障算法,首先通过将红外数据作为边界条件,将红外图像分块构成子图像单元,以不同尺度的子图像对点云空间范围进行映射,进而实现对障碍物点云进行提取;然后利用各个子图像单元进行投影的方式,完成对目标区域三维点云的限制;其次利用边界约束降低点云数据处理总量的方式,提高算法收敛速度和障碍物特征点云的提取速度;最后通过仿真分析验证了算法对点云总量的精简效果,模拟了障碍物在不同子图像尺度下的最大外径反演精度,验证了应用本算法的系统实时避障能力效果。试验结果表明:当子图像边长为10.0 mm时,最大相对误差低于1.53%,算法收敛时间为1.243 s,障碍物外径反演精度与收敛速度均达到实际应用需求;算法在静态障碍物、动态障碍物以及多机器人避障环境中均有较高的准确率和避障效率,满足巡检机器人实时进行环境数据采集与避障的需求,具有较高的实际应用价值。

    Abstract:

    The inspection of the working status of coal conveyor belts is an important part of ensuring safe production. As a conventional means of intelligent inspection, inspection robots are of great significance for ensuring the safe production of coal mines and realizing the reduction of personnel and the enhancement of safety underground. In order to improve the obstacle avoidance ability of mine inspection robots under long-distance and complex working conditions, adjust the travel route in real time and achieve the avoidance of obstacles, based on the inspection and obstacle avoidance system with the fusion of multi-source sensing of infrared cameras and lidars, the main work is as follows: A robot obstacle avoidance algorithm based on sub-image segmentation and mapping of point cloud space is proposed. Firstly, by taking infrared data as the boundary condition, the infrared image is divided into blocks to form sub-image units, and the point cloud space range is mapped with sub-images of different scales, thereby realizing the extraction of obstacle point clouds; and by using the projection method of each sub-image unit, the limitation of the three-dimensional point cloud in the target area is completed; then, by using the way of boundary constraints to reduce the total amount of point cloud data processing, the convergence speed of the algorithm and the extraction speed of the obstacle feature point clouds are improved. Finally, the simplification effect of the algorithm on the total amount of point clouds is verified through simulation analysis, the inversion accuracy of the maximum outer diameter of obstacles under different sub-image scales is simulated, and the real-time obstacle avoidance ability effect of the system applying this algorithm is verified. The experimental results show that when the side length of the sub-image is 10.0 mm, the maximum relative error is less than 1.53%, the convergence time of the algorithm is 1.243 s, and both the inversion accuracy of the obstacle outer diameter and the convergence speed meet the actual application requirements; the algorithm has a high accuracy rate and obstacle avoidance efficiency in static obstacle, dynamic obstacle and multi-robot obstacle avoidance environments, meets the needs of inspection robots for real-time environmental data collection and obstacle avoidance, and has a high practical application value.

  • 在煤矿开采过程中,对煤炭传送带工作状态的巡检是保障安全生产的重要环节[-]。在长距离巡检过程中,往往会出现各种复杂工况影响巡检机器人的正常运行,其中,最常见的问题是规划路径中出现的未知的静态、动态障碍。在煤矿井下长距离工作状态下,研究巡检机器人的自适应避障算法,对实现机器人自动化巡检具有重要意义[-]

    巡检机器人作为典型的矿用移动机器人,由于其应用领域广泛,国内外对其自动化控制、路径规划、行动避障等技术领域的研究形式多样[-]。在国外,A-HEMANTH等[]研制的Gemini型履带式机器人,采用摄像头与传感器配合工作,拖缆结构采用光纤通信,工作距离约1 500 m;KULKARNI等[]采用四足机器人对地下矿进行探测绘图,其行动避障能力更强,但由于其结构设计不适合拖缆通信,采用无线通信模块实现;MILLER等[]的OS-1型隧道探测机器人也采用了四足结构,并配备64线激光扫描,测绘能力强大。在国内,曹现刚等[]针对煤矿井下特种巡检机器人运动受限于三维环境重建和非结构环境运动轨迹规划等关键技术问题,设计了一种固定柔性轨道式悬挂巡检机器人平台;中国矿业大学葛世荣团队最早研制了我国第一台矿用搜救机器人,采用红外相机与温敏传感器实现对巷道检测,后又研发了CUMT-V型履带式机器人等,无线通信距离可达1 000 m[-]。避障算法方面,孙霖[]研究了基于栅格法的矿难搜索机器人全局路径规划与局部避障算法,具有较快的收敛速度;CAI等[]对地图进行栅格化表示后,将规划问题转化为图论问题,通过控制模块实现轨迹跟踪,基于全地图进行导航。上述算法高度依赖全局地图的质量,对于动态变化的障碍物不能及时做出反应,参数较多且复杂。随着3D传感器的发展升级,点云数据在环境感知方面得到了大规模的应用,而基于点云的语义分割技术,其目的是为环境中的每个点匹配相应的语义类别标签,以高鲁棒性和强泛化能力成为巡检机器人在环境感知上的重要应用方法[]

    在实际煤矿作业环境中,同样是煤矿巡检工作,但不同矿场的工况环境完全不同。即使在同一条巷道中,照明条件变化、临时堆放、路面状态等都会使巡检机器人的识别产生偏差,造成测试数据丢失等情况。针对复杂工况下巡检机器人长距离巡检避障的技术难点,本文通过研究不同传感器对环境感知的信息,将红外成像与激光雷达进行结合,提出了基于子图像分割映射点云空间的机器人避障算法,利用图像分割的方法对3D点云空间信息与红外摄像仪图像信息进行融合,以提升机器人避障算法的准确率和鲁棒性。

    为了提高巡检机器人在行进过程中的避障能力,通过构建基于多源传感融合的系统,将红外成像与激光雷达进行结合,进而提高机器人对环境的感知能力,系统整体结构如图1所示。

    图 1 基于多源传感融合巡检机器人避障示意
    图  1  基于多源传感融合巡检机器人避障示意
    Figure  1.  Obstacle avoidance diagram of coal inspection robot based on multi-source sensor fusion

    图1所示,电脑端可以通过解调模块与巡检机器人间实现实时通信与数据处理,巡检机器人的顶部由2个主要的传感模块组成:激光雷达与红外相机。激光雷达可以获取障碍物的三维点云数据,从而为避障路径规划提供精确的三维位置坐标。红外相机用来获取巡检机器人前方的红外图像,提供障碍物判别信息,主要有以下2个作用,一是通过红外图像提供边界限制条件,用于对激光点云数据进行提取约束,即利用红外测试区域选择相应的范围降低激光雷达点云数据运算量;二是检测目标区域内是否存在工作人员等,如果存在,可以预警提示让人员先行通过,也可以选择语音提示使阻碍人员暂时避开而使巡检机器人通过。

    电磁波传递理论在巷道中同样适用[],波动光学可近似为标量,由麦克斯韦方程[]解算。在均匀介质中,激光雷达的光场从障碍物界面到激光雷达接收端面,其平面结构如图2所示。

    图 2 激光雷达工作原理
    图  2  激光雷达工作原理
    Figure  2.  Schematic diagram of working principle of Lidar

    探测器方向存在大量的激光反射点,采用麦克斯韦方程和瑞利衍射理论[]可以获得远点光场为:

    Ua(u,v)=++ej2πR(u,v,ξ,η)λU(ξ,η)jλR(u,v,ξ,η)dξdη (1)

    式中:λ为波长,单位m;j代表虚数单位,即j=1,(u, v)为巡检机器人的坐标系;u, v分别为其沿巷道扩展面的坐标值;(ξ, η)为障碍物面的坐标系;ξη为探测系统二维像面的坐标数据;R(ξ, η, u, v)为巡检机器人到障碍物的距离。当R的变化小于一个设定阈值时,触发系统的避障规划算法,设该触发条件值为Rtrigger,脉冲响应为h,则光场卷积有:

    h(ξ,η)ej2πRtriggerλjλRtriggerejπλRtrigger[ξ2+η2] (2)

    由式(2)可知,只要巷道中的介质参数未发生改变,则激光回波响应可以看作是一个线性过程。因此,只要完成R值的标定,即可实现对巡检机器人的自适应避障控制。

    由于激光点云数据量大,如果直接对所有测试点云进行处理,则会导致其运算压力过大且容易受到巷道不规则壁面反射的干扰[]。故采用红外图像提供点云边界限定,一方面可以大幅降低点云运算量,另一方面可以降低障碍物结构预判难度。红外模块在(x, y)范围内的视场为(θX, θY),测试距离为d,激光雷达在xoy坐标系中的视场角为(φX φY),设图像的二维分别是XIRYIR,则成像范围可表示成:

    {XIR=2dsin(θX/2)YIR=2dsin(θY/2) (3)

    则对应像素的大小为:

    Sp=XY(MN)1 (4)

    其中,XY为对应轴向最大值;MN为其对应的像元个数。

    将红外相机采集的图像作为点云数据的边界条件,从而可获得精确的点云区间。通过红外边界计算点云域时,先要计算其距离分辨率,可表示为:

    {RX=2dX1IRsin(θX/2)RY=2dY1IRsin(θY/2) (5)

    由此可得,面向点云的映射因子为:

    (MF|XMF|Y)=(XLidarsin(θX/2)XIRsin(φX/2)XLidarsin(θY/2)XIRsin(φY/2)) (6)

    式中:MF(Mapping Factor)为分辨率值计算匹配函数MF|X用于定量描述和处理激光点云数据在 X方向上的映射特性;MF|Y是用于定量描述和处理激光点云数据在Y方向上的映射特性XLidar为激光雷达在xoy坐标系中X轴向的实际值。

    自适应避障算法的本质是对障碍物的有效识别,首先能够识别障碍物并准确计算障碍物与巡检机器人之间的距离关系,再采用电控系统完成对巡检机器人的调姿与调速。本文的自适应避障算法主要运用红外相机采集的红外图像形成投影区间,从而对激光雷达点云区域进行有效节选。将红外图像中障碍物的边界范围投影至点云空间,进而确定障碍物与巡检机器人的位姿关系,最终获得各个轴向的相关角度值。通过投影关系计算障碍物的点云范围,降低数据处理总量,从而实现对核心数据的快速分析。自适应避障算法步骤如下:

    1)采集巡检机器人规划路径前方的点云数据C(x, y, z)及红外g(x, y),根据巷道宽度、相机焦距、激光雷达测试范围等设置参数相机内部参数qxqydqx表示x方向上每个像素对应的实际物理长度,qy表示y方向上每个像素对应的实际物理长度,d表示当前相机设定的参考距离,计算对应的视场角θXθY,匹配红外图像映射区域(X, Y)。

    2)计算红外图像作为边界条件的映射比例系数Sp,在确定红外参数值的前提下,对目标投影区的映射范围进行阈值限定。

    3)将点云坐标系与红外图像坐标系进行统一,在重合零点位置时,对齐三组坐标轴,计算各个方向的分辨率RXRYRZ

    4)根据分辨率值计算匹配函数MF,利用匹配参数在点云中的范围约定,大幅删减非域内点云数据,得到符合红外边界条件的障碍物点云集合。

    5)在该点云集合中,导入障碍物的特征信息及坐标位置,对其每一个空间点进行距离计算,迭代至所有点均完成特征判断后,输出修正参数。

    6)根据修正参数完成对避障轨迹路线的重新设计,最终控制巡检机器人完成新轨迹的行驶,实现自适应避障。

    自适应避障识别算法的程序流程如图3所示。

    图 3 基于红外图像边界点云提取的避障算法
    图  3  基于红外图像边界点云提取的避障算法
    Figure  3.  Obstacle avoidance algorithm based on infrared image boundary point cloud extraction

    本文自适应避障算法路径规划主要对传统遗传算法进行了改进,优化其避障安全性差、进化效率与规划时间长等问题,具体实现方法如下:

    1)通过生成无障碍最少节点的可行初始路径,提高进化效率。

    2)将安全性作为其中一个优化适应度函数,并设计新的适应度函数进行评估和选择。

    3)在算法完成变异操作后,利用中值插补法连接不连续的路径节点,并利用检测算子去除冗余节点。

    4)最后利用删除算子对非必要路径进行筛选去除,减少路径长度,计算出最优避障路径规划。

    采用红外图像作为三维点云边界条件就是通过红外图像二维限定区间完成点云的优化,优化过程包含对区域外点云的滤波及对区域内点云数据的筛选。仿真采用具备三维复杂特征的大量点云数据集合,通过将红外数据作为边界条件,将红外图像分块构成子图像单元,以不同尺度的子图像对点云空间范围进行映射,进而实现对障碍物点云进行提取,同时对避障算法中点云数据提取进行验证,原始点云数据与提取后的点云数据在(x'y'z')空间坐标系中的分布如图4所示。

    图 4 基于红外限定的点云提取
    图  4  基于红外限定的点云提取
    Figure  4.  Point cloud extraction based on infrared restriction

    图4a所示,原始点云数据总量很大,适用于高度还原测试目标的三维结构及其坐标位置,但此过程对处理模块的运算能力具有较高要求,同时,大量数据的三维重建不利于避障路径计算与巡检机器人的实时反馈控制。通过降低单次激光雷达点云采集量,并加强障碍物特征位置数据采集是提高系统整体效率的重要手段。

    本文所提出的算法根据红外图像的色谱区间将红外二维图像g(x, y)分为多个子图像,这个色谱值通过测试进行标定。通过采用该区域内特征点坐标替换该空间域内所有点坐标的方式,可以大大降低点云总量,同时子图像中障碍物的总尺寸也不会有太大差异。这样做虽然会损失障碍物部分三维细节信息,但是在长距离避障过程中是十分有效的,因为避障过程并不需要所有的障碍物三维细节信息,其更需要的是障碍物的边界特征位置点坐标信息。

    通过上述仿真分析可以看出,本文提出的点云提取算法可以有效降低点云运算量并保留障碍物边界特征位置点坐标信息。

    试验采用DT-96H型红外相机,200×150像元,20°×15°视场角,温度适用范围(−20 ℃ 120 ℃),探测精度±2 ℃,最大热成像距离2.5 m;采用Titan M1型激光雷达,最高480激光扫描线,采样率5 kHz,测试距离10~200 cm,精度±2.0 cm,40°×20°视场角。红外模块与激光雷达模块均选用巡检机器人的中心点作为坐标系原点。红外子图像二维投影区间对应的点云区间范围为10.0 mm×10.0 mm。

    通过红外图像的二维投影区域限定,完成对各个子图像中点云数据的集合处理,从而得到2个模拟目标的点云图像。为了对比点云数据的扫描范围,试验采用背景墙,背景墙与目标距离约为2.0 m。点云数据提取测试结果如图5所示。

    图 5 经红外子图像约束的点云提取测试结果
    图  5  经红外子图像约束的点云提取测试结果
    Figure  5.  Test results of point cloud extraction constrained by infrared sub-image

    巷道中空洞的区域在走向上呈狭长趋势且背景区域有限,而背景墙区域空间则不受限制,为了对比点云数据的扫描范围,试验采用不受范围限制的背景墙来模拟受岩壁等限制的巷道中空洞的区域,若背景墙可以完成点云数据采集,对于巷道中空洞的区域则更容易实现。通过上述测试结果可以看出,对于2个模拟障碍物的点云特征位置十分清晰。障碍物1的最大外边长为1.5 m,而点云数据重建的2个边界位置的绝对差为1 521.4 mm,障碍物2的最大外径为1.3 m,而点云数据重建的2个边界位置的绝对差为1 313.5 mm。在点云总量大幅减少后,重建的障碍物三维特征位置的误差却仍能保持较小,最大相对误差低于1.53%,验证了本文方法的可行性与鲁棒性。同时,当出现2个以上的障碍物、障碍物相互交叉或者多个障碍物交错出现时,可以利用本文提出的基于子图像分割映射点云空间的分割方法,通过学习图像中的像素之间的关系来对图像进行分割,输出图像中的每个像素都被分配了一个类别标签,得到障碍物的边界框和位置信息,从而实现对多个障碍物的识别和边界重建。在获得障碍物边界信息后,根据本文提出的自适应避障算法即可规划机器人避障路径。

    为了快速完成障碍物识别与避障控制,需要对算法的实时性进行对比分析。对比组A为不采用红外模块的激光雷达系统,然直接对点云数据进行相同算法的目标识别与避障规划;对比组B、C、D均采用红外模块,但子图像对应区间设置分别为2.0 mm×2.0 mm、10.0 mm×10.0 mm和20.0 mm×20.0 mm。实验室内2个模拟障碍物的位置测算收敛时间曲线如图6所示。

    图 6 4种情况算法的收敛时间对比
    图  6  4种情况算法的收敛时间对比
    Figure  6.  Comparison of convergence time of the algorithm in four cases

    图6所示,对于对比组A而言,当不通过红外图像中子图像的投影限定对原有点云数据进行约束时,随着点云数据量的不断增加,算法的运算量以指数形式递增,收敛时间大幅增加,由1 000点时的0.034 s增加至5 000点的16.342 s。对于对比组B而言,采用红外边界限制算法,子图像边长设置为2.0 mm,总数据量明显下降,5 000点的收敛时间为8.341 s,实时性得到了提升。对于对比组C而言,子图像边长设置为10.0 mm,总数据量进一步下降,5 000点的收敛时间为1.243 s,实时性完全可以满足巡检机器人在巡检过程中对目标区域点云快速采集与避障控制的需求。对于对比组D而言,子图像边长设置为20.0 mm,5 000点的收敛时间为0.653 s,收敛时间虽进一步减小但其提高比例不再显著。与此同时,随着子图像范围的不断增大,其点云边界模糊性进一步增大,造成障碍物外边界解算精度波动增大。

    通过试验可以得出,在设置算法子图像区域时,边长设置对算法速度与解析精度都有影响,本文提出的算法可通过标定获得最优解,当子图像边长设置为10.0 mm时,算法收敛时间为1.243 s,满足巡检机器人实时环境数据采集与避障需求。

    本文在3种测试环境中对不同算法进行比较。场景1用来检验各算法在简单静态障碍物环境中的避障性能。如图7(a)所示,场地尺寸为9 m×9 m ,仅存在静态避障物,在同一场景下进行多次试验的过程中,障碍物位置和形状在测试环境中均不发生变化,但是机器人的起点和终点在给定的范围内随机变化,分别为场景地图的顶部和底部区域,机器人必须跨越整个地图才能完成避障任务。

    图 7 3种测试场景示意
    图  7  3种测试场景示意
    Figure  7.  Schematic diagram of the three test scenarios

    场景2用来检验各算法在动态障碍物环境中的避障性能。如图7(b)所示,场地尺寸为5 m×9 m,模拟井下长廊场景,机器人的起点和终点每次在给定范围内随机生成,分别为场景的左侧和右侧区域。动态障碍物也随机生成,由其他机器人模拟,起点和终点分别为地图边缘和凸起障碍物边缘,行驶轨迹与被测试机器人轨迹交叉,用来模仿实际环境中行人、车辆等。

    场景3用来检验各算法在同一场景中存在多个相同机器人且相互之间无通讯时的避障性能。如图7(c)所示,场地尺寸9 m×9 m,该场景下所有机器人相互之间有路径重叠,且拥有相同的避障策略,机器人的起点终点选取与场景1一致。

    在每个场景下,重复试验50次,且每次试验中随机选择起点和终点,主要采用的评价指标为成功率S与平均到达终点所需时间T

    成功率S,指的是在50次重复试验中,机器人未碰撞障碍物且到达终点的次数与试验次数之比,反映了算法的避障能力。

    平均到达终点所需时间T,指的是在50次重复试验中,机器人从起点到终点的平均时间,以秒为单位,反映了算法的避障效率。

    本文在3种测试环境中对不同算法进行对比,结果见表1。算法1为本文算法;算法2为文献[]提出的基于栅格法的矿难搜索机器人全局路径规划与局部避障算法;算法3为文献[]提出的基于彩色与深度图像拟合三维点云后用于导航的避障算法。

    表  1  测试环境中不同算法结果比较
    Table  1.  Comparison of results of different algorithms in the test environment
    场景评价指标本文算法算法2算法3
    场景1S/%0.980.960.98
    T/s21.121.921.4
    场景2S/%0.900.860.88
    T/s22.623.124.4
    场景3S/%0.850.320.60
    T/s26.928.529.7
    下载: 导出CSV 
    | 显示表格

    通过试验可以看出,本文提出的机器人避障算法,相较现有算法,在静态障碍物、动态障碍物以及多机器人避障环境中均有较高的准确率和避障效率,证明了本文提出的方法的有效性和先进性,利用子图像分割的方法对3D点云空间信息与红外摄像仪图像信息进行融合,根据融合后的信息进行机器人避障路径规划,可以有效提升机器人避障的准确率和效率。

    1)提出了一种基于子图像分割映射点云空间的机器人避障算法,通过将红外图像分块构成子图像单元,并利用各个子图像单元进行投影的方式,完成对目标区域三维点云的限制,提高了障碍物特征点云的提取速度,为系统实时避障提供了保障。

    2)通过大量试验证明了本文方法的优越性,当子图像边长为10.0 mm时,最大相对误差低于1.53%,算法收敛时间为1.243 s,障碍物外径反演精度与收敛速度均达到实际应用需求。

    3)在静态障碍物、动态障碍物以及多机器人避障环境中均有较高的准确率和避障效率,满足巡检机器人实时进行环境数据采集与避障的需求,具有较高的实际应用价值。

    4)在后续研究中,将对该算法进一步改进及优化,同时对多源信息处理方法进行优化提升,使算法更加具有泛化性,可以更加有效地应用到更复杂的环境中。

  • 图  1   基于多源传感融合巡检机器人避障示意

    Figure  1.   Obstacle avoidance diagram of coal inspection robot based on multi-source sensor fusion

    图  2   激光雷达工作原理

    Figure  2.   Schematic diagram of working principle of Lidar

    图  3   基于红外图像边界点云提取的避障算法

    Figure  3.   Obstacle avoidance algorithm based on infrared image boundary point cloud extraction

    图  4   基于红外限定的点云提取

    Figure  4.   Point cloud extraction based on infrared restriction

    图  5   经红外子图像约束的点云提取测试结果

    Figure  5.   Test results of point cloud extraction constrained by infrared sub-image

    图  6   4种情况算法的收敛时间对比

    Figure  6.   Comparison of convergence time of the algorithm in four cases

    图  7   3种测试场景示意

    Figure  7.   Schematic diagram of the three test scenarios

    表  1   测试环境中不同算法结果比较

    Table  1   Comparison of results of different algorithms in the test environment

    场景评价指标本文算法算法2算法3
    场景1S/%0.980.960.98
    T/s21.121.921.4
    场景2S/%0.900.860.88
    T/s22.623.124.4
    场景3S/%0.850.320.60
    T/s26.928.529.7
    下载: 导出CSV
  • [1] 葛世荣,胡而已,裴文良. 煤矿机器人体系及关键技术[J]. 煤炭学报,2020,45(1):455−463.

    GE Shirong,HU Eryi,PEI Wenliang. Classification system and key technology of coal mine robot[J]. Journal of China Coal Society,2020,45(1):455−463.

    [2] 王国法,富佳兴,孟令宇. 煤矿智能化创新团队建设与关键技术研发进展[J]. 工矿自动化,2022,48(12):1−15.

    WANG Guofa,FU Jiaxing,MENG Lingyu. Development of innovation team construction and key technology research in coal mine intelligence[J]. Journal of Mine Automation,2022,48(12):1−15.

    [3] 宋锐,郑玉坤,刘义祥,等. 煤矿井下仿生机器人技术应用与前景分析[J]. 煤炭学报,2020,45(6):2155−2169.

    SONG Rui,ZHENG Yukun,LIU Yixiang,et al. Analysis on the application and prospect of coal mine bionic robotics[J]. Journal of China Coal Society,2020,45(6):2155−2169.

    [4] 杨春雨,张鑫. 煤矿机器人环境感知与路径规划关键技术[J]. 煤炭学报,2022,47(7):2844−2872.

    YANG Chunyu,ZHANG Xin. Key technologies of coal mine robots for environment perception and path planning[J]. Journal of China Coal Society,2022,47(7):2844−2872.

    [5] 王国法,杜毅博. 智慧煤矿与智能化开采技术的发展方向[J]. 煤炭科学技术,2019,47(1):1−10.

    WANG Guofa,DU Yibo. Development direction of intelligent coal mine and intelligent mining technology[J]. Coal Science and Technology,2019,47(1):1−10.

    [6] 葛世荣,朱华. 危险环境下救援机器人技术发展现状与趋势[J]. 煤炭科学技术,2017,45(5):1−8,21.

    GE Shirong,ZHU Hua. Technical Status and development tendency of rescue robot in dangerous environment[J]. Coal Science and Technology,2017,45(5):1−8,21.

    [7] 张旭辉,吕欣媛,王 甜,等. 数字孪生驱动的掘进机器人决策控制系统研究[J]. 煤炭科学技术,2022,50(7):36−49.

    ZHANG Xuhui,LYU Xinyuan,WANG Tian,et al. Research on decision control system of tunneling robot driven by digital twin[J]. Coal Science and Technology,2022,50(7):36−49.

    [8] 张鹏. 智能矿山机器人协同管控[J]. 工矿自动化,2021,47(S2):43−44.

    ZHANG Peng. Collaborative control of robots in intelligent mine[J]. Industry and Mine Automation,2021,47(S2):43−44.

    [9]

    A-HEMANTH R,KALYAN B,MURTHY C. Mine rescue robot system:a review[J]. Procedia Earth and Planetary Science,2015,11(1):457−462.

    [10]

    KULKARNI M,DHARMADHIKARI M,TRANZATTO M,et al. Autonomous teamed exploration of subterranean environments using legged and aerial robots[J]. ar Xiv preprintar Xiv,2021,06(2):482−493.

    [11]

    MILLER I D,CLADERA F, COWLEY A,et al. Mine tunnel exploration using multiple quadrupedal robots[J]. IEEE Robotics and Automation Letters,2020,5(2):2840−2847. doi: 10.1109/LRA.2020.2972872

    [12] 曹现刚,许 罡,吴旭东,等. 柔性轨道式环境巡检机器人设计原理与试验[J]. 煤炭科学技术,2022,50(6):303−312.

    CAO Xiangang,XU Gang,WU Xudong,et al. Design principles and experiments of flexible track-type environmental inspection robot[J]. Coal Science and Technology,2022,50(6):303−312.

    [13] 李雨潭,李猛钢,朱华. 煤矿搜救机器人履带式行走机构性能评价体系[J]. 工程科学学报,2017,39(12):1913−1921.

    LI Yutan,LI Menggang,ZHU Hua. Performance evaluation system of the tracked walking mechanism of a coal mine rescue robot[J]. Chinese Journal of Engineering,2017,39(12):1913−1921.

    [14] 由韶泽,朱华,赵勇,等. 煤矿救灾机器人研究现状及发展方向[J]. 工矿自动化,2017,43(4):14−18.

    YOU Shaoze,ZHU Hua,ZHAO Yong,et al. Research status of coal minie rescue robot and its development directio[J]. Industry and Mine Automation,2017,43(4):14−18.

    [15] 朱华,由韶泽. 新型煤矿救援机器人研发与试验[J]. 煤炭学报,2020,45(6):2170−2181.

    ZHU Hua,YOU Shaoze. Research and experiment of a new type of coal mine rescue robot[J]. Journal of China Coal Society,2020,45(6):2170−2181.

    [16] 孙霖. 携带机械臂的履带救援机器人设计与仿真实验研究[D]. 哈尔滨:哈尔滨工业大学,2020.

    SUN Lin. Design and simulation experiment research of tracked rescue robot with manipulator[D]. Harbin:Harbin Institute of Technology,2020.

    [17]

    CAI C,FERRARI S. Information-driven sensor path planning by approximate cell decomposition[J]. IEEE Transactions on Systems,Man and Cybernetics,2009,39(3):672−689. doi: 10.1109/TSMCB.2008.2008561

    [18] 姜朋. 基于强化学习的室内移动机器人避障策略研究[D]. 杭州:浙江大学,2023.

    JIANG Peng. Research on indoor mobile robot obstacle avoidance strategy based on reinforcement learning[D]. Hangzhou:Zhejiang University,2023.

    [19]

    WANG N,GAO Y,CHEN H,et al. NAS-FCOS:Fast neural architecture search for object detection[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2020:11943−11951.

    [20]

    HUANG S C ,LE T H ,JAW D W. DSNet:joint semantic learning for object detection in inclement weather conditions[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2021,43(8):2623−2633.

    [21]

    LI X,WANG W,WU L,et al. Generalized focal loss:learning qualified and distributed bounding boxes for dense object detection[J]. Advances in Neural Information Processing Systems,2020,33:21002−21012.

    [22] 荣耀,曹琼,安晓宇,等. 综采工作面三维激光扫描建模关键技术研究[J]. 工矿自动化,2022,48(10):82−87.

    RONG Yao,CAO Qiong,AN Xiaoyu,et al. Research on key technologies of 3D laser scanning modeling in fully mechanized working face[J]. Journal of Mine Automation,2022,48(10):82−87.

    [23]

    LABBÉ M,MICHAUD F. RTAB ‐ Map as an open ‐ source lidar and visual simultaneous localization and mapping library for large‐scale and long‐term online operation[J]. Journal of Field Robotics,2019,36(2):416−446. doi: 10.1002/rob.21831

图(7)  /  表(1)
计量
  • 文章访问数:  61
  • HTML全文浏览量:  23
  • PDF下载量:  11
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-01-19
  • 刊出日期:  2024-12-29

目录

YANG Zhifang

  1. On this Site
  2. On Google Scholar
  3. On PubMed

/

返回文章
返回