Dehazing algorithm for coal mining face dust and fog images based on a semi-supervised network
-
摘要:
煤矿井下采煤工作面环境复杂,作业时产生大量煤尘、水雾等不均匀悬浮颗粒,导致监控图像质量下降严重,现有的传统算法存在去雾效果差、过增强、颜色失真等问题,应用深度学习算法存在缺少井下配对尘雾图像和清晰图像等问题,为此提出了一种基于半监督学习网络的去雾算法。该半监督学习网络由生成器与判别器组成:生成器采用编解码器结构,其中编码器以残差网络为主要结构,并在残差块中加入了空间注意力机制,使网络能更好地处理非均匀尘雾。解码器由像素混洗层和卷积层组成,逐级恢复更高分辨率的特征图。判别器以概率图形式作为输出,表示生成器产生的去雾图像与真实清晰图像间的差异。引入了对比学习分支,使去雾后的图像在特征空间接近正样本并远离负样本,改善模型的泛化能力。由于煤矿井下缺少成对非均匀尘雾数据集,采集了大量煤矿井下工作面图像,并根据工作面作业时的尘雾特点,使用大气散射模型和柏林噪声在清晰图像上合成非均匀尘雾图像。合成数据与采集的真实数据一起用于半监督网络的训练,提升了模型在煤矿井下非均匀尘雾条件下的适应能力和性能。为验证提出算法的有效性,选取了4种算法进行了对比。实验结果表明,提出的算法能有效降低图像尘雾浓度,颜色失真较小,提升了图像的可视化效果。
Abstract:Abstact: The environment in underground coal mining faces complex challenges, where the operation generates a large amount of coal dust, water mist, and other unevenly distributed suspended particles, leading to significant degradation in the quality of monitoring images. Existing traditional algorithms suffer from poor dehazing effects, over-enhancement, and color distortion. Meanwhile, deep learning algorithms face the issue of lacking paired images of underground dust-mist and clear images. To address these problems, a dehazing algorithm based on a semi-supervised learning network is proposed. This semi-supervised learning network is composed of a generator and a discriminator: the generator adopts an encoder-decoder structure, where the encoder primarily uses a residual network as its main structure, incorporating a spatial attention mechanism in the residual blocks to better handle non-uniform dust and mist. The decoder consists of pixel shuffle layers and convolutional layers, progressively recovering higher-resolution feature maps. The discriminator outputs a probability map, representing the difference between the dehazed images generated by the generator and the real clear images. A contrastive learning branch is introduced to ensure that the dehazed images are closer to positive samples and farther from negative samples in the feature space, improving the model's generalization capability. Due to the lack of paired non-uniform dust-mist datasets in underground coal mining, a large number of images were collected from coal mine working faces. Based on the characteristics of dust and mist during operations, an atmospheric scattering model and Perlin noise were used to synthesize non-uniform dust-mist images on clear images. The synthetic data, along with the collected real data, were used to train the semi-supervised network, enhancing the model's adaptability and performance under non-uniform dust-mist conditions in underground coal mines. To validate the effectiveness of the proposed algorithm, four algorithms were selected for comparison. Experimental results show that the proposed algorithm effectively reduces the concentration of dust and mist in images, with minimal color distortion, thereby improving the visualization of the images.
-
0. 引 言
煤炭为我国经济社会发展和能源安全稳定供应提供了有力保障,随着信息技术的发展,智能化开采已成为煤炭工业的发展方向和必然趋势[1-2],煤矿安全生产视频AI识别技术是我国煤矿智能化建设的重要组成部分[3]。煤矿井下环境较为复杂,当采煤工作面作业时,采集到的图像受非均匀粉尘、水雾、光照环境影响,存在降质现象,视觉效果差,不利于煤矿安全生产监测与智能视频技术应用,采煤工作面图像清晰化处理已成为建设智能化矿山开采需要攻克的关键技术之一。
现有的煤矿井下图像去雾算法主要包括3类:基于图像增强的去雾算法[4-5]、基于物理模型的去雾算法[6-11]、基于深度学习的去雾算法[12-14]。基于图像增强的去雾算法利用对比度增强以及色调调整来提升图像的视觉效果,但存在着色彩失真和噪声放大等问题。基于物理模型的去雾算法以大气散射模型为基础,利用先验信息估计环境光和透射率,求解图像降质过程的逆过程,进而实现对尘雾图像的清晰化。HE等[6]提出了暗通道先验,并利用该先验信息粗略估计透射图,结合引导滤波对透射图进行细化。ZHU等[7]提出了颜色衰减先验,建立了线性模型用于描述有雾图像场景深度与亮度、饱和度之间的关系,进而求解出透射图。BERMAN等[8]提出了非局部去雾算法,即无雾图像的颜色可以通过数百个不同的颜色近似,并在RGB空间中形成紧密的聚类,而有雾图像的颜色在RGB空间中会形成雾线,可用于估计透射图和无雾图像。针对煤矿井下的特殊环境,王媛彬等[9]结合暗通道先验和亮通道先验用于估计尘雾图像透射图,并使用梯度导向滤波对透射图进行细化,针对煤矿井下光照不均的问题,提出了明暗区域均值法估计环境光。赵猛等[10]提出了一种煤矿井下非均匀尘雾的去雾算法,将尘雾图像分割为浓雾区域和非浓雾区域,利用颜色衰减先验和暗通道先验分别估计浓雾区域和非浓雾区域的透射率。樊红卫等[11]针对煤矿井下存在低照度及尘雾分布不均的问题,提出了一种基于暗亮通道分割融合先验方法进行图像去雾。基于深度学习的去雾算法通过神经网络的迭代优化得到清晰图像和尘雾图像间的映射关系。HOANG等[12]提出了一种轻量级的2阶段深度网络,加入了知识蒸馏损失函数,结合参数估计与端到端估计去除室外非均匀尘雾。针对煤矿井下尘雾图像,智宁等[13]提出了深度融合网络,采用双金字塔模块提取多尺度特征和聚合上下文信息,缓解了尘雾图像过增强的问题。该算法对合成尘雾图像去雾效果较好,但对真实尘雾图像适用性一般。
在光照不均、尘雾密度不均的煤矿井下工作面作业环境下,基于先验的尘雾图像去雾算法对环境参数估计不准;基于深度学习的算法常采用合成尘雾图像进行训练,由于域偏移导致网络对真实尘雾图像去雾性能不佳。为此提出了一种基于半监督学习网络的去雾算法,用来直接学习尘雾图像到清晰图像的映射,将合成尘雾图像与真实尘雾图像同时用于网络训练,改善模型对真实尘雾图像清晰化的泛化能力。
1. 基于半监督学习网络的去雾算法
提出的算法总体框架如图1所示,主要分为2个部分:数据生成和模型训练。在数据生成阶段,利用大气散射模型和柏林噪声对清晰图像进行处理,以生成配对的非均匀尘雾训练数据;在模型训练阶段,使用合成的配对数据和非配对的真实尘雾图像进行算法训练。对于合成数据,采用监督损失函数进行训练,通过计算模型对合成尘雾图像的去雾结果与真实标签之间的差异来优化模型参数。选用固定权重的预训练模型VGG-16作为特征编码模块,并将采集的清晰图像和真实尘雾图像在VGG-16中的特征映射分别作为正样本和负样本,通过引入对比损失函数,使得真实尘雾图像的去雾结果在特征空间的映射更加接近正样本,远离负样本,进而优化生成器网络权重。提出的半监督学习算法有效结合了合成数据的准确性和真实数据的多样性,提升了模型对煤矿井下真实非均匀尘雾图像的泛化能力。
1.1 训练数据合成
在煤矿井下工作面开采的过程中,产生了大量粉尘颗粒和水雾,导致监控场景成像质量较差。成像过程中,观测光线主要由2部分组成[15]:1是经过大气悬浮物散射后衰减的物体反射光,2是悬浮颗粒对周围光照的散射光。基于上述尘雾环境,退化后的尘雾图像可表示为
$$ {\boldsymbol{I}}(x,y) = {\boldsymbol{J}}(x,y){\boldsymbol{t}}(x,y) + {\boldsymbol{A}}(x,y)[1 - {\boldsymbol{t}}(x,y)] $$ 其中,${\boldsymbol{I}}(x,y)$为尘雾图像;${\boldsymbol{J}}(x,y)$为清晰图像;${\boldsymbol{A}}(x,y)$为环境光值;${\boldsymbol{t}}(x,y)$为透射率。透射率可表示为
$$ {\boldsymbol{t}}(x,y) = {{\mathrm{e}}^{ - \beta {\boldsymbol{d}}(x,y)}} $$ 其中,$\beta $为大气散射系数,与尘雾浓度有关;$d(x,y)$为场景深度。
煤矿井下缺少成对非均匀尘雾数据集,部分文献可合成配对数据[13,16],其假设大气散射系数恒定,透射率随场景深度增加而减小,而工作面作业时产生的尘雾在空间分布不均,大气散射系数不同,透射率与场景深度无明显关联,在大范围空间内具有随机性。根据上述非均匀尘雾特点,采用柏林噪声[17]来替代场景深度,柏林噪声能够平滑过渡,相邻像素间变化小,整体分布呈现出随机性。对单一噪声叠加后,可表示为
$$ {\boldsymbol{N}}(x,y) = {\left( {\frac{1}{2}} \right)^i}\sum\limits_{i = 0}^m {{\boldsymbol{n}}({2^i}x,{2^i}y)} $$ 其中,${\boldsymbol{N}}(x,y)$为叠加噪声;${\boldsymbol{n}}(x,y)$为单一噪声;$m$为叠加噪声的个数;将式$(2)$的${\boldsymbol{d}}(x,y)$替换为${\boldsymbol{N}}(x,y)$,大气散射系数$\beta $替换为比例系数$k$,即
$$ {\boldsymbol{t}}(x,y) = {{\mathrm{e}}^{ - k{\boldsymbol{N}}(x,y)}} $$ 替换后合成的非均匀尘雾图像如图2所示,其中生成的透射图像素值越大则透射率越大,尘雾浓度越小。
1.2 网络架构
提出的半监督学习网络由生成器和判别器组成,生成器以尘雾图像作为输入,输出去雾图像;判别器以生成器输出的去雾图像与原始清晰图像作为输入,输出判别概率。
生成器网络的结构如图3所示。生成器由编解码器组成,采用在ImageNet 1K中预训练的ResNet18[18]作为编码器,删除了原始网络中的全连接层和池化层,在尾部加入了一个通道数为512,卷积核大小为1的卷积层,在不显著增加参数量的条件下提高编码器输出的特征图通道数,有利于后续的像素重排操作[19]。与全分辨率网络不同,编码器通过对特征图连续下采样,缩小为原始尺寸的1/8,显著减少了网络的计算量和存储量,也为后续的卷积层扩大了感受野,使网络可感知更广泛的上下文信息。但下采样会导致特征图分辨率降低,为缓解信息丢失与模糊,在编码器与解码器之间加入跳跃连接,使解码器获得编码器相应层的高分辨率特征,保留原始输入图像的细节信息。采煤工作面作业时产生不均匀尘雾,在残差块中加入了空间注意力机制,对图像像素赋予不同权重,增强有用信息。图4为空间注意力机制[20]的结构图,首先对输入的特征图分别进行最大池化和平均池化操作,然后在通道维度上拼接池化后的特征图;在此基础上,通过卷积操作将该特征图压缩为一张特征图;最后与初始输入的特征图元素级相乘,实现在空间维度上对特征图加权。
解码器由3个像素重排层和对应的卷积层组成,像素重排层在不增加参数量的情况下实现特征图上采样,而转置卷积上采样会引入参数量和计算量,双线性插值上采样会引入计算量。像素重排层上采样的过程可表示为
$$ {F_{\mathrm{l}}}(C{r^2},H,W) \to {F_{\mathrm{h}}}(C,Hr,Wr) $$ 其中,${F_{\mathrm{l}}}$为低分辨率特征图;${F_{\mathrm{h}}}$为高分辨率特征图;$C$为通道数;$H,W$为特征图的高和宽;$r$为放大倍率。
判别器网络的总体结构如图5所示,由滑动步长分别为1和2的卷积模块组成,步长为2的卷积层将特征图尺寸减少为原来的1/2。受ISOLA等[21]的启发,令判别器输出单通道的概率图,图中元素值是对清晰化图像局部区域的判别结果,可反应生成器去雾图像与真实清晰图像间的差异。
2. 损失函数
总损失函数由监督损失函数和无监督损失函数组成。监督损失函数反映了模型去雾结果与真实标签之间的差异,包括L1损失函数、结构相似性损失函数、对抗损失函数。其中L1损失函数定义为预测值与实际值之间绝对差的平均值,在图像恢复任务中,相比于L2损失函数,L1损失函数效果更佳,可表示为
$$ {L_{{\mathrm{l}}1}} = \frac{1}{N}\sum\limits_{i = 1}^N {\left| {{y_i} - G({x_i})} \right|} $$ 其中,$N$为像素总数;$i$为像素索引;$y$为标签像素值;$G(x)$为生成器输出像素值。
结构相似性指数 (SSIM) 是通过比较图像亮度、对比度和结构信息评估相似度的方法。SSIM损失函数可表示为
$$ {L_{{\mathrm{SSIM}}}} = 1 - \frac{{2{\mu _x}{\mu _y} + {{\mathrm{c}}_1}}}{{\mu _x^2 + \mu _y^2 + {{\mathrm{c}}_1}}} \cdot \frac{{2{\sigma _{xy}} + {{\mathrm{c}}_2}}}{{\sigma _x^2 + \sigma _y^2 + {{\mathrm{c}}_2}}} $$ 其中,${\mu _x}$和${\mu _y}$为像素均值;${{\mathrm{c}}_1}$和${{\mathrm{c}}_2}$为常数;${\sigma _x}$和${\sigma _y}$为像素标准差;${\sigma _{xy}}$为像素协方差。
对抗损失有利于生成器生成更真实的样本,可表示为
$$ {L_{\mathrm{a}}} = \frac{1}{{HW}}\left\| {D(\widehat J) - 1} \right\|_2^2 $$ 其中,$\widehat J$为生成器输出的去雾图像;$D(\widehat J)$为判别器输出的特征图;$H,W$为特征图尺寸。
无监督损失函数采用了对比损失函数[22],可表示为
$$ {L_{\mathrm{c}}} = \sum\limits_{k = 3,4,5} {{\omega _k} \cdot \frac{{{{\left\| {{\phi _k}({R_{\rm{c}}}) - {\phi _k}(G(x))} \right\|}_1}}}{{{{\left\| {{\phi _k}({R_{\rm{h}}}) - {\phi _k}(G(x))} \right\|}_1}}}} $$ 其中,${\phi _k}( \cdot )$为预训练的VGG16提取的第$k$个池化层特征;${R_{\rm{c}}}$和${R_{\rm{h}}}$分别为真实清晰图像和真实尘雾图像;$\omega $为权重系数。训练生成器的总损失函数可表示为
$$ {L_{{\mathrm{total}}}} = {\lambda _1}{L_{{\mathrm{l}}1}} + {\lambda _2}{L_{{\mathrm{SSIM}}}} + {\lambda _3}{L_{\mathrm{a}}} + {\lambda _4}{L_{\rm{c}}} $$ 其中,${\lambda _1}$、${\lambda _2}$、${\lambda _3}$、${\lambda _4}$为超参数,L1损失与SSIM损失为主要损失函数,令${\lambda _1} = 1$,${\lambda _2} = 0.5$,对抗损失与对比损失设定过大会导致模型训练不稳定,因此设置${\lambda _3} = 5 \times {10^{ - 4}}$,${\lambda _4} = 2 \times {10^{ - 4}}$。训练判别器的损失函数为
$$ {L_{\mathrm{}}D} = \frac{1}{{HW}}\left(\left\| {D(J) - 1} \right\|_2^2 + \left\| {D(\widehat J) - 0} \right\|_2^2\right) $$ 其中,$J$为无雾图像标签;$\widehat J$为生成器输出的去雾图像。判别器通过不断更新参数,可有效地判别真实图像和生成图像。
3. 实验结果与分析
通过本安型防爆相机在煤矿井下开采工作面区域拍摄了65张高分辨率图像,包括40张清晰图像和25张尘雾图像。首先,在清晰图像上合成非均匀尘雾,然后将图像裁剪为$512 \times 512$分辨率的图像块,并对图像进行随机翻转,最终将训练集扩充为3 800余张合成尘雾图像以及
1700 余张真实尘雾图像。测试集由高分辨率合成尘雾图像和真实尘雾图像各15张组成。实验所用的计算机配置为Intel(R) Xeon(R) Silver4114 CPU @ 2.20 GHz与Nvidia Tesla V100 GPU。网络训练采用Adam优化器,batch size设置为12,初始学习率设置为0.001,随迭代过程逐步衰减为$1 \times {10^{ - 6}}$,训练迭代次数为50。编码器部分使用Imagenet 1K预训练权重进行初始化,以加速模型训练和提高模型泛化能力。为验证所提算法的有效性,与文献[8]、[10]、[14]算法进行对比,其中文献[8]和[10]是基于先验的方法,文献[14]则基于学习优化。3.1 主观评价
部分去雾结果如图6—图8所示:场景1为合成尘雾图像,具有真实标签;场景2为作业过程中喷雾降尘图像;场景3为割煤机作业时采集的尘雾图像。
如图6所示,文献[8]提出的算法在薄尘雾区域的清晰化效果尚可,但在尘雾浓度较大区域的去雾效果较差,主要原因在于尘雾浓度分布不均,导致透射率估计不准。文献[10]和[14]的方法在薄尘雾区域存在一定的颜色失真,而在厚尘雾区域(如红色方框标记的煤壁区域)的去雾效果一般,部分尘雾未被去除。笔者所提算法有效抑制了薄尘雾区域雾浓度,颜色失真较小,同时在厚尘雾区域清晰化效果良好。
如图7所示,场景2尘雾分布不均,并且存在部分非尘雾区域。3种算法在尘雾区域(红色方框区域)的去雾效果均较差,在非尘雾区域(绿色方框区域)存在过增强现象,颜色失真较大。笔者所提算法在尘雾区域的清晰化效果最佳,且在非尘雾区域颜色失真较小,避免了过增强问题。
如图8所示,场景3光照与尘雾分布不均。文献[8]和[10]算法的清晰化效果尚可,存在较少尘雾浓度。文献[14]算法清晰化后的图像整体亮度较低,导致图像的结构与边缘信息部分损失。所提算法有效地抑制了图像尘雾浓度,并保持了较好的纹理信息和对比度(红色方框标记的煤壁区域)。
3.2 客观评价
场景1存在真实标签,采用结构相似性指数(SSIM)与峰值信噪比(PSNR)指标评价。结构相似性指数为
$$ {\mathrm{SSIM}}(x,y) = \frac{{2{\mu _x}{\mu _y} + {{\mathrm{c}}_1}}}{{\mu _x^2 + \mu _y^2 + {{\mathrm{c}}_1}}} \cdot \frac{{2{\sigma _{xy}} + {{\mathrm{c}}_2}}}{{\sigma _x^2 + \sigma _y^2 + {{\mathrm{c}}_2}}} $$ 其中,${\mu _x}$和${\mu _y}$为像素均值;${c_1}$和${c_2}$为常数;${\sigma _x}$和${\sigma _y}$为像素标准差;${\sigma _{xy}}$为像素协方差。SSIM值越接近1则2张图像越相似。峰值信噪比可表示为
$$ {\mathrm{PSNR}} = 10 \times {\log _{10}}\left( {\frac{{{{255}^2}}}{{\dfrac{1}{N}\left\| {J - \bar J} \right\|_2^2}}} \right) $$ 其中,$J$为标签;$\bar J$为模型输出的清晰图像;$N$为像素个数。测试集中所有合成尘雾图像去雾效果客观评价指标与运行时间的平均值见表1,提出算法的3项指标均优于其他算法,去雾图像最接近真实标签,且运行速度最快。
在场景2中,尘雾分布高度不均。针对尘雾区域的去雾效果,采用灰度均值和雾密度估计(FADE)[23]进行评价,灰度均值和FADE值越低表明对尘雾区域的去雾效果越好。非尘雾区域应尽可能接近原始图像,防止出现过增强,因此采用结构相似性指数和峰值信噪比来评价非尘雾区域的颜色失真程度,结构相似性指数和峰值信噪比越高表明非尘雾区域颜色失真越小。由表2可见,提出的算法对尘雾区域的去雾效果最好,且非尘雾区域的颜色失真最小。在场景3中,采用雾密度估计(FADE)、标准差、信息熵来进行评价。信息熵可以度量图像的信息量,信息熵越大,图像中蕴含的信息越多。标准差反映了图像像素值与均值的离散程度,去雾后的图像对比度应当升高,标准差越大表明清晰化效果越好。由表3可见,文献[14]的方法由于图像亮度过低,取得了较低的FADE值,但标准差和信息熵较小,图像细节和纹理信息损失较多。提出的算法能有效抑制尘雾浓度,同时在标准差和信息熵指标上均优于其他算法。为验证提出的半监督学习网络的有效性,去除无监督学习分支,仅通过监督学习分支训练合成尘雾图像,对测试集真实尘雾图像进行去雾。由表4可见,加入无监督学习分支显著降低了去雾图像的FADE值和灰度均值,改善了模型对真实尘雾图像的去雾能力。
表 4 消融实验结果Table 4. Ablation study results方法 FADE↓ 信息熵↑ 灰度均值↓ 去除无监督学习分支 0.59 4.82 71.81 完整网络 0.48 4.81 68.17 4. 结 论
1) 针对采煤工作面非均匀尘雾图像清晰化任务,提出了一种基于半监督学习网络去尘雾算法。提出网络由生成器与判别器组成:生成器采用编解码器结构,其中编码器以残差网络为主要结构,解码器由像素重排层和卷积层组成;判别器输出判别概率图,可反应生成器去雾图像与真实清晰图像间的差异。为提升模型对真实尘雾图像的泛化能力,引入对比损失函数,使网络能够同时利用合成的配对数据和真实的尘雾图像进行训练。
2) 实验数据集源于自建煤矿井下采煤工作面图像,试验结果表明:所提算法能够有效降低尘雾密度,同时保留了纹理信息,颜色失真较小,提升了图像视觉效果。
3) 井下作业区域采用人工光源,图像光照不均,降低了图像视觉效果。目前尘雾图像的低光增强和高光抑制等问题尚未得到充分研究,将是下一步工作开展的重点方向。
-
表 1 合成尘雾图像去雾算法客观评价
Table 1 Objective evaluation results of synthetic images dehazing algorithms
表 2 场景2去雾结果客观评价
Table 2 Objective evaluation of dehazing results for scene 2
表 3 场景3去雾结果客观评价
Table 3 Objective evaluation of dehazing results for scene 3
表 4 消融实验结果
Table 4 Ablation study results
方法 FADE↓ 信息熵↑ 灰度均值↓ 去除无监督学习分支 0.59 4.82 71.81 完整网络 0.48 4.81 68.17 -
[1] 王国法,徐亚军,张金虎,等. 煤矿智能化开采新进展[J]. 煤炭科学技术,2021,49(1):1−10. WANG Guofa,XU Yajun,ZHANG Jinhu,et al. New advanc-es in intelligent coal mining[J]. Coal Science and Technology,2021,49(1):1−10.
[2] 葛世荣,胡而已,李允旺. 煤矿机器人技术新进展及新方向[J]. 煤炭学报,2023,48(1):54−73. GE Shirong,HU Eryi,LI Yunwang. New progress and direction of robot technology in coal mine[J]. Journal of China Coal Society,2023,48(1):54−73.
[3] 程德强,钱建生,郭星歌,等. 煤矿安全生产视频AI识别关键技术研究综述[J]. 煤炭科学技术,2023,51(2):349−365. CHENG Deqiang,QIAN Jiansheng,GUO Xingge,et al. Review on key technologies of AI recognition for videos in coal mine[J]. Coal Science and Technology,2023,51(2):349−365.
[4] ANCUTI C O,ANCUTI C. Single image dehazing by multi-scale fusion[J]. IEEE Transactions on Image Processing,2013,22(8):3271−3282. doi: 10.1109/TIP.2013.2262284
[5] 刘洋,张杰,张慧. 一种改进的Retinex算法在图像去雾中的研究与应用[J]. 计算机科学,2018,45(S1):242−243,251. LIU Yang,ZHANG Jie,ZHANG Hui. Study and application of improved retinex algorithm in image defogging[J]. Computer Science,2018,45(S1):242−243,251.
[6] HE K M,SUN J,TANG X O. Single image haze removal using dark channel prior[C]//2009 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ:IEEE,2009:1956−1963.
[7] ZHU Q S,MAI J M,SHAO L. A fast single image haze removal algorithm using color attenuation prior[J]. IEEE Transactions on Image Processing,2015,24(11):3522−3533. doi: 10.1109/TIP.2015.2446191
[8] BERMAN D,TREIBITZ T,AVIDAN S. Non-local image dehazing[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway,NJ:IEEE,2016:1674−1682.
[9] 王媛彬,韦思雄,段誉,等. 基于自适应双通道先验的煤矿井下图像去雾算法[J]. 工矿自动化,2022,48(5):46−51,84. WANG Yuanbin,WEI Sixiong,DUAN Yu,et al. Defogging algorithm of underground coal mine image based on adaptive dual-channel prior[J]. Journal of Mine Automation,2022,48(5):46−51,84.
[10] 赵猛,任志浩,褚海峰,等. 基于大气散射模型的采煤工作面尘雾图像清晰化算法[J]. 煤炭学报,2023,48(8):3312−3322. ZHAO Meng,REN Zhihao,CHU Haifeng,et al. Image clarif-ication algorithm for dust and fog in coal mining face based on atmospheric scattering model[J]. Journal of China Coal Society,2023,48(8):3312−3322.
[11] 樊红卫,张超,曹现刚,等. 一种基于暗亮通道分割融合的低照度环境图像去尘雾及增强方法[J]. 煤炭学报,2024,49(4):2167−2178. FAN Hongwei,ZHANG Chao,CAO Xiangang,et al. An image dust removal and enhancement method in low illumination environment based on dark-bright channel segmentation and fusion[J]. Journal of China Coal Society,2024,49(4):2167−2178.
[12] HOANG T,ZHANG H C,YAZDANI A,et al. TransER:Hybrid model and ensemble-based sequential learning for non-homogenous dehazing[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Piscataway,NJ:IEEE,2023:1670-1679.
[13] 智宁,毛善君,李梅,等. 基于深度融合网络的煤矿图像尘雾清晰化算法[J]. 煤炭学报,2019,44(2):655−666. ZHI Ning,MAO Shanjun,LI Mei,et al. Coal mine image dust and fog clearing algorithm based on deep fusion network[J]. Journal of China Coal Society,2019,44(2):655−666.
[14] CHEN D D,HE M M,FAN Q N,et al. Gated context aggregation network for image dehazing and deraining[C]//2019 IEEE Winter Conference on Applications of Computer Vision (WACV). IEEE,2019:1375−1383.
[15] NARASIMHAN S G,NAYAR S K. Shedding light on the weather[C]//2003 IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2003. Proceedings. Piscataway,NJ:IEEE,2003:I.
[16] LI B Y,PENG X L,WANG Z Y,et al. AOD-net:All-in-one dehazing network[C]//2017 IEEE International Conference on Computer Vision (ICCV). Piscataway,NJ:IEEE,2017:4780−4788.
[17] PERLIN K. Improving noise[C]//Proceedings of the 29th Annual Conference on Computer Graphics and Interactive Techniques. New York:ACM,2002:681−682.
[18] HE K M,ZHANG X Y,REN S Q,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway,NJ:IEEE,2016:770−778.
[19] SHI W Z,CABALLERO J,HUSZÁR F,et al. Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway,NJ:IEEE,2016:1874−1883.
[20] WOO S,PARK J,LEE J Y,et al. CBAM:convolutional block attention module[M]//Computer vision–ECCV 2018. Cham:Springer International Publishing,2018:3−19.
[21] ISOLA P,ZHU J Y,ZHOU T H,et al. Image-to-image translation with conditional adversarial networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway,NJ:IEEE,2017:5967−5976.
[22] WANG Y Z,YAN X F,WANG F,et al. UCL-dehaze:Toward real-world image dehazing via unsupervised contrastive learning[J]. IEEE Transactions on Image Processing,2024,33:1361−1374. doi: 10.1109/TIP.2024.3362153
[23] CHOI L K,YOU J,BOVIK A C. Referenceless prediction of perceptual fog density and perceptual image defogging[J]. IEEE Transactions on Image Processing,2015,24(11):3888−3901. doi: 10.1109/TIP.2015.2456502