logo

基于聚焦线性注意力Retinexformer的TEDS图像实时暗光增强方法研究

工程诊所•工匠之家

基于聚焦线性注意力Retinexformer的TEDS图像实时暗光增强方法研究

登飞
宏升
光武
登科
小娟
铁道科学与工程学报第21卷, 第11期pp.4840-4850纸质出版 2024-11-28
1100

列车高速运行下,表面部件易产生机械损伤,影响列车的安全运行。用于损伤检测的动车组运行故障图像检测系统(TEDS)需进行检测的部件形态多样、体积大小不一,且因对列车底部、夜晚进行图像采集时的暗光环境导致图像大部分区域偏暗,对比度低,给工作人员对故障的分析和标注带来干扰,影响检测的实时性和准确率,提出一种基于线性聚焦注意力的Retinexformer (RetinexFLAformer)网络对TEDS图像进行暗光增强。首先分析Retinexformer中进行自注意力计算的相似矩阵存在低秩的问题,采用线性聚焦注意力对网络进行改进,在保证计算复杂度不变的情况下,提高相似矩阵的秩以增加网络的特征多样性;其次增加空间一致性损失、曝光控制损失和颜色恒定损失,来抑制由于曝光不均引起的局部区域对比度下降和颜色畸变;最后在以上改进的基础上进一步调整网络结构构建FastRetinexFLAformer,以达到更快的暗光图像处理速度。研究表明,改进后的RetinexFLAformer能有效提高TEDS图片的暗光增强效果,和其他算法对比,评价指标PSNR和SSIM分别提高0.55和0.023;FastRetinexFLAformer网络参数文件只有3.34 M,可达到当前主流方法相当的处理效果,且能有效提升暗光增强速度,达到TEDS系统的实时性需求。研究成果可有效提高TEDS系统的图片质量,提高损伤识别和标注的精准度,提升工作人员的效率,更好地保障铁路的安全运行。

动车组运行故障图像检测系统暗光增强Retinexformer线性聚焦多头自注意力空间一致性损失

截至2023年底,中国高铁运营总里程超过4.5万km,总里程位居全球第一。高速运行中的车辆,其车体各部位容易遭受外物撞击、牵引力和制动力以及震动的作用,造成列车表面的部件损伤,因此动车组列车表面故障检测变得尤为关键。TEDS利用轨边和列车底部安装的多组高速相机拍摄运行中列车的图片,通过网络实时传输至室内监测终端,采用人工或图像识别技术与其最近行驶的相同列车的历史图像比较,对列车表面故障进行检测。根据铁总运[2016]62号文TEDS检测列车的底板、裙板、车端连接处、转向架4部分,动车组表面部件种类繁多、结构复杂、会涉及诸多的细小和边缘特征,导致故障形态多种多样,使得既有的基于特征匹配[1]的图像故障检测误报率较高,故障定位不准确。李萍等[2]采用深度学习对铁路列车关键零部件进行故障检测,周雯等[3-4]提出了基于卷积神经网络的列车运行安全图像故障检测方法,相比较传统方法识别精度得到提升,但受限于收集到的列车运行故障图像数量少、且未考虑待检测的部件体积大小不一、图像质量低导致误报率高,使其不能在铁路现场应用,目前主要依靠人工与上次该列车经过时拍摄的图片进行特征差异对比排查故障部件。此外由于列车底部受车体的遮挡、夜间暗光、光照不均等情况下拍摄的图像存在亮度低、对比度差、细节信息损失严重无法精确获取物体特征,导致人眼视觉感知和后续高级视觉任务的检测准确度下降、检测效率低。随着监测范围的不断扩大,TEDS系统日监测动车组已突破1万列次,动车组车列图片量大,检测实时性要求高,人工检测作业强度不断增大。在检测时,图像的清晰度严重影响检测的准确度和效率,因此采取有效的图像暗光增强方法得到较清晰的图像是保证人工检测和图像自动检测准确率和效率的重要手段。暗光增强的主要任务是增强暗光图像的能见度和对比度,同时修复隐藏在黑暗中和由于提升亮度而引入的噪声、伪影、颜色畸变等复杂的图像质量退化。基于直方图均衡化[5]和伽马矫正等的传统图像暗光增强算法由于未曾考虑光照、物体和图像间的关系,增强后的图像失真大。近年来,深度卷积网络(CNN)在图像暗光增强上表现出优秀的性能,这些基于CNN的方法主要分为3类。第1类直接使用CNN来学习从暗光图像到正常光图像的蛮力映射函数[6-10],从而忽略人类的颜色感知,这类方法缺乏可解释性。第2类受照片编辑软件中亮度调整曲线的启发进行暗光增强,如GUO等提出Zero-DCE[11]、Zero-DCE++[12]、ZHANG等提出的ReLLIE[13]依据输入图像反复应用二阶曲线嵌套并通过CNN自适应调整曲线参数以达到图像暗光增强的目的。虽然该类方法在训练过程不需要成对的数据,但其未过多考虑暗光照片中的噪声抑制问题,对特定场景中的暗光效果不能达到最优。第3类是基于Retinex理论[14]的深度卷积网络图像暗光增强方法[15-19],该类方法采用Retinex理论将原始低照度图像I分解为光照图像L和反射图像R,随后采用CNN分别对反射图像去噪、调整照明进行暗光增强,但多CNN耦合使得网络结构复杂,训练过程繁琐且耗时。自注意力机制[20]可以建立全局的依赖关系,捕获特征之间的长程依赖性和非局部自相似性,扩大图像的感受野,在目标检测[21-22]、图像复原[23]等领域等到了广泛应用。CAI等[24]提出的Retinexformer,采用照明引导的多头自注意力(IG-MSA)利用视觉Transformer通过曝光良好的区域为曝光不足的区域提供依赖信息进行暗光增强。虽然通过采用调整多头自注意力计算中查询(Q)、键(K)、值(V)的运算顺序,使其运算复杂度由平方复杂度降低为线性复杂度,在提高计算速度的同时暗光图像增强取得了较好的效果,但其计算过程中相似度的最大秩减小,导致其特征多样性降低,特征多样性通常是网络表征能力的重要体现。故本文基于降低注意力计算复杂度和提高相似矩阵秩以提高特征多样性,提出采用聚焦线性注意力优化的Retinexformer网络(RetinexFLAformer)对TEDS图像进行暗光增强研究,主要内容如下:1) 采用聚焦线性多头注意力[25]机制优化IG-MSA模块,在降低计算复杂度至o(d2WH)的同时解决相似度矩阵的低秩问题,提高网络特征多样性;2) 根据Retinex原理,结合照明引导的多头线性聚焦自注意力(IG-MFLSA)搭建一阶段干扰退化修复网络进行TEDS图像的暗光增强;3) 进一步优化损失函数和网络结构,减小计算复杂度并提高网络暗光增强的质量。

1 Retinexformer图像暗光增强方法

根据Retinex理论,一个低光图像I可以分解为一个反射图R和一个照度图L的点乘:

pic(1)

其中,pic表示逐数据相乘,然而该模型没有考虑pic受暗场景的高感光度和长曝光成像引入的噪声和伪影,且增强过程可能会放大噪声和伪影,导致曝光不足/过度和颜色失真。因此,分别在反射图和照度图上加入扰动项picpic,将式(1)重写为:

picpic(2)

在提升暗光图像亮度时,上边等式两边会同时点乘一个光照估计pic

picpic(3)

其中,picpic表示隐藏在黑暗中的噪声、伪影在增亮过程中被放大pic倍后的扰动;pic表示图像真实信息在光照和增强过程中引入的过曝光/欠曝光和颜色畸变。由此上式简化为:

pic(4)

其中,pic表示照亮图像;pic表示所有的干扰。由此将基于Retinex的一阶段网络架构表示为:

picpic (5)

其中,pic表示照明估计器,pic输出照亮图像pic和照亮特征picpic表示照度先验图,其值为输入图像从通道维度计算所得平均值。随后将picpic送入退化恢复器pic产生暗光增强图像pic,其中WH分别为输入特征的宽和高。退化恢复器pic通过深度可分离卷积和照明引导的多头自注意力模块(IG-MSA)进行去噪和信息恢复。

IG-MSA计算过程:首先输入特征pic调整为pic,然后pic被分为N个注意力头,pic,其中picpicpic。对每一个注意力头,采用如式(6)所示的3个不带偏执的全连接层将pic映射为查询向量pic,键向量pic和值向量pic

picpicpic (6)

其中,picpicpic为全连接层所对应的可学习矩阵。

同一图像黑暗区域具有更严重的信息损失和干扰,且更难恢复,照明良好的区域可以提供语义上下文表示,以帮助增强暗光区域。因此,使用照明特征pic编码照明信息和具有不同照明区域的相互作用来指导自注意力的计算。为使得picpic有相同的尺寸,调整pic的尺寸为pic并将其分为N个头。

pic(7)

其中,pic,对每个头的自注意力机制表述为

pic(8)

其中,pic为用于自适应地缩放矩阵乘法的参数。随后N个注意力头的输出堆叠后加上一个位置编码pic送入全连接层生成输出pic,最后调整pic为注意力特征图pic

2 RetinexFLAformer网络实时图像暗光增强

2.1 聚焦线性自注意力原理

虽然上节所述Retinexformer框架采用倒残差深度可分离卷积,在IG-MSA中通过调整QKV的计算顺序picpic,使多头自注意力计算复杂度由pic降为pic,但其相似度(pic)的秩为pic,使得特征多样性大幅度下降。为此本节在传统多头注意力的基础上说明聚焦线性注意力在降低计算复杂度和保证特征多样性方面的优势。

传统多头注意力:多头注意力对每个头的计算可用式(9)表示,其中pic表示相似度函数,对多个头的注意力进行堆叠构成注意力特征图。当picpic实现时即为传统的多头注意力。

pic(9)

其计算复杂度如下所示:

pic(10)

计算复杂度与pic的平方成正比,通常pic远大于d,为传统多头自注意力计算速度慢的重要原因。Retinexformer通过调整QKV的计算顺序(式(8)式(9))使得运算复杂度由pic变为pic,但导致相似度矩阵pic的最大秩减小为d,严重影响特征多样性。因此采用线性自注意力减小传统多头注意力的计算复杂度。线性注意力采用式(11)所示的核函数计算式(9)中的相似度。

pic(11)

pic采用式(12)所示的向量内积(最简单的线性核函数)作为核函数:

pic(12)

则根据矩阵乘法的结合性可将计算顺序从pic改为pic,两者运算结果相同,但计算复杂度从pic变为pic。softmax和线性核函数相似性计算的顺序分别如图1(a)、图1(b)所示,虽然降低了计算复杂度,但线性注意力的分布过于松散,导致性能较softmax注意力显著下降,故需要一种策略使线性注意力达到接近于softmax注意力一样的尖锐分布,式(13)所示聚焦函数能满足此要求,基于此函数的注意力称为线性聚焦注意力(FLSA)。

pic(13)

其中,pic表示逐元素计算picpic次方,可证明pic,说明向量picpic映射后特征的范数不发生变化,而方向发生变化,可实现相似Q-K和不相似Q-K之间更显著的差异分布。

图1
线性注意力计算顺序调整降低计算复杂度
pic

命题1(pic调整特征方向后对相似度计算的影响):假定picpic picpicpic,且picpic分别有唯一的最大值picpic。对成对的特征{pic},当pic时:

pic(14)

pic时:

pic(15)

图2以二维向量为例给出了pic的作用效果。如图2(a)所示,当pic作用于qk时,将特征按最靠近它们的坐标轴分为若干组,且将qk拉向靠近它的坐标轴以聚焦相似的特征。图2(b)所示为当pic式(11)生成注意力时,使得q对更接近它的特征组获得更高的相似度,同时减小和它远离特征组的相似度。

图2
pic对特征和相似度权重的调整(取p=3,以二维向量进行说明)
pic
2.2 注意力矩阵增秩方法及分析

除注意力聚焦,特征多样性也是限制注意力表达能力的因素之一。线性聚焦注意力中注意力矩阵秩的大小由WHd决定,即:

picpic(16)

线性注意力矩阵秩的上限被限制在较低的值,这表明注意力矩阵的许多行严重同质化。由于自注意力的输出是同一组pic的加权和,因此注意力权重的同质化导致聚合特征之间的相似性。为此在注意力矩阵后填加深度可分离卷积(DWC)模块以解决线性注意力模块低秩的问题,为此线性注意力输出特征图表示为:

pic(17)

进一步输出特征图可表示为

pic(18)

故DWC视为一种注意力,在这种注意力中每个查询只关注特征空间中的几个局部特征,而不是所有特征V,这种局部性确保了即使2个查询对应的线性注意力值相同,仍然可以从不同的局部特征中获得不同的输出。pic有满秩(WH)的潜力,从而能更好地保证特征的多样性。

基于上述分析,聚焦线性注意力首先采用式(13)所示的映射函数来模仿softmax对注意力的大幅度调整。在此基础上,采用简单的深度卷积解决线性注意力模块中的低秩问题来恢复特征多样性。由此聚焦线性注意力模块可以享受线性计算复杂度和高特征多样性表示。由此采用该注意力机制模块替代原RetinexFormer中的注意力构成聚焦线性注意力RetinexFLAformer网络结构,用于TEDS图像去模糊。

2.3 改进的网络结构

一阶段暗光增强RetinexFLAformer网络结构如图3所示,根据采用IGFLAB个数的不同,构建RetinexFLAformer和FastRetinexFLAFormer(速度更快)2种网络结构,用以研究暗光增强效果和运行速度的平衡。其中图3(a)根据Retinexformer[24]实现照明估计器的功能,首先使用1×1卷积融合picpic的堆叠,随后采用5×5的深度可分离卷积模拟具有不同照明条件的区域的相互作用,生成照亮特征pic。随后pic使用1×1卷积聚合pic生成照亮图picpic用于点亮等式(3)中的pic。然而pic中还有因黑暗和光照不均等引入的干扰,直接用于照亮图像,容易使得干扰影响增亮图像的品质,故采用其如图3(b)所示照明引导的Transformer(IGT)以扮演式(5)中干扰恢复器的角色进行干扰退化修复。首先原暗光图像和pic逐像素相乘形成照亮图像pic送入IGT,经IGT处理后输出残差图像picpicpic求和得到暗光增强图像pic

图3
一阶段暗光增强FastRetinexFLAFormer网络结构
pic

IGT运算过程:pic经2层步长为1的3×3卷积、2个(1个)如图3(c)所示的照明引导的多头线性聚焦注意力模块(IGFLAB)和2层步长为1、1层步长为2的3×3卷积、2个(1个)IGFLAB和2层步长为1、1层步长为2的3×3卷积构成下采样层生成层次特征图pic,其中i=0,1,2,随后F2被送入2个IGFLAB(2级深度可分离卷积和下采样卷积),对称的结构用于生成上采样分支,引入横向连接将上采样和下采样分支中相等大小而不同语义的特征图堆叠。pic中的参数配置即为图3所示的FastRetinexFLAFormer。

IGFLAB结构描述:如图3(c)所示pic估计得到的照亮特征图pic和输入经归一化后一起送入如图3(d)所示的照明引导的多头聚焦线性自注意力模块IG-MFLSA,随后接2层前馈卷积层。图3(d)所示的IG-MFLSA只展示了最大尺度的模块结构,对后续的小尺度采用步长为2的4×4卷积对pic进行下采样以匹配IG-MFLSA的空间尺寸。

IG-MFLSA计算过程:首先对输入采用和IG-MSA相同的处理方式生成向量picpicpic;然后采用式(17)进行注意力特征图的计算;最后采用和IG-MSA相同的方式将N个注意力头的输出堆叠后加上位置编码pic送入全连接层生成输出pic,最后调整pic为注意力特征图pic

2.4 损失函数

为进一步提高由于增强网络和曝光不均引起的局部区域对比度下降问题,加入空间一致性损失、曝光控制损失和颜色恒定性损失,以提高暗光增强效果,由此损失函数定义如下:

pic(19)

pic为原Retinexformer像素L1损失:

pic(20)

其中,pic表示暗光图像;pic表示pic对应的亮光图像;picpic为图像上像素点的坐标。

pic为空间一致性损失,通过保留输入暗光图像与其增强版本之间相邻区域的差异来促进增强图像的空间一致性。

pic(21)

其中,picpic为增强图像和输入暗光图像中局部区域的平均强度值;k是局部区域的数目;pic是以区域i为中心的4个相邻区域(上、下、左、右),在此研究中将局部区域和相邻区域的大小设置为3×3。

为了抑制曝光不足/过度的区域,采用曝光控制损失pic来控制曝光水平。

pic(22)

曝光控制损失计算局部区域的平均强度值pic与良好曝光度水平B之间的距离,根据文献Zero-DCE[12]的实际经验,在此设定B=0.6。M表示大小为16×16的不重叠局部区域的数量。

pic为颜色恒定性损失,其通过建立R,G,B三通道之间的关系,来校正增强图像中的潜在颜色偏差。pic式(23)所示:

pic(23)

其中,pic表示m通道的平均强度值;(p, q)表示一对通道。

3 实验与分析

3.1 训练数据库

本文将某局TEDS系统获得的一趟低速且曝光良好的列车TEDS图像,共1 437张组成清晰图像,对其加入不同程度的暗光和噪声生成成对的高清、暗光图像对,随机抽取1/4作为验证集,其余作为训练集。为进一步提高图像集特征信息和网络对暗光增强的泛化能力,将TEDS图像集合并入LOLv1数据集用于网络的训练。

3.2 训练策略

采用从头开始训练的策略,采用adam优化器,训练周期设置为150 000个epoch,初始学习率设置为pic,学习率随周期的增长线性减小到pic。将2 048×1 400的TEDS图片随机裁剪为256×256大小的图像进行训练,选取评价指标PSNR和SSIM最高的参数文件作为最终的模型参数。使用i7处理器、16 G内存、NVIDIA RTX3080Ti 12G显卡的硬件配置,软件环境使用 Ubuntu18.04的操作系统,采用Pytorch作为深度学习框架进行训练。

3.3 实验结果与分析

为验证本文算法的有效性和先进性,将本文算法与其他3种暗光增强算法Zero-DCE++[12]、EnlightenGAN[10]、Retinexformer[24]进行对比,图4所示为上述3种算法和本文所采用算法对TEDS现场图像的暗光增强效果。图4(a)为从某局获取的TEDS系统采集的暗光图像;从图4(b)可看出经Zero-DCE++算法处理后,大部分区域比原图有更好的清晰度和分辨性,但图像整体受光照增强有一层朦胧感;图4(c)所示为EnlightGAN的增强效果,大部分区域有一定的增强效果,但对过分偏暗的区域(绿色大矩形框)特征轮廓和边缘对比度提升不太明显;从图4(d)可看出,经算法Retinexformer处理后,清晰度较Zero-DCE++、EnlightGAN有所提升,大部分区域(绿色和红色矩形框)边缘和轮廓特征清晰可见,但蓝色框定区域受局部高亮区域的影响对比度下降,在该区域表现出不如原图和其他方法的辨识效果;图4(e),图4(f)为本文设计的RetinexFLAformer的处理结果,较其他方法在整个图像上有更好的对比度,绿色和红色矩形框定区域的因暗光导致的模糊区域经恢复后轮廓清晰可见,蓝色正方形框定区域较原Retinexformer对比度提升明显,从整体上取得了比上述3种算法更好的去模糊效果,且RetinexFLAformer网络有一定的干扰修复功能,图像质感比其他算法更好;其中图4(f)为对网络结构改进后更快的FastRetinexFLAformer,较图4(e)亮度和对比度非常接近,增强效果比其他3种算法更好。

图4
各算法在TEDS图像上暗光增强效果对比
pic

本文采用PSNR、SSIM和运行速度3种评价指标对本文算法的暗光增强效果进行分析,各算法的评价指标如表1所示,由此可看出Zero-DCE++对TEDS测试集的PSNR为15.79,SSIM为0.588,比其他算法略低,原因在于Zero-DCE采用非配对的暗光和亮光图像进行训练调整亮度曲线,不能很好地抑制暗光引起的噪声干扰。EnlightenGAN对TEDS测试集的PSNR为16.94,SSIM为0.631,比Zero-DCE++有所提升。Retinexformer对TEDS测试集的PSNR达到23.96,SSIM达到0.801,指标比前2种算法大幅度提升。改进的RetinexFLAformer的PSNR和SSIM分别较Retinexformer提升0.55和0.023,达到24.51和0.824,取得了比前3种算法更好的评价指标值。此外通过改进网络结构构建的FastRetinexFLAformer运行速度可达0.26 s/张,是EnlightenGAN处理速度的2.7倍。但其PSNR较指标最高的RetinexFLAformer算法只降低0.39,SSIM降低0.013,能很好地平衡暗光增强效果和运行速度。此外采用和现场同配置的Intel i7处理器进行验证,处理速度可达1.02 s/张,能满足铁路TEDS对计算机硬件成本和实时性的要求。

表1
各暗光增强算法的评价指标对比
PSNRSSIM参数大小

TEDS运行速度/

(s∙张-1)

TEDSLOLv1TEDSLOLv1
Zero-DCE++15.7916.720.5880.59451.1 K5.76
EnlightenGAN16.9417.440.6310.65034.6 M0.71
Retinexformer23.9624.410.8010.8226.48 M1.17
RetinexFLAformer24.5124.960.8240.8376.45 M1.24
FastRetinexFLAformer24.1224.510.8110.8223.34 M0.26
展开更多

同时对网络结构进行调整并进一步实验,在对IGFLAB个数调整为1后,若不加2级下采样和上采样卷积层,则PSNR较FastRetinexFLAformer降低3.03~21.09,下降较为明显。说明调整IGFLAB的个数后参数量大幅度下降对暗光增强影响较明显,故为使得效果提升且基本不影响速度的提升,加入了2级下、上采样卷积层作为U_Net网络的补充,指标值得到恢复。由此也说明采用的线性聚集注意力能通过pic的聚焦特性达到和softmax一致的效果,且能增加相似矩阵的秩使其比原IG_MSA有更丰富的特征,可通过调整网络结构平衡网络去模糊效果和运行速度。且本文构建的FastRetinexFLAformer参数文件只有3.34 M,能满足铁路TEDS对计算机硬件成本和实时性的要求,同时该框架同样适用于更广义的图像复原任务,如表1所示RetinexFLAformer和FastRetinexFLAformer在LoLv1数据集上的PSNR和SSIM均略高于原Retinexformer,可见本文算法可以获得精度最好且计算量极低、运算速度更快的模型,更加实用。

为验证改进措施的有效性,采用逐步增加改进措施的方式进行如表2所示的消融实验。首先采用聚焦线性注意力模块取代原Retinexformer的注意力模块后,PSNR和SSIM较Retinexformer分别提升0.35和0.006,说明采用线性聚焦注意力能取得原注意力机制中softmax对特征关注度的调整(对感兴趣特征增强,对不感兴趣特征减弱)类似的效果,且能通过增强相似矩阵的秩提高特征多样性,达到好的暗光处理效果。相似矩阵增加DWCpic后PSNR和SSIM再次提升0.12和0.008达到24.43和0.815,说明DWCpic进一步调整相似矩阵的结构而提升秩以增加特征多样性。在像素L1损失的基础上加入空间一致性损失、曝光控制损失和颜色恒定损失后,PSNR和SSIM分别增加0.08和0.09,说明损失函数的调整能有效提高信噪比和结构相似性,提高暗光增强质量。以上的消融实验均说明了各改进措施对RetinexFlAformer的去模糊效果均有提升。

表2
消融实验分析
改进策略PSNRSSIM
Retinexformer23.960.801
+线性聚焦注意力24.310.807
+DWC(Vn)24.430.815
+改进损失函数24.510.824
展开更多

4 结论

TEDS承担着对高速列车机械类故障进行实时检测的重要任务,针对TEDS系统提高人工检测和智能检测效率和准确率这一问题,设计了RetinexFLAformer网络对TEDS图片进行实时暗光增强研究。

1) 对原Retinexformer的多头注意力机制进行分析,采用聚焦线性注意力对照明引导的多头注意力模块进行优化,实验证明聚焦线性注意力能有效聚焦相似特征,增加QK相似特征的权重,减小非相似特征的权重,达到和softmax基本一致的相似权重分配效果。

2) 聚焦线性注意力能解决原Retinexformer相似矩阵低秩的问题,且通过在相似矩阵上追加DWCpic卷积进一步提高相似矩阵秩的潜力,享受线性计算复杂度和高特征多样性表示。

3) 空间一致性损失、曝光控制损失和颜色恒定损失作为像素L1损失的有效补充,能有效提高暗光增强的对比度、抑制颜色畸变。

本文算法处理后的TEDS图像比其他主流暗光增强算法有更好的对比度和清晰度,评价指标PSNR和SSIM都有提升。且检测网络有很小的参数量和较小的计算量,且可取较其他算法多倍的速度提升,能满足TEDS系统的实时性检测需求,可用于高速铁路TEDS系统故障识别的图像前期暗光增强处理,提高缺陷、故障等安全隐患检测识别的精准度,提升检测人员的工作效率,更好地保障铁路安全运行。

目前TEDS现存的故障缺陷样本少、部件结构复杂且缺陷形态多样,图片质量差,导致目前TEDS系统故障检测算法误报率高,后续可在图像增强的基础上进一步研究基于半监督学习的特征差异对比深度网络以提高TEDS故障检测的准确率,减轻人工检测强度。

参考文献
1黄粤豫, 周航, 陈业泓, .

借助弱纹理匹配的TEDS车底故障区域定位算法

[EB/OL]. 智能系统学报, 2023: https://link.cnki.net/urlid/23.1538.TP.20230914.1045.006.
百度学术谷歌学术
2李萍, 吴斌方, 刘默耘, .

基于深度学习的铁路列车关键零部件图像故障检测

[J]. 铁道科学与工程学报, 2019, 16(12): 3119-3125.
百度学术谷歌学术
3周雯, 史天运, 李平, .

基于卷积神经网络的动车组行车安全图像缺陷检测与分割

[J]. 铁道学报, 2019, 41(10): 76-83.
百度学术谷歌学术
4SUN Junhua, XIAO Zhongwen, XIE Yanxia.

Automatic multi-fault recognition in TFDS based on convolutional neural network

[J]. Neurocomputing, 2017, 222(26): 127-136.
百度学术谷歌学术
5ARICI T, DIKBAS S, ALTUNBASAK Y.

A histogram modification framework and its application for image contrast enhancement

[J]. IEEE Transactions on Image Processing: a Publication of the IEEE Signal Processing Society, 2009, 18(9): 1921-1935.
百度学术谷歌学术
6ZHU Minfeng, PAN Pingbo, CHEN Wei, et al.

EEMEFN: low-light image enhancement via edge-enhanced multi-exposure fusion network

[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(7): 13106-13113.
百度学术谷歌学术
7REN Wenqi, LIU Sifei, MA Lin, et al.

Low-light image enhancement via a deep hybrid network

[J]. IEEE Transactions on Image Processing, 2019, 28 (9): 4364-4375.
百度学术谷歌学术
8罗晖,徐广隆.

基于图像增强与深度学习的钢轨表面缺陷检测

[J]. 铁道科学与工程学报, 2021, 18(3): 623-629.
百度学术谷歌学术
9XU Ke, YANG Xin, YIN Baocai, et al.

Learning to restore low-light images via decomposition-and-enhancement

[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, WA, USA. IEEE, 2020: 2278-2287.
百度学术谷歌学术
10JIANG Yifan, GONG Xinyu, LIU Ding, et al.

EnlightenGAN: deep light enhancement without paired supervision

[J]. IEEE Transactions on Image Processing: a Publication of the IEEE Signal Processing Society, 2021, 30: 2340-2349.
百度学术谷歌学术
11GUO Chunle, LI Chongyi, GUO Jichang, et al.

Zero-reference deep curve estimation for low-light image enhancement

[C]// 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Seattle, WA, USA. IEEE, 2020: 1777-1786.
百度学术谷歌学术
12LI Chongyi, GUO Chunle, LOY C C.

Learning to enhance low-light image via zero-reference deep curve estimation

[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(8):4225-4238.
百度学术谷歌学术
13ZHANG Rongkai, GUO Lanqing, HUANG Siyu, et al.

ReLLIE: deep reinforcement learning for customized low-light image enhancement

[C]// Proceedings of the 29th ACM International Conference on Multimedia, 2021: 2429-2437.
百度学术谷歌学术
14JOBSON D J.

Retinex processing for automatic image enhancement

[J]. Journal of Electronic Imaging, 2004, 13(1): 100.
百度学术谷歌学术
15LIU Risheng, MA Long, ZHANG Jiaao, et al.

Retinex-inspired unrolling with cooperative prior architecture search for low-light image enhancement

[C]// 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, TN, USA. IEEE, 2021: 10556-10565.
百度学术谷歌学术
16FAN Minhao, WANG Wenjing, YANG Wenhan, et al.

Integrating semantic segmentation and retinex model for low-light image enhancement

[C]// Proceedings of the 28th ACM International Conference on Multimedia, 2020: 2317-2325.
百度学术谷歌学术
17YANG Wenhan, WANG Wenjing, HUANG Haofeng, et al.

Sparse gradient regularized deep retinex network for robust low-light image enhancement

[J]. IEEE Transactions on Image Processing, 2021, 30: 2072-2086.
百度学术谷歌学术
18REN Xutong, YANG Wenhan, CHENG Wenhuang, et al.

LR3M: robust low-light enhancement via low-rank regularized retinex model

[J]. IEEE Transactions on Image Processing, 2020, 29: 5862-5876.
百度学术谷歌学术
19LI Chongyi, FU Huazhu, CONG Runmin, et al.

NuI-Go: recursive non-local encoder-decoder network for retinal image non-uniform illumination removal

[C]// Proceedings of the 28th ACM International Conference on Multimedia, 2020:1478-1487.
百度学术谷歌学术
20WANG Xiaolong, GIRSHICK R, GUPTA A, et al.

Non-local neural networks

[C]// 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA. IEEE, 2018: 7794-7803.
百度学术谷歌学术
21卞建鹏, 薛秀茹, 崔跃华, .

基于EfficientDet与Vision Transformer的接触网吊弦故障检测

[J]. 铁道科学与工程学报, 2023, 20(6): 2340-2349.
百度学术谷歌学术
22赵亮, 周继开.

基于重组性高斯自注意力的视觉 Transformer

[J]. 自动化学报, 2023, 49(9): 1976-1988.
百度学术谷歌学术
23文渊博, 高涛, 陈婷, .

频率引导的双稀疏自注意力单图像去雨算法

[J]. 电子学报, 2023, 51(10): 2812-2820.
百度学术谷歌学术
24CAI Yuanhao, BIAN Hao, LIN Jing, et al.

Retinexformer: one-stage retinex-based transformer for low-light image enhancement

[C]// 2023 IEEE/CVF International Conference on Computer Vision (ICCV). Paris, France. IEEE, 2023: 12470-12479.
百度学术谷歌学术
25HAN Dongchen, PAN Xuran, HAN Yizeng, et al.

FLatten Transformer: vision Transformer using Focused Linear Attention

[C]// 2023 IEEE/CVF International Conference on Computer Vision (ICCV). Paris, France. IEEE, 2023: 5938-5948.
百度学术谷歌学术
注释

王登飞,苏宏升,陈光武等.基于聚焦线性注意力Retinexformer的TEDS图像实时暗光增强方法研究[J].铁道科学与工程学报,2024,21(11):4840-4850.

WANG Dengfei,SU Hongsheng,CHEN Guangwu,et al.Real time low light enhancement method of TEDS images based on focused linear attention Retinexformer[J].Journal of Railway Science and Engineering,2024,21(11):4840-4850.