
研究团队:
赵随意,张召,韦炎炎,赵洋,汪萌:合肥工业大学
樊继聪:香港中文大学
颜水成:新加坡国立大学
论文链接:https://www.sciengine.com/SCIS/doi/10.1007/s11432-023-4562-8
研究意义
在现实生活中,我们拍摄的图像往往面临复杂的环境干扰,例如在夜间拍摄移动物体时,图像可能同时存在“运动模糊”和“光照不足”的问题。目前的深度学习方法通常针对单一任务(如单独去模糊或单独增强亮度)表现出色,但在处理混合问题时往往力不从心。
现有的解决方案通常面临两大难题:
(1) 数据昂贵。为了处理混合退化(如“模糊+低光”),通常需要采集大量对应的成对数据进行训练,这不仅成本高昂,而且极难获取。
(2) 分布差异。如果在训练时只见过“模糊”图像,模型在遇到“低光”或“混合”图像时通常会失效,因为推理数据的分布与训练数据差异过大。
本文提出了一种高效的新思路:能否仅使用“去模糊”的无监督数据训练模型,就能让它“顺便”学会低光照增强和处理混合退化?这项工作极大地降低了数据收集和模型训练的成本。

本文工作
为实现上述目标,本文提出了一种名为 DEvUDP (Individual/joint deblurring and low-light image enhancement in one go via unsupervised deblurring paradigm) 的全新策略。该方法在训练阶段仅使用非成对的模糊-清晰图像(且不包含低光数据),却能在推理阶段同时解决去模糊、低光照增强以及两者的混合问题。本文的核心框架包含两个非对称分支:转换分支 (T-branch):负责将模糊图像映射到清晰域,利用生成器和反向生成器保持图像内容的一致性。自回归分支 (S-branch):受噪声自回归技术启发,该分支通过显式的自回归约束,消除了图像中的伪影和噪声,并隐式地赋予了模型处理光照的能力。
本文的创新点如下:
(1) 极简训练策略:打破常规,仅使用无监督的去模糊数据进行训练,即可实现跨任务(低光照增强)和混合任务的推理,无需采集昂贵的混合退化数据。
(2) 新型网络架构:设计了包含 T-branch 和 S-branch 的双生成器架构,结合实例归一化 (IN) 和自回归技术,巧妙解决了推理数据分布偏移的问题。
(3) 性能可配置:提出了一套增强流程,可以通过配置不同的组件,在注重“感知质量”或“失真指标”之间灵活切换。

实验结果
本文在多个广泛使用的公开数据集上进行了验证,包括 GoPro(去模糊)、LOL(低光照增强)以及 LOL-Blur(混合退化),验证了方法的有效性。此外,为了验证方法的通用性,还在Rain100H 数据集上进行了去雨及混合去雨增强的扩展实验。

版权声明:本文内容转自互联网,本文观点仅代表作者本人。本站仅提供信息存储空间服务,所有权归原作者所有。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至1393616908@qq.com 举报,一经查实,本站将立刻删除。