丁子轩 Ding Zixuan张娟 Zhang Juan李想 Li Xiang王新宇 Wang Xinyu
针对图像超分辨率重建网络因结构冗杂、参数量增加导致的计算量过大、训练时间过长等问题,提出一种注意力引导的轻量级图像超分辨率网络(LAGNet)。LAGNet将随机初始化的自适应权重引入深度残差网络结构,更大限度地利用浅层特征信息。其次,提出注意力引导(AG)模块,该模块使用高效通道注意力(ECA)模块和空间分组增强(SGE)模块双支路并联结构,结合通道间关系和空间位置信息特征,利用注意力引导层动态调整两个分支的权重占比,准确获取高频特征信息。最后,使用全局级联连接,减少网络参数量并加快信息流通速度。使用L1损失函数,在加快收敛速度的同时防止梯度爆炸。在三个基准数据集上的测试结果表明:相比其他网络,LAGNet的峰值信噪比平均提高0.39 dB,模型参数量平均减少24%,加法操作量和乘法操作量平均减少62%;在图像视觉效果上整体更为清晰,细节纹理更自然。
Wu Siqi华南师范大学计算机学院,广州 510631 School of Computer Science, South China Normal University, Guangzhou 510631, ChinaLiu Wei
徐国明 XU Guoming王杰 WANG Jie马健 MA Jian王勇 WANG Yong刘佳庆 LIU Jiaqing李毅 LI Yi
江明 Jiang Ming肖庆生 Xiao Qingsheng易见兵 Yi Jianbing曹锋 Cao Feng
耿浩文 Geng Haowen王宇 Wang Yu辛彦玲 Xin Yanling