电子学报 ›› 2022, Vol. 50 ›› Issue (2): 374-382.DOI: 10.12263/DZXB.20201204

• 学术论文 • 上一篇    下一篇

基于多分支结构的不确定性局部通道注意力机制

伍邦谷1, 张苏林2, 石红1, 朱鹏飞1, 王旗龙1, 胡清华1   

  1. 1.天津大学智能与计算学部, 天津 300350
    2.中汽数据(天津)有限公司, 天津 300380
  • 收稿日期:2020-10-28 修回日期:2021-01-25 出版日期:2022-02-25
    • 通讯作者:
    • 王旗龙
    • 作者简介:
    • 伍邦谷 男,1996年生于湖北省.硕士研究生,计算机科学与技术专业,研究方向为计算机视觉. E-mail: wubanggu@tju.edu.cn
      张苏林 男,1987年生于辽宁省.中汽数据(天津)有限公司高级技术经理,主要研究方向为智能网联汽车、自动驾驶控制及感知系统. E-mail: zhangsulin@catarc.ac.cn
      石 红 女,1975年生于内蒙古自治区.副教授,硕士生导师.主要研究方向为粗糙集、机器学习. E-mail: serena@tju.edu.cn
      朱鹏飞 男,1986年生于河南省.副教授,博士生导师.主要研究方向为无人机视觉、人机协同学习、度量学习. E-mail: zhupengfei@tju.edu.cn
      王旗龙(通讯作者) 男,1989年生于黑龙江省.副教授,硕士生导师.主要研究方向为视频图像分析、深度学习等. E-mail: qlwang@tju.edu.cn
      胡清华 男,1976年生于湖南省.教授,博士生导师.主要研究方向为数据不确定性建模、多模态数据学习. E-mail: huqinghua@tju.edu.cn
    • 基金资助:
    • 国家自然科学基金 (61806140)

Multi-Branch Structure Based Local Channel Attention with Uncertainty

WU Bang-gu1, ZHANG Su-lin2, SHI Hong1, ZHU Peng-fei1, WANG Qi-long1, HU Qing-hua1   

  1. 1.College of Intelligence and Computing, Tianjin University, Tianjin 300350, China
    2.Automotive Data of China Co., Ltd., Tianjin 300380, China
  • Received:2020-10-28 Revised:2021-01-25 Online:2022-02-25 Published:2022-02-25
    • Corresponding author:
    • WANG Qi-long
    • Supported by:
    • National Natural Science Foundation of China (61806140)

摘要:

近几年的研究表明视觉注意力机制是提升深层卷积神经网络性能的有效途径.然而,现有的视觉注意力方法更多地致力于建模所有卷积通道之间的相关性,在一定程度上限制了模型的计算效率.此外,这些方法尚未明确考虑相关性建模过程中不确定性带来的影响,缺少对注意力机制在泛化能力和稳定性方面的探索.为解决上述问题,提出了一种多分支局部通道注意力模块(Multi-Branch Local Channel Attention,MBLCA).通过建模通道之间的局部相关性学习各个通道的权重,提升了模型的计算效率.并采用蒙特卡洛(Monte Carlo,MC)Dropout近似的深度贝叶斯学习方法对局部通道注意力模块进行不确定性建模,从而得到一个多分支的局部通道注意力模块.提出的MBLCA模块可以灵活地应用于各种深层卷积神经网络架构中,与同类型的工作相比,嵌入MBLCA模块的ResNet-50网络结构在ImageNet-1K和MS COCO数据集上分别取得了2.58%的分类精度提升和1.9%的AP提升.

关键词: 通道注意力机制, 不确定性, 多分支结构, 深层卷积神经网络

Abstract:

Recent researches demonstrate that attention mechanism is an effective way to improve performance of deep convolution neural networks(CNNs). However, most of existing attention methods more dedicate to modeling the correlation between all channels, which limits the computational efficiency of the model. In addition, these methods have not considered the impact of uncertainty in the correlation modeling process, and lack the exploration of the generalization ability and stability of the attention mechanism. A multi-branch local channel attention(MBLCA) module is proposed to handle above issues. MBLCA learns channel attention by capturing correlation across channels in a local range instead of global ones, improving the computational efficiency, and models the uncertainty of local channel attention by deep Bayesian learning, which is approximated by Monte Carlo(MC) Dropout, leading a multi-branch structure. The proposed MBLCA can be flexibly adopted to various deep CNN architectures. For example, ResNet-50 with the MBLCA module has achieved 2.58% improvement in classification accuracy and 1.9% improvement in average precise on the ImageNet-1K and MS COCO datasets against state-of-the-art counterparts.

Key words: channel attention mechanism, uncertainty, multi-branch structure, deep convolutional neural networks

中图分类号: