电子学报 ›› 2012, Vol. 40 ›› Issue (12): 2472-2480.

• 学术论文 • 上一篇    下一篇

基于随机化视觉词典组和上下文语义信息的目标检索方法

赵永威, 郭志刚, 李弼程, 高毫林, 陈刚   

  1. 解放军信息工程大学信息系统工程学院,河南郑州 450002
  • 收稿日期:2011-11-22 修回日期:2012-06-13 出版日期:2012-12-25 发布日期:2012-12-25
  • 作者简介:赵永威 男,1988年1月生于河南省周口市.2009年毕业于山东大学电子信息工程专业,现为解放军信息工程大学博士研究生.主要研究方向为图像检索及视觉语义概念检测. E-mail:zhaoyongwei369@163.com 郭志刚 男,1973年4月生于河南省郑州市.1998年毕业于国防科技大学通信与电子系统专业获工学硕士学位.现为解放军信息工程大学讲师,主要研究方向为智能信息处理. E-mail:keep_er@163.com李弼程 男,1970年7月生于湖南省衡阳市.博士、教授、博士生导师.主要研究方向为智能信息处理. E-mail:lbclm@163.com高毫林 男,1979年5月生于河南省新郑市.博士研究生.主要研究方向为智能信息处理. E-mail:holygao@126.com陈 刚 男,1979年8月生于湖北省黄冈市.博士研究生、讲师.主要研究方向为模式分析、社会计算、图像处理. E-mail:maplechen111@gmail.com
  • 基金资助:
    国家自然科学基金(No.60872142);全军军事学研究生课题资助项目

Object Retrieval Method Based on Randomized Visual Dictionaries and Contextual Semantic Information

ZHAO Yong-wei, GUO Zhi-gang, LI Bi-cheng, GAO Hao-lin, CHEN Gang   

  1. Institute of Information Engineering,Information Engineering University,Zhengzhou,Henan 450002,China
  • Received:2011-11-22 Revised:2012-06-13 Online:2012-12-25 Published:2012-12-25

摘要: 传统的视觉词典法(Bag of Visual Words,BoVW)具有时间效率低、内存消耗大以及视觉单词同义性和歧义性的问题,且当目标区域所包含的信息不能正确或不足以表达用户检索意图时就得不到理想的检索结果.针对这些问题,本文提出了基于随机化视觉词典组和上下文语义信息的目标检索方法.首先,该方法采用精确欧氏位置敏感哈希(Exact Euclidean Locality Sensitive Hashing,E2LSH)对局部特征点进行聚类,生成一组支持动态扩充的随机化视觉词典组;然后,利用查询目标及其周围的视觉单元构造包含上下文语义信息的目标模型;最后,引入K-L散度(Kullback-Leibler divergence)进行相似性度量完成目标检索.实验结果表明,新方法较好地提高了目标对象的可区分性,有效地提高了检索性能.

关键词: 目标检索, 上下文语义信息, 精确欧氏位置敏感哈希, 随机化视觉词典组, K-L散度

Abstract: There are several problems existing in the conventional bag of visual words methods,such as low time efficiency and large memory consumption,the synonymy and polysemy of visual words,furthermore,they may fail to return satisfactory results if the object region is inaccurate or if the captured object is too small to be represented with discriminative features.An object retrieval method based on randomized visual dictionaries and contextual semantic information is proposed for the above problems.Firstly,E2LSH (Exact Euclidean Locality Sensitive Hashing) is used,and a group of scalable random visual vocabularies is generated;then,a new object model consisting of contextual semantic information is devised,which is drawn from the visual elements surrounding the query object;finally,the Kullback-Leibler divergence is introduced as a similarity measurement to accomplish object retrieval.Experimental results indicate that the distinguishability of objects is effectively improved and the object retrieval performance method is substantially boosted compared with the traditional methods.

Key words: object retrieval, contextual semantic information, exact Euclidean locality sensitive hashing, randomized visual vocabularies, Kullback-Leibler divergence

中图分类号: