著录项信息
专利名称 | 一种基于CEDD特征和PHOG特征的图像检索方法 |
申请号 | CN201510740450.9 | 申请日期 | 2015-11-04 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2016-03-16 | 公开/公告号 | CN105404657A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G06F17/30 | IPC分类号 | G;0;6;F;1;7;/;3;0查看分类表>
|
申请人 | 北京工业大学 | 申请人地址 | 北京市朝阳区平乐园100号
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 北京工业大学 | 当前权利人 | 北京工业大学 |
发明人 | 汪友生;金铭;王丽婷 |
代理机构 | 北京思海天达知识产权代理有限公司 | 代理人 | 沈波 |
摘要
一种基于CEDD特征和PHOG特征的图像检索方法,针对单一特征检索效果的不足,从图像的多特征入手,先使用颜色和边缘的方向性描述符提取图像的颜色和纹理特征,再将图像的颜色和纹理特征合并成为图像的CEDD特征;使用分层梯度方向直方图提取图像的形状特征,作为图像的PHOG特征;采用图像底层特征串行关联的方法将CEDD特征和PHOG特征结合,对图像进行相似性匹配,输出相似性高的图像作为检索结果。不同于传统的基于文本的图像检索,本检索过程是一种模糊查询技术,其根据视觉特性进行检索的特性,减少了人工标注的主观性;由于CEDD特征和PHOG特征占用空间小、特征表达紧凑的特点,从很大程度上提高了检索效率。
1.一种基于CEDD特征和PHOG特征的图像检索方法,其特征在于,包括以下步骤:
步骤1:对图像库中所有图像I,提取CEDD特征,存入CEDD特征库:
步骤1.1:将任意大小的图像都分成1600个图像块;
步骤1.2:将图像块的颜色空间从RGB空间转到HSV空间,将HSV值经过10-bins模糊过滤器;
步骤1.3:将10-bins模糊过滤器输出的值经过24-bins模糊过滤器;过滤后输出为一个
24维向量,构成图像块的颜色信息;
步骤1.4:将图像块的颜色空间转到YIQ空间,提取出图像的亮度值,采用MPEG-7标准中边缘直方图描述符提取纹理特征;
步骤1.5:将所有图像块的颜色特征和纹理特征进行合并和量化,成为代表整个图像的CEDD特征向量,存入CEDD特征库;
步骤2:对图像库中所有图像I,提取PHOG特征,存入PHOG特征库:
步骤2.1:将彩色图像转换为灰度图像;
步骤2.2:使用Canny算子对灰度图像进行边缘检测;
步骤2.3:对图像进行金字塔分割,设图像共被分割成L层,取L=3,则在第l层,图像被分成4l块;
步骤2.4:在每一个图像块上计算轮廓点处的梯度方向和梯度模,将梯度方向单位以度来表示时,范围为[0°,180°]或[0°,360°];
步骤2.5:将梯度角度分为K个区间,在各个区间上累加梯度模的值作为该区间的权值;
选取K=20,即20个区间中每个区间9度;
步骤2.6:依照权值得到每个区间的梯度方向直方图,将梯度直方图合并成为PHOG特征,合并时需要进行归一化,将第l层梯度方向直方图合并时需乘以 最终得到的PHOG特征维数为 维;
步骤3:输入一张检索图片Ir,提取Ir的颜色和纹理特征向量,记为XC;
步骤4:计算XC与CEDD特征库中各特征的欧式距离,对距离进行排序,取前P个数据,即取前P幅相似图像,记相似图像集合为SP={I1P,I2P,...,IPP};
步骤5:提取Ir的分层梯度方向直方图特征向量,记为XS;
步骤6:计算XS与图像集合SP中各图像的PHOG特征向量的欧式距离,对计算后的欧式距离进行排序,取P个距离中的前Q个,即从P幅图像中使用PHOG特征过滤,取前Q幅图像,作为检索的结果。
一种基于CEDD特征和PHOG特征的图像检索方法\n技术领域\n[0001] 本发明涉及一种基于CEDD特征和PHOG特征的图像检索方法,属于基于内容的图像检索领域。\n背景技术\n[0002] 基于内容的图像检索(Content-based image retrieval,CBIR),是使用图像的可视特征对图像进行相似性匹配的检索方式,这种检索方式可以自动提取图像库中所有图片的底层视觉特征,以高维向量的形式存储并建立特征库,检索时以计算向量间距离的方式获得相似性最高的若干张图像返回给用户。与基于文本的图像检索方式相比,CBIR系统工作时更高效,但其检索准确性依赖于特征提取算法。\n[0003] 图像检索中常用的图像特征主要有颜色特征、纹理特征和形状特征等。颜色特征是描述图像最直观的底层视觉特征,也是在图像检索中应用最广泛的视觉特征。颜色特征通常和图像中所包含的对象或图像的场景非常相关,能最直接地描述人类视觉系统对图像的感知,此外,与其他底层视觉特征相比,颜色特征对图像自身的尺寸、视角、方向等敏感度不高,从而在检索时具有较高的鲁棒性。纹理特征是描述图像的另一种重要的底层特征,通常认为纹理是图像上表现出的灰度或颜色分布的某种规律性,这种规律性在不同类别的纹理中有着不同的特点,能够刻画出像素邻域的灰度空间分布规律,因此可以用来识别出不同的图像。形状特征是描述物体最本质的特征,也是描述难度非常大的图像特征,是进行物体识别的关键信息。其不因周围环境而改变,鲁棒性非常高,对形状的理解往往决定了对整幅图像涵义的理解。目前,已经有很多文献基于以上单一特征进行图像检索,而单一特征只有在对相应特征比较敏感的特定图像集内才能取得较好的检索效果,对于那些特征综合性较强、内容比较复杂的图像,检索效率则比较低,所以迫切地需要研究融合多种图像特征的检索方法来提高CBIR的工作效率。\n[0004] 目前有一些特征提取算法结合了图像的颜色和纹理特征,但是如何将这两种底层特征紧凑地表示成向量,是一个很有难度的问题。在这个背景下,SAChatzichristofis等人提出了结合图像颜色和纹理两方面信息的颜色和边缘方向性描述符(Color and Edge Directivity Descriptor,CEDD)算法,该方法复杂度低,实现简单,但没有考虑图像的形状特征,导致检索准确率不高。分层梯度方向直方图(Pyramid Histogram ofOriented Gradients,PHOG)最早由Bosch等提出,是一种描述空间形状能力较强的特征向量,但由于它仅仅包含了图像的形状特征,故对颜色和纹理特征显著的自然背景图像检索效果不佳。\n考虑到CEDD和PHOG的缺点,将两者结合能提取图像的三种基本特征,且两种算法能起到互补的作用。\n发明内容\n[0005] 本发明的目的是要提供一种多特征融合的图像检索方法,其实现框图如图1所示。\n该方法针对CEDD和PHOG的缺点,使用底层特征串行关联方法将两种算法提取的三种图像底层视觉特征进行融合,使用Corel标准图像集进行测试,结果表明本文方法的查准率和Avgp值比两种原算法均有提高。\n[0006] 具体的实现步骤如下:\n[0007] Step1:对图像库中所有图像I,提取CEDD特征,存入CEDD特征库:\n[0008] Step1.1:将任意大小的图像都分成1600个图像块;\n[0009] Step1.2:将图像块的颜色空间从RGB空间转到HSV空间,将HSV值经过10-bins模糊过滤器;\n[0010] Step1.3:将10-bins模糊过滤器输出的值经过24-bins模糊过滤器。过滤后输出为一个24维向量,构成图像块的颜色信息;\n[0011] Step1.4:将图像块的颜色空间转到YIQ空间,提取出图像的亮度值,采用MPEG-7标准中边缘直方图描述符提取纹理特征;\n[0012] Step1.5:依照框图2将所有图像块的颜色特征和纹理特征进行合并和量化,成为代表整个图像的CEDD特征向量,存入CEDD特征库。CEDD特征中颜色特征和纹理特征的分布如图3所示。\n[0013] Step2:对图像库中所有图像I,提取PHOG特征,存入PHOG特征库:\n[0014] Step2.1:将彩色图像转换为灰度图像;\n[0015] Step2.2:使用Canny算子对灰度图像进行边缘检测;\n[0016] Step2.3:对图像进行金字塔分割,设图像共被分割成L层(本文取L=3),则在第l层,图像被分成4l块;\n[0017] Step2.4:在每一个图像块上计算轮廓点处的梯度方向和梯度模,将梯度方向单位以度来表示时,范围为[0°,180°]或[0°,360°](本文取[0°,180°]);\n[0018] Step2.5:将梯度角度分为K个区间,在各个区间上累加梯度模的值作为该区间的权值。根据文献[phog原文]中对K不同取值时算法性能的测试,范围为[0°,180°]时取K=20算法性能较好,故本文选取K=20,即20个区间中每个区间9度;\n[0019] Step2.6:依照权值得到每个区间的梯度方向直方图,将梯度直方图合并成为PHOG特征,合并时需要进行归一化,将第l层梯度方向直方图合并时需乘以 最终得到的PHOG特征维数为 维。\n[0020] Step3:输入一张检索图片Ir,提取Ir的颜色和纹理特征向量,记为XC。\n[0021] Step4:计算XC与CEDD特征库中各特征的欧式距离,对距离进行排序,取前P个数据,即取前P幅相似图像,记相似图像集合为SP={I1P,I2P,...,IPP}。\n[0022] Step5:提取Ir的分层梯度方向直方图特征向量,记为XS。\n[0023] Step6:计算XS与图像集合SP中各图像的PHOG特征向量的欧式距离,对计算后的欧式距离进行排序,取P个距离中的前Q个,即从P幅图像中使用PHOG特征过滤,取前Q幅图像,作为检索的结果。\n[0024] 在本文的检索系统中,CEDD特征和PHOG特征占用的空间均较小,且使用特征串行关联的方法将图像的三种主要特征进行融合,弥补了CEDD没有考虑图像形状信息的缺点,并且计算量小,灵活性大,实现了对检索结果的过滤功能。从计算步骤上来看,是一种有效且计算相对简单的检索方法。\n附图说明\n[0025] 图1是CEDD特征提取步骤框图;\n[0026] 图2是CEDD特征中颜色和纹理特征分布的结构;\n[0027] 图3是本发明方法的流程图。\n具体实施方式\n[0028] 本发明是采用以下技术手段实现的:\n[0029] 一种基于CEDD特征和PHOG特征的图像检索方法。先使用颜色和边缘方向性描述符提取图像的颜色和纹理特征,将颜色和纹理特征合并成为CEDD特征,再使用分层梯度方向直方图提取图像的形状特征,成为图像的PHOG特征;最后使用底层特征串行关联的方法将CEDD特征和PHOG特征融合进行检索。\n[0030] 上述基于CEDD特征和PHOG特征的图像检索方法,包括下述步骤:\n[0031] 步骤1:对图像库中所有图像I,提取CEDD特征,存入CEDD特征库:\n[0032] 步骤1.1:将任意大小的图像都分成1600个图像块;\n[0033] 步骤1.2:将图像块的颜色空间从RGB空间转到HSV空间,将HSV值经过10-bins模糊过滤器;\n[0034] 步骤1.3:将10-bins模糊过滤器输出的值经过24-bins模糊过滤器。过滤后输出为一个24维向量,构成图像块的颜色信息;\n[0035] 步骤1.4:将图像块的颜色空间转到YIQ空间,提取出图像的亮度值,采用MPEG-7标准中边缘直方图描述符提取纹理特征;\n[0036] 步骤1.5:依照框图2将所有图像块的颜色特征和纹理特征进行合并和量化,成为代表整个图像的CEDD特征向量,存入CEDD特征库。CEDD特征中颜色特征和纹理特征的分布如图3所示。\n[0037] 步骤2:对图像库中所有图像I,提取PHOG特征,存入PHOG特征库:\n[0038] 步骤2.1:将彩色图像转换为灰度图像;\n[0039] 步骤2.2:使用Canny算子对灰度图像进行边缘检测;\n[0040] 步骤2.3:对图像进行金字塔分割,设图像共被分割成L层(本文取L=3),则在第l层,图像被分成4l块;\n[0041] 步骤2.4:在每一个图像块上计算轮廓点处的梯度方向和梯度模,将梯度方向单位以度来表示时,范围为[0°,180°]或[0°,360°](本文取[0°,180°]);\n[0042] 步骤2.5:将梯度角度分为K个区间,在各个区间上累加梯度模的值作为该区间的权值。根据文献[phog原文]中对K不同取值时算法性能的测试,范围为[0°,180°]时取K=20算法性能较好,故本文选取K=20,即20个区间中每个区间9度;\n[0043] 步骤2.6:依照权值得到每个区间的梯度方向直方图,将梯度直方图合并成为PHOG特征,合并时需要进行归一化,将第l层梯度方向直方图合并时需乘以 最终得到的PHOG特征维数为 维。\n[0044] 步骤3:输入一张检索图片Ir,提取Ir的颜色和纹理特征向量,记为XC。\n[0045] 步骤4:计算XC与CEDD特征库中各特征的欧式距离,对距离进行排序,取前P个数据,即取前P幅相似图像,记相似图像集合为SP={I1P,I2P,...,IPP}。\n[0046] 步骤5:提取Ir的分层梯度方向直方图特征向量,记为XS。\n[0047] 步骤6:计算XS与图像集合SP中各图像的PHOG特征向量的欧式距离,对计算后的欧式距离进行排序,取P个距离中的前Q个,即从P幅图像中使用PHOG特征过滤,取前Q幅图像,作为检索的结果。
法律信息
- 2022-10-18
未缴年费专利权终止
IPC(主分类): G06F 17/30
专利号: ZL 201510740450.9
申请日: 2015.11.04
授权公告日: 2018.11.02
- 2018-11-02
- 2016-04-13
实质审查的生效
IPC(主分类): G06F 17/30
专利申请号: 201510740450.9
申请日: 2015.11.04
- 2016-03-16
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2014-06-25
|
2012-12-20
| | |
2
| | 暂无 |
2002-01-14
| | |
3
| |
2010-07-07
|
2010-03-24
| | |
4
| |
2010-07-28
|
2010-01-22
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |