著录项信息
专利名称 | 一种基于视觉显著点特征的遥感影像检索方法 |
申请号 | CN201310239255.9 | 申请日期 | 2013-06-17 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2013-09-18 | 公开/公告号 | CN103309982A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G06F17/30 | IPC分类号 | G;0;6;F;1;7;/;3;0;;;G;0;6;K;9;/;4;6查看分类表>
|
申请人 | 武汉大学 | 申请人地址 | 湖北省武汉市武昌区珞珈山武汉大学
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 武汉大学 | 当前权利人 | 武汉大学 |
发明人 | 邵振峰;王星 |
代理机构 | 武汉科皓知识产权代理事务所(特殊普通合伙) | 代理人 | 严彦 |
摘要
一种基于视觉显著点特征的遥感影像检索方法,包括对于影像库中的每一幅影像计算显著图并进行一致性区域分割,接着由显著图和区域分割结果计算相应的分割区域显著图,再采用自适应阈值分割算法提取出影像的视觉显著区,然后采用SIFT算子计算影像的局部不变特征,并将位于视觉显著区内的局部不变特征视为视觉显著点特征,进而构建视觉显著点特征矩阵;最后按照相似性度量方法计算查询影像与各候选影像的相似度,并按照相似度从大到小的顺序输出检索结果。本发明不但能够更准确地描述遥感影像中的局部显著特征,而且减少了影像相似性计算量,能有效提高影像检索的查准率,为符合人类视觉感知特性的遥感影像检索提供了一种新的解决方案。
1.一种基于视觉显著点特征的遥感影像检索方法,其特征在于,包括以下步骤:
步骤一,对于影像库中的每一幅影像,分别采用GBVS模型计算相应的影像显著图,获得影像中每个像素对应的显著度;影像库中的影像包括预先输入的查询影像和多幅候选影像;
步骤二,对于影像库中的每一幅影像,进行基于Quick Shift算法的过分割;
步骤三,对于影像库中的每一幅影像,分别利用步骤一获取的像素显著度和步骤二获取的影像过分割结果,计算影像过分割结果中每个区域的显著度,形成分割区域显著图;
所述计算影像过分割结果中每个区域的显著度时,首先统计区域内每个像素的显著度,然后计算区域内所有像素的显著度均值作为区域显著度,实现方式如下,设给定一幅影像I,相应显著图为S,分割结果为一系列区域的集合Ω,且有Ω={Ri|Ri∈I,i=1,2,3,...,N}
其中,Ri为分割结果中的第i个区域,N为分割结果的区域总数;
设区域Ri中包含ni个像素,则区域Ri中任一像素(x,y)在分割区域显著图RegS中的显著度表示如下,
其中,S(x,y)表示区域Ri中像素(x,y)在显著图S中的显著度;
步骤四,对于影像库中的每一幅影像,分别基于步骤三中获得的分割区域显著图,采用OTSU算法进行自适应阈值分割,提取影像的视觉显著区;
步骤五,对于影像库中的每一幅影像,分别利用SIFT算子计算所有局部不变特征,获得相应归一化的特征向量;
步骤六,对于影像库中的每一幅影像,分别利用步骤四获取的视觉显著区对步骤五获取的所有局部不变特征进行过滤,将视觉显著区内的局部不变特征视为视觉显著点特征,进而由多个视觉显著点的相应特征向量构建视觉显著点特征矩阵,作为影像的特征描述;
步骤七,采用预设的相似性度量方法,通过视觉显著点特征矩阵计算查询影像与影像库中各候选影像的相似度,将候选影像按照相似度从大到小排序并输出为检索结果;
所述预设的相似性度量方法实现方式如下,
(1)对于影像库中所有候选影像,分别进行以下处理,
对于查询影像的视觉显著点特征矩阵中每个特征向量,计算其与候选影像的视觉显著点特征矩阵中所有特征向量的最小欧氏距离,记为该特征向量到候选影像的视觉显著点特征矩阵的距离;
计算查询影像的视觉显著点特征矩阵中所有特征向量到候选影像的视觉显著点特征矩阵的距离均值,记为查询影像到候选影像的距离;
(2)对查询影像到影像库中各候选影像的距离进行归一化,归一化后所得结果越大则相似度越小,归一化后所得结果越小则相似度越大。
一种基于视觉显著点特征的遥感影像检索方法\n技术领域\n[0001] 本发明涉及图像处理技术领域,更具体地说,涉及一种基于视觉显著点特征的遥感影像检索方法。\n背景技术\n[0002] 随着空间探测技术、传感器技术及信息技术的发展,目前可获取的遥感影像的空间分辨率不断提高,遥感影像的数据量也呈几何级数增长。与此同时,随着数字地球、智慧地球等信息化建设的不断深入,人们对遥感影像的需求也与日俱增。然而,由于现阶段数据处理与分析能力的限制,日益增长的遥感影像数据仍很难满足人们的应用需求,这一供需矛盾主要表现为“所得非所求”,即人们很难从海量的遥感影像中获得感兴趣的数据和信息。因此,遥感影像的高效检索已成为制约遥感影像数据应用的瓶颈问题。\n[0003] 在遥感影像检索研究中,目前绝大部分的研究成果集中于基于低层视觉特征的遥感影像检索,传统的低层视觉特征主要包括影像光谱(颜色)特征、纹理特征和形状特征。其中,光谱(颜色)特征和纹理特征属于影像的全局特征,往往对高分辨率遥感影像中较小地物目标的特征描述不够准确,而形状特征很难适应遥感影像的空间复杂性,一般仅用于内容单一、易于识别的自然图像检索。\n[0004] 对于高分辨率遥感影像来说,其地物类型多样且空间关系复杂,传统的低层视觉特征很难准确地描述影像的场景信息,因此采用这类特征进行高分辨率遥感影像检索时往往很难获得准确的检索结果。符合人类视觉感知特性的影像检索方法被视为解决这一问题的有效途径。人类视觉系统在进行影像识别和理解时,往往会选择性地关注视觉显著区内的显著局部特征,尤其是从影像关键点邻域中提取的局部不变特征,同时会抑制非显著区内影像特征的提取和表达,以保证影像理解的准确性和高效性。目前,如何模拟人类的视觉注意机制以准确预测影像的视觉显著区已成为计算机视觉领域的热点问题。但是,现有模型大多针对影像的每个像素计算其对应的显著度,往往忽略了相邻像素间的空间一致性和颜色一致性等特性,未能从一致性区域的角度来计算各区域的显著度,导致提取的视觉显著区不够准确和完整,进而影响显著局部特征的提取和表达。\n发明内容\n[0005] 本发明的目的在于针对现有技术的缺点和不足,提供一种基于视觉显著点特征的遥感影像检索方法,通过模拟人眼选择性注意机制的视觉注意模型和区域一致性分割算法提取出较为完整和准确的影像视觉显著区,进而结合局部不变特征算子构建遥感影像的局部视觉显著特征,以获取遥感影像中显著地物对象的稳健特征描述,提高遥感影像检索的查准率和效率。\n[0006] 本发明所采用的技术方案是一种基于视觉显著点特征的遥感影像检索方法,包括以下步骤:\n[0007] 步骤一,对于影像库中的每一幅影像,分别采用GBVS模型计算相应的影像显著图,获得影像中每个像素对应的显著度;影像库中的影像包括预先输入的查询影像和多幅候选影像;\n[0008] 步骤二,对于影像库中的每一幅影像,进行基于Quick Shift算法的过分割;\n[0009] 步骤三,对于影像库中的每一幅影像,分别利用步骤一获取的像素显著度和步骤二获取的影像过分割结果,计算影像过分割结果中每个区域的显著度,形成分割区域显著图;\n[0010] 步骤四,对于影像库中的每一幅影像,分别基于步骤三中获得的分割区域显著图,采用OTSU算法进行自适应阈值分割,提取影像的视觉显著区;\n[0011] 步骤五,对于影像库中的每一幅影像,分别利用SIFT算子计算所有局部不变特征,获得相应归一化的特征向量;\n[0012] 步骤六,对于影像库中的每一幅影像,分别利用步骤四获取的视觉显著区对步骤五获取的所有局部不变特征进行过滤,将视觉显著区内的局部不变特征视为视觉显著点特征,进而由多个视觉显著点的相应特征向量构建视觉显著点特征矩阵,作为影像的特征描述;\n[0013] 步骤七,采用预设的相似性度量方法,通过视觉显著点特征矩阵计算查询影像与影像库中各候选影像的相似度,将候选影像按照相似度从大到小排序并输出为检索结果。\n[0014] 而且,步骤三中,计算影像过分割结果中每个区域的显著度时,首先统计区域内每个像素的显著度,然后计算区域内所有像素的显著度均值作为区域显著度。\n[0015] 而且,步骤七中,预设的相似性度量方法实现方式如下,\n[0016] (1)对于影像库中所有候选影像,分别进行以下处理,\n[0017] 对于查询影像的视觉显著点特征矩阵中每个特征向量,计算其与候选影像的视觉显著点特征矩阵中所有特征向量的最小欧氏距离,记为该特征向量到候选影像的视觉显著点特征矩阵的距离;\n[0018] 计算查询影像的视觉显著点特征矩阵中所有特征向量到候选影像的视觉显著点特征矩阵的距离均值,记为查询影像到候选影像的距离;\n[0019] (2)对查询影像到影像库中各候选影像的距离进行归一化,归一化后所得结果越大则相似度越小,归一化后所得结果越小则相似度越大。\n[0020] 本发明提供的技术方案的有益效果为,通过视觉注意模型和影像分割算法的结合能够从遥感影像中提取出较为完整和准确的视觉显著区,在此基础上结合SIFT算子构建了视觉显著点特征矩阵,不但能够更准确地描述遥感影像复杂场景中的显著局部特征,而且通过视觉显著区滤除了大量的非显著局部特征,减少了相似性度量过程中的计算量,提高了影像检索的精度和效率,为符合人类视觉感知特性的遥感影像检索提供了一种新的解决方案。本发明提供的方法适用于不同地物类型的遥感影像检索。\n附图说明\n[0021] 图1为本发明实施例的流程图。\n具体实施方式\n[0022] 本发明提出的基于视觉显著点特征的遥感影像检索方法先计算影像的显著图,并对影像进行过分割,获取分割区域显著图,然后对分割区域显著图进行自动阈值分割,提取影像的视觉显著区,接着计算影像的局部不变特征,并利用视觉显著区中的局部不变特征构建视觉显著点特征矩阵,以描述遥感影像的显著局部特征,最后采用相似性度量方法检索影像库中的相似影像。其中主要包括影像显著图计算、影像一致性区域分割、分割区域显著图计算、视觉显著区提取、局部不变特征计算、视觉显著点特征构建和相似影像检索七个步骤。\n[0023] 具体实施时,本发明方法可采用计算机技术实现自动运行流程。为详细说明本发明技术方案,参见图1,提供实施例流程具体说明如下:\n[0024] 步骤S01,采用GBVS模型计算影像库中所有影像的显著图。\n[0025] 对于影像库中的每一幅影像,实施例首先采用GBVS模型(基于图的视觉显著模型)计算其对应的显著图,以获取对应影像每个像素的显著度。GBVS模型为现有技术,本发明不予赘述。影像库中的影像包括预先输入的查询影像和多幅候选影像。\n[0026] 步骤S02,对于影像库中的每一幅影像,分别采用Quick Shift(快速漂移)分割算法,利用空间一致性和颜色一致性对影像进行过分割,获取影像过分割结果。分割实现过程为现有技术,本发明不予赘述。\n[0027] 步骤S03,对于影像库中的每一幅影像,分别利用步骤S01中获取的像素显著度和步骤S02获取的影像过分割结果,计算影像过分割结果中每个区域的显著度,形成分割区域显著图。\n[0028] 实施例先计算分割结果的每个区域内所有像素的显著度均值,将其作为该区域的显著度,赋给该区域内的所有像素,最终即可获得整幅影像的分割区域显著图。给定一幅影像I,其显著图为S,分割结果为一系列区域的集合Ω,且有:\n[0029] Ω={Ri|Ri∈I,i=1,2,3,...,N}\n[0030] 其中,Ri为分割结果中的第i个区域,N为分割结果的区域总数。设区域Ri中包含ni个像素,则区域Ri中任一像素(x,y)在分割区域显著图RegS中的显著度可表示为:\n[0031] \n[0032] 式中S(x,y)表示区域Ri中像素(x,y)在显著图S中的显著度。\n[0033] 步骤S04,对于影像库中的每一幅影像,分别基于步骤S03中获得的分割区域显著图,采用OTSU算法(大津法)进行自适应阈值分割,提取每幅影像的视觉显著区。OTSU算法为现有技术,本发明不予赘述。\n[0034] 实施例先采用OTSU算法提取分割区域显著图的显著度阈值,以该阈值为参考对影像进行二值化,即可提取影像的视觉显著区。设采用OTSU算法获取的显著度分割阈值为T,则影像I的视觉显著区可表示为:\n[0035] \n[0036] 步骤S05,对于影像库中的每一幅影像,分别利用SIFT算子计算其所有局部不变特征,记录每个局部不变特征的坐标(a,b)及所有局部不变特征归一化的特征向量,其中归一化计算可采用特征向量中每个特征值除以该特征向量的模的方法,使得归一化后的特征向量的模为1。SIFT算子为现有技术,本发明不予赘述。\n[0037] 步骤S06,对于影像库中的每一幅影像,分别采用步骤S04中获取的视觉显著区对步骤S05中获取的局部不变特征进行过滤,保留位于视觉显著区内的局部不变特征,并将其视为视觉显著点特征,进而由这些视觉显著点特征的归一化特征向量构建视觉显著点特征矩阵,作为影像的特征描述。\n[0038] 实施例先根据局部不变特征的坐标计算与其最近的像素坐标,若该像素位于视觉显著区内,则将该局部不变特征视为视觉显著点特征,影像中所有视觉显著点特征的归一化特征向量即可构建视觉显著点特征矩阵。设影像中某个局部不变特征的坐标为(aj,bj),其归一化特征向量为 其中 表示向量中第k个维度上的\n值,k的取值为1,2,…,128;则实施例中需要先判断像素 是否位于视\n觉显著区内,即判断 是否为真,若是则将对应的特征向量SIFTj加入到视觉显著点特征集合{SPl|l=1,2,...,L}中,反之则将其滤除,最终由L个特征向量组成的视觉显著点特征矩阵可表示为:\n[0039] F=[SP1,SP2,...,SPL]\n[0040] SPl表示其中第l个特征向量。\n[0041] 查询影像的视觉显著点特征矩阵可简称为查询影像特征矩阵,候选影像的视觉显著点特征矩阵可简称为候选影像特征矩阵。\n[0042] 步骤S07,通过视觉显著点特征矩阵计算查询影像与影像库中各候选影像的相似度,并按照相似度从大到小的顺序输出候选影像,即为检索结果。\n[0043] 实施例中计算查询影像与影像库中各候选影像相似度的过程可细分为两个子步骤:\n[0044] (1)对于影像库中所有候选影像,分别进行以下处理,\n[0045] 首先,对于查询影像特征矩阵中的每个视觉显著点特征向量,计算其与候选影像特征矩阵中所有视觉显著点特征向量的最小欧氏距离,记为该视觉显著点特征向量到候选影像特征矩阵的距离。设查询影像Iq的特征矩阵为\n包含Q个视觉显著点特征向量 某幅候选影像Ic的特征矩阵为\n包含C个视觉显著点特征向量 则需计算Fq\n中任一特征向量 (lq的取值为1,2,…,Q)与Fc中所有特征向量 的\n最小欧氏距离,记为\n[0046] 然后,计算查询影像特征矩阵中所有视觉显著点特征向量到候选影像特征矩阵的距离均值,记为查询影像到候选影像的距离。按照子步骤(1)中的假设,查询影像Iq到候选影像Ic的距离可表示为:\n[0047] \n[0048] (2)经过(1)的处理得到查询影像到影像库中各候选影像的距离后,对查询影像到各候选影像的距离进行归一化,归一化结果可记为归一化距离。归一化后所得结果越大则相似度越小,归一化后所得结果越小则相似度越大。理论上, 的取值范围为相应的D(q,c)的取值范围也为 因此归一化操作可通过除以 实现。对影像库中任一候选影像,用1减去该候选影像的归一化距离即可得查询影像与该候选影像的相似度。\n[0049] 按照(1)中的假设,查询影像Iq与候选影像Ic的相似度Sim(q,c)可表示为:\n[0050] \n[0051] 按照相似度从大到小的顺序输出候选影像,即先输出相似度高的,再输出相似度低的。\n[0052] 以上内容是结合最佳实施方案对本发明说做的进一步详细说明,不能认定本发明的具体实施只限于这些说明。本领域的技术人员应该理解,在不脱离由所附权利要求书限定的情况下,可以在细节上进行各种修改,都应当视为属于本发明的保护范围。
法律信息
- 2016-02-10
- 2013-10-23
实质审查的生效
IPC(主分类): G06F 17/30
专利申请号: 201310239255.9
申请日: 2013.06.17
- 2013-09-18
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2005-01-26
|
2003-07-23
| | |
2
| |
2012-09-12
|
2012-02-27
| | |
3
| |
2010-07-28
|
2010-01-22
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |