基于局部特征融合的目标再识别方法\n技术领域\n[0001] 本发明实施例涉及计算机视觉技术领域,尤其是涉及一种基于局部特征融合的目标再识别方法。\n背景技术\n[0002] 目标再识别方法可用于多目标跟踪、视频监控等领域,尤其是视觉传感器网络框架下对多个目标在多个场景下持续的跟踪应用。\n[0003] 目前,目标再识别问题的研究方法主要分为两类,第一类方法是对目标的颜色、形态等外观特征直接进行统计和使用,传统颜色直方图并没有包含空间位置信息,一定程度上降低了其特征描述的能力;类似的,统计形体信息时,离重心位置越远的像素点,包含了目标更多的形体信息,该情况也没有被给予足够的关注。第二类方法通过训练,找出有最大区分度的特征分量,建立相似度度量模型进而实现目标的再识别,该类方法中,样本的采集和参数调整需要花费较长的时间,并且目标种类更换时需要重新进行训练,通用性较低。此外,为了使得提取的特征更具鲁棒性,应当对特征稳定、信息丰富的关键区域加以关注,该方面的研究仍比较匮乏。\n[0004] 发明人在研究中发现当一个已经被识别的目标,在光照条件、目标位姿、场景等发生变化以及被遮挡后重新出现时,现有技术不能对其进行识别。\n[0005] 有鉴于此,特提出本发明。\n发明内容\n[0006] 本发明实施例的主要目的是提供一种基于局部特征融合的目标再识别方法,以至少解决如何使得一个已经被识别的目标,在光照条件、目标位姿、场景等发生变化以及被遮挡后重新出现时,仍能对其进行识别的技术问题。\n[0007] 为了实现上述目的,本发明提供了一种基于局部特征融合的目标再识别方法。该方法包括:\n[0008] 步骤S1、获取待处理图像的前景图像;\n[0009] 步骤S2、利用颜色分割算子和形体分割算子对所述前景图像中的目标进行区域分割;\n[0010] 步骤S3、根据加权的HSV颜色直方图提取关键区域的颜色特征,根据形体信息描述子提取所述关键区域的形体特征,其中,所述关键区域属于所述利用颜色分割算子和形体分割算子对目标进行区域分割后得到的NT个区域,所述NT取整数,所述关键区域数目小于等于NT;\n[0011] 步骤S4、根据所述颜色特征和所述形体特征的相似性度量,对所述目标进行再识别。\n[0012] 优选地,所述步骤S1具体包括:\n[0013] 获取所述待处理图像的背景图像;\n[0014] 将所述待处理图像与所述背景图像进行差分,再通过OTSU算法进行二值化,从而获得所述待处理图像的前景图像。\n[0015] 优选地,所述步骤S2具体包括:\n[0016] 步骤S21、通过所述颜色分割算子,求取所述各个相邻区域间的颜色分割线集合c,[0017] 其中,所述颜色分割算子计算如下:\n[0018]\n[0019] 其中,\n[0020] 所述I是前景图像;所述pi,j-v和所述pi,j+v分别代表全局坐标为(i,j-v)和(i,j+v)的所述前景图像中的像素点;所述d(pi,j-v,pi,j+v)表示所述像素点pi,j-v和所述像素点pi,j+v在RGB空间中的欧氏距离;所述χ代表累加的总次数,所述τ为固定值,其决定了计算颜色分割算子所用到的图像范围;所述C(j,τ)表征以第j行为分界线、上下各τ行区域间颜色特征的差异情况;\n[0021] 所述集合c的第q个元素cq所对应的行数 计算如下:\n[0022]\n[0023] 步骤S22、通过所述形体分割算子,求取形体分割线集合b;\n[0024] 其中所述形体分割算子计算如下:\n[0025]\n[0026] 其中,\n[0027] 所述Lj-v和所述Lj+v分别表示前景图像中第(j-v)行和第(j+v)行的长度;所述ε为固定值,其决定了计算形体分割算子所用到的图像范围;所述B(j,ε)表征了以第j行为分界线,上下各ε行区域间形体特征的差异情况;\n[0028] 所述集合b的第q个元素bq所对应的行数 计算如下:\n[0029]\n[0030] 步骤S23、根据所述颜色分割线集合c和所述形体分割线集合b得到分割线集合f,其中所述集合f的第q个元素fq所对应的行数 计算如下:\n[0031]\n[0032] 优选地,所述根据加权的HSV颜色直方图提取关键区域的颜色特征具体包括:\n[0033] 步骤S31、根据所述集合f的第k和k+1个元素,获取第k个区域所对应的前景图像Ik,其中k=1,…,NT;\n[0034] 步骤S32、记 表示所述第k个区域所对应的前景图像Ik的加权的HSV颜色直方图,第8(h-1)+s个元素用 (h=1,2,… ,12;s=1,2,…,8)表示为:\n其中,所述Qi,j代表像素pi,j的权重,服从以所述第k个区域\n的重心Gk的像素坐标为期望值的二维正态分布,所述η1为所述Qi,j的归一化常数;将色调在[0,360)内均匀量化12级,形成12个区间;将饱和度按照[0,0.075),[0.075,0.15),[0.15,\n0.275),[0.275,0.4),[0.4,0.575),[0.575,0.75),[0.75,0.875),[0.875,1.0]非均匀量化为8个区间,并分别与s=1,s=2,…,s=8相对应;如果所述像素pi,j的色调在第h个区间内,且饱和度在第s个区间内,则所述 取值1,否则所述 取值0;\n[0035] 所述根据形体信息描述子提取关键区域的形体特征具体包括:\n[0036] 步骤S33、计算所述Ik左右边界的切线Lk、Rk;\n[0037] 步骤S34、依据所述第k个区域的重心Gk的像素坐标,将所述Ik划分为四个子区域Mm(m=1,2,3,4);\n[0038] 步骤S35、对所述四个子区域分别以Lk、Rk和fk、fk+1的交点为基准点,来统计各子区域的形体信息,记Vk表示第k个区域的形体信息描述子,其中各元素 (m=1,2,3,4;a=\n1,2,…,A)表示如下:\n[0039]\n[0040] 其中,所述A是各子区域形体信息的向量维数,所述pξ,ζ是子区域Mm内的像素点,所述(ξ,ξ)是该像素点相对于其所在的子区域的基准点的坐标;所述 所述\nTξ,ζ代表所述像素点pξ,ζ的权重,服从以所述子区域Mm的重心GMm的像素坐标为期望值的二维正态分布;所述η2为所述Tξ,ζ的归一化常数。\n[0041] 优选地,所述步骤S4具体包括:\n[0042] 步骤S41、使用直方图的相交法,对待处理的前景图像I和 的颜色特征进行相似性度量,其中所述前景图像I和 的颜色特征的相似度 计算如下:\n[0043]\n[0044] 其中,所述ωk代表所述第k个区域在颜色直方图测度中的权重;所述 和所述分别是前景图像I和 的第k个区域的加权的HSV颜色直方图 和 的第8(h-1)+s\n个元素;\n[0045] 步骤S42、使用皮尔逊相关系数,对所述前景图像I和 的形体特征进行相似性度量,其中所述前景图像I和 的形体特征的相似度 计算如下:\n[0046]\n[0047] 其中,所述 代表所述第k个区域在形体信息测度中的权重,所述 代表\nVk和 的皮尔逊相关系数,所述Vk和所述 分别是所述前景图像I和 的第k个区域的形体信息描述子;\n[0048] 步骤S43、采用加权组合的方式对所述相似性度量结果 和 进\n行融合,得到所述前景图像I和 中的目标之间的相似度结果\n[0049]\n[0050] 其中,所述λ为权值;如果 其中所述α为给定阈值,则所述前景图像I和 中的目标为同一目标,否则,不是同一目标。\n[0051] 本发明实施例提供了一种基于局部特征融合的目标再识别方法,通过获取待处理图像的前景图像;利用颜色分割算子和形体分割算子对前景图像中的目标进行区域分割;\n根据加权的HSV颜色直方图提取关键区域的颜色特征,根据形体信息描述子提取所述关键区域的形体特征;根据颜色特征和形体特征的相似性度量,对目标进行再识别,本发明通过融合局部特征即颜色特征和形体特征,来对目标进行再识别,具有识别的实时性好,为多目标跟踪、视频监控等领域的应用提供了技术保障的优点。\n附图说明\n[0052] 图1为根据一示例性实施例示出的基于局部特征融合的目标再识别方法的示意性流程图。\n具体实施方式\n[0053] 为使本发明的目的、技术方案更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。虽然本文可提供包含特定值的参数的示范,但应了解,参数无需确切等于相应的值,而是可在可接受的误差容限或设计约束内近似于所述值。\n[0054] 需要说明的是,在没有明确限定或不冲突的情况下,本发明的实施例及实施例中的技术特征可以相互组合。下面将参考附图并结合实施例对本发明进行进一步详细地说明。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都应当属于本发明的保护范围。\n[0055] 当一个已经被识别的目标,在光照条件、目标位姿、场景等发生变化以及被遮挡后重新出现时,现有技术不能对其进行识别。\n[0056] 为此,本发明实施例提出了一种基于局部特征融合的目标再识别方法,该方法能够实现对一个已经被识别的目标的再识别。\n[0057] 图1为根据一示例性实施例示出的基于局部特征融合的目标再识别方法的示意性流程图,如图1所示,该方法包括步骤S1至步骤S4。\n[0058] 步骤S1、获取待处理图像的前景图像。\n[0059] 在一个可选的实施例中,步骤S1具体可以包括:\n[0060] 获取待处理图像的背景图像;\n[0061] 将待处理图像与背景图像进行差分,再通过OTSU算法进行二值化,从而获得待处理图像的前景图像。\n[0062] 其中,一个场景中的一幅图像可以分为前景图像和背景图像。首先存储背景图像,在获取待处理图像后,与背景图像进行差分,差分就是对两幅图像进行对应位置的像素值相减操作。然后,再通过OTSU算法(最大类间方差法)对差分图像进行二值化处理,从而确定出前景图像。其中,OTSU算法通过对灰度图的处理而得到一个最佳的阈值,并用这个阈值来二值化灰度图。具体地,在OTSU算法中,先对灰度图进行直方图计算并归一化处理,得到每个像素在灰度图中出现的概率;利用阈值将灰度图分为A、B两大类,进而得到A、B类在灰度图中的出现概率以及灰度均值;计算灰度图A、B类的类间方差,在最佳阈值处,求得的类间方差最大,也就是类间方差最大的那个阈值就为灰度图的最佳阈值。\n[0063] 步骤S2、利用颜色分割算子和形体分割算子对前景图像中的目标进行区域分割。\n[0064] 在一个可选的实施例中,该步骤S2具体可以包括:\n[0065] 步骤S21、通过颜色分割算子,求取各个相邻区域间的颜色分割线集合c;\n[0066] 其中,颜色分割算子计算如下:\n[0067]\n[0068] 其中,I是前景图像,pi,j-v和pi,j+v分别代表全局坐标为(i,j-v)和(i,j+v)的像素点,d(pi,j-v,pi,j+v)表示像素点pi,j-v和像素点pi,j+v在RGB空间的欧氏距离;χ代表累加的总次数;τ为固定值,决定了计算颜色分割算子所用到的图像范围,优选地,τ取20;C(j,τ)表征了以第j行为分界线,上下各τ行区域间颜色特征的差异情况;计算出各个相邻区域间的颜色分割线,构成颜色分割线集合c,其中集合c的第q个元素cq所对应的行数 计算如下:\n[0069]\n[0070] 步骤S22、通过形体分割算子求取形体分割线集合b:\n[0071] 形体分割算子计算如下:\n[0072]\n[0073] 其中,Lj-v和Lj+v分别表示前景图像第(j-v)行和第(j+v)行的长度;ε为固定值,决定了计算形体分割算子所用到的图像范围,优选地,ε取15;B(j,ε)表征了以第j行为分界线,上下各ε行区域间形体特征的差异情况;计算出各个相邻区域间的形体分割线,构成形体分割线集合b,其中集合b的第q个元素bq所对应的行数 计算如下:\n[0074]\n[0075] 步骤S23、根据颜色分割线集合c和形体分割线集合b得到分割线集合f,其中集合f的第q个元素fq所对应的行数 计算如下:\n[0076] 其中,γ优选取值为0.6。\n[0077] 在该实施例中,颜色分割线集合c、形体分割线集合b及分割线集合f表示具体的分割线,分割线是水平线,确定出分割线集合中元素所对应的行数即可确定出对应的分割线。\n[0078] 步骤S3、根据加权的HSV颜色直方图提取关键区域的颜色特征,根据形体信息描述子提取关键区域的形体特征,其中,关键区域属于利用颜色分割算子和形体分割算子对目标进行区域分割后得到的NT个区域,NT取整数,关键区域数目小于等于NT。\n[0079] 在该步骤中,HSV(Hue,Saturation,Value)是根据颜色的直观特性来创建的一种颜色空间。HSV中颜色的参数分别是:色调(H)、饱和度(S)和亮度(V)。色调(H)用角度度量,取值范围为0°~360°。饱和度(S)取值范围为0.0~1.0。亮度(V)通常用百分比度量,从0%(黑)到100%(白)。颜色直方图描述的是不同色彩在整幅图像中所占的比例。\n[0080] 优选地,NT取3。关键区域可以这样划分:当目标为人时,依次划分为头、躯干、下肢\n3个区域,其中躯干和下肢区域选为关键区域;当目标为机器人,自下向上依次划分为3个区域,选取中间和上面区域为关键区域。\n[0081] 在一个可选的实施例中,根据加权的HSV颜色直方图提取关键区域的颜色特征具体可以包括:\n[0082] 步骤S31、根据集合f的第k和k+1个元素,获取第k个区域所对应的前景图像Ik,其中k=1,…,NT。\n[0083] 在该步骤中,第k个区域为选取的关键区域。\n[0084] 步骤S32、记 表示第k个区域所对应的前景图像Ik的加权的HSV颜色直方图,第\n8(h-1)+s个元素用 (h=1,2,…,12;s=1,2,…,8)表示为: 其\n中,Qi,j代表像素pi,j的权重,服从以第k个区域的重心Gk的像素坐标为期望值的二维正态分布,η1为Qi,j的归一化常数;将色调在[0,360)均匀量化12级,形成12个区间;将饱和度按照[0,0.075),[0.075,0.15),[0.15,0.275),[0.275,0.4),[0.4,0.575),[0.575,0.75),[0.75,0.875),[0.875,1.0]非均匀量化为8个区间,分别与s=1,s=2,…,s=8相对应;如果像素pi,j的色调在第h个区间内,且饱和度在第s个区间内,则 取值1,否则 取值0;\n其中 是一个布尔型变量。\n[0085] 在上述步骤中,将色调在[0,360)均匀量化12级,形成12个区间,即[30(h-1),30h)(h=1,2,…,12)。像素pi,j的色调在第h个区间即在[30(h-1),30h)内。\n[0086] 根据形体信息描述子提取关键区域的形体特征具体可以包括:\n[0087] 步骤S33、计算第k个区域所对应的前景图像Ik左右边界的切线Lk、Rk;\n[0088] 步骤S34、依据第k个区域的重心Gk的像素坐标,将Ik划分为四个子区域Mm(m=1,2,\n3,4);\n[0089] 步骤S35、对四个子区域分别以Lk、Rk和fk、fk+1的交点为基准点,来统计各子区域的形体信息,记Vk表示第k个区域的形体信息描述子,其各元素 (m=1,2,3,4;a=1,2,…,A)可以表示如下:\n[0090]\n[0091] 其中,A是各子区域形体信息的向量维数,优选地,A取30;pξ,ζ是子区域Mm内的像素点,(ξ,ξ)是该像素点相对于其所在的子区域的基准点的坐标;\nTξ,ζ代表像素pξ,ζ的权重,服从以子区域Mm的重心GMm的像素坐标为期望值的二维正态分布;\nη2为Tξ,ζ的归一化常数。\n[0092] 步骤S4、根据颜色特征和形体特征的相似性度量,对目标进行再识别。\n[0093] 在一个可选的实施例中,该步骤S4具体可以包括:\n[0094] 步骤S41、使用直方图的相交法,对待处理的前景图像I和 的颜色特征进行相似性度量,其中前景图像I和 的颜色特征的相似度 计算如下:\n[0095]\n[0096] 其中,ωk代表第k个区域在颜色直方图测度中的权重,优选地,ω1=0,ω2=0.5,ω3=0.5; 和 分别是前景图像I和 的第k个区域的加权的HSV颜色直方图 和\n的第8(h-1)+s个元素。\n[0097] 步骤S42、使用皮尔逊相关系数,对前景图像I和 的形体特征进行相似性度量,其中前景图像I和 的形体特征的相似度 计算如下:\n[0098]\n[0099] 在上述公式中, 代表第k个区域在形体信息测度中的权重,优选地,\n代表Vk和 的皮尔逊相关系数,Vk和 分别是前景图\n像I和 第k个区域的形体信息描述子。\n[0100] 其中,皮尔逊相关系数是一种度量两个变量间相关程度的方法。它是一个介于1和-1之间的值,其中,1表示变量完全正相关,0表示无关,-1表示完全负相关。\n[0101] 步骤S43、采用加权组合的方式对相似性度量结果 和 进行融\n合,得到前景图像I和 中的目标之间的相似度结果\n[0102]\n[0103] 在上述公式中,λ为权值,优选地,λ=0.6。如果 其中α为给定阈值,优选地,λ=0.6,则I和 中的目标为同一目标,否则,不是同一目标,从而完成目标再识别。\n[0104] 本发明实施例的实时性好,对一个已经被识别的目标,在光照条件、目标位姿、场景等发生变化以及被遮挡后重新出现时,仍能将其识别,为多目标跟踪、视频监控等领域的应用提供了技术保障。\n[0105] 需要说明的是,在本发明实施例中,将各个步骤按照上述先后次序的方式进行了描述,但本领域技术人员可以理解,为了实现本实施例的效果,不同的步骤之间不必按照这样的次序执行,其可以同时执行或执行次序颠倒,这些简单的变化都在本发明的保护范围之内。\n[0106] 专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。\n这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。\n专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。\n[0107] 结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。\n[0108] 以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。