著录项信息
专利名称 | 一种基于视频流的人脸识别方法及系统 |
申请号 | CN201110316170.7 | 申请日期 | 2011-10-19 |
法律状态 | 权利终止 | 申报国家 | 中国 |
公开/公告日 | 2012-02-22 | 公开/公告号 | CN102360421A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G06K9/00 | IPC分类号 | G;0;6;K;9;/;0;0;;;G;0;6;K;9;/;2;0查看分类表>
|
申请人 | 苏州大学 | 申请人地址 | 江苏省苏州市工业园区仁爱路199号
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 苏州大学 | 当前权利人 | 苏州大学 |
发明人 | 徐汀荣 |
代理机构 | 北京集佳知识产权代理有限公司 | 代理人 | 常亮;李辰 |
摘要
本发明公开了一种基于视频流的人脸识别方法及系统。该方法包括:接收视频采集设备采集的待识别视频流;对待识别视频流中每帧图像进行人脸检测,以确定待识别人脸图像;定位每帧待识别人脸图像对应的特征点;确定待识别人脸图像中的关键人脸图像;确定每帧关键人脸图像对应特征点中的关键特征点;对所确定的关键人脸图像进行图像预处理;根据每帧关键人脸图像中关键特征点与人脸图像数据库中各人脸模型对应特征点的相似度的加权处理结果,确定所述待识别视频流对应的人脸识别结果。本方案中,通过基于颜色直方图的关键帧检测以及关键特征点确定、相似度加权的方式,消除由于视频采集环境影响带来的识别偏差,快速有效地进行人脸识别。
一种基于视频流的人脸识别方法及系统\n技术领域\n[0001] 本发明涉及仿真技术领域,特别是涉及一种基于视频流的人脸识别方法及系统。\n背景技术\n[0002] 人脸识别是一种基于人的脸部特征信息进行身份识别的生物识别技术,其相对于如指纹、DNA检测等其他较成熟的人体生物特征识别方法具有非直接侵犯性、低沉本、可交互性强、便于事后跟踪等优点,因此,多年来一直是一个研究热点。人脸识别是用照相机或摄像机等设备采集含有人脸的图像或视频流,自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部的一系列相关技术,包括人脸图像采集、人脸定位、人脸识别预处理、记忆存储和对比辨识,达到识别不同人身份的目的。\n[0003] 其中,基于视频流的人脸识别是指输入为人脸视频,而利用静止图像人脸数据库进行识别或验证。由于视频流中通常包含较多的信息,例如:同一个人的多帧图像、视频中的人脸图像具有时间和空间上的连续性、通过运动变化估计三维人脸结构、从低分辨率图像恢复出高分辨率图像等,可以防止基于静态图像的识别欺骗等。\n[0004] 因此,基于视频流的人脸识别可以利用视频中较多信息,比传统的基于静止图像的人脸识别更有优势,成为罪犯识别、入境管理、家政机器人等领域研究人员的关注。\n发明内容\n[0005] 为解决上述技术问题,本发明实施例提供了一种基于视频流的人脸识别方法及系统,技术方案如下:\n[0006] 一种基于视频流的人脸识别方法,包括:\n[0007] 接收视频采集设备所采集的待识别视频流;\n[0008] 对所述待识别视频流中每帧图像进行人脸检测,以确定待识别人脸图像;\n[0009] 定位每帧待识别人脸图像对应的特征点;\n[0010] 根据待识别人脸图像所对应的颜色直方图,确定待识别人脸图像中的关键人脸图像;\n[0011] 确定每帧关键人脸图像对应特征点中的关键特征点;\n[0012] 对所确定的关键人脸图像进行图像预处理,以降低图像几何特征和光照对关键人脸图像的影响;\n[0013] 根据每帧关键人脸图像中关键特征点与人脸图像数据库中各人脸模型对应特征点的相似度的加权处理结果,确定所述待识别视频流对应的人脸识别结果。\n[0014] 相应的,本发明还提供一种基于视频流的人脸识别系统,包括:\n[0015] 视频接收模块,用于接收视频采集设备所采集的待识别视频流;\n[0016] 人脸检测模块,用于对所述待识别视频流中每帧图像进行人脸检测,以确定待识别人脸图像;\n[0017] 特征点定位模块,用于定位每帧待识别人脸图像对应的特征点;\n[0018] 关键帧确定模块,用于根据待识别人脸图像所对应的颜色直方图,确定待识别人脸图像中的关键人脸图像;\n[0019] 关键点确定模块,用于确定每帧关键人脸图像对应特征点中的关键特征点;\n[0020] 预处理模块,用于对所确定的关键人脸图像进行图像预处理,以降低图像几何特征和光照对关键人脸图像的影响;\n[0021] 结果确定模块,根据每帧关键人脸图像中关键特征点与人脸图像数据库中各人脸模型对应特征点的相似度的加权处理结果,确定所述待识别视频流对应的人脸识别结果。\n[0022] 本发明实施例所提供的技术方案中,对视频采集设备所采集的视频流进行人脸检测和特征点定位后,利用人脸图像的颜色直方图,确定出人脸图像中的关键人脸图像,进而对关键人脸图像进行降低几何特征和光照影响的图像预处理以及关键特征点的确定,最后根据关键特征点与人脸图像数据库中各人脸模型对应的相似度的加权值,确定最终的人脸识别结果。本方案中,通过基于颜色直方图的关键帧检测以及关键特征点确定、相似度加权的方式,消除由于视频采集环境影响带来的识别偏差,快速有效地进行人脸识别。\n附图说明\n[0023] 为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。\n[0024] 图1为本发明实施例所提供的一种基于视频流的人脸识别方法的第一种流程图;\n[0025] 图2为本发明实施例所提供的一种基于视频流的人脸识别方法的第二种流程图;\n[0026] 图3为本发明实施例中对人脸垂直积分投影的示意图;\n[0027] 图4为本发明实施例中对人脸水平积分投影的示意图;\n[0028] 图5为本发明实施例中对人脸垂直积分投影的第二种示意图;\n[0029] 图6为本发明实施例中图像旋转示意图;\n[0030] 图7为本发明实施例中关键人脸图像均衡化前的直方图示意图;\n[0031] 图8为本发明实施例中对关键人脸图像均衡化后的直方图示意图;\n[0032] 图9为本发明实施例所提供的一种基于视频流的人脸识别方法第三种流程图;\n[0033] 图10为本发明实施例所提供的一种基于视频流的人脸识别系统的结构示意图。\n具体实施方式\n[0034] 本发明实施例提供了一种基于视频流的人脸识别方法及系统,以实现利用所采集的一般应用场景下的视频流进行快速有效的人脸识别。下面首先对本发明实施例所提供的一种基于视频流的人脸识别方法进行介绍。\n[0035] 一种基于视频流的人脸识别方法,包括:\n[0036] 接收视频采集设备所采集的待识别视频流;\n[0037] 对所述待识别视频流中每帧图像进行人脸检测,以确定待识别人脸图像;\n[0038] 定位每帧待识别人脸图像对应的特征点;\n[0039] 根据待识别人脸图像所对应的颜色直方图,确定待识别人脸图像中的关键人脸图像;\n[0040] 确定每帧关键人脸图像对应特征点中的关键特征点;\n[0041] 对所确定的关键人脸图像进行图像预处理,以降低图像几何特征和光照对关键人脸图像的影响;\n[0042] 根据每帧关键人脸图像中关键特征点与人脸图像数据库中各人脸模型对应特征点的相似度的加权处理结果,确定所述待识别视频流对应的人脸识别结果。\n[0043] 本发明实施例所提供的技术方案中,对视频采集设备所采集的视频流进行人脸检测和特征点定位后,利用人脸图像的颜色直方图,确定出人脸图像中的关键人脸图像,进而对关键人脸图像进行降低几何特征和光照影响的图像预处理以及关键特征点的确定,最后根据关键特征点与人脸图像数据库中各人脸模型对应的相似度的加权值,确定最终的人脸识别结果。本方案中,通过基于颜色直方图的关键帧检测以及关键特征点确定、相似度加权的方式,消除由于视频采集环境影响带来的识别偏差,快速有效地进行人脸识别。\n[0044] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。\n[0045] 如图1所示,一种基于视频流的人脸识别方法,可以包括:\n[0046] S101,接收视频采集设备所采集的待识别视频流;\n[0047] 通常视频采集设备一般可以包括:摄像机、录像机、LD视频机等。这些视频采集设备安装在需要视频采集的区域特定位置。当需要对视频采集设备所采集的视频流进行分析处理时,则将其与相应的分析处理设备相连即可。\n[0048] S102,对所述待识别视频流中每帧图像进行人脸检测,以确定待识别人脸图像;\n[0049] 所接收到的待识别视频流的各帧图像区域中可能不存在人脸、人脸比例较小,或者存在多个非相关的人脸、完整的人脸等。也就是说,待识别视频流中的各帧图像所包含的信息并不是全部可用的,所以需要对待识别视频流中的每帧图像进行人脸检测,将包含完整人脸且满足一定人脸比例的图像帧提取,进行后续的人脸识别处理。\n[0050] 其中,如图2所示,对所述待识别视频流中每帧图像进行人脸检测,具体可以为:\n[0051] S201,对所述待识别视频流中每帧图像进行灰度化和直方图均衡化处理;\n[0052] S202,对处理后的每帧图像进行多尺度多特征的人脸检测;\n[0053] S203,将每帧图像的每一尺度所对应的检测结果进行多特征合并处理;\n[0054] S204,将每帧图像对应的多特征合并处理结果进行多尺度合并处理;\n[0055] S205,将满足预设人脸尺度阈值的多尺度合并处理结果确定为待识别人脸图像。\n[0056] 在上述的处理过程中,当对待识别视频流中各帧图像进行灰度化和直方图均衡化处理后,则对每帧图像分别进行多尺度多特征的人脸检测,以确定出对于不同尺度不同特征的检测结果。所谓多尺度多特征为:对每帧图像进行各个尺度的检测,并在对每个尺度进行检测时,根据不同的特征进行检测。在进行多尺度多特征检测后,则将检测结果进行多特征多尺度合并处理,以消除不同检测结果的偏差,最终每帧图像对应一个合并结果。可以理解的是,如果合并结果中所含的人脸信息较少,则该帧图像并不适用于人脸识别。所以,需要将满足预设人脸尺度阈值的多尺度合并处理结果确定为待识别人脸图像。可以理解的是,人脸尺度阈值可以根据实际情况进行设定,在此不进行限定。\n[0057] S103,定位每帧待识别人脸图像对应的特征点;\n[0058] 可以理解的是,人脸由眼睛、鼻子、嘴巴、下巴等部分构成,而这些部分的形状、大小和结构上的各种差异才使得每个人脸千差万别,因此,对于这些器官的准确定位,对整个人脸识别过程而言是至关重要的一步。其中,由于眼睛是人脸当中比较突出的人脸特征,所以只要眼睛被精确定位,则脸部其他器官,如:眼眉、嘴巴、鼻子等,可以由潜在的分布关系比较准确的定位。\n[0059] 本实施例中,待识别人脸图像特征点的定位可以通过对应于不同积分投影方式下产生的波峰或波谷进行。其中,积分投影分为垂直投影和水平投影,设f(x,y)表示图像(x,y)处的灰度值,在图像[y1,y2]和[x1,x2]区域的水平积分投影Mh(y)和垂直积分投影Mv(x)分别表示为:\n[0060] \n[0061] \n[0062] 其中,水平积分投影就是将一行所有像素点的灰度值进行累加后再显示;而垂直积分投影就是将一列所有像素点的灰度值进行累加后再显示。\n[0063] 可以理解的是,在进行特征点定位之前,为了得到灰度变化明显的投影曲线,可以增加图像的对比度,例如采用自适应阈值法进行二值化处理后,再进行积分投影。\n[0064] 例如:如图3(a)、图3(b)以及图3(c)所示,为对人脸图像垂直积分结果,从各投影曲线中可以看出,在人脸左右边界处,图像的灰度发生较大的变化,左右边界对应着曲线中两边的两个较大波谷。因此,只需定位这两个波谷点x1、x2从该待识别人脸图像中把横轴[x1,x2]区域的图像截取出来,即可实现待识别人脸图像左右边界的定位。对左右边界定位后二值化待识别人脸图像,分别进行水平积分投影和垂直积分投影,其投影结果分别如图\n4、图5所示。进一步的,利用对人脸图像的先验知识可知,眉毛和眼睛是人脸图像中较近的黑色区域,其对应着水平积分投影曲线上的前两个极小值点。如图4所示,第一个极小值点对应的是眉毛在纵轴上的位置,记做ybrow,第二个极小值点对应的是眼睛在纵轴上的位置,记做yeye,第三个极小值点对应的是鼻子在纵轴上的位置,记做ynose,第四个极小值点对应的是嘴巴在纵轴上的位置,记做ymonth。同样,如图5所示,人脸图像中心对称轴两侧出现两个极小值点,分别对应左右眼在横轴上的位置,记做xleft-eye、xright-eye;眉毛在横轴上的位置和眼睛相同;嘴巴和鼻子在横轴上的位置为(xleft-eye+xright-eye)/2。\n[0065] 可以理解的是,待识别人脸图像的特征点的定位方式并不局限于本实施例所述的方式。\n[0066] S104,根据待识别人脸图像所对应的颜色直方图,确定待识别人脸图像中的关键人脸图像;\n[0067] 由于在待识别视频中,同一个人会在很多帧中出现,在一帧中也会有很多人出现,由于受姿态、光照变化、正面、侧面、尺度变化、表情变化等影响,其图像质量是各不相同的,为了提高识别的准确率和效率,需要筛选出一些质量比较好的图像,进行后续的人脸识别,将所筛选出的质量较好的各帧图像定义为关键人脸图像。也就是,通常情况下,用于人脸识别的视频中图像帧比较多,如果对每一人脸图像都进行处理,必然影响系统运行效率,降低系统实时性。同时,人脸视频中包含有大量冗余帧,包括旋转过大和光照不均匀的人脸图像帧,对这些帧进行特征定位会非常困难,甚至定位失败,直接影响系统整体的识别率。\n[0068] 本实例中根据待识别人脸图像所对应的颜色直方图,确定待识别人脸图像中的关键帧图像。\n[0069] 其中,颜色直方图反映了一幅图像中像素颜色出现的概率,是像素出现概率的估计。给定一幅数字图像I,其颜色直方图向量H可表示为:\n[0070] \n[0071] 其中h[ck]是第k种颜色在此数字图像中出现的概率数:\n[0072] \n[0073] N1、N2分别表示图像有N1行N2列,I(i,j)表示图像中点(i,j)处的像素值。\n[0074] 颜色直方图反映了图像在颜色上的全局信息,每幅图像都有与之相对应的颜色直方图。设G和H为要进行比较的两幅图像的颜色直方图矢量,N表示图像中出现的颜色级数,gk、hk分别表示图像G和H的颜色直方图中k级色出现的频数,则两幅图像的相似度可用其颜色直方图之间的欧式距离来表示:\n[0075] \n[0076] 颜色直方图作为一种重要视觉特征,可有效区分不同结构、大小、形状的物体,同时颜色识别是一种既简单又快速的方法,这对有实时性要求的系统尤为重要。基于此,本发明提出一种基于颜色直方图的人脸视频关键帧提取算法,在特征提取和识别之前,先进行人脸关键帧检测,避免对冗余帧进行处理,从而大大提高系统性能。具体过程如下:\n[0077] 在人脸视频序列中选择质量较好的一帧图像作为标准人脸图像,计算其颜色直方图H,作为标准人脸颜色直方图;\n[0078] 逐帧获取人脸视频序列中的待识别人脸图像,计算其颜色直方图Gi,并和标准颜色直方图比较,通过式(5)计算其欧式距离;\n[0079] 设定距离阈值T(0≤T≤1),将欧式距离小于T的所有待识别人脸图像作为关键人脸图像,而将欧式距离大于距离阈值的待识别人脸图像确定为非关键人脸图像。其中,T可以控制选取关键人脸图像的数量和质量。\n[0080] 可以理解的是,通过在待识别人脸图像中筛选出关键人脸图像进行后续的人脸识别,可有效提高系统处理效率,同时更加具有实用性。\n[0081] S105,确定每帧关键人脸图像对应特征点中的关键特征点;\n[0082] 可以理解的是,人脸不同部位特征点对人脸识别来说,是有差别的,也就是,并不是所有特征点都具有较高的识别价值,,例如,根据实验结果发现,眉毛、嘴巴等部位特征点的识别能力高于眼睛、鼻子、轮廓等部位。因此,需要确定每帧关键人脸图像对应特征点中的关键特征点,以进行有效的人脸识别。\n[0083] S106,对所确定的关键人脸图像进行图像预处理,以降低图像几何特征和光照对关键人脸图像的影响;\n[0084] 其中,对所确定的关键帧进行几何归一化预处理,也就是对人脸图像经过平移、旋转以及滤波处理,以降低图像几何特征所带来的识别偏差,便于特征提取和识别。对所确定的关键人脸图像几何归一化的处理过程可以为:\n[0085] 假设关键人脸图像中两只眼睛的位置坐标分别为E1(x1,y1)和Er(xr,yr),眼睛中心的距离为d,两眼轴线与x轴的夹角为θ,θ即为要旋转的角度值。\n[0086] \n[0087] \n[0088] 根据人脸图像比例的先验知识,人脸的中心位置C(xc,yc)为:\n[0089] (8)\n[0090] \n[0091] 则以C为中心,以θ为旋转角度对人脸进行旋转,旋转后的人脸坐标(x’,y’)的计算公式为:\n[0092] x′=xc+cosθ(x-xc)+sinθ(y-yc)\n[0093] (9)\n[0094] y′=yc+cosθ(y-yc)+sinθ(x-xc)\n[0095] 关键帧图像旋转示意图如图6所示。\n[0096] 可以理解的是,经过旋转变化的图像可能尺寸大小不一,所以还需要将人脸图像规整到统一的尺寸。其中图像的尺寸归一化通常采用缩放的方法实现,具体处理过程可以为:\n[0097] 像素坐标的变换,将输入图像的像素映射到输出图像。设图像x轴方向的缩放比例为Rx,y轴方向的缩放比例为Ry,图像缩放的变换矩阵如下:\n[0098] \n[0099] 其中,当对图像进行放大时,输出图像中的像素可能在源图像中找不到相应的像素点,因此,必须对其进行插值运算。常用的插值运算方法包括:最近邻插值、双线性插值和双三次插值。最近邻插值是用其邻域中的几个点的像素插值得到的,算法简单,运算量非常小,但变换后灰度有明显的不连续性;双三次插值计算精度高,但计算量较大。因此,常用双线性插值进行补偿。假设点(x1,y1)、(x1,y2)、(x2,y1)、(x2,x2)为图像中矩形区域的四个顶点,点(x,y)包含在该矩形中,则(x,y)的灰度值的计算方法如下:\n[0100] f(x,y0)=f(x0,y0)+(x-x0)/(x1-x0)[f(x1,y0)-f(x0,y0)]\n[0101] f(x,y1)=f(x0,y1)+(x-x0)/(x1-x0)[f(x1,y1)-f(x0,y1)] (11)[0102] f(x,y)=f(x,y0)+(y-y0)/(y1-y0)[f(x,y1)-f(x,y0)]\n[0103] 更进一步的,由于光照是影响人脸识别结果的主要因素之一,因此需要消除光照对人脸图像的影响。本实施例中,可以采用直方图均衡化技术进行图像光照预处理,原理是通过改变图像中每个像素的灰度级,以此来改变图像的直方图,从而使偏亮的图像变暗或使偏暗的图像变亮。灰度直方图是一幅图像中各像素灰度值出现次数或频率的统计结果,是灰度值的函数,在数字图像处理中是一个最简单、有用的工具。它不仅描述了一幅图像的灰度等级内容,而且描述了图像中具有该灰度值的像素的个数。任何一幅图像的直方图都包含了可观的信息,某些类型的图像还可以由其直方图完全描述。\n[0104] 其中,具体的处理方法可以包括:\n[0105] 假设灰度图像中总的像素数目为n,某一灰度级为rk的像素数目为nk,则nk/n就是灰度级为rk的像素出现的概率,统计该灰度图像中所有灰度级出现的概率,即可得到该图像的灰度直方图。若以变量r代表图像中像素灰度级,并对r做归一化处理:0≤r≤1,其中,r=0代表黑,r=1代表白。对于一幅给定的图像而言,每个像素取得[0,1]区间内的灰度级是随机的。R是一个随机变量,可以用概率密度函数Pr(r)来表示原始图像的灰度分布,从图像灰度级的分布可以看出一幅图像的灰度分布特征。若图像中大多数像素的灰度值取在接近于0的区域,则整幅图像较暗,反之,则整幅图像较量。许多图像的灰度值是非均匀分布的,灰度值集中在一个小区间内的图像是很常见的。\n[0106] 直方图均衡处理的目的是使处理后的图像的直方图是平直的,即各灰度级具有相同的出现频率,由此各灰度级具有均匀的概率分布,从而提高图像的主观质量。因此,需要找到一种变换关系S=T(r),使变换后新的灰度直方图较变换前直方图平直。可以采用r的累积概率分布函数作为转换函数,即:\n[0107] \n[0108] 其中,w是积分变量, 是r的累积概率分布函数。用rk表示离散灰度值,用Pr(rk)代表Pr(r),则有:\n[0109] 0≤rk≤1,k=0,1,2…,L-1 (13)\n[0110] 其中,nk为图像中出现这种灰度的象素数,n为图像中象素总数,L表示图像灰度值共分为L级。\n[0111] 转换函数的离散形式为:\n[0112] 0≤rk≤1,k=0,1,2…,L-1 (14)\n[0113] 以任意一幅人脸图像为例,图7为直方图均衡化前的示意图,图8为直方图均衡化后的示意图。可见,直方图均衡化后的图像的光照强度得到了补偿,灰度值动态范围增加,灰度分布更加均匀,图像整体对比度增强。\n[0114] S107,根据每帧关键人脸图像中关键特征点与人脸图像数据库中各人脸模型对应特征点的相似度的加权处理结果,确定所述待识别视频流对应的人脸识别结果。\n[0115] 可以理解的是,在进行人脸识别时,首先应该通过特征训练方式构成相应的人脸图像数据库,以为人脸识别提供判别标准。在进行特征训练的过程中以可变形的二位网格作为模板来表示人脸。在脸部区域抽取一个二位网格,这些网格可以被视为一个二维拓扑图,对于拓扑图中各个节点,计算其特征信息,并将所得到的值赋予该节点得到标号图,具体为首先选取人脸图像上位置特殊的点(比如眉毛、眼睛、鼻子、下巴等)作为特征点;然后通过Gabor滤波器对特征点进行滤波,提取Gabor系数组成特征矢量,用人脸图表示每个人脸的特征点及其对应的特征矢量并存储在数据库中。\n[0116] 例如:1000个人的训练库中的数据就是1000个人的人脸特征点的原始数据。人脸图像上位置特殊的点(比如眉毛、眼睛、鼻尖、下巴等)作为特征点;然后通过Gabor滤波器对特征点进行滤波,提取Gabor系数组成特征矢量而构成人脸图,用人脸图表示每个人脸的特征点及其对应的特征矢量并存储在训练库中。\n[0117] 其中,所述根据每帧关键人脸图像中关键特征点与人脸图像数据库中各人脸模型对应特征点的相似度的加权处理结果,确定所述待识别视频流对应的人脸识别结果,如图9所示,具体可以为:\n[0118] S901,利用小波变换确定各关键特征点的对应的关键特征值;\n[0119] 人脸信息的特征提取是人脸识别中至关重要的一步,提取的特征信息是否稳定、可靠、充分等都将影响到系统最终的识别率,特别是当人脸图像中存在光照、表情、姿态等变化以及其他干扰时。二位小波变换具有局部性、方向选择性和频率选择性,能够精确地提取人脸图像中不同方向、频率和尺度的局部特征,且具有一定的抗干扰能力,因此广泛应用于人脸的特征提取中。其中,二维小波的函数形式可以表示为:\n[0120] \n[0121] 其中波矢量 为\n[0122] \n[0123] 式中,为给定位置的图像坐标;也称滤波器的中心频率;反映了滤波器的方向选择性。在自然图像中, 用来补偿由频率决定的能量谱衰减; 是用来\n约束平面波的高斯包络函数; 为复数值平面波,其实部为余弦平面波 虚\n部为正弦平面波 称为直流成分补偿,用来消除图像的直流成分对二维\nGabor小波的影响,使得二维Gabor小波变换不受图像灰度绝对数值的影响,并且对图像的光照变化不敏感。二维Gabor滤波器的函数为一个复函数,其实部和虚部分别可以表示为:\n[0124] \n[0125] \n[0126] 二维Gabor小波变换描述了图像I上给定一点 附近区域的灰度特征,对图像I的滤波过程可以通过Gabor函数族与图像的卷积来实现:\n[0127] \n[0128] 二维Gabor滤波器是带通滤波器,在空间域和频率域均有较好的分辨能力,其参数体现了它在空间域和频率域的采样方式,决定了它对信号的表达能力。通常可采用具有多个中心频率和方向的Gabor滤波器组来描述图像。参数kv、的不同选择分别体现了二维Gabor小波在频率和方向空间的采样方式;参数σ决定滤波器的带宽。Lades的实验表明:对于尺寸为128×128的图像来说,当滤波器最大中心频率kmax为π/2,σ=2π时,达到最好的实验结果。由于图像的纹理是随机分布的,的取值范围为0~2π,若考虑到Gabor滤波器的对称性,则 的实际取值范围为0到π。为了描述图像的局部特征,本实施例采用5个中心频率、8个方向组成的40个Gabor滤波器对图像进行滤波。参数kv和 的取值如下:\n[0129] \n[0130] 式中,f是用来限定频域中核函数距离的间隔因子,通常取为 v∈{0,1,2,3,\n4},u={0,1,2,3,4,5,6,7},j=u+8v。\n[0131] S902,计算每帧关键人脸图像中各关键特征点与人脸图像数据库中各人脸模型对应特征点的相似度;\n[0132] S903,将每帧关键人脸图像中各关键特征点与同一人脸模型对应特征点的相似度进行加权,将最大加权值对应的人脸模型确定为所述关键人脸图像的备选识别结果;\n[0133] S904,统计各备选人脸识别结果对应的关键人脸图像数量,并将数量最多且高于预设数量阈值的备选人脸识别结果确定为待识别视频流对应的人脸识别结果。\n[0134] 在上述的处理中,通过计算每帧关键人脸图像中每个关键特征点与所预设各人脸模型中对应特征点的相似度,对每一帧关键人脸图像中的所有关键特征点针对同一人脸模型的相似度进行加权,并将最大加权值对应的人脸模型确定为所述关键人脸图像的备选识别结果;然后,统计各备选人脸识别结果对应的关键人脸图像数量,并将数量最多且高于预设数量阈值的备选人脸识别结果确定为待识别视频流对应的人脸识别结果。可以理解的是,在实际应用中,所采集的视频流中并不一定包含人脸图像数据库中的某个人脸模型,因此,某一备选人脸识别结果对应的关键人脸图像数量可能最多,但是与其他备选人脸识别结果数量相近时,表明所采集的视频流可能并未包含有人脸图像数据库中的人脸模型。因此,需要设定一个数量阈值,以提高识别的准确性。\n[0135] 通过以上的方法实施例的描述,所属领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:只读存储器(ROM)、随机存取存储器(RAM)、磁碟或者光盘等各种可以存储程序代码的介质。\n[0136] 相应于上面的方法实施例,本发明实施例还提供一种基于视频流的人脸识别系统,如图10所示,可以包括:\n[0137] 视频接收模块110,用于接收视频采集设备所采集的待识别视频流;\n[0138] 人脸检测模块120,用于对所述待识别视频流中每帧图像进行人脸检测,以确定待识别人脸图像;\n[0139] 特征点定位模块130,用于定位每帧待识别人脸图像对应的特征点;\n[0140] 关键帧确定模块140,用于根据待识别人脸图像所对应的颜色直方图,确定待识别人脸图像中的关键人脸图像;\n[0141] 关键点确定模块150,用于确定每帧关键人脸图像对应特征点中的关键特征点;\n[0142] 预处理模块160,用于对所确定的关键人脸图像进行图像预处理,以降低图像几何特征和光照对关键人脸图像的影响;\n[0143] 结果确定模块170,根据每帧关键人脸图像中关键特征点与人脸图像数据库中各人脸模型对应特征点的相似度的加权处理结果,确定所述待识别视频流对应的人脸识别结果。\n[0144] 其中,所述人脸检测模块包括:\n[0145] 均衡处理单元,对所述待识别视频流中每帧图像进行灰度化和直方图均衡化处理;\n[0146] 人脸检测单元,用于对处理后的每帧图像进行多尺度多特征的人脸检测;\n[0147] 多特征合并单元,用于将每帧图像的每一尺度所对应的检测结果进行多特征合并处理;\n[0148] 多尺度合并单元,用于将每帧图像对应的多特征合并处理结果进行多尺度合并处理;\n[0149] 结果确定单元,用于将满足预设人脸尺度阈值的多尺度合并处理结果确定为待识别人脸图像。\n[0150] 其中,所述特征点定位模块包括:\n[0151] 对比度增加单元,用于采用自适应阈值法对待识别人脸图像进行对比度增加处理;\n[0152] 特征点定位单元,利用垂直积分投影方法和水平积分投影方法对待识别人脸图像进行特征点定位处理,以定位所述待识别人脸图像对应的特征点。\n[0153] 其中,所述关键帧确定模块包括:\n[0154] 标准确定单元,用于确定标准待识别人脸图像,并计算所述标准待识别人脸图像对应人脸区域的颜色直方图;\n[0155] 颜色直方图确定单元,用于计算每帧待识别人脸图像对应人脸区域的颜色直方图;\n[0156] 直方图差值计算单元,用于计算当前待识别人脸图像对应的颜色直方图与标准待识别人脸图像对应的颜色直方图的欧式距离;\n[0157] 关键帧确定单元,用于判断所述欧式距离是否小于预设距离阈值,如果是,则将所述当前待识别人脸图像确定为关键人脸图像;如果否,则将所述待识别人脸图像确定为非关键人脸图像。\n[0158] 其中,所述预处理模块包括:\n[0159] 几何归一化单元,用于对所述关键人脸图像进行平移、旋转和/或滤波处理,以实现几何归一化处理;\n[0160] 光照预处理单元,用于对经过上述处理的关键人脸图像进行直方图均衡处理,以实现光照预处理。\n[0161] 其中,所述结果确定模块包括:\n[0162] 特征值计算单元,用于利用小波变换确定各关键特征点的对应的关键特征值;\n[0163] 相似度计算单元,计算每帧关键人脸图像中各关键特征点与人脸图像数据库中各人脸模型对应特征点的相似度;\n[0164] 备选结果确定单元,将每帧关键人脸图像中各关键特征点与同一人脸模型对应特征点的相似度进行加权,将最大加权值对应的人脸模型确定为所述关键人脸图像的备选识别结果;\n[0165] 识别结果确定单元,用于统计各备选人脸识别结果对应的关键人脸图像数量,并将数量最多且高于预设阈值的备选人脸识别结果确定为待识别视频流对应的人脸识别结果。\n[0166] 对于装置或系统实施例而言,由于其基本相应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置或系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。\n[0167] 在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,在没有超过本申请的精神和范围内,可以通过其他的方式实现。当前的实施例只是一种示范性的例子,不应该作为限制,所给出的具体内容不应该限制本申请的目的。例如,所述单元或子单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或多个子单元结合一起。另外,多个单元可以或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。\n[0168] 另外,所描述系统,装置和方法以及不同实施例的示意图,在不超出本申请的范围内,可以与其它系统,模块,技术或方法结合或集成。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。\n[0169] 以上所述仅是本发明的具体实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
法律信息
- 2018-10-12
未缴年费专利权终止
IPC(主分类): G06K 9/00
专利号: ZL 201110316170.7
申请日: 2011.10.19
授权公告日: 2014.05.28
- 2014-05-28
- 2012-04-04
实质审查的生效
IPC(主分类): G06K 9/00
专利申请号: 201110316170.7
申请日: 2011.10.19
- 2012-02-22
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2011-10-12
|
2010-04-12
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 1 | | 2015-10-26 | 2015-10-26 | | |