著录项信息
专利名称 | 一种用于智能机器人的识别方法 |
申请号 | CN201510145183.0 | 申请日期 | 2015-03-31 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2015-06-10 | 公开/公告号 | CN104700018A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G06F21/32 | IPC分类号 | G;0;6;F;2;1;/;3;2;;;G;0;6;K;9;/;0;0查看分类表>
|
申请人 | 江苏祥和电子科技有限公司 | 申请人地址 | 江苏省徐州市雎宁县雎宁现代农业示范区雎邳路东侧98号
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 江苏祥和电子科技有限公司 | 当前权利人 | 江苏祥和电子科技有限公司 |
发明人 | 王慧;周维杭;王玲 |
代理机构 | 暂无 | 代理人 | 暂无 |
摘要
为了准确鉴别人员的身份,本申请提供一种用于智能机器人的识别方法,所述方法包括步骤:步骤一,建立识别数据库;步骤二,输入待鉴别的人脸图像和声音信息;步骤三,分别计算输入的人脸图像和声音的特征向量;步骤四,进行人脸和声音鉴定;步骤五,输出身份鉴别结果。
1.一种用于智能机器人的身份鉴别方法,所述方法包括:
步骤一,建立识别数据库;
步骤二,输入待鉴别的人脸图像和声音信息;
步骤三,计算所述人脸图像和声音信息的特征向量;
步骤四,进行人脸和声音鉴定;
步骤五,输出身份鉴别结果;
所述建立识别数据库包括分别建立人脸识别子数据库和声音识别子数据库;
所述建立人脸识别子数据库包括:采集所有人的可靠图像、可靠图像的人脸特征提取以及在数据库中记录人脸特征信息;
所述建立声音识别子数据库包括:采集所有人的可靠声音、可靠声音的特征提取以及在所述人脸识别子数据库中记录声音特征信息;
所述可靠图像的人脸特征提取包括:对于每张输入的可靠图像进行以下处理:
对第i个人的第j张可靠的人脸图像进行预处理,其中0对所述第i个人的第j张作小波分解,获得低频部分子图像,对所述低频部分子图像作傅里叶变换,采用其振幅作为该可靠图像的频谱特征Si,j。
2.根据权利要求1所述的方法,其特征在于,所述对第i个人的第j张可靠的人脸图像进行预处理指的是通过小波变换来对每一张可靠图像进行降维处理。
3.根据权利要求2所述的方法,其特征在于,所述计算输入图像的特征向量包括:
对所述输入图像进行预处理;
所述输入图像作小波分解,获得低频部分子图像,对所述低频部分子图像作傅里叶变换,采用其振幅作为该输入图像的频谱特征Y’。
4.根据权利要求1所述的方法,其特征在于,所述可靠声音的特征提取包括:
(1)将所述可靠声音对应的音频信号x(i)划分成一系列连续的帧,对每帧信号做傅里叶变换;
(2)使用滤波器对音频信号进行处理,并移除所述音频信号的中间偏差;
(3)对所有滤波器输出的音频信号数据做非线性幂函数运算;
(4)对所述非线性幂函数运算结果进一步做离散余弦变换后得到声音特征参数。
5.根据权利要求4所述的方法,其特征在于,所述滤波器中使用的滤波函数为其中:参数θ为滤波器的初始相位,n为滤波器的阶
数;当t<0时,u(t)=0,当t>0时,u(t)=1;B=1.019*ERB(f0),ERB(f0)为滤波器的等价矩形带宽,与滤波器中心频率f0的关系为:ERB(f0)=24.7+0.108f0。
6.根据权利要求5所述的方法,其特征在于,所述移除音频信号的中间偏差包括:
(1)在音频信号分帧后,把7个帧组成一个分段;
(2)使用26.5ms作为海明窗口,重叠帧长为10ms,每帧的中间量Q(i,j)通过计算段内帧能量P(i,j)的平均值得到:
公式(3)中M=3,i为频道序号,j为所求帧的序列,j’为所求分段中各帧的序列;
(3)在噪声能量去除过程中,使用算术平均值与几何平均值的比值(AM/GM)可以表示声音信号被腐蚀的程度,对上述比值求对数后得到:
公式(4)中z为平面系数,J为帧的序列总数;
(4)B(i)是背景噪声引起的偏差,i表示频道序列,移除偏差后的中间量Q’(i,j|B(i))为:Q'(i,j|B(i))=max(Q(i,j)-B(i),10-3Q(i,j)) 公式(5)而得到:
(5)对于公式(6),当噪声情况下AM/GM的比值最接近原声信号的AM/GM值时,可以求得B(i)的估计值为:
B'(i)=min{B(i)|G'(i|B(i))≥Gc(i)} 公式(7)
其中,Gc(i)表示G(i)在原声信号中的对应值,对每个频道计算公式(7)后得到,对于每个时频BIN信号(i,j),噪声移除的比率为:
(6)为了平滑计算,对频道i-N至i+N的噪声移除比率取平均值,调整后最终的函数为:
(7)使用公式(10)对滤波器中所有音频信号进行处理,移除中间偏差后作为滤波器的输出。
7.根据权利要求1所述的方法,其特征在于,计算所述人脸图像和声音信息的特征向量包括分别计算人脸图像特征向量和声音信息的特征向量。
8.根据权利要求7所述的方法,其特征在于,计算人脸图像特征向量包括:
对所述输入图像进行预处理;
所述输入图像作小波分解,获得低频部分子图像,对所述低频部分子图像作傅里叶变换,采用其振幅作为该输入图像的频谱特征Y’。
9.根据权利要求7所述的方法,其特征在于,所述计算输入声音的特征向量包括:
(1)将所述输入声音对应的音频信号x(i)划分成一系列连续的帧,对每帧信号做傅里叶变换;
(2)使用滤波器对音频信号进行处理,并移除所述音频信号的中间偏差;
(3)对所有滤波器输出的音频信号数据做非线性幂函数运算;
(4)对所述非线性幂函数运算结果进一步做离散余弦变换后得到声音特征参数。
10.根据权利要求9所述的方法,其特征在于,所述移除音频信号的中间偏差包括:
(1)在音频信号分帧后,把7个帧组成一个分段;
(2)使用26.5ms作为海明窗口,重叠帧长为10ms,每帧的中间量Q(i,j)通过计算段内帧能量P(i,j)的平均值得到:
公式(3)中M=3,i为频道序号,j为所求帧的序列,j’为所求分段中各帧的序列;
(3)在噪声能量去除过程中,使用算术平均值与几何平均值的比值(AM/GM)可以表示声音信号被腐蚀的程度,对上述比率求对数后得到:
公式(4)中z为平面系数,J为帧的序列总数;
(4)B(i)是背景噪声引起的偏差,i表示频道序列,移除偏差后的中间量Q’(i,j|B(i))为:Q'(i,j|B(i))=max(Q(i,j)-B(i),10-3Q(i,j)) 公式(5)而得到:
(5)对于公式(6),当噪声情况下AM/GM的比值最接近原声信号的AM/GM值时,可以求得B(i)的估计值为:
B'(i)=min{B(i)|G'(i|B(i))≥Gc(i)} 公式(7)
其中,Gc(i)表示G(i)在原声信号中的对应值,对每个频道计算公式(7)后得到,对于每个时频BIN信号(i,j),噪声移除的比率为:
(6)为了平滑计算,对频道i-N至i+N的噪声移除比率取平均值,调整后最终的函数为:
(7)使用公式(10)对滤波器中所有音频信号进行处理,移除中间偏差后作为滤波器的输出。
11.根据权利要求1所述的方法,其特征在于,所述进行人脸和声音鉴定包括进行人脸鉴定和声音鉴定。
12.根据权利要求11所述的方法,其特征在于,所述人脸鉴定包括将人脸数据库中每个人脸的特征向量Si,j与输入图像的特征向量Y’依次进行比较,对于人脸数据中的每个特征向量Si,j包括以下步骤:
对Si,j和Y’做归一化处理;
用向量间夹角的余弦值 来度量两个向量的相似程度,令相似
度di,j=cos(Si,j,Y');
通过di,j进行特征判定。
13.根据权利要求12所述的方法,其特征在于,所述通过di,j进行特征判定包括:
选取与数据库中所有频谱特征的距离di,j的最大值max di,j,如果max di,j大于或者等于第一阈值,就判定所述输入图像对应于数据库中的第i个人;
将对应人脸数据库中每个人员的m个特征向量分为两组,分成2n个组,每一组取组内的两个最大值做平均,得到向量ddi,i=1,…,2n,选择向量ddi的最大值max di,j,如果max di,j大于或者等于第二阈值,就判定所述输入图像对应于数据库中的第 个人,否则认为所述输入图像不在所述人脸数据库中。
14.根据权利要求13所述的方法,其特征在于,所述第一阈值0.9860和第二阈值为
0.9840。
15.根据权利要求11所述的方法,其特征在于,所述声音鉴定包括:将待验证的声音特征向量输入声音识别子数据库,在声音识别子数据库中查找是否有匹配的声音特征信息。
16.根据权利要求15所述的方法,其特征在于,所述人脸鉴定和声音鉴定都通过时,所述输出身份鉴定结果为通过身份鉴定。
一种用于智能机器人的识别方法\n技术领域\n[0001] 本申请涉及智能机器人技术领域,尤其涉及一种用于智能机器人的识别方法及系统。\n背景技术\n[0002] 随着信息技术的飞速发展,特别是Internet的发展,数据信息化的不断深入。越来越多的事务,可以通过智能机器人来办理,例如:在公共安全领域的用于智能门禁、智能视频监控、公安布控、海关身份验证、实际驾照验证等的智能机器人;在民事和经济领域对各类银行卡、金融卡、信用卡、存蓄卡的持卡人进行身份验证的智能机器人。为了信息安全,办理业务之前通常需要通过验证人员身份后,智能机器人才能为其办理所请求的业务。\n[0003] 传统的身份验证方法是根据预先设置的密码或特定的身份标识物,如:证件,来鉴别不同用户。这种方法存在明显的缺点,如:个人的身份标识物容易丢失或被伪造,密码容易遗忘或者被破译。更为严重的是,这些系统无法区分真正的拥有者和取得身份标识物的冒充者。为了克服传统身份验证的缺陷,结合人类鉴别不同个体的方法和特点以及人类自身的一些生理和行为特征,如:面像、声音和指纹等,其中指纹也容易被窃取后套模。因而,越来越多的智能机器人采用人脸和声音鉴别技术来鉴别用户身份。\n[0004] 人脸鉴别,就是将待识别的人脸与数据库中的已知人脸进行比较,得出相关信息,这一过程的核心是选择适当的人脸表示方式和匹配策略。通常,将人脸鉴别成为人脸识别。\n[0005] 通常,以一些身份证件,如:身份证、护照等照片或者录入的可信照片,作为身份鉴别中人脸识别的比对版本。由于身份证件都是具有一定有效期的,如:成人身份证通常有效期为20年、老年人身份证为长期、幼儿身份证有效期为5年等。那么在证件有效期内,人员的照片将不会更换。此外,由于采集照片时的亮度、人员肤色等信息都会影响人脸识别的准确度。由此带来了,随着时间推移或者采集环境或者人员身体状态不同,身份鉴别的准确率逐步下降,即使是本人也不同通过智能机器人的身份鉴别验证的问题。而如果在一段时间就要求所有人员更新照片,这样的成本太高,需要耗费太多的人力和物力。\n[0006] 此外,通过声音来鉴别人员的身份,在接收声音输入时,周围环境噪音会影响对于声音鉴别的准确性。如何解决环境噪音对于声音识别的影响也是亟待解决的一个问题。\n发明内容\n[0007] 有鉴于此,本申请提供一种用于智能机器人的识别方法,其能避免各种因素而降低识别准确率的问题,使得智能机器人能以高准确率地进行人员身份鉴别。\n[0008] 本申请提供一种用于只能机器人的声音识别方法,所述方法包括步骤:\n[0009] 步骤一,建立识别数据库;\n[0010] 步骤二,输入待鉴别的人脸图像和声音信息;\n[0011] 步骤三,计算所述人脸图像和声音信息的特征向量;\n[0012] 步骤四,进行人脸和声音鉴定;\n[0013] 步骤五,输出身份鉴别结果。\n[0014] 根据在本申请一具体实施例中,所述建立识别数据库包括分别建立人脸识别子数据库和声音识别子数据库。\n[0015] 根据在本申请一具体实施例中,所述建立人脸识别子数据库包括:采集所有人的可靠图像、可靠图像的人脸特征提取以及在数据库中记录人脸特征信息。\n[0016] 根据在本申请一具体实施例中,所述建立声音识别子数据库包括:采集所有人的可靠声音、可靠声音的特征提取以及在数据库中记录声音特征信息。\n[0017] 根据在本申请一具体实施例中,所述可靠图像的人脸特征提取包括:对于每张输入的可靠图像进行以下处理:\n[0018] 对第i个人的第j张可靠的人脸图像进行预处理,其中0<i<n+1,0<j<m+1,m、n为正整数;\n[0019] 对所述第i个人的第j张作小波分解,获得低频LL部分子图像,对所述作低频LL部分子图像傅里叶变换,采用其振幅作为该可靠图像的频谱特征Si,j。\n[0020] 根据在本申请一具体实施例中,所述对第i个人的第j张可靠的人脸图像进行预处理指的是通过小波变换来对每一张可靠图像进行降维处理。\n[0021] 根据在本申请一具体实施例中,所述计算输入图像的特征向量包括:\n[0022] 对所述输入图像进行预处理;\n[0023] 所述输入图像作小波分解,获得低频LL部分子图像,对所述作低频LL部分子图像傅里叶变换,采用其振幅作为该输入图像的频谱特征Y’。\n[0024] 根据在本申请一具体实施例中,所述可靠声音的特征提取包括:\n[0025] (1)将所述可靠声音对应的音频信号x(i)划分成一系列连续的帧,对每帧信号做傅里叶变换;\n[0026] (2)使用滤波器对音频信号进行处理,并移除所述音频信号的中间偏差;\n[0027] (3)对所有滤波器输出的音频信号数据做非线性幂函数运算;\n[0028] (4)对所述非线性幂函数运算结果进一步做离散余弦变换后得到声音特征参数。\n[0029] 根据在本申请一具体实施例中,所述滤波器中使用的滤波函数为filter(t)=Bntn-1e-2πBt cos(2πf0t+θ)u(t)),其中:参数θ为滤波器的初始相位,n为滤波器的阶数;当t<0时,u(t)=0,当t>0时,u(t)=1;B=1.019*ERB(f0),ERB(f0)为滤波器的等价矩形带宽,与滤波器中心频率f0的关系为:ERB(f0)=24.7+0.108f0。\n[0030] 根据在本申请一具体实施例中,所述移除音频信号的中间偏差包括:\n[0031] (1)在音频信号分帧后,把7个帧组成一个分段;\n[0032] (2)使用26.5ms作为海明窗口,重叠帧长为10ms,每帧的中间量Q(i,j)通过计算段内帧能量P(i,j)的平均值得到:\n[0033] 公式(3)\n[0034] 公式(3)中M=3,i为频道序号,j为所求帧的序列,j’为所求分段中各帧的序列;\n[0035] (3)在噪声能量去除过程中,使用算术平均值与几何平均值的比值(AM/GM)可以表示声音信号被腐蚀的程度,对上述比率求对数后得到:\n[0036] 公式(4)\n[0037] 公式(4)中z为平面系数,J为帧的序列总数;\n[0038] (4)B(i)是背景噪声引起的偏差,i表示频道序列,移除偏差后的中间量Q’(i,j|B(i))为:Q′(i,j|B(i))=max(Q(i,j)-B(i),10-3Q(i,j)) 公式(5)而得到:\n[0039] 公式(6)\n[0040] (5)对于公式(6),当噪声情况下AM/GM的比值最接近原声信号的AM/GM值时,可以求得B(i)的估计值为:\n[0041] B′(i)=min{B(i)|G′(i|B(i))≥Gc(i)} 公式(7)\n[0042] 其中,Gc(i)表示G(i)在原声信号中的对应值,对每个频道计算公式(7)后得到,对于每个时频BIN信号(i,j),噪声移除的比率为:\n[0043] 公式(8);\n[0044] (6)为了平滑计算,对频道i-N至i+N的噪声移除比率取平均值,调整后最终的函数为: 公式(10)\n[0045] (7)使用公式(10)对滤波器中所有音频信号进行处理,移除中间偏差后作为滤波器的输出。\n[0046] 根据在本申请一具体实施例中,计算所述人脸图像和声音信息的特征向量包括分别计算人脸图像特征向量和声音信息的特征向量。\n[0047] 根据在本申请一具体实施例中,计算人脸图像特征向量包括:\n[0048] 对所述输入图像进行预处理;\n[0049] 所述输入图像作小波分解,获得低频LL部分子图像,对所述作低频LL部分子图像傅里叶变换,采用其振幅作为该输入图像的频谱特征Y’。\n[0050] 根据在本申请一具体实施例中,所述计算输入声音的特征向量包括:\n[0051] (1)将所述输入声音对应的音频信号x(i)划分成一系列连续的帧,对每帧信号做傅里叶变换;\n[0052] (2)使用滤波器对音频信号进行处理,并移除所述音频信号的中间偏差;\n[0053] (3)对所有滤波器输出的音频信号数据做非线性幂函数运算;\n[0054] (4)对所述非线性幂函数运算结果进一步做离散余弦变换后得到声音特征参数。\n[0055] 根据在本申请一具体实施例中,所述移除音频信号的中间偏差包括:\n[0056] (1)在音频信号分帧后,把7个帧组成一个分段;\n[0057] (2)使用26.5ms作为海明窗口,重叠帧长为10ms,每帧的中间量Q(i,j)通过计算段内帧能量P(i,j)的平均值得到:\n[0058] 公式(3)\n[0059] 公式(3)中M=3,i为频道序号,j为所求帧的序列,j’为所求分段中各帧的序列;\n[0060] (3)在噪声能量去除过程中,使用算术平均值与几何平均值的比值(AM/GM)可以表示声音信号被腐蚀的程度,对上述比率求对数后得到:\n[0061] 公式(4)\n[0062] 公式(4)中z为平面系数,J为帧的序列总数;\n[0063] (4)B(i)是背景噪声引起的偏差,i表示频道序列,移除偏差后的中间量Q’(i,j|B(i))为:Q′(i,j|B(i))=max(Q(i,j)-B(i),10-3Q(i,j)) 公式(5)而得到:\n[0064] 公式(6)\n[0065] (5)对于公式(6),当噪声情况下AM/GM的比值最接近原声信号的AM/GM值时,可以求得B(i)的估计值为:\n[0066] B′(i)=min{B(i)|G′(i|B(i))≥Gc(i)} 公式(7)\n[0067] 其中,Gc(i)表示G(i)在原声信号中的对应值,对每个频道计算公式(7)后得到,对于每个时频BIN信号(i,j),噪声移除的比率为:\n[0068] 公式(8);\n[0069] (6)为了平滑计算,对频道i-N至i+N的噪声移除比率取平均值,调整后最终的函数为: 公式(10)\n[0070] (7)使用公式(10)对滤波器中所有音频信号进行处理,移除中间偏差后作为滤波器的输出。\n[0071] 根据在本申请一具体实施例中,所述进行人脸和声音鉴定包括进行人脸鉴定和声音鉴定。\n[0072] 根据在本申请一具体实施例中,所述人脸鉴定包括将人脸数据库中每个人脸的特征向量Si,j与输入图像的特征向量Y’依次进行比较,对于人脸数据中的每个特征向量Si,j包括以下步骤:\n[0073] 对Si,j和Y’做归一化处理;\n[0074] 用向量间夹角的余弦值 来度量两个向量的相似程度,令\n相似度di,j=cos(Si,j,Y′);\n[0075] 通过di,j进行特征判定。\n[0076] 根据在本申请一具体实施例中,所述通过di,j进行特征判定包括:\n[0077] 选取与数据库中所有频谱特征的距离di,j的最大值max di,j,如果max di,j大于或者等于第一阈值,就判定所述输入图像对应于数据库中的第i个人;\n[0078] 将对应人脸数据库中每个人员的m个特征向量分为两组,分成2n个组,每一组取组内的两个最大值做平均,得到向量ddi,i=1,...,2n,选择向量ddi的最大值max di,j,如果max di,j大于或者等于第二阈值,就判定所述输入图像对应于数据库中的第 个人,否则认为所述输入图像不在所述人脸数据库中。\n[0079] 根据在本申请一具体实施例中,所述第一阈值0.9860和第二阈值为0.9840。\n[0080] 根据在本申请一具体实施例中,所述声音鉴定包括:将待验证的声音特征向量输入声音识别子数据库,在声音识别子数据库中查找是否有匹配的声音特征信息。\n[0081] 根据在本申请一具体实施例中,所述人脸鉴定和声音鉴定都通过时,所述输出身份鉴定结果为通过身份鉴定。\n附图说明\n[0082] 为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。\n[0083] 图1是本申请中识别方法流程图;\n[0084] 图2是本申请中建立识别数据库的流程图;\n[0085] 图3是本申请中识别系统结构图。\n具体实施方式\n[0086] 为了使本领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员所获得的所有其他实施例,都应当属于本申请保护的范围。\n[0087] 为了解决现有技术中存在的智能机器人由于环境噪音使得声音识别准确率下降的问题,本申请公开了一种用于智能机器人的声音识别的方法、系统以及一种智能机器人。\n[0088] 下面结合本申请附图进一步说明本申请具体实现。\n[0089] 如图1所示,本申请公开了一种用于智能机器人的识别方法,其包括以下步骤:\n[0090] Step1:建立识别数据库。\n[0091] 该识别数据库可以设置在智能机器人中。或者也可以设置在智能机器人外部,由智能机器人通过网络访问其中存储的识别数据。智能机器人与声音识别数据库之间可以通过有线或者无线网络传递数据。\n[0092] 识别数据库中分别包括人脸识别子数据库和声音识别子数据库。\n[0093] 如图2所示,为了避免由于环境因素引起声音特征发生变化而降低准确率的问题,建立识别数据库包括:建立人脸识别子数据库和声音识别子数据库。\n[0094] 建立人脸识别子数据库具体包括以下步骤:\n[0095] S111:采集所有人员的可靠图像;\n[0096] 根据需要,采集所有n个需要鉴别的人员的可靠图像信息,n为正整数。例如:如果用于一个公司的人员身份鉴别,这需要采集该公司的所有人员图像信息。如果是用于出入境的人员身份鉴别,这需要采集数目庞大的人员可靠信息,通常依赖于公安部门的图像数据库。\n[0097] 为了保证人脸识别的准确率,通常要求一个人员提供多张照片,可以包括:各个年龄段照片、正面照、左侧面照、右侧面照等。可以根据需要设置采集照片的数量m,m为正整数,如:4张、6张、8张或10张,也可以设置输入照片的最低要求,包含:照片数量最小值、分辨率、大小等,这些都可以根据实际情况进行调整。\n[0098] S112:人脸的特征提取:\n[0099] 为了提高人脸识别方法的准确性,使得人脸识别子数据库尽可能多的包含一个人的脸部信息,假设每个人用来训练的图片为10张,数据库中共有n个人,则输入的人脸图像总数为10n张。\n[0100] 以人员personi输入的10张图像为例进行说明。\n[0101] 首先,对每张人脸图像进行预处理。\n[0102] 对于每个人的第j张图像,通过小波变换来对每一幅照片进行降维。\n[0103] 其次,提取每张图像的特征向量。\n[0104] 对图像作小波分解,获得低频LL部分子图像Xij’,对Xn’作傅里叶变换,采用其振幅作为该图像的频谱特征Sij,存入数据库中作为第i个人的第j个面部特征向量。当10张图像都生成一个频谱特征:Si,j(i=1,...,n;j=1...,10),其中Si,j表示第i个人第j张图像的频谱特征。\n[0105] 建立声音识别子数据库具体包括以下步骤:\n[0106] SS111:采集所有人员的可靠声音;\n[0107] 根据需要,采集所有n个需要鉴别的人员的可靠图像信息,n为正整数。例如:如果用于一个公司的人员身份鉴别,这需要采集该公司的所有人员声音信息。\n[0108] 为了保证声音识别的准确率,可以不断增加所有人员在不同情况下的语音信息,以提高识别率。例如:每年重新采集一次新的声音信息。\n[0109] 对于采集到的人员i的声音信息对应音频信号x(i)存储至声音识别数据库中的原始语音存储区,i=1,......,n(i为正整数)。\n[0110] SS112:声音的特征提取:\n[0111] 对于在原始语音存储区中存储的每个音频信号x(i)进行以下处理:\n[0112] (1)将音频信号x(i)划分成一系列连续的帧,对每帧信号做傅里叶变换。\n[0113] (2)使用滤波器对音频信号进行处理,以降低相邻频带之间频谱能量的相互泄露;\n滤波器中使用的滤波函数为:\n[0114] filter(t)=Bntn-1e-2πBt cos(2πf0t+θ)u(t)) 公式(1)\n[0115] 其中:\n[0116] 参数θ为滤波器的初始相位,n为滤波器的阶数;\n[0117] 当t<0时,u(t)=0,当t>0时,u(t)=1;\n[0118] B=1.019*ERB(f0),ERB(f0)为滤波器的等价矩形带宽,它同滤波器中心频率f0的关系为:\n[0119] ERB(f0)=24.7+0.108f0 公式(2)。\n[0120] (3)移除音频信号的中间偏差。\n[0121] 在音频信号分帧后,把一定数量的帧组成一个分段,在本发明优选将7个帧组成一个分段,这个可以根据系统的处理能力进行设置。\n[0122] 大多数声音识别系统使用的帧长为20ms-30ms,在本发明优选使用26.5ms作为海明窗口,重叠帧长为10ms,每帧的中间量Q(i,j)通过计算段内帧能量P(i,j)的平均值得到:\n[0123] 公式(3)\n[0124] 公式(3)中由于本发明优选7个帧组成一个分段,因而M=3。i为频道序号,j为所求帧的序列,j’为所求分段中各帧的序列。\n[0125] 在噪声能量去除过程中,使用算术平均值与几何平均值的比值(AM/GM)可以表示声音信号被腐蚀的程度,对上述比率求对数后得到:\n[0126] 公式(4)\n[0127] 公式(4)中z为平面系数,用以避免负无穷小的估值来保证计算结果的偏差在允许范围内;J为帧的序列总数。\n[0128] 假设B(i)是由背景噪声引起的偏差,i表示频道序列,由条件概率那个事得,移除偏差后的中间量Q’(i,j|B(i))为:\n[0129] Q′(i,j|B(i))=max(Q(i,j)-B(i),10-3Q(i,j)) 公式(5)\n[0130] 可以得到:\n[0131] 公式(6)\n[0132] 对于公式(6),当噪声情况下AM/GM的比值最接近原声信号的AM/GM值时,可以求得B(i)的估计值为:\n[0133] B′(i)=min{B(i)|G′(i|B(i))≥Gc(i)} 公式(7)\n[0134] 其中,Gc(i)表示G(i)在原声信号中的对应值,对每个频道计算公式(7)后得到,对于每个时频BIN信号(i,j),噪声移除的比率为:\n[0135] 公式(8)\n[0136] 为了平滑计算,对频道i-N至i+N的噪声移除比率取平均值,调整后最终的函数为:\n[0137] 公式(10)\n[0138] 使用公式(10)对滤波器中所有音频信号进行处理,移除中间偏差后作为滤波器的输出。\n[0139] (4)对所有滤波器输出的音频信号数据做非线性幂函数运算,所使用的幂函数为:\n[0140] Y=X0.1 公式(11)。\n[0141] (5)对第(4)步的输出进一步做离散余弦变换后得到声音特征参数。\n[0142] 由于离散余弦变换(DCT)为语音处理领域公知的处理方式,在此不再赘述。\n[0143] S113:将人脸识别子数据库中记录n个人的所有图像的人脸特征信息。同时,将所得到的声音特征存储至声音识别子数据库。\n[0144] 除了得到采集的人脸和声音特征信息之外,还可以将每个人的其他信息与人面部和声音的特征信息相关联,以帮助进一步确认身份鉴定,其他信息可以包括但不限于:指纹、虹膜信息等。\n[0145] Step2:输入待鉴别的人脸图像和声音图像。\n[0146] 通过智能机器人上设置的摄像头采集人员的人脸图像。可以在智能机器人上设置一个或者多个摄像头,以满足图像采集的各种要求,也可以在智能机器人中设置语音提示信息,提示被采集图像的人员改变动作以采集到便于身份鉴别的人脸图像。如:根据建立数据库时,输入人脸部图像时的图像形式进行语音提示,如:提示正面照、左侧面照、右侧面照等。\n[0147] 此外,通过智能机器人上设置的麦克风采集人员的声音图像。也可以采用其他语音采集设备。\n[0148] Step3:分别计算输入图像和声音的特征向量。\n[0149] 计算输入人面图像的特征向量,包括:\n[0150] 对于输入的人脸图像Y,首先,通过小波变换来对图像Y进行降维;其次,对图像作小波分解,获得低频LL部分子图像,对图像Y的低频LL部分子图像作傅里叶变换,采用其振幅作为该图像的频谱特征Y’作为输入图像的特征向量。\n[0151] 计算输入的声音的特征向量,包括:\n[0152] 对于在输入声音每个音频信号x(i)进行以下处理:\n[0153] (1)将音频信号x(i)划分成一系列连续的帧,对每帧信号做傅里叶变换。\n[0154] (2)使用滤波器对音频信号进行处理,以降低相邻频带之间频谱能量的相互泄露;\n滤波器中使用的滤波函数为:\n[0155] filter(t)=Bntn-1e-2πBt cos(2πf0t+θ)u(t)) 公式(1)\n[0156] 其中:\n[0157] 参数θ为滤波器的初始相位,n为滤波器的阶数;\n[0158] 当t<0时,u(t)=0,当t>0时,u(t)=1;\n[0159] B=1.019*ERB(f0),ERB(f0)为滤波器的等价矩形带宽,它同滤波器中心频率f0的关系为:\n[0160] ERB(f0)=24.7+0.108f0 公式(2)。\n[0161] (3)移除音频信号的中间偏差。\n[0162] 在音频信号分帧后,把一定数量的帧组成一个分段,在本发明优选将7个帧组成一个分段,这个可以根据系统的处理能力进行设置。\n[0163] 大多数声音识别系统使用的帧长为20ms-30ms,在本发明优选使用26.5ms作为海明窗口,重叠帧长为10ms,每帧的中间量Q(i,j)通过计算段内帧能量P(i,j)的平均值得到:\n[0164] 公式(3)\n[0165] 公式(3)中由于本发明优选7个帧组成一个分段,因而M=3。i为频道序号,j为所求帧的序列,j’为所求分段中各帧的序列。\n[0166] 在噪声能量去除过程中,使用算术平均值与几何平均值的比值(AM/GM)可以表示声音信号被腐蚀的程度,对上述比率求对数后得到:\n[0167] 公式(4)\n[0168] 公式(4)中z为平面系数,用以避免负无穷小的估值来保证计算结果的偏差在允许范围内;J为帧的序列总数。\n[0169] 假设B(i)是由背景噪声引起的偏差,i表示频道序列,由条件概率那个事得,移除偏差后的中间量Q’(i,j|B(i))为:\n[0170] Q′(i,j|B(i))=max(Q(i,j)-B(i),10-3Q(i,j)) 公式(5)\n[0171] 可以得到:\n[0172] 公式(6)\n[0173] 对于公式(6),当噪声情况下AM/GM的比值最接近原声信号的AM/GM值时,可以求得B(i)的估计值为:\n[0174] B′(i)=min{B(i)|G′(i|B(i))≥Gc(i)} 公式(7)\n[0175] 其中,Gc(i)表示G(i)在原声信号中的对应值,对每个频道计算公式(7)后得到,对于每个时频BIN信号(i,j),噪声移除的比率为:\n[0176] 公式(8)\n[0177] 为了平滑计算,对频道i-N至i+N的噪声移除比率取平均值,调整后最终的函数为:\n[0178] 公式(10)\n[0179] 使用公式(10)对滤波器中所有音频信号进行处理,移除中间偏差后作为滤波器的输出。\n[0180] (4)对所有滤波器输出的数据做非线性幂函数运算,所使用的幂函数为:\n[0181] Y=X0.1 公式(11)。\n[0182] (5)对第(4)步的输出进一步做离散余弦变换后得到声音特征参数。\n[0183] 由于离散余弦变换(DCT)为语音处理领域公知的处理方式,在此不再赘述。\n[0184] Step4:分别进行人脸和声音鉴别。\n[0185] 进行人脸鉴别,包括:\n[0186] 将人脸识别子数据库中每个人脸的特征向量Si,j与输入图像的特征向量Y’依次进行比较,包含:\n[0187] 首先,对Si,j和Y’做归一化处理。\n[0188] 其次,计算两个向量的相似程度。\n[0189] 详细地说,用向量间夹角的余弦值来度量两个向量的相似程度,即:\n[0190]\n[0191] 因为,Si,j和Y’已经做过归一化处理,所以对Si,j和Y’的相似度为di,j=cos(Si,j,Y′)。Y’与数据库中所有频谱特征的距离则为D=(di,j=cos(Si,j,Y′)),i=1,…,n;j=\n1,…,n。\n[0192] 最后,将di,j进行特征判定。\n[0193] 第一,判断输入图像Y是否属于人脸数据库中已知人员。选取di,j的最大值,如果max di,j≥threshold 1,就直接可以认为图像Y对应于数据库中的第i个人。\n[0194] 第二,将D分为每五列划分为一组,分成2n个组,即:将对应人脸库中每个人员的10个特征向量分为两组,每一组取组内的两个最大值做平均,得到向量ddi,i=1,...,2n。选择向量ddi的最大值,如果max ddXi≥threadhold2,就认为图像Y对应于数据库中的第个人,否则认为人脸图像Y不在人脸数据库中。\n[0195] 其中阈值1-threshold1、阈值2-threshold2为使用不同阈值和不同小波经过大量实验得到。除了人脸识别方法的识别率之外,还兼顾误识率等指标来评价其好坏。阈值的调整应保证在识别率不低于一个所能接受的最小值的情况下,使误识率降低至最小。本申请经过大量实验,将threshold1设置为0.9860,threshold2设置为0.9840。\n[0196] 进行声音鉴别,包括:\n[0197] 将待验证的声音特征输入声音识别子数据库,在声音识别子数据库中查找是否有匹配的声音特征信息。若查找到对应的声音特征信息,则返回声音特征对应的身份信息;若没有找到对应的声音特征信息,则返回匹配失败信息。\n[0198] 在本申请的优选实施例中,必须在识别数据库中分别找到匹配的人脸和声音特征时,才认为输入人脸图像信息和声音的人身份鉴别通过。\n[0199] Step5:输出身份鉴别结果。\n[0200] 可以将Step4中得到身份鉴别结果输出至智能机器人的中央处理单元,智能机器人可根据鉴别结果进行相应处理,若找到鉴别人员身份信息,则智能机器人继续处理被鉴别人员的所请求的业务;若未找到鉴别人员身份信息,则输出身份鉴别失败的信息。\n[0201] 如图3所示,本申请还提供了一种用于智能机器人的声音识别系统,其包括:\n[0202] 识别数据库1,包含人脸识别子数据库和声音识别子数据库,其中所述人脸识别子数据库用于存储所有人员的人脸图像特征信息,所述声音识别子数据库,用于存储所有人员的声音特征信息。\n[0203] 该识别数据库可以设置在智能机器人中。或者也可以设置在智能机器人外部,由智能机器人通过网络访问其中存储的识别数据库。智能机器人与识别数据库之间可以通过有线或者无线网络传递数据。\n[0204] 识别数据库中分别包括人脸识别子数据库和声音识别子数据库。\n[0205] 如图2所示,为了避免由于环境因素引起声音特征发生变化而降低准确率的问题,建立识别数据库包括:建立人脸识别子数据库和声音识别子数据库。\n[0206] 建立人脸识别子数据库具体包括以下步骤:\n[0207] S111:采集所有人员的可靠图像;\n[0208] 根据需要,采集所有n个需要鉴别的人员的可靠图像信息,n为正整数。例如:如果用于一个公司的人员身份鉴别,这需要采集该公司的所有人员图像信息。如果是用于出入境的人员身份鉴别,这需要采集数目庞大的人员可靠信息,通常依赖于公安部门的图像数据库。\n[0209] 为了保证人脸识别的准确率,通常要求一个人员提供多张照片,可以包括:各个年龄段照片、正面照、左侧面照、右侧面照等。可以根据需要设置采集照片的数量m,m为正整数,如:4张、6张、8张或10张,也可以设置输入照片的最低要求,包含:照片数量最小值、分辨率、大小等,这些都可以根据实际情况进行调整。\n[0210] S112:人脸的特征提取:\n[0211] 为了提高人脸识别方法的准确性,使得人脸识别子数据库尽可能多的包含一个人的脸部信息,假设每个人用来训练的图片为10张,数据库中共有n个人,则输入的人脸图像总数为10n张。\n[0212] 以人员personi输入的10张图像为例进行说明。\n[0213] 首先,对每张人脸图像进行预处理。\n[0214] 对于每个人的第j张图像,通过小波变换来对每一幅照片进行降维。\n[0215] 其次,提取每张图像的特征向量。\n[0216] 对图像作小波分解,获得低频LL部分子图像Xij’,对Xn’作傅里叶变换,采用其振幅作为该图像的频谱特征Sij,存入数据库中作为第i个人的第j个面部特征向量。当10张图像都生成一个频谱特征:Si,j(i=1,...,n;j=1...,10),其中Si,j表示第i个人第j张图像的频谱特征。\n[0217] 建立声音识别子数据库具体包括以下步骤:\n[0218] SS111:采集所有人员的可靠声音;\n[0219] 根据需要,采集所有n个需要鉴别的人员的可靠图像信息,n为正整数。例如:如果用于一个公司的人员身份鉴别,这需要采集该公司的所有人员声音信息。\n[0220] 为了保证声音识别的准确率,可以不断增加所有人员在不同情况下的语音信息,以提高识别率。例如:每年重新采集一次新的声音信息。\n[0221] 对于采集到的人员i的声音信息对应音频信号x(i)存储至声音识别数据库中的原始语音存储区,i=1,......,n(i为正整数)。\n[0222] SS112:声音的特征提取:\n[0223] 对于在原始语音存储区中存储的每个音频信号x(i)进行以下处理:\n[0224] (1)将音频信号x(i)划分成一系列连续的帧,对每帧信号做傅里叶变换。\n[0225] (2)使用滤波器对音频信号进行处理,以降低相邻频带之间频谱能量的相互泄露;\n滤波器中使用的滤波函数为:\n[0226] filter(t)=Bntn-1e-2πBt cos(2πf0t+θ)u(t)) 公式(1)\n[0227] 其中:\n[0228] 参数θ为滤波器的初始相位,n为滤波器的阶数;\n[0229] 当t<0时,u(t)=0,当t>0时,u(t)=1;\n[0230] B=1.019*ERB(f0),ERB(f0)为滤波器的等价矩形带宽,它同滤波器中心频率f0的关系为:\n[0231] ERB(f0)=24.7+0.108f0 公式(2)。\n[0232] (3)移除音频信号的中间偏差。\n[0233] 在音频信号分帧后,把一定数量的帧组成一个分段,在本发明优选将7个帧组成一个分段,这个可以根据系统的处理能力进行设置。\n[0234] 大多数声音识别系统使用的帧长为20ms-30ms,在本发明优选使用26.5ms作为海明窗口,重叠帧长为10ms,每帧的中间量Q(i,j)通过计算段内帧能量P(i,j)的平均值得到:\n[0235] 公式(3)\n[0236] 公式(3)中由于本发明优选7个帧组成一个分段,因而M=3。i为频道序号,j为所求帧的序列,j’为所求分段中各帧的序列。\n[0237] 在噪声能量去除过程中,使用算术平均值与几何平均值的比值(AM/GM)可以表示声音信号被腐蚀的程度,对上述比率求对数后得到:\n[0238] 公式(4)\n[0239] 公式(4)中z为平面系数,用以避免负无穷小的估值来保证计算结果的偏差在允许范围内;J为帧的序列总数。\n[0240] 假设B(i)是由背景噪声引起的偏差,i表示频道序列,由条件概率那个事得,移除偏差后的中间量Q’(i,j|B(i))为:\n[0241] Q′(i,j|B(i))=max(Q(i,j)-B(i),10-3Q(i,j)) 公式(5)\n[0242] 可以得到:\n[0243] 公式(6)\n[0244] 对于公式(6),当噪声情况下AM/GM的比值最接近原声信号的AM/GM值时,可以求得B(i)的估计值为:\n[0245] B′(i)=min{B(i)|G′(i|B(i))≥Gc(i)} 公式(7)\n[0246] 其中,Gc(i)表示G(i)在原声信号中的对应值,对每个频道计算公式(7)后得到,对于每个时频BIN信号(i,j),噪声移除的比率为:\n[0247] 公式(8)\n[0248] 为了平滑计算,对频道i-N至i+N的噪声移除比率取平均值,调整后最终的函数为:\n[0249] 公式(10)\n[0250] 使用公式(10)对滤波器中所有音频信号进行处理,移除中间偏差后作为滤波器的输出。\n[0251] (4)对所有滤波器输出的音频信号数据做非线性幂函数运算,所使用的幂函数为:\n[0252] Y=X0.1 公式(11)。\n[0253] (5)对第(4)步的输出进一步做离散余弦变换后得到声音特征参数。\n[0254] 由于离散余弦变换(DCT)为语音处理领域公知的处理方式,在此不再赘述。\n[0255] S113:将人脸识别子数据库中记录n个人的所有图像的人脸特征信息。同时,将所得到的声音特征存储至声音识别子数据库。\n[0256] 除了得到采集的人脸和声音特征信息之外,还可以将每个人的其他信息与人面部和声音的特征信息相关联,以帮助进一步确认身份鉴定,其他信息可以包括但不限于:指纹、虹膜信息等。\n[0257] 采集模块2,分别通过在智能机器人上设置的摄像头采集人员的人脸信息和麦克风采集人员的声音信息。\n[0258] 可以在智能机器人上设置一个或者多个摄像头,以满足图像采集的各种要求,也可以在智能机器人中设置语音提示信息,提示被采集图像的人员改变动作以采集到便于身份鉴别的人脸图像。如:根据建立数据库时,输入人脸部图像时的图像形式进行语音提示,如:提示正面照、左侧面照、右侧面照等。\n[0259] 特征提取模块3,用以分别计算得到输入的人脸图像信息的特征向量和声音信息的特征向量。\n[0260] 计算得到输入的人脸图像信息的特征向量包括:\n[0261] 对于输入的人脸图像Y,首先,通过小波变换来对图像Y进行降维;其次,对图像作小波分解,获得低频LL部分子图像,对图像Y的低频LL部分子图像作傅里叶变换,采用其振幅作为该图像的频谱特征Y’作为输入图像的特征向量。\n[0262] 计算得到输入的声音信息的特征向量包括:\n[0263] 对于采集声音的每个音频信号x(i)进行以下处理:\n[0264] (1)将音频信号x(i)划分成一系列连续的帧,对每帧信号做傅里叶变换。\n[0265] (2)使用滤波器对音频信号进行处理,以降低相邻频带之间频谱能量的相互泄露;\n滤波器中使用的滤波函数为:\n[0266] filter(t)=Bntn-1e-2πBt cos(2πf0t+θ)u(t)) 公式(1)\n[0267] 其中:\n[0268] 参数θ为滤波器的初始相位,n为滤波器的阶数;\n[0269] 当t<0时,u(t)=0,当t>0时,u(t)=1;\n[0270] B=1.019*ERB(f0),ERB(f0)为滤波器的等价矩形带宽,它同滤波器中心频率f0的关系为:\n[0271] ERB(f0)=24.7+0.108f0 公式(2)。\n[0272] (3)移除音频信号的中间偏差。\n[0273] 在音频信号分帧后,把一定数量的帧组成一个分段,在本发明优选将7个帧组成一个分段,这个可以根据系统的处理能力进行设置。\n[0274] 大多数声音识别系统使用的帧长为20ms-30ms,在本发明优选使用26.5ms作为海明窗口,重叠帧长为10ms,每帧的中间量Q(i,j)通过计算段内帧能量P(i,j)的平均值得到:\n[0275] 公式(3)\n[0276] 公式(3)中由于本发明优选7个帧组成一个分段,因而M=3。i为频道序号,j为所求帧的序列,j’为所求分段中各帧的序列。\n[0277] 在噪声能量去除过程中,使用算术平均值与几何平均值的比值(AM/GM)可以表示声音信号被腐蚀的程度,对上述比率求对数后得到:\n[0278] 公式(4)\n[0279] 公式(4)中z为平面系数,用以避免负无穷小的估值来保证计算结果的偏差在允许范围内;J为帧的序列总数。\n[0280] 假设B(i)是由背景噪声引起的偏差,i表示频道序列,由条件概率那个事得,移除偏差后的中间量Q’(i,j|B(i))为:\n[0281] Q′(i,j|B(i))=max(Q(i,j)-B(i),10-3Q(i,j)) 公式(5)\n[0282] 可以得到:\n[0283] 公式(6)\n[0284] 对于公式(6),当噪声情况下AM/GM的比值最接近原声信号的AM/GM值时,可以求得B(i)的估计值为:\n[0285] B′(i)=min{B(i)|G′(i|B(i))≥Gc(i)} 公式(7)\n[0286] 其中,Gc(i)表示G(i)在原声信号中的对应值,对每个频道计算公式(7)后得到,对于每个时频BIN信号(i,j),噪声移除的比率为:\n[0287] 公式(8)\n[0288] 为了平滑计算,对频道i-N至i+N的噪声移除比率取平均值,调整后最终的函数为:\n[0289] 公式(10)\n[0290] 使用公式(10)对滤波器中所有音频信号进行处理,移除中间偏差后作为滤波器的输出。\n[0291] (4)对所有滤波器输出的数据做非线性幂函数运算,所使用的幂函数为:\n[0292] Y=X0.1 公式(11)。\n[0293] (5)对第(4)步的输出进一步做离散余弦变换后得到声音特征参数。\n[0294] 由于离散余弦变换(DCT)为语音处理领域公知的处理方式,在此不再赘述。\n[0295] 识别分析模块4,分别在识别数据库中查找比较输入的人脸图像的特征向量和输入的声音信息的特征向量。\n[0296] 在识别数据库中查找比较输入的人脸图像的特征向量包括:\n[0297] 首先,对Si,j和Y’做归一化处理。\n[0298] 其次,计算两个向量的相似程度。\n[0299] 详细地说,用向量间夹角的余弦值来度量两个向量的相似程度,即:\n[0300]\n[0301] 因为,Si,j和Y’已经做过归一化处理,所以对Si,j和Y’的相似度为di,j=cos(Si,j,Y′)。Y’与数据库中所有频谱特征的距离则为D=(di,j=cos(Si,j,Y′)),i=1,…,n;j=\n1,…,n。\n[0302] 最后,将di,j进行特征判定。\n[0303] 第一,判断输入图像Y是否属于人脸数据库中已知人员。选取di,j的最大值,如果max di,j≥threshold 1,就直接可以认为图像Y对应于数据库中的第i个人。\n[0304] 第二,将D分为每五列划分为一组,分成2n个组,即:将对应人脸库中每个人员的10个特征向量分为两组,每一组取组内的两个最大值做平均,得到向量ddi,i=1,...,2n。选择向量ddi的最大值,如果max ddXi≥threadhold2,就认为图像Y对应于数据库中的第个人,否则认为人脸图像Y不在人脸数据库中。\n[0305] 其中阈值1-threshold1、阈值2-threshold2为使用不同阈值和不同小波经过大量实验得到。除了人脸识别方法的识别率之外,还兼顾误识率等指标来评价其好坏。阈值的调整应保证在识别率不低于一个所能接受的最小值的情况下,使误识率降低至最小。本申请经过大量实验,将threshold1设置为0.9860,threshold2设置为0.9840。\n[0306] 在识别数据库中查找比较输入的声音信息的特征向量包括:\n[0307] 将待验证的声音特征输入语音识别数据库,在语音识别数据库中查找是否有匹配的声音特征信息。\n[0308] 在本申请的优选实施例中,必须在识别数据库中分别找到匹配的人脸和声音特征时,才认为输入人脸图像信息和声音的人身份鉴别通过。\n[0309] 鉴别结果输出模块5,输出身份鉴别结果。\n[0310] 可以将识别分析模块4中的身份鉴别结果输出至智能机器人的中央处理单元,智能机器人可根据鉴别结果进行相应处理,若找到鉴别人员身份信息,则智能机器人继续处理被鉴别人员的所请求的业务;若未找到鉴别人员身份信息,则输出身份鉴别失败的信息。\n[0311] 本申请还公开了一种智能机器人,其包括了上述用于智能机器人的识别系统。\n[0312] 当然,实施本申请的任一技术方案必不一定需要同时达到以上的所有优点。\n[0313] 本领域的技术人员应明白,本申请的实施例可提供为方法、装置(设备)、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。\n[0314] 本申请是参照根据本申请实施例的方法、装置(设备)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。\n[0315] 这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。\n[0316] 这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。\n[0317] 尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
法律信息
- 2016-09-21
- 2015-07-08
实质审查的生效
IPC(主分类): G06F 21/32
专利申请号: 201510145183.0
申请日: 2015.03.31
- 2015-06-10
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有引用任何外部专利数据! |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |