著录项信息
专利名称 | 一种用户识别方法及电子设备 |
申请号 | CN201510358212.1 | 申请日期 | 2015-06-25 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2017-01-04 | 公开/公告号 | CN106295270A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G06F21/31 | IPC分类号 | G;0;6;F;2;1;/;3;1;;;G;0;6;F;2;1;/;3;2查看分类表>
|
申请人 | 联想(北京)有限公司 | 申请人地址 | 北京市海淀区上地信息产业基地创业路6号
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 联想(北京)有限公司 | 当前权利人 | 联想(北京)有限公司 |
发明人 | 申浩;林源 |
代理机构 | 北京集佳知识产权代理有限公司 | 代理人 | 王戈;王宝筠 |
摘要
本发明公开一种用户识别方法及电子设备。所述方法,包括获取用户的用户状态信息;基于所述用户状态信息,确定可用用户识别方式;确定所述可用用户识别方式对应的用户识别精度信息;基于电子设备执行的业务与所述用户识别精度信息,确定实际采用的选定用户识别方式;采用所述选定用户识别方式进行用户识别。采用本发明的方法或电子设备,可以根据多种类型的信息对用户进行识别,从而扩大用户识别方法的适用范围,提高用户识别方法的鲁棒性。
1.一种用户识别方法,其特征在于,包括:
获取用户的用户状态信息;
基于所述用户状态信息,确定可用用户识别方式;
确定所述可用用户识别方式对应的用户识别精度信息;
基于电子设备执行的业务与所述用户识别精度信息,确定实际采用的选定用户识别方式;
采用所述选定用户识别方式进行用户识别;
还包括:
获取应用场景中的各个用户的各种类型的特征信息;
对于每个类型的特征信息,分析各个用户之间的特征差异;
依据所述特征差异,确定各种用户识别方式在所述应用场景中所对应的用户识别精度;
建立所述应用场景中所述各种用户识别方式与所述用户识别精度之间的对应关系。
2.根据权利要求1所述的方法,其特征在于,所述确定实际采用的选定用户识别方式,具体包括:
获取所述业务所对应的用户识别精度需求信息;
从所述可用用户识别方式中,确定用户识别精度大于或等于所述用户识别精度需求信息表示的用户识别精度需求等级的用户识别方式。
3.根据权利要求1所述的方法,其特征在于,所述确定所述可用用户识别方式对应的用户识别精度信息之前,还包括:
获取应用场景信息;
所述确定所述可用用户识别方式对应的用户识别精度信息,具体包括:
根据预先设置的所述应用场景信息表示的应用场景中用户识别方式与用户识别精度之间的对应关系,确定所述用户识别方式对应的用户识别精度信息。
4.根据权利要求1所述的方法,其特征在于,所述依据所述特征差异,确定各种用户识别方式在所述应用场景中所对应的用户识别精度,具体包括:
依据所述特征差异,确定各个所述特征信息的识别权重;其中,特征差异大的所述特征信息的权重高于特征差异小的所述特征信息的权重;
根据所述特征信息的识别权重,确定采用所述特征信息的用户识别方式在所述应用场景中所对应的用户识别精度。
5.一种用户识别电子设备,其特征在于,包括:
用户状态信息获取单元,用于获取用户的用户状态信息;
可用用户识别方式确定单元,用于基于所述用户状态信息,确定可用用户识别方式;
用户识别精度信息确定单元,用于确定所述可用用户识别方式对应的用户识别精度信息;
选定用户识别方式确定单元,用于基于电子设备执行的业务与所述用户识别精度信息,确定实际采用的选定用户识别方式;
用户识别单元,用于采用所述选定用户识别方式进行用户识别;
还包括:
特征信息获取单元,用于获取应用场景中的各个用户的各种类型的特征信息;
特征差异分析单元,用于对于每个类型的特征信息,分析各个用户之间的特征差异;
用户识别精度确定单元,用于依据所述特征差异,确定各种用户识别方式在所述应用场景中所对应的用户识别精度;
对应关系建立单元,用于建立所述应用场景中所述各种用户识别方式与所述用户识别精度之间的对应关系。
6.根据权利要求5所述的电子设备,其特征在于,所述选定用户识别方式确定单元,具体包括:
用户识别精度需求信息获取子单元,用于获取所述业务所对应的用户识别精度需求信息;
用户识别方式选定子单元,用于从所述可用用户识别方式中,确定用户识别精度大于或等于所述用户识别精度需求信息表示的用户识别精度需求等级的用户识别方式。
7.根据权利要求5所述的电子设备,其特征在于,还包括:
应用场景信息获取单元,用于在确定所述采用的可用用户识别方式对应的用户识别精度信息之前,获取应用场景信息;
所述用户识别精度信息确定单元,具体包括:
用户识别精度信息确定子单元,用于根据预先设置的所述应用场景信息表示的应用场景中用户识别方式与用户识别精度之间的对应关系,确定所述用户识别方式对应的用户识别精度信息。
8.根据权利要求5所述的电子设备,其特征在于,所述用户识别精度确定单元,具体包括:
识别权重确定子单元,用于依据所述特征差异,确定各个所述特征信息的识别权重;其中,特征差异大的所述特征信息的权重高于特征差异小的所述特征信息的权重;
用户识别精度确定子单元,用于根据所述特征信息的识别权重,确定采用所述特征信息的用户识别方式在所述应用场景中所对应的用户识别精度。
一种用户识别方法及电子设备\n技术领域\n[0001] 本发明涉及数据处理领域,特别是涉及一种用户识别方法及电子设备。\n背景技术\n[0002] 随着信息技术的不断发展,智能机器人技术已取得了极大的进展。但如何让机器人更好的为用户服务,依然是一个开放的问题,业界正在努力寻求解决方案。\n[0003] 现有技术中,为了向特定的用户提供具有针对性的服务,机器人需要对用户进行识别。但是,现有技术中,主要是基于人脸图像信息来识别用户,由于信息源有限,当无法获取到用户的面部图像信息时,则无法识别用户。\n发明内容\n[0004] 本发明的目的是提供一种用户识别方法及电子设备,可以根据多种类型的信息对用户进行识别,从而扩大用户识别方法的适用范围,提高用户识别方法的鲁棒性。\n[0005] 为实现上述目的,本发明提供了如下方案:\n[0006] 一种用户识别方法,包括:\n[0007] 获取用户的用户状态信息;\n[0008] 基于所述用户状态信息,确定可用用户识别方式;\n[0009] 确定所述可用用户识别方式对应的用户识别精度信息;\n[0010] 基于电子设备执行的业务与所述用户识别精度信息,确定实际采用的选定用户识别方式;\n[0011] 采用所述选定用户识别方式进行用户识别。\n[0012] 可选的,所述确定实际采用的选定用户识别方式,具体包括:\n[0013] 获取所述业务所对应的用户识别精度需求信息;\n[0014] 从所述可用用户识别方式中,确定用户识别精度大于或等于所述用户识别精度需求信息表示的用户识别精度需求等级的用户识别方式。\n[0015] 可选的,所述确定所述可用用户识别方式对应的用户识别精度信息之前,还包括:\n[0016] 获取应用场景信息;\n[0017] 所述确定所述可用用户识别方式对应的用户识别精度信息,具体包括:\n[0018] 根据预先设置的所述应用场景信息表示的应用场景中用户识别方式与用户识别精度之间的对应关系,确定所述用户识别方式对应的用户识别精度信息。\n[0019] 可选的,还包括:\n[0020] 获取应用场景中的各个用户的各种类型的特征信息;\n[0021] 对于每个类型的特征信息,分析各个用户之间的特征差异;\n[0022] 依据所述特征差异,确定各种用户识别方式在所述应用场景中所对应的用户识别精度;\n[0023] 建立所述应用场景中所述各种用户识别方式与所述用户识别精度之间的对应关系。\n[0024] 可选的,所述依据所述特征差异,确定各种用户识别方式在所述应用场景中所对应的用户识别精度,具体包括:\n[0025] 依据所述特征差异,确定各个所述特征信息的识别权重;其中,特征差异大的所述特征信息的权重高于特征差异小的所述特征信息的权重;\n[0026] 根据所述特征信息的识别权重,确定采用所述特征信息的用户识别方式在所述应用场景中所对应的用户识别精度。\n[0027] 一种用户识别电子设备,包括:\n[0028] 用户状态信息获取单元,用于获取用户的用户状态信息;\n[0029] 可用用户识别方式确定单元,用于基于所述用户状态信息,确定可用用户识别方式;\n[0030] 用户识别精度信息确定单元,用于确定所述可用用户识别方式对应的用户识别精度信息;\n[0031] 选定用户识别方式确定单元,用于基于电子设备执行的业务与所述用户识别精度信息,确定实际采用的选定用户识别方式;\n[0032] 用户识别单元,用于采用所述选定用户识别方式进行用户识别。\n[0033] 可选的,所述选定用户识别方式确定单元,具体包括:\n[0034] 用户识别精度需求信息获取子单元,用于获取所述业务所对应的用户识别精度需求信息;\n[0035] 用户识别方式选定子单元,用于从所述可用用户识别方式中,确定用户识别精度大于或等于所述用户识别精度需求信息表示的用户识别精度需求等级的用户识别方式。\n[0036] 可选的,还包括:\n[0037] 应用场景信息获取单元,用于在确定所述采用的可用用户识别方式对应的用户识别精度信息之前,获取应用场景信息;\n[0038] 所述用户识别精度信息确定单元,具体包括:\n[0039] 用户识别精度信息确定子单元,用于根据预先设置的所述应用场景信息表示的应用场景中用户识别方式与用户识别精度之间的对应关系,确定所述用户识别方式对应的用户识别精度信息。\n[0040] 可选的,还包括:\n[0041] 特征信息获取单元,用于获取应用场景中的各个用户的各种类型的特征信息;\n[0042] 特征差异分析单元,用于对于每个类型的特征信息,分析各个用户之间的特征差异;\n[0043] 用户识别精度确定单元,用于依据所述特征差异,确定各种用户识别方式在所述应用场景中所对应的用户识别精度;\n[0044] 对应关系建立单元,用于建立所述应用场景中所述各种用户识别方式与所述用户识别精度之间的对应关系。\n[0045] 可选的,所述用户识别精度确定单元,具体包括:\n[0046] 识别权重确定子单元,用于依据所述特征差异,确定各个所述特征信息的识别权重;其中,特征差异大的所述特征信息的权重高于特征差异小的所述特征信息的权重;\n[0047] 用户识别精度确定子单元,用于根据所述特征信息的识别权重,确定采用所述特征信息的用户识别方式在所述应用场景中所对应的用户识别精度。\n[0048] 根据本发明提供的具体实施例,本发明公开了以下技术效果:\n[0049] 本发明实施例中的用户识别方法及电子设备,通过获取用户的用户状态信息;基于所述用户状态信息,确定可用用户识别方式;可以根据用户状态信息,从多种类型的识别方式中确定出可用用户识别方式,因此可以根据多种类型的信息对用户进行识别,从而扩大用户识别方法的适用范围,提高用户识别方法的鲁棒性。此外,通过基于电子设备执行的业务与所述用户识别精度信息,确定实际采用的选定用户识别方式,还可以确保识别结果的可靠性。\n附图说明\n[0050] 为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。\n[0051] 图1为本发明的用户识别方法实施例1的流程图;\n[0052] 图2为本发明的用户识别方法实施例2的流程图;\n[0053] 图3为本发明的用户识别方法实施例3的流程图;\n[0054] 图4为本发明的用户识别方法实施例4的流程图;\n[0055] 图5为本发明的用户识别方法实施例5的流程图;\n[0056] 图6为本发明的电子设备实施例的结构图。\n具体实施方式\n[0057] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。\n[0058] 为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。\n[0059] 图1为本发明的用户识别方法实施例1的流程图。如图1所示,该方法可以包括:\n[0060] 步骤101:获取用户的用户状态信息;\n[0061] 首先需要说明的是,本发明实施例的方法的执行主体可以是设置有传感器的机器人。所述机器人可以通过所述传感器获取用户的状态信息。所述传感器可以是摄像头、麦克风等设备。\n[0062] 所述用户状态信息,可以包括用户的行为信息,姿态信息等等。例如,所述姿态信息可以表示用户是朝向所述机器人,或者背对所述机器人。\n[0063] 步骤102:基于所述用户状态信息,确定可用用户识别方式;\n[0064] 所述用户识别方式可以有多种。例如,可以根据用户的面部图像信息进行面部识别,也可以根据用户的说话声音进行语音识别,还可以根据用户的衣着进行识别等等。但是,在某一时刻,各种识别方式并不一定均可使用。因为在某些情况下,有一些识别方式所需要的信息来源是暂时获取不到的。例如,当用户背对机器人时,机器人就无法获取用户的面部图像信息,进而无法采用面部识别方式对用户进行识别;当用户不说话时,则机器人无法获取用户的语音信息,进而无法采用语音识别方式对用户进行识别。\n[0065] 因此,本发明实施例中,基于所述用户状态信息,可以确定出可用的用户识别方式。例如,当获取到用户的面部图像信息时,可以确定面部识别方式是可用用户识别方式;\n当获取到用户的语音信息时,可以确定语音识别方式为可用用户识别方式。\n[0066] 步骤103:确定所述可用用户识别方式对应的用户识别精度信息;\n[0067] 不同的识别方式,对于用户的识别精度通常是不同的。例如,通常面部识别的精度要高于语音识别的精度。\n[0068] 需要说明的是,同一种识别方式,在不同的应用场景中,其识别精度可以发生变化。例如,当应用场景中只存在两个用户,并且这两个用户的身高差异很大时,则根据身高信息对于用户进行识别的识别精度也会较高。\n[0069] 步骤104:基于电子设备执行的业务与所述用户识别精度信息,确定实际采用的选定用户识别方式;\n[0070] 不同的业务对于用户识别精度的要求,可以是不同的。例如,当机器人执行跟随任务时,只要开始跟踪用户后,用户一直保持在机器人的图像获取范围之内,则采用识别精度较低的识别方式,也可以确定该用户的身份。当机器人接收到其他用户的来电信息,需要特定的用户进行接听时,则需要采用识别精度较高的识别方式来确保用户的隐私不致泄露于他人。\n[0071] 步骤105:采用所述选定用户识别方式进行用户识别。\n[0072] 综上所述,本实施例中,通过获取用户的用户状态信息;基于所述用户状态信息,确定可用用户识别方式;可以根据用户状态信息,从多种类型的识别方式中确定出可用用户识别方式,因此可以根据多种类型的信息对用户进行识别,从而扩大用户识别方法的适用范围,提高用户识别方法的鲁棒性。此外,通过基于电子设备执行的业务与所述用户识别精度信息,确定实际采用的选定用户识别方式,还可以确保识别结果的可靠性。\n[0073] 实际应用中,所述确定实际采用的选定用户识别方式,具体可以包括以下步骤:\n[0074] 获取所述业务所对应的用户识别精度需求信息;\n[0075] 从所述可用用户识别方式中,确定用户识别精度大于或等于所述用户识别精度需求信息表示的用户识别精度需求等级的用户识别方式。\n[0076] 上述步骤中,可以预先设置各种业务所对应的用户识别精度需求信息,并且将各种用户识别方式的识别精度也进行确定。\n[0077] 图2为本发明的用户识别方法实施例2的流程图。如图2所示,该方法可以包括:\n[0078] 步骤201:获取用户的用户状态信息;\n[0079] 步骤202:基于所述用户状态信息,确定可用用户识别方式;\n[0080] 步骤203:获取应用场景信息;\n[0081] 所述应用场景信息,可以表示所述用户识别方法的应用场景。\n[0082] 步骤204:根据预先设置的所述应用场景信息表示的应用场景中用户识别方式与用户识别精度之间的对应关系,确定所述用户识别方式对应的用户识别精度信息。\n[0083] 具体的,例如所述应用场景信息表示应用场景为用户A的家。而用户A的家中总共有3个用户,3个用户之间的身高相接近,声纹信息区别较大,面部特征区别也较大;则可以预先设置所述应用场景中,语音识别和面部识别的识别精度较高,根据身高进行识别的方式的识别精度较低。\n[0084] 步骤205:基于电子设备执行的业务与所述用户识别精度信息,确定实际采用的选定用户识别方式;\n[0085] 步骤206:采用所述选定用户识别方式进行用户识别。\n[0086] 本实施例中,通过获取应用场景信息;根据预先设置的所述应用场景信息表示的应用场景中用户识别方式与用户识别精度之间的对应关系,确定所述用户识别方式对应的用户识别精度信息。对于某一种识别方式,在不同的应用场景可以得到与该应用场景相对应的识别精度信息,从而提高对于识别方式进行选取时的针对性。\n[0087] 图3为本发明的用户识别方法实施例3的流程图。如图3所示,该方法可以包括:\n[0088] 步骤301:获取应用场景中的各个用户的各种类型的特征信息;\n[0089] 所述应用场景可以是某个用户的家中。所述特征信息可以包括身高、衣着、面部图像、语音等信息。\n[0090] 所述应用场景中可以存在多个用户。例如,一个三口之家,可以存在父亲、母亲和孩子共三个用户。\n[0091] 步骤302:对于每个类型的特征信息,分析各个用户之间的特征差异;\n[0092] 对于某一种类型的特征信息来说,不同的用户之间,该特征信息的差异可能较大,也可能较小。具体的特征差异的大小,取决于各个用户的具体特征。\n[0093] 例如,对于前面提到的三口之家而言,如果父亲的身高明显高于母亲,母亲的身高明显高于孩子,则身高这一特征信息在各个用户之间的特征差异较大;如果父亲、母亲、孩子的身高基本相同,则身高这一特征信息在各个用户之间的特征差异较小。\n[0094] 步骤303:依据所述特征差异,确定各种用户识别方式在所述应用场景中所对应的用户识别精度;\n[0095] 特征差异较大的特征信息所对应的识别方式,在所述应用场景中将具有较高的用户识别精度。\n[0096] 例如,前面提到的如果父亲的身高明显高于母亲,母亲的身高明显高于孩子,则身高这一特征信息在各个用户之间的特征差异较大。原本识别精度一般的根据身高进行识别的方式,在这种应用场景中,将具有较高的用户识别精度。\n[0097] 实际应用中,所述依据所述特征差异,确定各种用户识别方式在所述应用场景中所对应的用户识别精度,具体可以包括以下步骤:\n[0098] 依据所述特征差异,确定各个所述特征信息的识别权重;其中,特征差异大的所述特征信息的权重高于特征差异小的所述特征信息的权重;\n[0099] 根据所述特征信息的识别权重,确定采用所述特征信息的用户识别方式在所述应用场景中所对应的用户识别精度。\n[0100] 上述步骤中,所述根据所述特征信息的识别权重,确定采用所述特征信息的用户识别方式在所述应用场景中所对应的用户识别精度,具体可以采用用户识别方式的默认识别精度乘以“所述识别权重加1”,从而得到所述用户识别方式在所述应用场景中所对应的用户识别精度。当然,还可以采用其他方式根据识别权重确定识别方式在所述应用场景中所对应的用户识别精度,此处并不限定。\n[0101] 步骤304:建立所述应用场景中所述各种用户识别方式与所述用户识别精度之间的对应关系。\n[0102] 步骤305:获取用户的用户状态信息;\n[0103] 步骤306:基于所述用户状态信息,确定可用用户识别方式;\n[0104] 步骤307:获取应用场景信息;\n[0105] 步骤308:根据预先设置的所述应用场景信息表示的应用场景中用户识别方式与用户识别精度之间的对应关系,确定所述用户识别方式对应的用户识别精度信息。\n[0106] 步骤309:基于电子设备执行的业务与所述用户识别精度信息,确定实际采用的选定用户识别方式;\n[0107] 步骤310:采用所述选定用户识别方式进行用户识别。\n[0108] 本实施例中,通过获取应用场景中的各个用户的各种类型的特征信息;对于每个类型的特征信息,分析各个用户之间的特征差异;依据所述特征差异,确定各种用户识别方式在所述应用场景中所对应的用户识别精度;建立所述应用场景中所述各种用户识别方式与所述用户识别精度之间的对应关系;可以根据场景中用户之间的实际特征差异,确定各种识别方式在应用场景中的识别精度,从而可以更加灵活地采用各种类型的识别方式进行用户识别。\n[0109] 图4为本发明的用户识别方法实施例4的流程图。如图4所示,该方法可以包括:\n[0110] 步骤401:获取用户的用户状态信息;\n[0111] 步骤402:基于所述用户状态信息,确定所述用户背对机器人;\n[0112] 此时,所述机器人无法获取用户的面部图像信息,可以获取用户的身高信息和衣着信息。\n[0113] 步骤403:确定身高识别方式和衣着识别方式为可用用户识别方式;\n[0114] 步骤404:确定所述可用用户识别方式对应的用户识别精度信息;\n[0115] 本实施例中,应用场景中的用户的身高差异较小,但衣着差异较大。因此衣着识别方式的识别精度高于身高识别方式。\n[0116] 步骤405:确定电子设备执行的业务为巡逻任务;所述巡逻任务对于用户识别精度要求较低;\n[0117] 步骤406:确定所述身高识别方式和衣着识别方式的识别精度均满足巡逻任务的用户识别精度要求;\n[0118] 步骤407:将识别速度较快的身高识别方式确定为实际采用的选定用户识别方式;\n[0119] 步骤408:采用所述身高识别方式进行用户识别。\n[0120] 本实施例中,提供了一个根据身高识别用户的具体实例。\n[0121] 图5为本发明的用户识别方法实施例5的流程图。如图5所示,该方法可以包括:\n[0122] 步骤501:获取用户的用户状态信息;\n[0123] 步骤502:基于所述用户状态信息,确定所述用户正对机器人;\n[0124] 此时,所述机器人可以获取用户的面部图像信息,可以获取用户的身高信息和衣着信息。\n[0125] 步骤503:确定面部识别方式、身高识别方式和衣着识别方式为可用用户识别方式;\n[0126] 步骤504:确定所述可用用户识别方式对应的用户识别精度信息;\n[0127] 本实施例中,应用场景中的用户为双胞胎,用户之间的面部图像差异较小,身高差异较小,但衣着差异较大。因此衣着识别方式的识别精度高于身高识别方式和面部图像识别方式。\n[0128] 步骤505:确定电子设备执行的业务为接听来电任务;所述接听来电任务对于用户识别精度要求较高;\n[0129] 步骤506:确定所述衣着识别方式的识别精度满足接听来电任务的用户识别精度要求;\n[0130] 步骤507:将所述衣着识别方式确定为实际采用的选定用户识别方式;\n[0131] 步骤508:采用所述衣着识别方式进行用户识别。\n[0132] 本实施例中,公开了一种根据衣着进行用户识别的具体实例。\n[0133] 需要说明的是,实际应用中,可以将本发明实施例中的识别方式逐步循环使用,从而得到精度更高的识别结果。例如,在图5所示实施例中,当采用衣着识别方式进行用户识别,确定了具有接听来电的身份的用户后,还可以控制机器人移动至该用户附近,提示用户输入指纹信息,当用户输入指纹信息后,机器人可以确定接收到了指纹信息,指纹识别方式可用;并且指纹识别方式的精度符合来电接听任务的精度,将指纹识别方式确定为实际使用的选定用户识别方式;采用指纹识别方式进行用户识别。这种方式可以进一步提高对于用户的识别精度。\n[0134] 还需要说明的是,本发明实施例中,所述获取用户的身高信息,具体可以采用以下步骤:\n[0135] 获取机器人的位置信息;\n[0136] 获取用户图像信息在所述机器人获取到的图像中的深度信息;\n[0137] 根据所述深度信息确定所述用户与所述机器人之间的距离;\n[0138] 获取用户头部图像在所述机器人获取到的图像中的相对高度信息;\n[0139] 获取所述机器人的摄像头的俯仰角姿态信息;\n[0140] 根据所述相对高度信息、所述俯仰角姿态信息以及所述距离,确定所述用户的身高信息。\n[0141] 本发明还公开了一种电子设备。图6为本发明的电子设备实施例的结构图。如图6所示,该电子设备可以包括:\n[0142] 用户状态信息获取单元601,用于获取用户的用户状态信息;\n[0143] 可用用户识别方式确定单元602,用于基于所述用户状态信息,确定可用用户识别方式;\n[0144] 用户识别精度信息确定单元603,用于确定所述可用用户识别方式对应的用户识别精度信息;\n[0145] 选定用户识别方式确定单元604,用于基于电子设备执行的业务与所述用户识别精度信息,确定实际采用的选定用户识别方式;\n[0146] 用户识别单元605,用于采用所述选定用户识别方式进行用户识别。\n[0147] 本实施例中,通过获取用户的用户状态信息;基于所述用户状态信息,确定可用用户识别方式;可以根据用户状态信息,从多种类型的识别方式中确定出可用用户识别方式,因此可以根据多种类型的信息对用户进行识别,从而扩大用户识别方法的适用范围,提高用户识别方法的鲁棒性。此外,通过基于电子设备执行的业务与所述用户识别精度信息,确定实际采用的选定用户识别方式,还可以确保识别结果的可靠性。\n[0148] 实际应用中,所述选定用户识别方式确定单元604,具体可以包括:\n[0149] 用户识别精度需求信息获取子单元,用于获取所述业务所对应的用户识别精度需求信息;\n[0150] 用户识别方式选定子单元,用于从所述可用用户识别方式中,确定用户识别精度大于或等于所述用户识别精度需求信息表示的用户识别精度需求等级的用户识别方式。\n[0151] 实际应用中,所述电子设备还可以包括:\n[0152] 应用场景信息获取单元,用于在确定所述采用的可用用户识别方式对应的用户识别精度信息之前,获取应用场景信息;\n[0153] 所述用户识别精度信息确定单元603,具体可以包括:\n[0154] 用户识别精度信息确定子单元,用于根据预先设置的所述应用场景信息表示的应用场景中用户识别方式与用户识别精度之间的对应关系,确定所述用户识别方式对应的用户识别精度信息。\n[0155] 实际应用中,所述电子设备还可以包括:\n[0156] 特征信息获取单元,用于获取应用场景中的各个用户的各种类型的特征信息;\n[0157] 特征差异分析单元,用于对于每个类型的特征信息,分析各个用户之间的特征差异;\n[0158] 用户识别精度确定单元,用于依据所述特征差异,确定各种用户识别方式在所述应用场景中所对应的用户识别精度;\n[0159] 对应关系建立单元,用于建立所述应用场景中所述各种用户识别方式与所述用户识别精度之间的对应关系。\n[0160] 实际应用中,所述用户识别精度确定单元603,具体可以包括:\n[0161] 识别权重确定子单元,用于依据所述特征差异,确定各个所述特征信息的识别权重;其中,特征差异大的所述特征信息的权重高于特征差异小的所述特征信息的权重;\n[0162] 用户识别精度确定子单元,用于根据所述特征信息的识别权重,确定采用所述特征信息的用户识别方式在所述应用场景中所对应的用户识别精度。\n[0163] 本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的电子设备而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。\n[0164] 本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
法律信息
- 2019-03-29
- 2017-02-01
实质审查的生效
IPC(主分类): G06F 21/31
专利申请号: 201510358212.1
申请日: 2015.06.25
- 2017-01-04
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2008-02-13
|
2006-08-11
| | |
2
| | 暂无 |
2010-05-26
| | |
3
| |
2012-09-12
|
2012-01-09
| | |
4
| |
2015-01-14
|
2014-09-12
| | |
5
| |
2014-04-30
|
2014-01-13
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |