著录项信息
专利名称 | 一种实现体感交互的方法和系统 |
申请号 | CN201110033121.2 | 申请日期 | 2011-01-30 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2012-08-01 | 公开/公告号 | CN102622081A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G06F3/01 | IPC分类号 | G;0;6;F;3;/;0;1;;;G;0;6;F;3;/;0;4;8;;;G;0;6;T;1;9;/;0;0查看分类表>
|
申请人 | 北京新岸线网络技术有限公司 | 申请人地址 | 北京海淀区中关村东路1号院清华科技园8号楼科技大厦A座16层
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 北京新岸线移动多媒体技术有限公司 | 当前权利人 | 北京新岸线移动多媒体技术有限公司 |
发明人 | 王嘉;鲍东山 |
代理机构 | 暂无 | 代理人 | 暂无 |
摘要
本发明公开了一种实现体感交互的方法,包括:获取操作者的运动信息,并将该运动信息映射到真实参照系;测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数,计算虚拟3D立体影像在真实参照系中的成像坐标,将显示参照系中的3D立体影像映射到真实参照系;在真实参照系中检测人体动作与3D影像的互动信息;根据所述互动信息进行相应的互动操作。本发明还提供了相应的体感交互系统。根据本发明可在3D环境下实现人机交互,使得用户有很好的操作体验,操作者具有身临其境的互动体验感。
1.一种实现体感交互的方法,其特征在于,包括:
获取操作者的运动信息,并将该运动信息映射到真实参照系;
测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数,计算虚拟3D立体影像在真实参照系中的成像坐标,将所述显示参照系中的3D立体影像映射到真实参照系;
在真实参照系中检测人体动作与3D影像的互动信息,具体包括:获取人体动作时对应在真实参照系中的坐标;基于所获取的坐标与3D影像中的相互关系,判断人体动作是否与
3D影像互动;若互动,则获取互动信息;
根据所述互动信息进行相应的互动操作。
2.如权利要求1所述的方法,其特征在于,所述获取操作者的运动信息,具体包括:
监测操作者的肢体动作,测算操作者所在场景的距离信息;
基于所述距离信息,根据所述操作者的肢体动作获得传感器参照系中所述操作者运动过程中的坐标参数。
3.如权利要求1所述的方法,其特征在于,使用距离传感器对操作者所在场景采集距离图像;将所述距离图像中的人体运动信息映射到真实参照系,具体包括:
根据设置的所述距离传感器,计算出操作者所在场景与摄像机之间的距离信息,并生成距离图像;
根据所述距离图像,将传感器参照系中操作者运动过程中的坐标参数计算出真实参照系中操作者的坐标。
4.一种实现体感交互的系统,其特征在于,包括:
运动信息获取装置,用于获取操作者的运动信息,并转换为传感器参照系中所述操作者运动过程中的坐标;
第一映射装置,用于将传感器参照系中所述操作者运动过程中的坐标映射到真实参照系;
测算装置,测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数;
第二映射装置,用于计算虚拟3D立体影像在真实参照系中的成像坐标,将所述3D立体影像映射到真实参照系;
检测装置,用于在真实参照系中检测人体动作与3D影像的互动信息,具体包括:获取人体动作时对应在真实参照系中的坐标;基于所获取的坐标与3D影像中的相互关系,判断人体动作是否与3D影像互动;若互动,则获取互动信息;
执行装置,根据所述互动信息进行相应的互动操作。
5.如权利要求4所述的系统,其特征在于,所述运动信息获取装置,包括:
动作感应模块,用于感应操作者的肢体动作,得到肢体动作信息;
距离传感器,用于获得场景的距离信息,并生成距离图像;
坐标建立模块,根据所述肢体动作信息传感器参照系中所述操作者运动过程中的坐标。
6.如权利要求4所述的系统,其特征在于,所述第一映射装置,包括:
检测模块,用于监测操作者的肢体动作,测算操作者所在场景的距离信息,计算出操作者与摄像机之间的距离;
坐标转换模块,基于所述距离信息,根据所述操作者的肢体动作将传感器参照系中所述操作者的坐标参数转换为真实参照系中操作者的坐标。
一种实现体感交互的方法和系统\n技术领域\n[0001] 本发明涉及3D视频图像处理及人机交互技术领域,具体涉及一种实现体感交互的方法和系统。\n背景技术\n[0002] 现有的体感交互技术,典型的体感交互系统,如微软的Kinect系统、任天堂的Wii系统、索尼的PS Move系统等,使人们能够通过肢体动作与多媒体终端进行交互,突破了以往单纯以手柄按键输入的操作方式。这种模式虽然摆脱了手柄操作的限制,但用户在操作时的体验却非常不直观。原因是用户在操作时的参考坐标系是显示屏上的显示参照系,体感技术把用户的肢体动作映射到屏幕上,并在显示参照系下与软件程序或游戏进行互动。\n这种感觉就好像,用户在操纵自己的影子(此时影子是显示在屏幕上),然后通过影子与游戏互动。如图1所示。\n[0003] 这种操控体验是非常不直观的。举例来说,基于现有的体感互动模式,用户必须先判断好自己的行动会如何操控屏幕上的影子,然后才能更好的控制游戏角色进行动作。换句话说,用户必须先把自身映射到游戏的显示参照系中才能进行游戏,这种操控体验是很不自然的。\n[0004] 对于用户来说,只有在自身所处的真实参照系中动作,才能获得最佳的操作体验。\n3D显示技术为体感互动提供了这种可能。3D显示技术通过同时向用户的左右眼输出不同的图像,利用立体视觉原理向用户呈现出超出屏幕平面的虚拟立体影像。\n[0005] 但是,目前基于3D显示系统的体感互动技术方案成为研究的热点,需要提出相应的实现方案,以达到人们身临其境的互动体验感。\n发明内容\n[0006] 本发明提供一种实现体感交互的方法和系统,可在3D环境下实现人机交互,使得操作者身临其境的互动体验感。\n[0007] 本发明提供一种实现体感交互的方法,包括:\n[0008] 获取操作者的运动信息,并将该运动信息映射到真实参照系;\n[0009] 测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数,计算虚拟3D立体影像在真实参照系中的成像坐标,将所述显示参照系中的3D立体影像映射到真实参照系;\n[0010] 在真实参照系中检测人体动作与3D影像的互动信息,具体包括:获取人体动作时对应在真实参照系中的坐标;基于所获取的坐标与3D影像中的相互关系,判断人体动作是否与3D影像互动;若互动,则获取互动信息;根据所述互动信息进行相应的互动操作。\n[0011] 本发明提供的一种实现体感交互的系统,包括:\n[0012] 运动信息获取装置,用于获取操作者的运动信息,并转换为传感器参照系中所述操作者运动过程中的坐标;\n[0013] 第一映射装置,用于将传感器参照系中所述操作者运动过程中的坐标映射到真实参照系;\n[0014] 测算装置,测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数;\n[0015] 第二映射装置,用于计算虚拟3D立体影像在真实参照系中的成像坐标,将所述3D立体影像映射到真实参照系;\n[0016] 检测装置,用于在真实参照系中检测人体动作与3D影像的互动信息,具体包括:获取人体动作时对应在真实参照系中的坐标;基于所获取的坐标与3D影像中的相互关系,判断人体动作是否与3D影像互动;若互动,则获取互动信息;\n[0017] 执行装置,根据所述互动信息进行相应的互动操作。\n[0018] 综上所述,本发明提供的实现体感交互的技术方案,通过将将操作者的位置信息与3D图像映射到统一参照系中,在该参照系中检测人体动作与3D影像的互动信息,并根据检测到的互动信息进行互动操作。根据本发明可在3D环境下实现人机交互,使得用户有很好的操作体验,操作者具有身临其境的互动体验感。\n附图说明\n[0019] 图1为现有技术中体感互动操作示意图;\n[0020] 图2为本发明实施例中提供的基于3D视频系统实现体感交互的原理图;\n[0021] 图3为本发明实施例中提供的一种实现体感交互的方法流程图;\n[0022] 图4为本发明实施例中的一种实现体感交互的系统架构示意图;\n[0023] 图5(a)和5(b)为本发明实施例中平行双目视觉距离传感器测量距离的原理图;\n[0024] 图6(a)和6(b)为本发明实施例中双目视觉距离传感器与3D显示屏的设置示意图;\n[0025] 图7为本发明实施例中操作部件在真实参照系中的映射示意图。\n具体实施方式\n[0026] 随着3D技术的不断发展和普及,还有人们对交互式系统的需求不断提高,本发明提出一种基于3D视频的实现体感交互的方法和系统,使得用户有很好的操作体验,具有身临其境的互动体验感。\n[0027] 图2所示为本发明提供的技术方案中基于3D视频系统实现体感交互的原理图,参照图2,首先,对操作者的动作进行感应,并将其动作映射为真实参照系的坐标;并对操作者得眼睛进行定位:得到人眼位置信息,测算人眼在真实参照系中的位置参数;其次,将3D图像进行视差计算和调整,结合显示参照系的视差信息和所述人眼位置参数,计算虚拟3D立体影像在真实参照系中的成像坐标,将所述显示参照系中的3D立体影像映射到真实参照系;检测映射后的人体动作与3D影像的互动信息;并根据检测结果进行互动操作。\n[0028] 参照图3,本发明提供的一种实现体感交互的方法,包括如下步骤:\n[0029] S01,获取操作者的运动信息,并将该运动信息映射到真实参照系;\n[0030] S02,计算虚拟3D立体影像在真实参照系中的成像坐标,将所述显示参照系中的3D立体影像映射到真实参照系;\n[0031] 测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数,计算虚拟3D立体影像在真实参照系中的成像坐标,将所述显示参照系中的3D立体影像映射到真实参照系。\n[0032] S03,在真实参照系中检测人体动作与3D影像的互动信息;\n[0033] S04,根据所述互动信息进行相应的互动操作。\n[0034] 步骤S01中,获取操作者的运动信息,具体包括:\n[0035] 监测操作者的肢体动作,测算操作者所在场景的距离信息;\n[0036] 基于所述距离信息,根据所述操作者的肢体动作获得传感器参照系中所述操作者运动过程中的坐标参数。\n[0037] 所谓传感器参照系是以距离传感器已经操作者的位置构建的坐标参照系,主要反映操作者所在场景的距离及位置关系。\n[0038] 步骤S01中,设置至少两台摄像机对操作者所在场景采集图像;所述将该运动信息映射到真实参照系,具体包括:\n[0039] 11)根据设置的所述至少两台摄像机所采图像的视差,结合所述摄像机之间的位置关系,计算出操作者与摄像机之间的距离;\n[0040] 12)根据所述距离,将传感器参照系中操作者运动过程中的坐标参数计算出真实参照系中操作者的坐标。\n[0041] 步骤S03中,在真实参照系中检测人体动作与3D影像的互动信息,具体包括:\n[0042] 31)获取人体动作时对应在真实参照系中的坐标;\n[0043] 32)基于所获取的坐标与3D影像中的相互关系,判断人体动作是否与3D影像互动;\n若互动,则获取互动信息。\n[0044] 参照图4,本发明提供的一种实现体感交互的系统400,包括:\n[0045] 运动信息获取装置410,用于获取操作者的运动信息,并转换为传感器参照系中所述操作者运动过程中的坐标;\n[0046] 第一映射装置420,用于将传感器参照系中所述操作者运动过程中的坐标映射到真实参照系;\n[0047] 测算装置430,测算人眼在真实参照系中的位置参数,结合显示参照系的视差信息和所述人眼位置参数;\n[0048] 第二映射装置440,用于计算虚拟3D立体影像在真实参照系中的成像坐标,将所述\n3D立体影像映射到真实参照系;\n[0049] 检测装置450,用于在真实参照系中检测人体动作与3D影像的互动信息;\n[0050] 执行装置460,根据所述互动信息进行相应的互动操作。\n[0051] 在本发明具体实施例中,运动信息获取装置410,包括:\n[0052] 动作感应模块410a,用于感应操作者的肢体动作,得到肢体动作信息;\n[0053] 距离传感器410b,用于获得场景的距离信息,并生成距离图像;\n[0054] 坐标建立模块410c,根据所述肢体动作信息传感器参照系中所述操作者运动过程中的坐标。\n[0055] 在本发明具体实施例中,第一映射装置420,包括:\n[0056] 检测模块420a,用于监测操作者的肢体动作,测算操作者所在场景的距离信息,计算出操作者与摄像机之间的距离;\n[0057] 坐标转换模块420b,基于所述距离信息,根据所述操作者的肢体动作将传感器参照系中所述操作者的坐标参数转换为真实参照系中操作者的坐标。\n[0058] 为使本发明的原理、特性和优点更加清楚,下面结合具体实施例进行描述。\n[0059] 下面以双目视觉距离传感器为例,说明操作者对3D虚拟按钮的操作过程:\n[0060] 第一步、人体动作坐标映射;\n[0061] 由于人体动作是在真实参照系中发生的,而视觉传感器通过图像采集,将这种运动信息映射到了传感器参照系,因此首先要通过“人体动作坐标映射模块”将传感器参照系中的动作映射回真实参照系。动作是由一系列状态组成的,只要将动作中的每个状态都映射回真实参照系,那么由状态组成的动作也就在真实参照系中得到还原。以操作者按动虚拟按钮的动作来说,只要将每个时刻操作者手部的位置信息映射回真实参照系,则操作者按动按钮的动作就能得到还原。\n[0062] 利用基于双目视觉的距离传感器,传感器参照系中的位置信息可以按照如下方式映射回真实参照系。\n[0063] 双目视觉距离传感器利用立体成像原理计算距离信息。通过使用按照某种方式放置的多台摄像机对同一场景采集图像,根据这些摄像机所采图像的差异(视差),结合摄像机之间的位置关系,就可以计算出目标与摄像机之间的距离。考虑到设备与计算的复杂度,实用的方式是采用两台平行放置的摄像机组成距离传感器。\n[0064] 图5(a)和5(b)所示为平行双目视觉距离传感器测量距离的原理图。如图5所示,两台焦距为f的摄像机平行放置,光轴之间的距离为T,图5(a)所示的立体图中的两个矩形分辨表示左右摄像机的成像平面,Ol和Or为左右摄像机的焦点,对于场景中的任意一点P,在左右摄像机成像平面上的成像点分别为pl和pr,它们在成像平面上的成像坐标(图像坐标)为xl和xr,则视差定义为d=xl-xr(如图5(b)所示的俯视图)。\n[0065] 以图5中的左摄像机焦点Ol为原点,OlOr所在直线为X轴,左摄像机光轴为Z轴,垂直于XZ轴的为Y轴,则P点在Ol坐标系中的坐标可以按照公式(1)计算:\n[0066]\n[0067] 由此,传感器参照系中的每个位置都可以依据距离信息d映射到Ol真实参照系。\n[0068] 针对操作者按动按钮的动作,“人体动作坐标映射模块”首先从图像中检测出人手的位置,然后将人手的位置信息映射到真实参照系。\n[0069] 第二步、立体影像坐标映射:\n[0070] 人体动作被映射到真实参照系后,还需要将立体影像也映射到真实参照系,如此才能在相同的参照系中判断两者是否发生互动。\n[0071] 立体影像坐标映射同样基于立体成像原理。为降低计算量,双目视觉距离传感器与显示屏采用图6(a)的方式放置,图6(b)所示为相应的俯视图。3D显示屏位于双目测距传感器的焦距平面,即XY平面,显示屏中心为O,O在Ol真实参照系中的坐标为(x,y)。\n[0072] 由于虚拟3D图像的在真实参照系中的成像位置与人眼的位置相关,因此还需要计算人眼在真实参照系中的坐标。计算方法与人体动作映射一样,利用双目视觉距离传感器,首先检测人的双眼在图像中的位置,然后利用视差d,将位置信息映射到真实参照系。\n[0073] 下面,就可以根据3D图像中按钮的位置和人眼的位置计算虚拟按钮在真实参照系中的位置。计算的原理如图7所示。\n[0074] 图7中给出了两个按钮A和B,根据它们在左右眼视图中的位置,计算出虚拟按钮A和B在真实坐标系中的位置:虚拟按钮A位于3D显示屏之后,虚拟按钮B位于3D显示屏之前。\n其具体坐标按照如下方式计算:\n[0075] 基于图6(a)的Ol真实参照系,假设左右眼在真实参照系中的坐标为(xlefteye,ylefteye,zlefteye)和(xrighteye,yrighteye,zrighteye),按钮的左右视图在真实参照系中的坐标为(xleftbutton,yleftbutton,0)和(xrightbutton,yrightbutton,0),由于按钮是显示在3D显示屏上,因此z=0。此外,由于一般情况下,人是正视3D显示屏的,并且3D图像仅包含水平视差,则zlefteye=zrighteye且yleftbutton=yrightbutton。如此,虚拟俺钮在真实参照系中的坐标可以按照公式(2)计算:\n[0076]\n[0077] 如此,就获得了虚拟按钮在真实参照系中的坐标。\n[0078] 第三步、互动检测:\n[0079] 针对操作者按动按钮的动作,此时有了操作者手部和虚拟按钮在真实参照系中的坐标,就可以直接根据两者坐标是否重合来判断操作者是否按动了虚拟按钮。针对图7中给出的按钮的两种情况:虚拟按钮B位于显示屏与操作者之间,可以直接根据坐标判断两者是否接触,若接触则激发互动事件,否则认为没有触动按钮;对于虚拟按钮A,由于其处于显示屏之后,因此若互动规则定义为“直接接触”的话,操作者无法针对按钮A进行动作,但如果定义了其他的非接触式互动规则(如根据手的运动方向触发按钮),则可以让操作者根据新的规则与按钮互动。\n[0080] 综上所述,本发明提供的实现体感交互的技术方案,通过将将操作者的位置信息与3D图像映射到统一参照系中,在该参照系中检测人体动作与3D影像的互动信息,并根据检测到的互动信息进行互动操作。根据本发明可在3D环境下实现人机交互,使得用户有很好的操作体验,操作者具有身临其境的互动体验感。\n[0081] 本发明虽然以较佳实施例公开如上,但其并不是用来限定本发明,任何本领域技术人员在不脱离本发明的精神和范围内,都可以做出可能的变动和修改,因此本发明的保护范围应当以本发明权利要求所界定的范围为准。
法律信息
- 2016-06-08
- 2014-03-12
实质审查的生效
IPC(主分类): G06F 3/01
专利申请号: 201110033121.2
申请日: 2011.01.30
- 2012-11-14
专利申请权的转移
登记生效日: 2012.10.15
申请人由北京新岸线网络技术有限公司变更为北京新岸线移动多媒体技术有限公司
地址由100084 北京市海淀区中关村东路1号清华科技园科技大厦A座17层变更为100084 北京海淀区中关村东路1号院清华科技园8号楼科技大厦A座16层
- 2012-08-01
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2009-09-02
|
2008-12-31
| | |
2
| | 暂无 |
2008-06-25
| | |
3
| |
2010-06-09
|
2009-12-30
| | |
4
| |
2002-09-18
|
2001-02-15
| | |
5
| |
2009-01-14
|
2008-08-15
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |