著录项信息
专利名称 | 基于视频地图与增强现实的犯罪现场还原方法 |
申请号 | CN201410594135.5 | 申请日期 | 2014-10-29 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2015-02-04 | 公开/公告号 | CN104331929A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G06T17/05 | IPC分类号 | G;0;6;T;1;7;/;0;5;;;G;0;6;F;3;/;0;1;;;H;0;4;N;7;/;1;8查看分类表>
|
申请人 | 深圳先进技术研究院 | 申请人地址 | 广东省深圳市南山区西丽大学城学苑大道1068号
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 深圳先进技术研究院 | 当前权利人 | 深圳先进技术研究院 |
发明人 | 修文群 |
代理机构 | 深圳市科进知识产权代理事务所(普通合伙) | 代理人 | 沈祖锋;郝明琴 |
摘要
本发明涉及城市安全管理领域,具体公开一种基于视频地图与增强现实的犯罪现场还原方法,包括:基于空间位置信息,建立坐标化的城市视频监控网络,获取包含位置信息的视频,并将各视频监控设备以及数据服务器相互关联;当视频目标出现时,获取视频目标在城市视频监控网络中不同帧的地理坐标值,形成视频目标的移动轨迹;将视频及视频目标投影到电子地图上,形成立体化的城市视频地图;根据视频及视频目标在城市视频地图上的真实场景,建立虚拟对象,将虚拟对象与城市视频地图的真实场景融合;将增强现实的信息显示给用户,与用户交互,变换增强信息。本发明将视频地图与增强现实的技术结合,使得犯罪现场直观逼真的有效重现,为破案提供有效依据。
1.基于视频地图与增强现实的犯罪现场还原方法,其特征在于,包括以下步骤:
S1、基于空间位置信息,建立坐标化的城市视频监控网络,获取包含位置信息的视频,并将各视频监控设备以及数据服务器相互关联;
S2、获取视频目标在所述城市视频监控网络中不同帧的地理坐标值,形成所述视频目标的移动轨迹;
S3、基于所述空间位置信息,将所述视频及所述视频目标投影到电子地图上,并将所述视频及所述视频目标进行角度变换及垂直拉伸处理,形成立体化的城市视频地图;
S4、根据所述视频及所述视频目标在城市视频地图上的真实场景,建立包含增强信息的虚拟对象,将所述虚拟对象与所述城市视频地图上的真实场景融合,来增强现实;
所述增强信息包括对重点说明的地方进行解释的文字信息、视频处理方式、标识物按钮等信息,或者是与真实环境共存的虚拟物体,或者是实际存在的物体的非几何信息;
S5、将所述增强现实的信息显示给用户,并与所述用户交互,根据交互信息变换所述增强信息;
所述步骤S1包括:
S11、测绘获取城市中各视频监控设备的地理坐标,以所述各视频监控设备为中心,根据监控范围,建立视频监控网络的空间坐标系;
S12、选择所述各视频监控设备的监控范围中的特征点,进行测绘,获取其他地面部分的位置信息,形成坐标化的视频监控网络;
通过对所述特征点的测绘可获取特征点的地理坐标,将视频监控设备所采集到的图像的成像矩阵进行投影变换与坐标转换,根据特征点的像素点与特征点的实际地理坐标的对应关系,获取成像矩阵中其它像素点对应的实际地理坐标,形成坐标化的视频监控网络;
S13、将所述各视频监控设备及服务器相互关联,获取包含地理位置信息的视频;
所述步骤S2包括:
S21、根据所述视频目标的像素点坐标,获取所述视频目标的地理坐标值;
S22、通过所述城市视频监控网络,追踪所述视频目标,形成所述视频目标的移动轨迹;
在获取视频目标的真实地理位置坐标之后,通过数据服务器调取与所述地理位置坐标对应的视频监控设备的监控画面,并追踪视频目标,形成视频目标的移动轨迹。
2.如权利要求1所述的基于视频地图与增强现实的犯罪现场还原方法,其特征在于,所述步骤S11中,采用三维激光扫描仪、水准仪、GPS手持机、钢尺、秒表、经纬仪等测绘仪器,来对各视频监控设备的地理坐标进行测绘。
3.如权利要求1所述的基于视频地图与增强现实的犯罪现场还原方法,其特征在于,所述步骤S3包括:
S31、将所述视频监控网络所获取的包含有地理位置信息的所述视频及所述视频目标视频分解为若干连续静态视频集合;
S32、选择所述连续静态视频集合中的关键位置点,并在分解后的视频中沿分解路径选取视频关键帧;
S33、按照街景模式,以拍摄点为中心坐标,按视频拍摄方位及视频监控网络的空间坐标系中视频的地理位置坐标,投影到球形坐标系中,生成一条沿移动路径的视频流空间;
S34、通过显示屏在电子地图上对所述视频流空间中的视频进行连续、动态的视频显示与查询。
4.如权利要求1所述的基于视频地图与增强现实的犯罪现场还原方法,其特征在于,所述步骤S4包括:
S41、获取城市地图上真实场景的视频数据,并根据真实场景的视频内容,建立包含增强信息的虚拟对象;
S42、建立所述视频的真实地理坐标信息与虚拟空间坐标系的转换关系,将所述虚拟对象合并到视频数据的真实场景对应的位置上,并通过显示设备显示所述虚拟对象与所述真实场景融为一体的信息。
5.如权利要求1所述的基于视频地图与增强现实的犯罪现场还原方法,其特征在于,所述步骤S5包括以下步骤:
S51、将所述增强现实的信息通过头盔、立体眼镜、投影显示器、移动显示器或电脑显示器显示给用户;
S52、与用户进行视线跟踪、点击、移动、旋转所述虚拟对象、手势识别的交互,根据交互信息变换所述增强信息。
基于视频地图与增强现实的犯罪现场还原方法\n技术领域\n[0001] 本发明涉及城市安全管理技术领域,特别涉及一种基于视频地图与增强现实的犯罪现场还原方法。\n背景技术\n[0002] 通过技术手段重现犯罪现场,在公安办案、法庭取证、培训教学中具有重要意义。\n然而,目前所采取的手段通常是通过传统摄像、拍照和画图等方法,具有一定的局限性,例如无法直观地表现物体之间的空间关系、需添加大量文字说明解释、无法反映现场三维真实效果、不能响应交互式控制、对于重现人物和场景结合的模拟犯罪无能为力等。\n[0003] 而现有技术通过视频监控可以捕获视频数据,再通过视频测绘与坐标化,将监控视频按其空间位置,投影到电子地图上,形成视频地图,并可按照视频内容与空间位置进行交互查询与追踪定位目标对象。\n[0004] 另外,增强现实技术是结合计算机图形学、图像处理、机器视觉等技术,通过显示设备、图形设备、传感器、跟踪器、交互工具等设备,利用虚拟图像、视频和文字信息来对真实场景进行增强的一种技术,实现真实世界和虚拟世界的融合,使用户如在真实环境中自然实时交互。\n[0005] 因此,将视频监控网络与增强现实技术相结合,可以来直观的表现犯罪现场的真实效果及空间关系,重现犯罪场景。\n发明内容\n[0006] 本发明旨在克服现有犯罪现场还原的技术无法直观表现的真实效果、反映物体之间的空间关系等技术缺陷,提供一种基于视频地图与增强现实的犯罪现场还原方法。\n[0007] 为实现上述目的,本发明采用以下技术方案:本发明提供基于视频地图与增强现实的犯罪现场还原方法,包括以下步骤:\n[0008] S1、基于空间位置信息,建立坐标化的城市视频监控网络,获取包含位置信息的视频,并将各视频监控设备以及数据服务器相互关联;\n[0009] S2、获取视频目标在所述城市视频监控网络中不同帧的地理坐标值,形成所述视频目标的移动轨迹;\n[0010] S3、基于所述空间位置信息,将所述视频及所述视频目标投影到电子地图上,并将所述视频及所述视频目标进行角度变换及垂直拉伸处理,形成立体化的城市视频地图;\n[0011] S4、根据所述视频及所述视频目标在城市视频地图上的真实场景,建立包含增强信息的虚拟对象,将所述虚拟对象与所述城市视频地图上的真实场景融合,来增强现实;\n[0012] S5、将所述增强现实的信息显示给用户,并与所述用户交互,根据交互信息变换所述增强信息。\n[0013] 一些实施例中,所述步骤S1包括以下几个步骤:\n[0014] S11、测绘获取城市中各视频监控设备的地理坐标,以所述各视频监控设备为中心,根据监控范围,建立视频监控网络的空间坐标系;\n[0015] S12、选择所述各视频监控设备的监控范围中的特征点,进行测绘,获取其他地面部分的位置信息,形成坐标化的视频监控网络;\n[0016] S13、将所述各视频监控设备及服务器相互关联,获取包含地理位置信息的视频。\n[0017] 一些实施例中,所述步骤S11中,采用三维激光扫描仪、水准仪、GPS手持机、钢尺、秒表、经纬仪等测绘仪器,来对各视频监控设备的地理坐标进行测绘。\n[0018] 一些实施例中,所述步骤S2包括:\n[0019] S21、根据所述视频目标的像素点坐标,获取所述视频目标的地理坐标值;\n[0020] S22、通过所述城市视频监控网络,追踪所述视频目标,形成所述视频目标的移动轨迹。\n[0021] 一些实施例中,所述步骤S3包括:\n[0022] S31、将所述视频监控网络所获取的包含有地理位置信息的所述视频及所述视频目标视频分解为若干连续静态视频集合;\n[0023] S32、选择所述连续静态视频集合中的关键位置点,并在分解后的视频中沿分解路径选取视频关键帧;\n[0024] S33、按照街景模式,以拍摄点为中心坐标,按视频拍摄方位及视频监控网络的空间坐标系中视频的地理位置坐标,投影到球形坐标系中,生成一条沿移动路径的视频流空间;\n[0025] S34、通过显示屏在电子地图上对所述视频流空间中的视频进行连续、动态的视频显示与查询。\n[0026] 一些实施例中,所述步骤S4包括:\n[0027] S41、获取城市地图上真实场景的视频数据,并根据真实场景的视频内容,建立增强信息;\n[0028] S42、建立所述视频的真实地理坐标信息与虚拟空间坐标系的转换关系,将虚拟对象合并到视频数据的真实场景对应的位置上,并通过显示设备显示虚拟对象与真实场景融为一体的信息。\n[0029] 一些实施例中,S51、将所述增强现实的信息通过头盔、立体眼镜、投影显示器、移动显示器或电脑显示器显示给用户;\n[0030] S52、与用户进行视线跟踪、点击、移动、旋转所述虚拟对象、手势识别的交互,根据交互信息变换所述增强信息。\n[0031] 本发明的有益效果在于:通过将视频地图与增强现实的技术结合,使得犯罪现场直观逼真的有效重现、实现了多角度观测和局部放大,更直观的表达出现场物体之间的空间位置关系,从而为破案提供有效依据。\n附图说明\n[0032] 图1为本发明基于视频地图与增强现实的犯罪现场还原方法的流程图;\n[0033] 图2为本发明基于视频地图与增强现实的犯罪现场还原方法的一个具体实施例的流程图。\n具体实施方式\n[0034] 为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,而不构成对本发明的限制。\n[0035] 本发明的思路为:首先建立犯罪现场电子地图,将视频、视频目标投影在电子地图中,通过控制点进行精确配准,将监控视频进行角度变换及垂直拉伸,使之具有显示立体感;然后将上述定位视频通过增强现实模块进行定位增强现实处理,添加文字信息及操作按钮,使犯罪目标及受害人行为直观显示。\n[0036] 请参阅图1,为本发明基于视频地图与增强现实的犯罪现场还原方法的流程图。通过以下几个步骤来实现:首先执行步骤S1,基于空间位置信息,建立坐标化的城市视频监控网络,获取包含位置信息的视频,并将各视频监控设备以及数据服务器相互关联。执行步骤S2,获取视频目标在所述城市视频监控网络中不同帧的地理坐标值,形成所述视频目标的移动轨迹。执行步骤S3,基于所述空间位置信息,将所述视频及所述视频目标投影到电子地图上,并将所述视频及所述视频目标进行角度变换及垂直拉伸处理,形成立体化的城市视频地图。执行步骤S4,根据所述视频及所述视频目标在城市视频地图上的真实场景,建立包含增强信息的虚拟对象,将所述虚拟对象与所述城市视频地图上的真实场景融合,来增强现实。执行步骤S5,将所述增强现实的信息显示给用户,并与所述用户交互,根据交互信息变换所述增强信息。\n[0037] 请参阅图2,为本发明基于视频地图与增强现实的犯罪现场还原方法一个具体实施例的流程图。具体过程为:执行步骤S11,通过测绘获取城市中各视频监控设备的地理坐标,以所述各视频监控设备为中心,根据监控范围,建立视频监控网络的空间坐标系。优选的,采用三维激光扫描仪、水准仪、GPS手持机、钢尺、秒表、经纬仪等测绘仪器,来对各视频监控设备的地理坐标进行测绘。\n[0038] 执行步骤S12,选择所述各视频监控设备的监控范围中的特征点,进行测绘,获取其他地面部分的位置信息,形成坐标化的视频监控网络。通过对特征点的测绘可获取特征点的地理坐标,将视频监控设备所采集到的图像的成像矩阵进行投影变换与坐标转换,根据特征点的像素点与特征点的实际地理坐标的对应关系,获取成像矩阵中其它像素点对应的实际地理坐标,形成坐标化的视频监控网络。执行步骤S13,将所述各视频监控设备及服务器相互关联,统一管理,获取包含地理位置信息的视频。将各视频监控设备所获取的包含有位置信息的视频数据统一存储于视频数据库中,各视频监控设备与数据服务器连接,数据服务器统一对各视频监控设备进行管理,控制各视频监控设备的监控状态。\n[0039] 执行步骤S21,根据所述视频目标的像素点坐标,获取所述视频目标的地理坐标值。由于在步骤S12中已经获取了各视频监控设备成像矩阵的像素点坐标与真实地理坐标的对应关系,因此,在获取了视频目标的像素点坐标之后,根据成像矩阵的像素点坐标与真实地理坐标的对应关系,可求得视频目标的真实地理位置坐标。执行步骤S22,通过所述城市视频监控网络,追踪所述视频目标,形成所述视频目标的移动轨迹。在获取视频目标的真实地理位置坐标之后,通过数据服务器调取与所述地理位置坐标对应的视频监控设备的监控画面,并追踪视频目标,形成视频目标的移动轨迹。\n[0040] 执行步骤S31,将视频监控网络所获取的包含有地理位置信息的视频数据及视频目标视频分解为若干连续静态视频集合。执行步骤S32,选择关键位置点,并在分解后的视频中沿分解路径选取视频关键帧;执行步骤S33,按照街景模式,以拍摄点为中心坐标,按视频拍摄方位及视频监控网络的空间坐标系中视频的地理位置坐标,投影到球形坐标系中,生成一条沿移动路径的视频流空间。优选的,将视频进行角度变换及垂直拉伸处理,形成具有立体感的城市视频地图。执行步骤S34,通过显示屏在电子地图上对视频流空间中的视频进行连续、动态的视频显示与查询,可按照视频数据的空间位置进行交互查询与追踪定位。\n从而完成了坐标化城市视频地图的建立及视频目标的可视追踪,实现对空间环境、视频目标的全息、动态、真实的展示。\n[0041] 执行步骤S41,获取城市地图上真实场景的视频数据,并根据真实场景的视频内容,建立包含增强信息的虚拟对象。通过计算机建立包含增强信息的虚拟对象,增强信息包括对重点说明的地方进行解释的文字信息、视频处理方式(包括重复播放、快慢播放、倒放、定格以及放大、测量、变换角度等)、标识物按钮等信息,可以是与真实环境共存的虚拟物体,也可以是实际存在的物体的非几何信息。执行步骤S42,建立视频的真实地理坐标信息与虚拟空间坐标系的转换关系,将虚拟对象合并到视频数据的真实场景对应的位置上,并通过显示设备显示虚拟对象与真实场景融为一体的信息。\n[0042] 执行步骤S51,将所述增强现实的信息显示给用户。通过头盔、立体眼镜、投影显示器、移动显示器或电脑显示器等观测显示设备将融合后的数据信息显示给用户。存储所生成的真实场景与虚拟对象融合的数据。执行步骤S52,与用户进行交互,变换所述增强信息。\n通过注册、跟踪与用户进行交互。所述与用户的交互包括以下几个方面:\n[0043] 根据实时检测到的用户视野变动,重建虚拟空间坐标系与真实地理坐标系的对应关系;可通过三维电子地图注册系统实现空间坐标系的转换。\n[0044] 根据用户视线方向,在投影平面中的映射位置添加相应虚拟对象,并将这些信息实时显示在荧光屏的正确位置。优选的,可利用红外摄像技术及角膜反射技术跟踪眼球的运动,计算出视线方向。\n[0045] 根据用户操作对虚拟对象进行点击、移动、旋转等动作的交互。作为优选,可通过虚拟现实硬件及软件编程实现用户对虚拟对象的操作,所述虚拟现实硬件包括数据手套等。\n[0046] 采用手势识别的交互、基于视频处理方式的交互,如在标识物上生成按钮菜单等。\n[0047] 用户可以通过AR头盔、眼镜等观测设备对视频及增强信息进行定位播放,使得用户身处犯罪现场,观看视频中犯罪目标及受害人行为。用户在观测时,当视线从一个场景转移到另一个场景时,系统重建虚拟坐标与真实坐标的关系,虚拟对象的增强信息也随之变化,从而显示对应另一个场景的增强信息。用户可以根据需要点击虚拟按钮对视频进行重复播放、快慢播放、倒放、定格以及放大、测量、变换角度等操作。\n[0048] 通过本实施例,构建了虚拟场景,将犯罪现场逼真的呈现,实现了多角度观测和局部放大,对需要重点说明的地方,将文字信息和视频信息相叠加。从而解决了真实现场犯罪信息无法保存、照片不直观等问题,便于对现场进行反复研究,为破案提供依据;同时可以作为课程案例,用于公安院校教学及新警培训。\n[0049] 以上所述本发明的具体实施方式,并不构成对本发明保护范围的限定。任何根据本发明的技术构思所作出的各种其他相应的改变与变形,均应包含在本发明权利要求的保护范围内。
法律信息
- 2018-02-02
- 2015-03-11
实质审查的生效
IPC(主分类): G06T 17/05
专利申请号: 201410594135.5
申请日: 2014.10.29
- 2015-02-04
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2008-08-20
|
2008-03-03
| | |
2
| |
2009-01-07
|
2007-07-04
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |