著录项信息
专利名称 | 一种集成3D识别的帽子及帽子的3D识别方法 |
申请号 | CN201310296270.7 | 申请日期 | 2013-07-16 |
法律状态 | 暂无 | 申报国家 | 中国 |
公开/公告日 | 2013-10-09 | 公开/公告号 | CN103345064A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G02B27/01 | IPC分类号 | G;0;2;B;2;7;/;0;1;;;G;0;6;F;3;/;0;1;;;A;4;2;B;1;/;2;4查看分类表>
|
申请人 | 卫荣杰 | 申请人地址 | 上海市嘉定区沪宜公路1082号5幢412室
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 塔普翊海(上海)智能科技有限公司 | 当前权利人 | 塔普翊海(上海)智能科技有限公司 |
发明人 | 卫荣杰 |
代理机构 | 暂无 | 代理人 | 暂无 |
摘要
本发明的一种集成3D识别的帽子及帽子的3D识别方法,帽子所处头部位置即拥有人体最佳的平衡抗震优势又拥有绝佳的视听感官集合;帽子集成红外3D识别将环境建模和手势识别结合到头戴电脑、无线网络和显示器上,完善了增强现实中对环境3D建模、对物联网地图标注和裸手操控,将能实现物联网中物在何处、网在那点、对物的任意标注、以及符合人体工学的裸手对它们操控,实现增强现实中直观形象的人机互动,是一种未来的发展趋势。
1.一种集成3D识别的帽子,包括帽子本体,其特征在于,所述帽子本体包括帽子内衬和帽体顶罩,还包括连接固定所述帽子内衬和帽体顶罩的帽圈;所述帽子本体还包括帽舌;
在所述帽子内衬与帽体顶罩之间的夹层里安装固定了头戴电脑,以及分别与头戴电脑连接的TOF3D识别装置的TOF主控模块和TOF处理模块、视差3D识别装置的视差法主控模块和视差法处理模块、运动跟踪传感器和电源管理模块;所述帽子的显示器延伸至帽舌下方;
所述头戴电脑包含微处理器、存储器、总线接口、3D动作手势特征库、地图和环境3D模型库、物联网应用节点标注库;
所述TOF3D识别装置用于采集前方环境的3D深度图,包括TOF主控模块,以及分别连接在所述TOF主控模块上的TOF处理模块、红外发射单元、TOF相机和摄像头;
所述视差3D识别装置用于得到图像中的3D动作特征,包括视差法主控模块,以及分别连接在所述视差法主控模块上的视差法处理模块、左红外摄像头、右红外摄像头和红外LED灯;
所述头戴电脑接收TOF3D识别装置采集前方环境的3D深度图的数据,GPS定位模块定位的全球地理坐标位置的GPS数据,和运动跟踪传感器计算出的运动轨迹和内嵌场坐标、地磁指南数据、重力场倾角数据;所述头戴电脑接收TOF3D识别装置根据这三组数据构建三维模型,将地理坐标标注到地图和环境3D模型库里,并且通过视点移动后的新位置,将新的三维模型依照空间法则拟合和拼贴;
头戴电脑采集深度图的具体包括:帽子的TOF主控模块驱动彩色摄像头、TOF相机和红外发射单元进行工作;所述彩色摄像头在驱动下拍摄到与TOF相机同观测点和方向的高清视频;所述红外发射单元在驱动下发出持续调制信号的红外光,发出的红外光经过物体反射回来被TOF相机拾取计量得到深度图;所述TOF相机将得到的深度图发送给所述TOF处理模块;所述TOF处理模块将深度图通过抑制异常点和噪声滤波得到去除噪声和无关背景的图;所述TOF处理模块再结合彩色摄像头得到图像进行优化滤波提高深度图解析度;所述TOF处理模块将实时深度图、彩色视频输出到所述头戴电脑;
所述头戴电脑根据地图和环境3D模型库,基于地球坐标系静止的虚拟显示且与现实场景嵌合,虚拟环境视野随头部移动而移动,通过人机手势指令和物联网应用节点标注库对视野中的物件标注,并对物联网应用界面进行操作。
2.根据权利要求1所述的一种集成3D识别的帽子,其特征在于:所述运动跟踪传感器包含三轴陀螺仪、三轴加速仪、三轴磁强仪。
3.根据权利要求1所述的一种集成3D识别的帽子,其特征在于:所述帽体顶罩顶上安装固定有无线网络模块和所述GPS定位模块,所述无线网络模块和GPS定位模块分别连接到头戴电脑上。
4.一种帽子的3D识别方法,具体包括以下步骤:
步骤A、将拍摄的外部环境的实时深度图和3D视频图像发送到头戴电脑中的地图和环境3D模型库;
步骤B、将GPS定位模块的全球地理坐标位置的GPS数据传输给地图和环境3D模型库;
将运动跟踪传感器计算出的运动轨迹和内嵌场坐标、地磁指南数据、重力场倾角数据传给地图和环境3D模型库;
步骤C、地图和环境3D模型库提取视频图像的三维模型,并提取视点坐标、方位和倾角;判断拍摄的外部环境有没有已注册模型,如果无,通过提取GPS数据和内嵌场坐标注册三维模型到地图和环境的3D模型库;如果有,进入到步骤D;
步骤D、提取已有注册模型的坐标和模型,并判断拍摄的外部环境的三维模型和已有注册的模型是否可以拟合,如果否,标注不拟合浮法坐标,提取图形的GPS数据的内嵌场坐标,并将拍摄的三维模型注册到三维模型到地图和环境的3D模型库;如果是,进入到步骤E;
步骤E、将拍摄的部环境的三维模型拼贴并注册到地图和环境的3D模型库中,然后通过综合坐标复验存储到拍摄环境库,并通过显示器进行显示。
5.根据权利要求4所述的一种帽子的3D识别方法,其特征在于,所述步骤A中头戴电脑采集深度图的方法,包括以下步骤:
A1、帽子的TOF主控模块驱动彩色摄像头、TOF相机和红外发射单元进行工作;
A2、所述彩色摄像头在驱动下拍摄到与TOF相机同观测点和方向的高清视频;
A3、所述红外发射单元在驱动下发出持续调制信号的红外光,发出的红外光经过物体反射回来被TOF相机拾取计量得到深度图;
A4、所述TOF相机将得到的深度图发送给所述TOF处理模块;所述TOF处理模块将深度图通过抑制异常点和噪声滤波得到去除噪声和无关背景的图;
A5、所述TOF处理模块再结合彩色摄像头得到图像进行优化滤波提高深度图解析度;
A6、所述TOF处理模块将实时深度图、彩色视频输出到所述头戴电脑。
6.根据权利要求5所述的一种帽子的3D识别方法,其特征在于,所述步骤E之后还包括步骤F:手势识别操控指令,所述步骤F具体包括以下步骤:
步骤F1、视差法主控模块驱动左红外摄像头、右红外摄像头和多个红外LED灯进行工作;
步骤F2、所述多个红外LED灯在驱动下按照程序高速闪烁,所述左红外摄像头和右红外摄像头同步高速拍摄帽舌下的双手或物体动态,并将拍摄到的视频的帧发送视差法处理模块;
步骤F3、所述视差法处理模块分别对通过左红外摄像头和右红外摄像头的帧进行以下处理:抑制背景滤波屏蔽脸部轮廓和去除背景,再通过多帧时域滤波提取手指轮廓,进一步通过粒子滤波运动跟踪提取手指运动特征;
步骤F4、所述视差法处理模块再将左红外摄像头和右红外摄像头帧中的二维的手指轮廓进行匹配特征优化和立体坐标映射,将二维特征优化到有限点阵,两个二维点阵进行匹配外剔除,再将其特征简化到指尖关节等,利用视差法映射到立体坐标中;
步骤F5、所述视差法处理模块将得到的3D动作特征发送给所述头戴电脑;
步骤F6,所述头戴电脑根据得到的3D动作特征同3D动作手势特征库进行比对,判定
3D动作特征所代表的动作指令。
7.根据权利要求6所述的一种帽子的3D识别方法,其特征在于,所述步骤F之后还包括以下步骤:
基于地球坐标系静止的虚拟显示,再与拍摄的外部环境的现实场景嵌合,虚拟环境视野随头部移动而移动,通过人机手势指令和物联网应用节点标注库对视野中的物件标注,并对物联网应用界面进行操作。
一种集成3D识别的帽子及帽子的3D识别方法\n技术领域\n[0001] 本发明的技术涉及帽子所在的领域,同时涉及电脑、3D识别和增强现实等多领域的技术,是一种可穿戴式增强现实系统,特别指一种集成红外3D识别的帽子及帽子的识别方法。\n背景技术\n[0002] 帽子是戴在头上覆盖部分或全部头皮和头发的功能性或装饰用的用品,除了功能性的作用:例如保护头部、保暖、防尘、防污、防晒、约束头发等等外,在过去历史上还代表着富贵贫贱、地位、职业、性别等等,而多元化的现代很多帽子已经淡去它的象征性和功能性。\n[0003] 在步入物联网、网络大数据时代的今天,一种增强现实的随身输入输出设备迫不及待。而对于现有的增强现实产品和随身智能设备中,如:显示头盔、眼镜显示器、智能手机、和便携移动通讯设备中,没有一种设备能够随身穿戴并且在增强现实环境中实现随身环境3D建模和物联网地图标注及裸手操控。\n[0004] 人们历来习惯佩戴的有帽舌的帽子,外观符合普适价值心理,即拥有人体自平衡抗震优势又拥有绝佳的视听感官集合,因此将穿戴式智能设备的功能和帽子结合的产品将是一种技术方向,但是,现在不存在这样的电子设备。\n[0005] 因此,现有技术存在缺陷,有待于进一步改进和发展。\n发明内容\n[0006] (一)发明目的:为解决上述现有技术中存在的问题,本发明的目的是提供一种红外3D识别将环境建模和手势识别结合到具有头戴电脑、无线网络和显示器的帽子中,以方便人们通过随身穿戴的帽子对环境建模、对物联网地图标注和裸手操控,实现增强现实中直观形象的人机互动。\n[0007] (二)技术方案:\n[0008] 一种集成3D识别的帽子,包括帽子本体,其中,所述帽子本体包括帽子内衬和帽体顶罩,还包括连接固定所帽子内衬和帽体顶罩的帽圈;所述帽子本体还包括帽舌;\n[0009] 在所述帽子内衬与帽体顶罩之间的夹层里安装固定了头戴电脑,以及分别与头戴电脑连接的TOF3D识别装置的TOF主控模块和TOF处理模块、视差3D识别装置的视差法主控模块和视差法处理模块、运动跟踪传感器和电源管理模块;所述帽子的显示器延伸至帽舌下方;\n[0010] 所述头戴电脑包含微处理器、存储器、总线接口、3D动作手势特征库、地图和环境\n3D模型库、物联网应用节点标注库;\n[0011] 所述TOF3D识别装置用于采集前方环境的3D深度图,包括TOF主控模块,以及分别连接在所述TOF主控模块上的TOF处理模块、红外发射单元、TOF相机和摄像头;\n[0012] 所述视差3D识别装置用于得到图像中的3D动作特征,包括视差法主控模块,以及分别连接在所述视差法主控模块上的视差法处理模块、左红外摄像头、右红外摄像头和红外LED灯;\n[0013] 所述头戴电脑接收TOF3D识别装置采集前方环境的3D深度图的数据,GPS定位模块定位的全球地理坐标位置的GPS数据,和运动跟踪传感器计算出的运动轨迹和内嵌场坐标、地磁指南数据、重力场倾角数据;所述头戴电脑接收TOF3D识别装置根据这三组数据构建三维模型,将地理坐标标注到地图和环境3D模型库里,并且通过视点移动后的新位置,将新的三维模型依照空间法则拟合和拼贴;\n[0014] 所述头戴电脑根据地图和环境3D模型库,基于地球坐标系静止的虚拟显示且与现实场景嵌合,虚拟环境视野随头部移动而移动,通过人机手势指令和物联网应用节点标注库对视野中的物件标注,并对物联网应用界面进行操作。\n[0015] 所述的一种集成3D识别的帽子,其中:所述运动跟踪传感器包含三轴陀螺仪、三轴加速仪、三轴磁强仪。\n[0016] 所述的一种集成3D识别的帽子,其中:所述帽体顶罩顶上安装固定有无线网络模块和所述GPS定位模块,所述无线网络模块和GPS定位模块分别连接到头戴电脑上。\n[0017] 一种帽子的3D识别方法,具体包括以下步骤:\n[0018] 步骤A、将拍摄的外部环境的实时深度图和3D视频图像发送到头戴电脑中的地图和环境3D模型库;\n[0019] 步骤B、将GPS定位模块的全球地理坐标位置的GPS数据传输给地图和环境3D模型库;将运动跟踪传感器计算出的运动轨迹和内嵌场坐标、地磁指南数据、重力场倾角数据传给地图和环境3D模型库;\n[0020] 步骤C、地图和环境3D模型库提取视频图像的三维模型,并提取视点坐标、方位和倾角;判断拍摄的外部环境有没有已注册模型,如果无,通过提取GPS数据和内嵌场坐标注册三维模型到地图和环境的3D模型库;如果有,进入到步骤D;\n[0021] 步骤D、提取已有注册模型的坐标和模型,并判断拍摄的外部环境的三维模型和已有注册的模型是否可以拟合,如果否,标注不拟合浮法坐标,提取图形的GPS数据的内嵌场坐标,并将拍摄的三维模型注册到三维模型到地图和环境的3D模型库;如果是,进入到步骤E;\n[0022] 步骤E、将拍摄的部环境的三维模型拼贴并注册到地图和环境的3D模型库中,然后通过综合坐标复验存储到拍摄环境库,并通过显示器进行显示。\n[0023] 所述的一种帽子的3D识别方法,其中,所述步骤A中头戴电脑采集深度图的方法,包括以下步骤:\n[0024] A1、帽子的TOF主控模块驱动彩色摄像头、TOF相机和红外发射单元进行工作;\n[0025] A2、所述彩色摄像头在驱动下拍摄到与TOF相机同观测点和方向的高清视频;\n[0026] A3、所述红外发射单元在驱动下发出持续调制信号的红外光,发出的红外光经过物体反射回来被TOF相机拾取计量得到深度图;\n[0027] A4、所述TOF相机将得到的深度图发送给所述TOF处理模块;所述TOF处理模块将深度图通过抑制异常点和噪声滤波得到去除噪声和无关背景的图;\n[0028] A5、所述TOF处理模块再结合彩色摄像头得到图像进行优化滤波提高深度图解析度;\n[0029] A6、所述TOF处理模块将实时深度图、彩色视频输出到所述头戴电脑。\n[0030] 所述的一种帽子的3D识别方法,其中,所述步骤E之后还包括步骤F:手势识别操控指令,所述步骤F具体包括以下步骤:\n[0031] 步骤F1、视差法主控模块驱动左红外摄像头、右红外摄像头和多个红外LED灯进行工作;\n[0032] 步骤F2、所述多个红外LED灯在驱动下按照程序高速闪烁,所述左红外摄像头和右红外摄像头同步高速拍摄帽舌下的双手或物体动态,并将拍摄到的视频的帧发送视差法处理模块;\n[0033] 步骤F3、所述视差法处理模块分别对通过左红外摄像头和右红外摄像头的帧进行以下处理:抑制背景滤波屏蔽脸部轮廓和去除背景,再通过多帧时域滤波提取手指轮廓,进一步通过粒子滤波运动跟踪提取手指相关特征;\n[0034] 步骤F4、所述视差法处理模块再将左红外摄像头和右红外摄像头帧中的二维的手指轮廓进行匹配特征优化和立体坐标映射,将二维特征优化到有限点阵,两个二维点阵进行匹配外剔除,再将其特征简化到指尖关节等,利用视差法映射到立体坐标中;\n[0035] 步骤F5、所述视差法处理模块将得到的3D动作特征发送给所述头戴电脑;\n[0036] 步骤F6,所述头戴电脑根据得到的3D动作特征同3D动作手势特征库进行比对,判定3D动作特征所代表的动作指令。\n[0037] 所述的一种帽子的3D识别方法,其中,所述步骤F之后还包括以下步骤:\n[0038] 基于地球坐标系静止的虚拟显示,再与拍摄的外部环境的现实场景嵌合,虚拟环境视野随头部移动而移动,通过人机手势指令和物联网应用节点标注库对视野中的物件标注,并对物联网应用界面进行操作。\n[0039] (三)有益效果:本发明提供的一种集成3D识别的帽子及帽子的3D识别方法,帽子所处头部位置即拥有人体最佳的平衡抗震优势又拥有绝佳的视听感官集合;帽子集成红外3D识别将环境建模和手势识别结合到头戴电脑、无线网络和显示器上,完善了增强现实中对环境3D建模、对物联网地图标注和裸手操控,将能实现物联网中物在何处、网在那点、对物的任意标注、以及符合人体工学的裸手对它们操控,实现增强现实中直观形象的人机互动,是一种未来的发展趋势。\n附图说明\n[0040] 图1是本发明集成3D识别的帽子的分解结构示意图;\n[0041] 图2是本发明集成3D识别的帽子的正视图;\n[0042] 图3是本发明集成3D识别的帽子的俯视图;\n[0043] 图4是本发明集成3D识别的帽子的侧视图;\n[0044] 图5本发明集成3D识别的帽子的系统结构示意图;\n[0045] 图6是本发明TOF相机3D识别方法示意图;\n[0046] 图7是本发明视差法红外3D识别方法示意图;\n[0047] 图8是本发明帽子识别方法的处理流程示意图;\n[0048] 图9是本发明3D模型定位拼贴及地图标注的流程图。\n具体实施方式\n[0049] 下面结合优选的实施例对本发明做进一步详细说明。\n[0050] 本发明提供的一种集成3D识别的帽子, 如图1、图2、图3和图4所示,包括帽子本体,所述帽子本体包括帽子内衬18和帽体顶罩17,还包括连接固定所帽子内衬18和帽体顶罩17的帽圈19,所述帽圈19上连接固定帽舌20;所述帽体顶罩17的材料具有一定弹性和防水透气的特性,能保护内部器件和支撑其他原件。\n[0051] 在所述帽子内衬18与帽体顶罩17之间的夹层里安装固定了头戴电脑15,以及分别与头戴电脑15连接的TOF(time-of-flight飞行时间)3D识别装置的TOF主控模块4和TOF处理模块5、视差3D识别装置的视差法主控模块9和视差法处理模块10、运动跟踪传感器11以及显示器14,如图4所示,所述显示器14延伸至帽舌20下方,通过半反半透屏幕让人眼既看到外界环境又看到屏幕,实现现实增强效果。\n[0052] 所述头戴电脑15包含了通常技术员已知的微处理器、存储器、总线接口和各种数据库、应用等等;所述数据库包括3D动作手势特征库、地图和环境3D模型库、物联网应用节点标注库等等。\n[0053] 所述运动跟踪传感器11包含了三轴陀螺仪、三轴加速仪、三轴磁强仪。\n[0054] 所述头戴电脑15还包括电源管理模块16,所述电源管理模块16安装在帽体顶罩\n17的中轴线至帽子后方的夹层中。\n[0055] 所述头戴电脑15中存储3D动作手势特征库、地图和环境3D模型库和物联网应用节点标注库。\n[0056] 所述帽体顶罩17顶上安装固定有无线网络模块13和GPS定位模块12,无线网络模块13和GPS定位模块12分别连接到头戴电脑15上,如图1和图2所示。\n[0057] 所述TOF3D识别装置如图5所示,包括TOF主控模块4,以及分别连接在所述TOF主控模块4上的TOF处理模块5、红外发射单元2、TOF相机1和摄像头3。\n[0058] 如图2所示,所述TOF3D识别装置的TOF相机1安装固定在帽舌20的正前方;所述摄像头3安装在TOF相机1的一侧;所述红外发射单元2安装在TOF相机1的另一侧。\n所述摄像头3优选的可以是彩色摄像头。\n[0059] 本发明的TOF3D识别装置安装固定在帽舌20的正前方,主要为了采集前方环境的\n3D深度图。\n[0060] 所述TOF3D识别装置采集前方环境的3D深度图的方法,如图6所示,包括以下步骤:\n[0061] 步骤1、所述TOF主控模块4驱动彩色摄像头3、TOF相机1和红外发射单元2进行工作。\n[0062] 步骤2、所述彩色摄像头3在驱动下拍摄到与TOF相机1同观测点和方向的高清视频。\n[0063] 步骤3、所述红外发射单元2在驱动下发出持续调制信号的红外光,发出的红外光经过物体反射回来被TOF相机1拾取计量得到深度图。\n[0064] 步骤4、所述TOF相机1将得到的深度图发送给所述TOF处理模块5;所述TOF处理模块5将深度图通过抑制异常点和噪声滤波得到去除噪声和无关背景的图;所述TOF处理模块5再结合彩色摄像头3得到图像进行优化滤波提高深度图解析度;最后所述TOF处理模块5将实时深度图、彩色视频输出到所述头戴电脑15。\n[0065] 所述视差3D识别装置如图5所示,包括视差法主控模块9,以及分别连接在所述视差法主控模块9上的视差法处理模块10、左红外摄像头6、右红外摄像头7和红外LED灯\n8。\n[0066] 所述视差3D识别装置的左红外摄像头6和右红外摄像头7分别安装在帽舌20下方的左边和右边,如图3所示。所述左红外摄像头6和右红外摄像头7的拍摄方向向帽舌\n20前方倾斜,如图4所示,以便更好的识别到手势区域。所述红外LED灯8优选的包括多个,这里优选的为2个。所述2个红外LED灯 8分别安装在左红外摄像头6一侧和右红外摄像头7一侧。;所述视差法主控电路9和视差法处理单元10分别与头戴电脑15连接。\n[0067] 所述视差3D识别装置安装固定在帽舌20的正下方,所述左红外摄像头和右红外摄像头的拍摄方向帽舌20前方倾斜,以便更好的识别帽舌20下方鼻尖以下人的双手活动,并识别双手运动和手势。\n[0068] 所述视差3D识别装置得到图像中的3D动作的方法如下,如图7所示,包括以下步骤:\n[0069] 步骤1、所述视差法主控模块9驱动左红外摄像头6、右红外摄像头7和多个红外LED灯8进行工作。\n[0070] 步骤2、所述多个红外LED灯8在驱动下按照程序高速闪烁,所述左红外摄像头6和右红外摄像头7同步高速拍摄帽舌20下的双手或物体动态,并将拍摄到的视频的帧发送视差法处理模块10。\n[0071] 步骤3、所述视差法处理模块10分别对通过左红外摄像头6和右红外摄像头7的帧进行以下处理:抑制背景滤波屏蔽脸部轮廓和去除背景,再通过多帧时域滤波提取手指轮廓,进一步通过粒子滤波运动跟踪提取手指运动特征。\n[0072] 步骤4、所述视差法处理模块10再将左红外摄像头6和右红外摄像头7帧中的二维的手指轮廓进行匹配特征优化和立体坐标映射。具体包括将二维特征优化到有限点阵,两个二维点阵进行匹配外剔除,再将其特征简化到指尖关节等,利用视差法映射到立体坐标中。\n[0073] 步骤5、所述视差法处理模块10将得到的3D动作特征发送给所述头戴电脑15。\n[0074] 步骤6,所述头戴电脑根据得到的3D动作特征同3D动作手势特征库进行比对,判定3D动作特征所代表的动作指令。\n[0075] 本发明提供的一种集成3D识别的帽子的识别方法,如图8所示,具体包括以下功能:\n[0076] 一、对外部环境实时3D建模和地图标注\n[0077] 将拍摄的外部环境的实时深度图和视频图像,特别是彩色视频发送到头戴电脑中的地图和环境3D模型库;所述地图和环境3D模型库中的模型算法拟合平面将三维模型结构简化和筛选彩图以减少数据,并将数据进行3D模型定位拼贴及地图标注。\n[0078] 同时GPS定位模块将此时全球地理坐标位置的GPS数据传输给地图和环境3D模型库进行定位拼贴及地图标注。\n[0079] 同时根据运动跟踪传感器11的数据计算出运动轨迹和内嵌场坐标、地磁指南数据、重力场倾角数据传给地图和环境3D模型库进行定位拼贴及地图标注。\n[0080] 所述3D模型定位拼贴及地图标注将接收到的三组数据构建三维模型,并依照地理坐标标注到地图和环境3D模型库,并且通过视点移动后的新位置,将新的三维模型依照空间法则拟合和拼贴,就相当于一个移动的3D扫描器,经过连续的3D建模拼贴和标注构建一套身边地图和环境的3D模型库。\n[0081] 所述3D模型定位拼贴及地图标注的连续工作方法,如图9所示,包括以下步骤:\n[0082] 步骤1、所述GPS数据初始化内嵌场坐标,同时以用户身高默认初始脚下水平地面进行建模。\n[0083] 步骤2、判断3D识别的帽子静止时间是否大于设定的时间t,如果否,累计移动轨迹;如果是,进入到步骤3。\n[0084] 步骤3、提取视频图像的三维模型,并提取视点坐标、方位和倾角。\n[0085] 步骤4、通过提取的三维模型和视点坐标、方位和倾角判断拍摄的外部环境有没有已注册模型,如果无,通过提取GPS数据和内嵌场坐标注册三维模型到地图和环境的3D模型库;如图有,进入到步骤5。\n[0086] 步骤5、提取已有注册模型的坐标和模型,并判断拍摄的外部环境的三维模型和已有注册的模型是否可以拟合,如果否,标注不拟合浮法坐标,并提取图形的GPS数据和内嵌场坐标,并将拍摄的三维模型注册到三维模型到地图和环境的3D模型库;如图是,进入到步骤6。\n[0087] 步骤6、将拍摄的部环境的三维模型拼贴并注册到地图和环境的3D模型库中,然后通过综合坐标复验存储到拍摄环境库,并通过显示器14进行显示。\n[0088] 二、手势识别,以实现裸手操控\n[0089] 通过实时深度图和彩色视频可以将活动物体的几何肢干、速度计算出来提供给手势识别部分。\n[0090] 帽舌下方的视差法红外3D识别装置拾取双手的图像信息并转化为3D动作特征,将3D动作特征输入头戴电脑环境进行校准函数校对以契合虚拟环境中的坐标,再通过调用以建立好的3D手势特征库来对比特征库得出指令,实现手势激发相应指令。本发明可以通过手势识别实现对窗口菜单施以指令和对兴趣特征模块施以指令。\n[0091] 三、增强现实应用\n[0092] 所述头戴电脑中存储地图和环境的3D模型库,将手势操控结合到应用中,基于地球坐标系静止的虚拟显示,再与拍摄的外部环境的现实场景嵌合,虚拟环境视野随头部移动而移动,随处可以通过人机手势指令和物联网应用节点标注库对视野中的物件标注,并对物联网应用界面进行操作。\n[0093] 本发明可以对所有三维模型任意标注和粘贴应用并实施指令,并且可以通过物联网分享出去。\n[0094] 本发明公开一种集成3D识别的帽子及帽子3D识别方法,还3D识别的帽子包括: TOF 3D识别装置、视差法红外3D识别装置、运动跟踪传感器、GPS定位、显示器、头戴电脑和无线网络,是一种穿戴式增强现实系统。本发明结合了帽子的易穿戴性和高集成3D识别智能设备,解决了增强现实中环境建模输入和人体动作输入问题;实现了随身环境3D建模、定位物联网地图标注和随身动作识别输入,而且作为帽子穿戴外观自然符合佩戴习惯。\n[0095] 帽子所处头部位置即拥有人体最佳的平衡抗震优势又拥有绝佳的视听感官集合;\n帽子集成红外3D识别将环境建模和手势识别结合到头戴电脑、无线网络和显示器上,完善了增强现实中对环境3D建模、对物联网地图标注和裸手操控,将能实现物联网中物在何处、网在那点、对物的任意标注、以及符合人体工学的裸手对它们操控,实现增强现实中直观形象的人机互动,是一种未来的发展趋势。\n[0096] 以上内容是对本发明的优选的实施例的说明,可以帮助本领域技术人员更充分地理解本发明的技术方案。但是,这些实施例仅仅是举例说明,不能认定本发明的具体实施方式仅限于这些实施例的说明。对本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演和变换,都应当视为属于本发明的保护范围。
法律信息
- 2017-02-22
专利权人的姓名或者名称、地址的变更
专利权人由上海塔普仪器制造有限公司变更为塔普翊海(上海)智能科技有限公司
地址由200235 上海市徐汇区漕宝路120号38号楼3楼变更为201802 上海市嘉定区沪宜公路1082号5幢412室
- 2016-09-07
专利权的转移
登记生效日: 2016.08.19
专利权人由深圳市智帽科技开发有限公司变更为上海塔普仪器制造有限公司
地址由518101 广东省深圳市宝安中心区五区宝民一路28-1新鹏苑B座1103变更为200235 上海市徐汇区漕宝路120号38号楼3楼
- 2015-08-26
- 2015-08-12
专利申请权的转移
登记生效日: 2015.07.20
申请人由卫荣杰变更为深圳市智帽科技开发有限公司
地址由556000 贵州省黔东南苗族侗族自治州凯里市北京西路43(309)号四楼变更为518101 广东省深圳市宝安中心区五区宝民一路28-1新鹏苑B座1103
- 2013-11-06
实质审查的生效
IPC(主分类): G02B 27/01
专利申请号: 201310296270.7
申请日: 2013.07.16
- 2013-10-09
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2005-08-03
|
2005-01-27
| | |
2
| | 暂无 |
2010-05-18
| | |
3
| | 暂无 |
2010-06-07
| | |
4
| |
2008-12-10
|
2008-07-08
| | |
5
| | 暂无 |
2011-04-29
| | |
6
| |
2010-09-15
|
2010-05-07
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |