著录项信息
专利名称 | 物体全方位轮廓精确绘制方法 |
申请号 | CN201510884137.2 | 申请日期 | 2015-12-03 |
法律状态 | 暂无 | 申报国家 | 中国 |
公开/公告日 | 2016-05-11 | 公开/公告号 | CN105574933A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G06T17/20 | IPC分类号 | G;0;6;T;1;7;/;2;0查看分类表>
|
申请人 | 广州博进信息技术有限公司 | 申请人地址 | 广东省广州市南沙区望江二街5号中惠璧珑湾自编12栋912房(仅限办公用途)
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 广州博进信息技术有限公司 | 当前权利人 | 广州博进信息技术有限公司 |
发明人 | 冯斌 |
代理机构 | 广州三环专利商标代理有限公司 | 代理人 | 郝传鑫 |
摘要
本发明公开了一种物体全方位轮廓精确绘制方法,属于图像显示与处理领域,包括以下步骤:导出立体模型各个节点的三维坐标;记录视角参数;生成正射投影轮廓层;竖起物体,计算物体立体轮廓;视角转换,计算投影轮廓;自交多边形合并,简化轮廓内部构造;判定遮挡关系,删除重叠阴影;圆滑处理。本发明物体全方位轮廓精确绘制方法算法简单,耗时短,提取的物体轮廓变形小且对形状不规则的物体的轮廓绘制效果好,还能消除重叠,并对轮廓进行圆滑处理提高提取整体效果;本发明不但能应用到现实增强技术中,还可应用到虚拟仿真系统和GIS中。
1.物体全方位轮廓精确绘制方法,其特征在于,包括以下步骤:
S1:导出立体模型各个节点的三维坐标;
S2:记录视角参数;
S3:生成正射投影轮廓层;
S4:竖起物体,计算物体立体轮廓;
S5:视角转换,计算物体投影轮廓;
S6:自交多边形合并,简化轮廓内部构造;
S7:判定遮挡关系,删除重叠阴影;
S8:圆滑处理;其中,
步骤S3中包括步骤:根据所有三维模型节点坐标,忽略高程,投影到平面,取三维模型所有节点坐标值,形成复合多边形,最大轮廓即该三维模型平面轮廓,所有模型的正射 投影轮廓,保存为图层;
步骤S4包括以下步骤:
S41:筛选边缘点;
S42:物体竖起,提取物体立体轮廓;
所述步骤S5包括以下步骤:
S51:将目标点设置为坐标原点,将三维模型转换到虚拟坐标系中;
S52:根据相机坐标和目标点坐标计算视角的水平偏角和垂直偏角;
S53:根据视角方向,计算三维模型边缘点在虚拟平面坐标的投影值;
S54:计算三维模型视角平面投影坐标。
2.根据权利要求1所述的物体全方位轮廓精确绘制方法,其特征在于,
所述步骤S41进一步包括以下步骤:
S411:筛选物体所有节点坐标中X、Y、Z的最大值和最小值;
S412:将所有节点坐标(x,y,z)与X、Y、Z的最大值和最小值做对比,若满足以下条件则该节点坐标被删除:
(X的最大值>x>X的最小值)且(Y的最大值>y>Y的最小值)且(Z的最大值>z>Z的最小值)。
3.根据权利要求1所述的物体全方位轮廓精确绘制方法,其特征在于,所述步骤S7包括步骤:判断投影面是否远离视角方向,远离视角方向的投影即为被遮挡的阴影,此时根据多边形自交算法,删除被遮挡的阴影。
4.根据权利要求1所述的物体全方位轮廓精确绘制方法,其特征在于,所述步骤S8包括步骤:设置抽稀比例,消除毛刺,将轮廓圆滑处理。
5.根据权利要求4所述的物体全方位轮廓精确绘制方法,其特征在于,所述抽稀比例为
87.5%。
物体全方位轮廓精确绘制方法\n技术领域\n[0001] 本发明涉及图像显示与处理领域,尤其涉及物体全方位轮廓精确绘制方法。\n背景技术\n[0002] 现实增强是一种利用计算机对受众所看到的真实景象或者物体经过数字化处理计算之后,在相应位置合成虚拟元素(包括文字、图像、视频等)的一种技术,它可以实时地将现实世界与虚拟景象或物体相叠加,从而营造一种虚实结合的空间,这完全不同于人类以往的感知体验,从而产生一种更深层级的人机交互体验,更有可能改变人们对现有世界认知的过程和形式。\n[0003] 在虚拟场景中,物体形状的准确提取对于物体轮廓提取及相关触发事件有重要影响。目前行业中一般都采用人工绘制轮廓的方法,主要包括基于图像识别方法、轮廓投影机算法等。其中,图像识别法以立体视觉法为代表,立体视觉法是用双目或多目视觉,通过不同位置的摄像机对统一目标进行多个图幅,根据三角测量原理,利用图像中对应点的视差计算范围内目标表面的立体信息。\n[0004] 立体视觉法的缺点是寻找对应点的难度大,算法复杂,耗时较长,且其提取的物体轮廓形变较大,走样严重,更加关键的是当方位变化后形状就完全改变,因此需要人工绘制多个方向轮廓,效率低下。此外,现有的现实增强中物体轮廓的绘制方法还存在物体轮廓不规则导致整体效果差的问题和物体轮廓相互叠加的问题。\n发明内容\n[0005] 为克服现有技术的不足,本发明提供一种物体全方位轮廓精确绘制方法,用于根据视角和物体参数,快速精确计算出物体形状,以便提取该物体详细关联信息。本方法不但能应用于现实增强技术中,还能应用于虚拟仿真和GIS(Geography Information System,地理信息系统)中。\n[0006] 本发明物体全方位轮廓精确绘制方法,包括以下步骤:\n[0007] S1:导出立体模型各个节点的三维坐标;\n[0008] S2:记录视角参数;\n[0009] S3:生成正射投影轮廓层;\n[0010] S4:筛选边缘点,物体竖起,提取物体立体轮廓;\n[0011] S5:视角转换,计算物体投影轮廓;\n[0012] S6:自交多边形合并,简化轮廓内部构造;\n[0013] S7:判定遮挡关系,删除重叠阴影;\n[0014] S8:圆滑处理。\n[0015] 进一步地,步骤S3中包括步骤:根据所有三维模型节点坐标,忽略高程,投影到平面,取三维模型所有节点坐标值,形成复合多边形,最大轮廓即该三维模型平面轮廓,所有模型的正摄投影轮廓,保存为图层。\n[0016] 更进一步地,所述步骤S4进一步包括以下步骤:\n[0017] S411:筛选模型所有节点坐标的X、Y、Z的最大值和最小值;\n[0018] S412:将所有节点坐标(x,y,z)与X、Y、Z的最大值和最小值做对比,若满足以下条件则该节点坐标被删除:\n[0019] (X的最大值>x>X的最小值)且(Y的最大值>y>Y的最小值)且(Z的最大值>z>Z的最小值)。\n[0020] 进一步地,所述步骤S5包括以下步骤:\n[0021] S51:将目标点设置为坐标原点,将三维模型转换到虚拟坐标系中;\n[0022] S52:根据相机坐标和目标点坐标计算视角的水平偏角和垂直偏角;\n[0023] S53:根据视角方向,计算三维模型边缘点在虚拟平面坐标的投影值;\n[0024] S54:计算三维模型视角平面投影坐标。\n[0025] 更进一步地,所述步骤S7包括步骤:判断投影面是否远离视角方向,远离视角方向的投影即为被遮挡的阴影,此时根据多边形自交算法,删除被遮挡的阴影。\n[0026] 进一步地,所述步骤S8包括步骤:设置抽稀比例,消除毛刺,将轮廓圆滑处理。\n[0027] 更进一步地,步骤S8中所述抽稀比例为87.5%。\n[0028] 本发明的有益效果在于,本发明物体全方位轮廓精确绘制方法算法简单,耗时短,提取的物体轮廓变形小且对形状不规则的物体的轮廓绘制效果好,还能消除重叠和对轮廓进行圆滑处理;本发明不但能应用到现实增强技术中,还可应用到虚拟仿真和GIS中。\n附图说明\n[0029] 为了更清楚地说明本发明的实施例,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一个实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。\n[0030] 图1是本发明的一个具体实施例的方法流程图;\n[0031] 图2是本发明步骤S3处理后的图像例图;\n[0032] 图3是图2中的图像经步骤S8处理后的图像。\n具体实施方式\n[0033] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。\n[0034] 参见图1,本发明物体全方位轮廓精确绘制方法,包括以下步骤:\n[0035] 步骤S1:导出立体模型各个节点的三维坐标。清理场景所有材质和贴图后,由于计算三维模型有效特征点的计算过于复杂,故将三维模型所有节点坐标均导出。导出格式为[模型编号(节点号,x,z,y)],一个节点三维坐标文件可能如下所示:\n[0036] (1002322\n[0037] 0,32751.759766,0.000000,35951.972656\n[0038] 1,32751.898438,0.100000,35961.097656\n[0039] 2,32741.824219,0.000000,35961.062500\n[0040] …\n[0041] 13,32741.824219,0.100000,35961.062500)。\n[0042] 步骤S2:记录视角参数。调整好需要的视角,记录相机和目标点坐标。格式如下:\n[0043] 相机坐标(Xcamera,Ycamera,Zcamera)如:(X:36047.859,Y:31327.383,Z:2961.069),目标点坐标(Xobject,Yobject,Zobject)如:(X:32025.59,Y:34678.492,Z:0)。\n[0044] 步骤S3:生成正射投影轮廓层。\n[0045] 根据所有三维模型节点坐标,忽略高程,投影到平面,取三维模型所有节点坐标值,形成复合多边形,最大轮廓即该三维模型平面轮廓,所有模型的正摄投影轮廓,保存为图层。图2显示了一个生成的图层例图。\n[0046] 步骤S4:竖起物体,计算物体立体轮廓。\n[0047] 为了简化运算,提高效率,仅仅对边缘点进行计算,因此忽略所有对提取物体轮廓无用节点。针对一个三维模型,删除无用节点方法如下:\n[0048] 第一步在所有节点坐标中筛选出X,Y,Z的最大值和最小值,分别为Xmax、Xmin、Ymax、Ymax、Zmax、Zmin;\n[0049] 第二步将所有节点坐标(x,y,z)与以上坐标对,做对比分析,满足规则1的点均为无用节点,直接删除。\n[0050] 规则1:Xmax>x>Xmin且Ymax>y>Ymin且Zmax>z>Zmin\n[0051] 然后将物体竖起:根据三维模型边缘点坐标值,利用高程值,将物体竖起,忽略视角及投影,获得三维模型所有边缘点坐标值(x,y,z),该坐标对表征物体立体三维形状及轮廓。\n[0052] 步骤S5:视角转换,计算投影轮廓。视角方向可以利用计算相机点和目标点坐标计算。物体在视角方向轮廓,实际上就是三维模型轮廓在视角方向的投影,其计算方法如下:\n[0053] 第一,将目标点设置为虚拟坐标原点 将三维模型转换到虚拟坐标系\n中,所有边缘点坐标 计算公式如下:\n[0054]\n[0055]\n[0056]\n[0057] 第二,根据相机点坐标和目标点坐标,计算视角在水平偏角(α)和垂直偏角(β)。计算公式如下:\n[0058]\n[0059]\n[0060]\n[0061] η为相机点和目标点平面距离。\n[0062] 第三,根据视角方向,计算三维模型边缘点在虚拟平面坐标的投影值,边缘点在虚拟坐标系中坐标值计算公式如下:\n[0063]\n[0064]\n[0065] D计算三维模型视角平面投影坐标,公式如下\n[0066]\n[0067]\n[0068]\n[0069] 步骤S6:自交多边形合并。物体内部碎多边形较多,需要合并处理。此时需要将同一个ID的三维模型多边形合并为一个多边形,并给于赋值,以便与原物体关联,进一步可以在数据库中查询其更多信息,进行大数据分析。\n[0070] 步骤S7:删除重叠阴影。步骤S5中得到了所有模型边缘在视角平面投影,当模型较为密集时候,将出现部分投影面相互叠加情况,需要判定遮挡关系。判定方法为,远离视角方向即被遮挡。根据多边形自相交算法,删除被遮挡的阴影图形。删除被遮挡后的阴影后的图像例图如图3所示。\n[0071] 步骤S8:圆滑处理。真实的物体及模型存在较为复杂的构造,因此提取的原始轮廓存在一定“毛刺”现象,而且轮廓过于复杂将增加计算量,降低运算效率,增加了响应时间。\n因此可以设置一个抽稀比例。忽略一部分细节,对轮廓进行圆滑出来,提高效率。根据经验,一般抽稀比设置为87.5%,形状完整度为98.1%,效果最佳。\n[0072] 以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。
法律信息
- 2019-02-26
专利权人的姓名或者名称、地址的变更
专利权人由广州博进信息技术有限公司变更为广州博进信息技术有限公司
地址由510000 广东省广州市南沙区环市大道中富汇街5号502之二房变更为510000 广东省广州市南沙区望江二街5号中惠璧珑湾自编12栋912房(仅限办公用途)
- 2018-11-30
- 2016-06-08
实质审查的生效
IPC(主分类): G06T 17/20
专利申请号: 201510884137.2
申请日: 2015.12.03
- 2016-05-11
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2014-06-04
|
2012-11-23
| | |
2
| |
2005-09-07
|
2005-03-02
| | |
3
| | 暂无 |
1996-01-31
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |