著录项信息
专利名称 | 拍摄装置和拍摄控制方法 |
申请号 | CN201010229252.3 | 申请日期 | 2010-03-30 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2010-12-15 | 公开/公告号 | CN101917547A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | H04N5/232 | IPC分类号 | H;0;4;N;5;/;2;3;2;;;G;0;3;B;3;5;/;0;2查看分类表>
|
申请人 | 卡西欧计算机株式会社 | 申请人地址 | 日本国东京都
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 卡西欧计算机株式会社 | 当前权利人 | 卡西欧计算机株式会社 |
发明人 | 中岛光康 |
代理机构 | 中科专利商标代理有限责任公司 | 代理人 | 张远 |
摘要
本发明提供一种拍摄装置和拍摄控制方法。本发明的拍摄装置包括:第1拍摄控制机构,其进行控制,以便通过拍摄部来进行拍摄;获取机构,其在上述第1拍摄控制机构的拍摄后,获取生成该已拍摄的被拍摄体的三维图像所必需的上述拍摄部的移动距离;第1判断机构,其判断上述拍摄部是否移动了由上述获取机构所获取的移动距离;第2拍摄控制机构,其在由上述第1判断机构判断为进行了移动的情况下,对上述拍摄部进行控制,以便进行拍摄;三维图像生成机构,其根据由上述第1拍摄控制机构所拍摄的图像、和由上述第2拍摄控制机构所拍摄的图像,来生成三维图像。
1.一种拍摄装置,包括:
第1拍摄控制机构,其进行控制,以便通过拍摄部进行拍摄;
获取机构,其在上述第1拍摄控制机构的拍摄后,获取生成已拍摄的被拍摄体的三维模型所必需的上述拍摄部的移动距离;
第1判断机构,其判断上述拍摄部是否移动了由上述获取机构所获取的移动距离;
第2拍摄控制机构,其在由上述第1判断机构判断为进行了移动的情况下,对上述拍摄部进行控制,以便进行拍摄;以及
三维模型生成机构,其根据由上述第1拍摄控制机构所拍摄的图像、和由上述第2拍摄控制机构所拍摄的图像,来生成上述被拍摄体的三维模型,
上述获取机构基于到上述被拍摄体的距离Z、拍摄元件的像素大小p、允许误差ΔZ、焦距f、以及L=(Z·Z·p)/(ΔZ·f)来获取生成上述被拍摄体的三维模型所必需的上述拍摄部的移动距离L。
2.根据权利要求1所述的拍摄装置,其特征在于:
所述拍摄装置还包括:
距离获取机构,其获取到上述被拍摄体的距离。
3.根据权利要求1所述的拍摄装置,其特征在于:
所述拍摄装置还包括:
加速度获取机构(231),其获取上述拍摄部移动时的加速度,
上述第1判断机构基于对由上述加速度获取机构所获取的加速度进行2次积分处理而得到的值,来判断上述拍摄部是否移动了由上述获取机构所获取的移动距离。
4.根据权利要求1所述的拍摄装置,其特征在于:
所述拍摄装置还包括:
特征点检测机构,其根据由上述第1拍摄控制机构所获取的图像,来检测特征点;
第3拍摄控制机构,其控制上述拍摄部,以便在上述第1拍摄控制机构的拍摄结束时,按照规定的周期反复进行拍摄;以及
特征点移动量获取机构,其获取由上述第3拍摄控制机构反复进行拍摄所得到的图像间的、与由上述特征点检测机构所检测的特征点相对应的点的移动量,上述第1判断机构基于由上述特征点移动量获取机构所获取的特征点的移动量,来判断上述拍摄部是否移动了由上述获取机构所获取的移动距离。
5.根据权利要求4所述的拍摄装置,其特征在于:
所述拍摄装置还包括:
显示机构(205),其在显示部中依次显示由上述第3拍摄控制机构反复进行拍摄所得到的图像,
上述特征点移动量获取机构基于由上述显示机构依次显示的图像中的与由上述特征点检测机构所检测的特征点相对应的点在上述显示部上的显示位置的变化,来获取上述特征点的移动量。
6.根据权利要求1所述的拍摄装置,其特征在于,
所述拍摄装置还包括:
第2判断机构,其判断上述第1拍摄控制机构的拍摄时的光轴与拍摄后的光轴是否基本保持平行;以及
第4拍摄控制机构,其在由上述第2判断机构判断为拍摄时的光轴与拍摄后的光轴并非基本保持平行的情况下,进行控制,以便不进行上述第2拍摄控制机构的拍摄。
7.根据权利要求1所述的拍摄装置,其特征在于:
所述拍摄装置还包括:
通报机构,其在由上述第1判断机构判断为进行了移动的情况下,通报表示进行了移动的意思的信息。
8.一种拍摄控制方法,包括:
第1拍摄控制步骤,进行控制,以便通过拍摄部进行拍摄;
获取步骤,在上述第1拍摄控制步骤的拍摄之后,获取生成已拍摄的被拍摄体的三维模型所必需的上述拍摄部的移动距离;
判断步骤,判断上述拍摄部是否移动了在上述获取步骤中所获取的移动距离;
第2拍摄控制步骤,在上述判断步骤中判断为进行了移动的情况下,对上述拍摄部进行控制,以便进行拍摄;以及
三维模型生成步骤,根据在上述第1拍摄控制步骤中所拍摄的图像、和在上述第2拍摄控制步骤中所拍摄的图像,来生成上述被拍摄体的三维模型,
上述获取步骤中,基于到上述被拍摄体的距离Z、拍摄元件的像素大小p、允许误差ΔZ、焦距f、以及L=(Z·Z·p)/(ΔZ·f)来获取生成上述被拍摄体的三维模型所必需的上述拍摄部的移动距离L。
拍摄装置和拍摄控制方法 \n技术领域\n[0001] 本发明涉及拍摄装置和拍摄控制方法。 \n[0002] 背景技术\n[0003] 3D建模是在要获取人、动物、或美术品等的立体像时,通过照相机来对实际的被拍摄体进行摄影,获取三维坐标的技术。 \n[0004] 作为检测物体的三维位置的方法,在过去人们知道有采用2台照相机的立体图像方式。例如,在专利文献1(JP特开平07-167633号公报)中记载的立体图像方式中,根据\n2台照相机的间隔、和分别通过2台照相机而拍摄到的物体的图像的特定部位的表观的差(视差),来计算物体和照相机的距离(进深)。接着,基于该距离,构建物体的3D模型。 [0005] 但是,具有下述问题,即,为了获取具有所希望的视差的多个图像,必须要求多台照相机或具有多个拍摄部的照相机,由此,必须要求大而特别的器材。 [0006] 发明内容\n[0007] 本发明是为了解决上述问题而提出的,本发明提供一种拍摄装置,其可在不采用大而特别的器材的情况下,获取精度高的3D模型。 \n[0008] 为了实现上述目的,本发明的第1方面的拍摄装置的特征在于,其包括: [0009] 拍摄机构; \n[0010] 第1拍摄控制机构,其进行控制,以便通过拍摄机构进行拍摄; [0011] 获取机构,其在上述第1拍摄控制机构的拍摄后,获取生成该已拍摄的被拍摄体的三维模型所必需的上述拍摄部的移动距离; \n[0012] 第1判断机构,其判断上述拍摄部是否移动了由上述获取机构所获 取的移动距离; \n[0013] 第2拍摄控制机构,其在由上述第1判断机构判断为进行了移动的情况下,对上述拍摄部进行控制,以便进行拍摄;以及 \n[0014] 三维模型生成机构,其根据由上述第1拍摄控制机构所拍摄的图像、和由上述第2拍摄控制机构所拍摄的图像,来生成上述被拍摄体的三维模型。 \n[0015] 为了实现上述目的,本发明的第2方面的拍摄控制方法的特征在于,该方法包括: [0016] 第1拍摄控制步骤,进行控制,以便通过拍摄部进行拍摄; \n[0017] 获取步骤,在上述第1拍摄控制步骤的拍摄之后,根据该已拍摄的被拍摄体,获取生成该被拍摄体的三维模型所必需的上述拍摄部的移动距离; \n[0018] 判断步骤,判断上述拍摄部是否移动了在上述获取步骤中所获取的移动距离; [0019] 第2拍摄控制步骤,在上述判断步骤中判断为进行了移动的情况下,进行控制,以便进行上述拍摄部的拍摄;以及 \n[0020] 三维模型生成步骤,根据在上述第1拍摄控制步骤中所拍摄的图像、和在上述第2拍摄控制步骤中所拍摄的图像,来生成上述被拍摄体的三维模型。 \n[0021] 发明的效果 \n[0022] 按照本发明,可提供能够在不采用大而特别的器材的情况下,获取精度高的3D模型的拍摄装置。 \n[0023] 附图说明\n[0024] 图1为表示本发明的实施方式1的数字照相机的一个例子的外观的图,图1(A)为主视图,图1(B)为背视图,图1(C)为顶视图; \n[0025] 图2为数字照相机的电路结构的一个例子的方框图; \n[0026] 图3为说明本发明的实施方式1的装置的动作用的流程图; \n[0027] 图4为用于说明3D建模处理的流程图; \n[0028] 图5为表示3D建模处理用的坐标系的图; \n[0029] 图6为用于说明根据本发明的实施方式2的实时取景(live view)图像信息来推算照相机的位置,并进行3D建模的方法的流程图; \n[0030] 图7为用于说明3D建模处理的流程图; \n[0031] 图8为说明本发明的实施方式3的3D建模方法的流程图。 \n具体实施方式\n[0032] 下面参照附图,对本发明的实施方式进行说明。 \n[0033] (实施方式1) \n[0034] 本发明的实施方式1的数字照相机1如图1(A)所示的那样,在正面侧具有光学系统(拍摄透镜)2。 \n[0035] 另外,如图1(B)所示的那样,在数字照相机1的背面,设置:菜单键3、显示部4、游标键5、SET键6、和3D建模模式键7。3D建模模式键7通过按压来切换普通摄影模式和3D建模模式。 \n[0036] 此外,如图1(C)所示的那样,在顶面上,设置快门键9和电源按钮8。 [0037] 图2为表示图1所示的数字照相机1的电路结构的一个例子的方框图。 [0038] 在图2中,数字照相机1这样构成:拍摄部210、CPU201、闪存203、工作存储器204、显示控制部205、键输入部202、图像引擎220、传感器231通过总线210a连接。 [0039] 拍摄部210由光学系统2、光学系统驱动控制部211、CMOS传感器212、ISP(Image Signal Processor)213构成。 \n[0040] 通过光学系统2,在CMOS传感器212的拍摄面上进行被拍摄体的光像的成像。 [0041] 光学系统驱动控制部211对光学系统2进行控制。光学系统2和光学系统驱动控制部211的内部结构的图示省略,但是光学系统驱动控制部211包括:调整倍率的变焦电动机、进行对焦的合焦电动机、调整光圈的光圈控制部、和快门速度控制部等。 [0042] CMOS传感器212对通过光学系统成像的光像进行光电变换,接着进行A/D变换,形成数字数据。 \n[0043] ISP213针对上述数字数据,进行颜色的调整、数字格式变换,变换为亮度信号Y、色差信号Cb、Cr。 \n[0044] CPU201进行数字照相机1整体的控制动作。 \n[0045] CPU201对应于键输入部202的操作,取出与存储于程序存储器(图示省略)中的各模式相对应的动作程序、菜单数据。接着,根据该已取出的动作程序、菜单数据,进行数字照相机1的各部分的控制。在该动作程序中,包括3D建模模式时的拍摄控制程序。 [0046] 键输入部202输入图1(B)所示的菜单键3、游标键5、SET键6、3D建模模式键7、电源按钮8、以及快门键9的各键的操作,并通知给CPU201。 \n[0047] 工作存储器204由DRAM等构成,通过CPU201,转送来自拍摄部210的输出(Y、Cb、Cr的数据)。 \n[0048] 闪存203存储通过图像引擎220的JPEG压缩部(图示省略)而编码的摄影图像数据、以及按照3D建模模式生成的3D建模数据。 \n[0049] 显示控制部205将VRAM206与显示部4连接。显示控制部205从VRAM206中取出RGB形式的显示数据,并在显示部4中显示。 \n[0050] 图像引擎220由DSP(数字·信号处理器)等构成。该图像引擎220将存储于工作存储器204内的Y、Cb、Cr的各数据变换为RGB形式,之后,经由显示控制部205,转送给VRAM206。 \n[0051] 传感器231由角速度传感器和加速度传感器构成。角速度传感器用于检测数字照相机1的旋转的有无。另一方面,加速度传感器用于计算摄影时的平行移动距离。 [0052] 即,CPU201在角速度传感器的检测的结果、数字照相机1所拍摄的视角的光轴几乎不平行的(即,数字照相机1不平行移动)的情况下,根据加速度传感器检测获取的加速度,获取数字照相机1所拍摄的视角的平行移动距离。 \n[0053] 下面参照图3,对上述实施方式1的数字照相机1的动作进行说明。 [0054] 如果通过检测用户的3D建模模式键7的操作,来选择3D建模模式,则CPU201开始图3所示的3D建模的处理(步骤S301)。首先,CPU201 在该3D建模模式开始时,判断是否检测到记录指示(步骤S302)。具体来说,判断是否检测到用户的快门键9的操作,在没有检测到该操作的情况下(步骤S302:否),进行等待,直至检测到。 [0055] 用户相对摄影对象,朝向数字照相机1,对快门键9进行操作,由此,在CPU201检测到记录指示时(步骤S302:是),CPU201通过光学系统驱动控制部211,对摄影对象进行光学系统2的对焦,由此,获取焦距f,另外,将光学系统2的倍率与该已获取的焦距f相乘,计算从数字照相机1到摄影对象的距离Z(步骤S303)。接着,从拍摄部210取入摄影图像(步骤S304)。将此时的摄影图像作为对象图像A。 \n[0056] 接着,CPU201采用下述的式(1),计算3D建模所必需的数字照相机1的平行移动距离L(步骤S305)。 \n[0057] L=(Z·Z·p)/(ΔZ·f) …(1) \n[0058] 另外,在上述式中,p表示拍摄元件的像素大小。另外,ΔZ表示相对在进行3D建模的情况下允许的平行移动的允许误差。 \n[0059] 例如,如果距离Z为1m,像素大小p为4um,焦距f为6mm,允许误差ΔZ为5cm,则平行移动距离L为13mm。即,在距对象物的距离为1m的情况下,在取入对象图像A后,如果取入平行移动13mm之后的视角,则可进行良好的3D建模处理。 \n[0060] CPU201在检测到数字照相机1本身的平行移动的开始时,根据从加速度传感器输出的加速度,来判断是否移动了相当于通过上述式(1)计算出的平行移动距离L的距离(步骤S306)。另外,在移动距离没有达到L的情况下(步骤S306:否),CPU201等待,直至移动距离达到L。另外,CPU201与此动作并行地检测角速度传感器的规定角度以上的旋转,还判断光轴是否几乎不平行。接着,CPU201在判断为旋转了超过规定角度时,通报失败。 [0061] CPU201在判断为移动了相当于平行移动距离L的距离时(步骤S306:是),则进行用于获取基准图像B的拍摄(步骤S307)。接着,CPU201鸣响应向用户传递摄影结束的报警(步骤S308),采用对象图像A、基准图像B、和来自传感器231的信息,进行3D建模(步骤S309)。 \n[0062] 参照图4,对上述3D建模处理进行说明。 \n[0063] 首先,CPU201在对象图像A上,获取特征点候补(步骤S401)。 \n[0064] 该特征点候补可采用任何的方法获取,但是,在本实施例中,采用广泛知道的Harris角点检测函数,按照下述的方式进行。 \n[0065] CPU201通过广泛知道的模板(template)匹配,来获取与已获取的对象图像A的特征点候补相对应的基准图像B的特征点候补。接着,CPU201通过下述的方法,选择这些已获取的特征点候补中的,差异度为规定的阈值以下的特征点候补(步骤S402)。 [0066] 这里,参照图5,进行为了上述3D建模处理而导入的三维坐标系统的说明。 [0067] 在图5中,标号501表示对象图像A,标号502表示基准图像B。t’表示移动矢量。\n设3D建模对象图像中的上述特征点的1个三维坐标为M。如果假定与此M相对应的对象图像A的像素位置为m,基准图像B的像素位置为m’,则M通过求解下述式(2)、(3)的方式来求出。 \n[0068] m~P·M …(2) \n[0069] m’~P’·M …(3) \n[0070] (数学公式1) \n[0071] \n[0072] \n[0073] \n[0074] 另外,trans指转置矩阵(transposed matrix),~指其两边在允许常数倍的差值的情况下相等。 \n[0075] 此外,P指对对象图像A进行摄影时的M的透射射影矩阵,其通过 [0076] P=C·(R|t) …(4) \n[0077] 表示。(R|t)为表示对对象图像A进行摄影的位置的参数,R表示3×3的旋转矩阵(rotation matrix),t表示3×1的移动矩阵。 \n[0078] 在本实施方式中,由于以对对象图像A进行摄影的位置为原点,故R为I,t为0(I为3×3的单位矩阵,0为3×1的零矩阵。)。 \n[0079] 同样,P’为对基准图像B进行摄影时的M的透视射影矩阵,其通过 [0080] P’=C·(R’|t’) …(5) \n[0081] 表示。(R’|t’)为表示对对象图像B进行摄影的位置的参数,R’与上述R相同,表示3×3的旋转矩阵,t’与上述t相同,表示3×1的移动矩阵。 \n[0082] 接着,旋转矩阵R’采用来自角速度传感器的信息。移动矩阵t’采用包括对来自上述加速度传感器的加速度进行2次积分处理而获取的三维移动距离在内的信息。 [0083] [C]为预先配备于数字照相机1中的内部参数,例如,为下述式(6)的3×3矩阵。 [0084] (数学公式2) \n[0085] \n[0086] 另外,在上述C中,f指焦距。另外,δu指拍摄元件的水平方向尺寸,δv指拍摄元件的垂直方向尺寸。 \n[0087] 于是,CPU201通过在对象图像A的特征点的像素位置m和与其相对应的基准图像B的点的像素位置m’求解上述式(2)、(3),来计算该特征点的三维坐标M(步骤S403)。 [0088] 如果将上述式(2)、(3)展开,则 \n[0089] u=(p11·X+p12·Y+p13·Z+p14)/ \n[0090] (p31·X+p32·Y+p33·Z+p34) …(7) \n[0091] v=(p21·X+p22·Y+p23·Z+p14)/ \n[0092] (p31·X+p32·Y+p33·Z+p34) …(8) \n[0093] u’=(p’11·X+p’12·Y+p’13·Z+p’14)/ \n[0094] (p’31·X+p’32·Y+p’33·Z+p’34) …(9) \n[0095] v’=(p’21·X+p’22·Y+p’23·Z+p’14)/ \n[0096] (p’31·X+p’32·Y+p’33·Z+p’34) …(10) \n[0097] 这里,例如,p12表示已知的透视射影矩阵P的第1行第2列的要素,p’21表示已知透视射影矩阵P’的第2行第1列的要素。 \n[0098] 根据这样获取的特征点的三维坐标成分[M],CPU201进行用于构成多面体来进行\n3D显示的多边形化(步骤S404)。 \n[0099] 然后,返回到图3的步骤S309的处理。接着,返回到开始步骤S301,在步骤S302,等待用户下次按压快门。 \n[0100] 如以上具体描述的那样,按照实施方式1,如图5所示的那样,在3D建模模式中CPU201根据对对象图像A进行拍摄时的焦距f,对到被拍摄体的距离Z进行概算。然后,CPU201根据该距离Z,计算用于确保所希望的精度的平行移动距离L。在对对象图像A进行拍摄后,CPU201在检测到已计算出的平行移动距离L的数字照相机1的移动时,进行基准图像B的拍摄。然后,CPU201根据已获取的对象图像A和基准图像B, 生成3D模型。 [0101] 通过如上述那样构成,用户通过使数字照相机1平行移动,从而即使在不配备多个摄影装置和特别的器材的情况下,仍可简单地获取精度高的3D模型。 [0102] 另外,在上述实施方式1中,检测平行移动距离L的传感器采用加速度传感器,但是,即使采用GPS,也没有关系。 \n[0103] 此外,在上述实施方式1中,通过CPU201,计算数字照相机1的平行移动距离L,但是,也可以由用户通过手动方式来设定平行移动距离L。 \n[0104] (实施方式2) \n[0105] 实施方式2通过实时取景(live view)图像A’上的特征点的移动量,检测数字照相机1的移动量,进行3D建模。下面参照图6,对该实施方式2进行说明。 [0106] 这里,预先确定用户应移动的距离,即,使显示画面上的多少像素量进行移动。接着,首先对对象图像A进行拍摄,根据已拍摄的对象图像A来检测特征点,如果该特征点按照在显示画面上预先确定的像素数量而移动,则进行基准图像B的拍摄。 [0107] 最好,对于上述像素数量,在摄影图像上的像素中,抑制在横向宽度的数%的程度的移动量。如果超过10%,则表观的差异造成的对照的错误增加。例如,在摄影图像的横向宽度为1600像素的情况下,如果移动其6%,则所移动的像素数量为96像素。另外,如果实时取景(live view)图像A’的横向宽度为150像素,则其6%的移动量为9像素。于是,上述预先确定的像素数量例如为9像素。该像素数值作为默认值,存储于闪存203中。 [0108] 在此情况下,如也通过实施方式1描述的那样,如果上述坐标的移动量大,则视差大,精度高。但是,另一方面,如果上述坐标的移动量大,则在通过视线的不同(通过表观的差异)进行对象图像A和基准图像B的对应的点的对照时,产生错误的可能性增加。于是,在实施方式2中,用户可适当变更在3D建模模式的摄影之前,作为默认值而存储的特征点的移动量(像素数量的值)。该变更通过游标键5和SET键6的操 作,在观看显示部4的同时而进行。 \n[0109] 如果通过检测用户的3D建模模式键7的操作,选择3D建模模式,则CPU201开始图\n6所示的3D建模的处理(步骤S601)。首先,CPU201在该3D建模模式开始时,判断是否检测到记录指示(步骤S602)。具体来说,CPU201判断是否检测到用户的快门键9的按压操作,在没有检测到按压操作的情况下(步骤S602:否),则进行等待,直至检测到。接着,在检测到通过用户而按压快门键9,即,检测到对象图像A的记录指示的情况下(步骤S602:\n是),CPU201对对象图像A进行拍摄(步骤S604)。然后,CPU201根据已拍摄的对象图像A,通过Harris角点检测等的已有的方法,获取多个特征点。接着,CPU201将该图像和特征点的坐标临时存储于工作存储器204中(步骤S605)。 \n[0110] 接着,如果用户使数字照相机1平行移动,则CPU201根据按照规定的周期所拍摄的实时取景图像A’,检测与已临时存储的多个特征点相对应的特征点。然后,获取已检测的实时取景图像A’的多个特征点的显示画面上的坐标(步骤S606)。之后,CPU201将这些坐标与上述临时存储的对象图像A的特征点的坐标相比较,根据已比较的坐标的差,判断特征点的移动量是否到达上述已存储的像素值(移动量)(步骤S607)。然后,CPU201反复进行上述处理(步骤S606、S607),直至到达上述已存储的像素数量的移动量。这里,对于多个特征点,在移动量不同时,既可采用实时取景图像A’的中心附近的特征点的移动量,也可采用移动量最大的特征点的移动量。另外,也可从根据对象图像A检测到的特征点中,选择任意的特征点,采用与该已选择的特征点相对应的特征点的移动量。 \n[0111] 如果CPU201判断为上述对象图像A的特征点的坐标与实时取景(live view)图像A’的特征点的坐标之间的差达到上述已存储的像素数量(步骤S607:是),则CPU201将该实时取景(live view)图像A’的正式图像作为基准图像B而记录(步骤S608),通过警报而将摄影结束通知给用户(步骤S609)。 \n[0112] 然后,CPU201通过如上述那样获取的对象图像A和基准图像B的2 个图像,进行\n3D建模。 \n[0113] 对此,参照图7进行说明。CPU201根据上述2个图像,分别求出8点以上的对应点,求出基础矩阵F(fundamental matrix)。3×3的基础矩阵F给出2个图像的约束条件,通过下述式(11)给出。 \n[0114] trans(m’)·F·m=0 …(11) \n[0115] 这里,m表示对象图像A的像素位置,m’表示基准图像B的像素位置。另外,trans()表示转置(transpose)。 \n[0116] 此外,F通过下述式(12)表示。 \n[0117] F=trans(inv(C))··R·inv(C) …(12) \n[0118] 这里,inv()表示逆矩阵,<>表示斜对称矩阵(skew symmetricmatrix)。内部参数C为预先配备的值。由此,可求出旋转矩阵R和移动矢量t的方向(步骤S701)。 [0119] 之后,可与图4所示的顺序相同,进行3D建模(步骤S702~S704)。 [0120] 如以上具体描述的那样,按照实施方式2,首先,如果CPU201对对象图像A进行拍摄,根据已拍摄的对象图像A来检测特征点。接着,根据已检测的特征点的实时取景(live view)图像A’上的移动量,推算数字照相机1的移动量。接着,在该平行移动量达到所希望的平行移动量时,可自动地对基准图像B进行拍摄。由此,即使在没有设置用于检测移动量的传感器的情况下,仍可获取精度高的3D模型。 \n[0121] (实施方式3) \n[0122] 图8为说明本发明的实施方式3的3D建模方法的流程图。 \n[0123] 图8的流程图不同于图6的流程图的方面在于,在存在以数字照相机1的光轴(图\n5的Z轴)以外的轴为基准的旋转动作的情况下,限制拍摄动作。即,CPU201在产生了以图\n5的X、Y轴为基准的旋转的情况下,不视为使数字照相机1平行移动。即,CPU201在旋转为规定的阈值以上的情况下,由于光轴不基本保持平行,故无法获取基准图像B。由此,可对数字照相机1的平行移动是否到达规定的距离的情况进行更正确的判断。于是,可进一步提高3D建模的精度。 \n[0124] 接着,与图6相比较,对在图8中追加的步骤S621的处理进行说明。 [0125] CPU201从实时取景(live view)图像A’中提取特征点,按照上述的顺序,推算基础矩阵F。数字照相机1的内部参数C事先求出。 \n[0126] (数学公式3) \n[0127] \n[0128] 这里,f表示数字照相机1的焦距,cx、cy表示数字照相机1的光轴的中心位置的图像坐标上的位置。于是,基本矩阵E(essential matrix)通过下述式(14)求出。 [0129] E=trans(C)·F·C …(14) \n[0130] 这里,trans()表示转置。通过下述的公式(15)表示的照相机移动的并进矢量t作为trans(E)·E的最小固有值的固有矢量(eigenvector)而求出。其中,对于t,程度(scale)和符号是不定的,但是,通过在数字照相机1的前方有被拍摄体存在这样的制约,可求出t的符号。 \n[0131] 于是,求出-t和E的向量积,按照下述的公式(15),对该向量积进行奇异值分解(singular value decomposition)。 \n[0132] V·S·U=svd(cross(-t,E)) …(15) \n[0133] 这里,cross表示向量积,svd表示奇异值分解。 \n[0134] 其中,旋转矩阵R通过下述公式(16)来求出。 \n[0135] R=V·diag(1,1,det(V·U))·U …(16) \n[0136] 这里,det表示行列式,diag表示对角矩阵(diagonal matrix)。 [0137] 由于旋转矩阵R包括X、Y、Z轴的旋转,故对它们进行分解。在旋转角小的情况下,在设 \n[0138] (数学公式4) \n[0139] \n[0140] 时,有 \n[0141] θy=arcsin(r02) …(18) \n[0142] θx=arctan(-r12/r22) …(19) \n[0143] 在步骤S621中,CPU201进行这些θy、θx是否为规定的阈值θ以下的判断。 [0144] 如果如上述那样,采用实施方式3,则相对实施方式2,追加进行上述步骤S621的处理,由此,在旋转为规定的阈值以上的情况下,由于光轴基本不保持平行,故无法获取基准图像B。由此,可对数字照相机1的平行移动是否达到规定的距离的情况更正确地进行判断。于是,可进一步提高3D建模的精度。 \n[0145] (变形例) \n[0146] (1)在上述实施方式1~3中,虽然是用户使数字照相机1平行地移动,但是,也可将数字照相机1固定在架子上,将平行地移动的机构设置在该架子上。由此,用户不必使数字照相机1平行移动。另外,可防止使数字照相机1增加旋转的情况。 \n[0147] 这种机构可通过采用周知的横动(traverse)机构而实施。 \n[0148] (2)另外,在上述各实施方式中,使数字照相机1的整体平行移动,但是,也可将使光学系统2本身平行地移动的机构设置于数字照相机1上。由此,用户不必使照相机平行移动,另外,即使在将照相机固定于三脚架或架子上的状态下,仍可进行摄影。 [0149] (3)此外,在上述各实施方式中,在数字照相机1中,进行3D建模,但是,数字照相机1也可仅仅进行对象图像A和基准图像B的摄影和记录,并将这些已记录的数据发送给个人计算机,进行3D建模处理。
法律信息
- 2014-02-05
- 2011-02-02
实质审查的生效
IPC(主分类): H04N 5/232
专利申请号: 201010229252.3
申请日: 2010.03.30
- 2010-12-15
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2008-05-07
|
2006-12-30
| | |
2
| | 暂无 |
2001-12-24
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |