著录项信息
专利名称 | 一种全景视觉辅助泊车系统的标定方法 |
申请号 | CN200810163310.X | 申请日期 | 2008-12-15 |
法律状态 | 权利终止 | 申报国家 | 暂无 |
公开/公告日 | 2009-05-06 | 公开/公告号 | CN101425181 |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G06T7/00 | IPC分类号 | G;0;6;T;7;/;0;0查看分类表>
|
申请人 | 浙江大学 | 申请人地址 | 浙江省杭州市浙大路38号
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 浙江大学 | 当前权利人 | 浙江大学 |
发明人 | 刘济林;雷杰;丁鑫 |
代理机构 | 杭州求是专利事务所有限公司 | 代理人 | 韩介梅 |
摘要
本发明公开了一种全景视觉辅助泊车系统的标定方法,用安装在汽车四周至少两个广角鱼眼摄像机产生的图像生成汽车顶部某一高度的虚拟鸟瞰图像。该方法包括:鱼眼广角相机的模型参数求取;标记公共视场中某条直线作为拼接缝隙;标记非公共视场中世界坐标系的位置;固定虚拟鸟瞰相机的位置;基于地平面的单映性变换矩阵计算;拼接缝隙的位置全局优化;虚拟鸟瞰坐标系下各个图像之间位置参数计算。本方法对设备要求低,过程简单;不依赖于摄像机之间的相对位置和精确的姿态参数,从而降低了系统集成的复杂性;只需标定一次即可提供实时工作的计算参数;具有良好的汽车四周全景鸟瞰效果。
1.一种全景视觉辅助泊车系统的标定方法,其特征在于:该方法包括如下步骤:
步骤1):采用鱼眼广角摄像机的标定算法,计算摄像机的内部参数和鱼眼镜头的失真系数;
步骤2):用四个步骤1)描述的摄像机拍摄汽车周围不同区域的图像,所说的摄像机能覆盖汽车周围区域;
步骤3):在步骤2)的每两个摄像机之间的公共地面区域内标记两点,用经过两点的直线确定图像之间的拼接缝隙;
步骤4):在步骤2)的摄像机的非公共区域内沿地面平铺标定模板,使得模板上的格子方向与汽车的长和宽方向基本平行,同时指定每个模板世界坐标系的坐标原点和x,y方向;
步骤5):测量汽车的长和宽,确定虚拟鸟瞰摄像机对地面垂直投影的位置,测量该位置在步骤4)中的每个世界坐标系下的相对位置;
步骤6):根据步骤1)得到的摄像机内部参数和失真系数,对步骤2)中采集的图像进行失真去除处理,得到失真校正后图像;
步骤7):根据步骤6)得到的失真校正后图像,计算从原始摄像机位置到虚拟鸟瞰摄像机位置的单映性变换矩阵,利用该矩阵,将步骤6)中的失真校正后图像变换到虚拟鸟瞰摄像机视角图像;
步骤8):根据步骤7)得到虚拟鸟瞰摄像机视角图像,利用非线性最小二乘法计算拼接缝隙方向,以补偿步骤4)中标定模板之间的对齐误差;
步骤9):根据步骤8)中的拼接缝隙方向,对步骤7)中的虚拟鸟瞰摄像机视角图像进行旋转和平移变换,直到得到全景拼接图像,记录此时的平移参数;
步骤10):输出标定参数:摄像机内部参数,鱼眼镜头失真系数,单映性变换矩阵,拼接缝隙方向和平移参数。
2.根据权利要求1所述的全景视觉辅助泊车系统的标定方法,其特征在于:采用鱼眼广角摄像机的标定算法,计算摄像机的内部参数和鱼眼镜头的失真系数,包括以下步骤:
1)摄像机用针孔模型表示:
λu=K(XR+T)
其中 为摄像机内部参数,fu和fv为用图像行和列像素表示的相机焦
距,u0,v0为投影中心,α为倾斜度;X为世界坐标系中的三维点;R和T为世界坐标系到摄像机坐标系的旋转和平移;u为X对应的图像点坐标;
2)用高阶径向模型近似鱼眼镜头的径向和切向失真
dist 2 4 6 2
u =u+(u-u0)[k1r+k2r+k3r+k4(r/u+2u)]
dist 2 4 6 2
v =v+(v-v0)[k1r+k2r+k3r+k5(r/v+2v)]
其中k1,k2,k3为径向失真系数,k4,k5为切向失真系数;
3)分别拍摄标定模板不同姿态的一系列图像,标记模板在每个图像上的对应点,以及图像之间的对应关系;
4)初始计算摄像机内部参数Ki和鱼眼镜头的失真系数ki=[k1,k2,k3,k4,k5],再根据标定模板在图像上的投影点与实际图像中的对应观测点之间的欧氏距离最短原则,用非线性最小二乘法优化计算Ki和ki。
一种全景视觉辅助泊车系统的标定方法\n技术领域\n[0001] 本发明涉及数字图像处理和计算机视觉技术,特别地,涉及全景视觉辅助泊车系统的标定方法。\n背景技术\n[0002] 我国是一个交通事故严重的国家,每年的死亡人数和致死率都不容乐观。减少交通事故不仅要在主观上增强安全意识,客观上更要提高汽车本身安全驾驶的可靠性。现存的各式各样的辅助驾驶工具就是为了解决这个问题。汽车安全保障系统大体可以分为被动和主动系统,前者主要包括安全带、安全气囊等,虽然能降低事故伤亡程度,但并不能防止事故的发生。后者则主要利用各类传感器如,超声波、雷达、红外热传感器和摄像机等。它们能够为驾驶员决策提供障碍物等路况信息。同时,主动安全保障系统也构成了智能交通系统的重要组成部分。在上述所有的方法中,摄像机具有低成本、易维护和高集成性等优点,因此得到了广泛的应用。\n[0003] 随着图像处理和计算机视觉的快速发展,越来越多的先进技术被应用到汽车电子领域。传统的基于图像的辅助驾驶,只在汽车车尾安装倒车摄像头,只能覆盖汽车周围有限的区域,而车两侧和前方的视觉盲区无疑增加了安全驾驶的隐患。为了扩大驾驶员的视野范围,就必须感知汽车四周360°环境,这就需要多个视觉传感器之间信息融合和配准。多个视觉传感器之间的相互位置和姿态关系参数从特定的测量传感器获得,这就使融合配准的结果严重依赖于精确的位置和姿态参数。\n发明内容\n[0004] 本发明的目的是提供一种全景视觉辅助泊车系统的标定方法,它不依赖摄像机之间的相互位置和姿态关系,能够有效获得图像之间的拼接关系。根据这些关系,能够产生虚拟的全景鸟瞰图像,从而最大限度扩大了驾驶员的视野范围。\n[0005] 本发明的全景视觉辅助泊车系统的标定方法,包括以下步骤:\n[0006] 步骤1):采用鱼眼广角摄相机的标定算法,计算摄相机的内部参数和鱼眼镜头的失真系数;\n[0007] 步骤2):用至少两个步骤1)描述的摄像机拍摄汽车周围不同区域的图像,所说的摄像机之间具有一定的公共区域;\n[0008] 步骤3):在步骤2)的摄像机的公共区域内标记两点,确定各个图像之间的拼接缝隙。\n[0009] 步骤4):在步骤2)的摄像机的非公共区域内沿地面平铺标定模板,同时指定每个模板世界坐标系的坐标原点和x,y方向。\n[0010] 步骤5):测量汽车的长和宽,确定虚拟鸟瞰摄相机对地面垂直投影的位置,测量该位置在步骤4)中的每个世界坐标系下的相对位置。\n[0011] 步骤6):根据步骤1)得到的摄像机内部参数和失真系数,对步骤2)中采集的图像进行失真去除处理,得到失真校正后图像。\n[0012] 步骤7):根据步骤6)得到的无失真图,计算从原始摄像机位置到虚拟鸟瞰位置的单映性变换矩阵。利用该矩阵,将步骤6)中的无失真图像变换到虚拟鸟瞰摄相机视角图像。\n[0013] 步骤8):根据步骤7)得到虚拟鸟瞰视角的图像,利用非线性最小二乘法计算拼接缝隙方向,以补偿步骤4)中标定模板之间的对齐误差。\n[0014] 步骤9):根据步骤8)中的拼接缝隙方向,对步骤7)中的虚拟鸟瞰视角图像进行旋转和平移变换,直到得到全景拼接图像,记录此时的平移参数。\n[0015] 步骤10):输出标定参数:摄相机内部参数,鱼眼镜头失真系数,单映性矩阵,拼接缝隙方向和平移参数。\n[0016] 本发明中,所述的采用鱼眼广角摄相机的标定算法,计算摄相机的内部参数和鱼眼镜头的失真系数,包括以下步骤:\n[0017] 1)摄相机用针孔模型表示:\n[0018] λu=K(XR+T)\n[0019] 其中 为摄相机内部参数,fu和fv为用图像行和列像素表示的相\n机焦距,u0,v0为投影中心,α为倾斜度;X为世界坐标系中的三维点;R和T为世界坐标系到摄相机坐标系的旋转和平移;u为X对应的图像点坐标。\n[0020] 2)用高阶径向模型近似鱼眼镜头的径向和切向失真\n[0021] udist=u+(u-u0)[k1r2+k2r4+k3r6+k4(r2/u+2u)]\n[0022] vdist=v+(v-v0)[k1r2+k2r4+k3r6+k5(r2/v+2v)]\n[0023] \n[0024] 其中k1,k2,k3为径向失真系数,k4,k5为切向失真系数。\n[0025] 3)分别拍摄标定模板不同姿态的一系列图像,标记模板在每个图像上的对应点,以及图像之间的对应关系。\n[0026] 4)初始计算摄相机内部参数Ki和鱼眼镜头的失真系数ki=[k1,k2,k3,k4,k5],再根据标定模板在图像上的投影点与实际图像中的对应观测点之间的欧氏距离最短原则,用非线性最小二乘法优化计算Ki和ki。\n[0027] 本发明借助简单的标定模板,对安装在汽车四周多个摄像机产生的图像进行一系列变换,从而得到可以用来实时全景图像拼接的各种参数。它的主要步骤包括:鱼眼广角摄相机的模型参数求取;标记公共视场中某条直线作为拼接缝隙;标记非公共视场中世界坐标系的位置;固定虚拟鸟瞰相机的位置;基于地平面的单映性变换计算;拼接缝隙的位置全局优化;虚拟鸟瞰坐标系下各个图像之间位置参数计算。该方法过程简单;对设备要求低,不依赖于摄像机之间的相对位置和精确的姿态参数,从而降低了系统集成的复杂性;只需标定一次即可提供实时工作的计算参数;具有良好的汽车四周全景鸟瞰效果。\n附图说明\n[0028] 图1是全景视觉辅助泊车系统的标定流程图\n[0029] 图2是标定模板示意图\n[0030] 图3是安装四个鱼眼摄像机的汽车鸟瞰示意图\n[0031] 图4是本发明中单个鱼眼摄相机到虚拟鸟瞰视角变换过程示意图,(a)为鱼眼失真图像,(b)为去除鱼眼失真后的普通透视图像,(c)为鸟瞰图像。\n[0032] 图5是拼接缝隙方向的全局优化示意图\n具体实施方式\n[0033] 图1给出了全景视觉辅助泊车系统的标定流程图,它主要包括以下步骤:\n[0034] 步骤1:采用鱼眼广角摄相机的标定算法,计算摄相机的内部参数和鱼眼镜头的失真系数;\n[0035] 1)摄相机用针孔模型表示:\n[0036] λu=K(XR+T)\n[0037] 其中 为相机内部参数,fu和fv为用图像行和列像素表示的相机\n焦距,u0,v0为投影中心,α为倾斜度;X为世界坐标系中的三维点;R和T为世界坐标系到相机坐标系的旋转和平移;u为X对应的图像点坐标.\n[0038] 2)用高阶径向模型近似鱼眼镜头的径向和切向失真\n[0039] udist=u+(u-u0)[k1r2+k2r4+k3r6+k4(r2/u+2u)]\n[0040] vdist=v+(v-v0)[k1r2+k2r4+k3r6+k5(r2/v+2v)]\n[0041] \n[0042] 其中k1,k2,k3为径向失真系数,k4,k5为切向失真系数。\n[0043] 3)分别拍摄如图2所示的标定模板不同姿态的一系列图像,(图例中采集了10帧i\n图像,每帧图像上取5x5=25个点),标记世界坐标系中模板上三维点Aj 以及在每帧图像i\n上的对应点aj,此处i与j表示图像序列数目索引与每个标定模板上点的个数索引。\n[0044] 4)采用与Zhang,Z.Y:A flexible new technique for camera calibration.IEEETransactions on Pattern Analysis and Machine Intelligence 22(11),\n1330-1334(2000).相似的方法,初始计算摄相机内部参数Ki和鱼眼镜头的失真系数ki=[k1,k2,k3,k4,k5]。再根据标定模板在图像上的投影点与实际图像中的对应点之间的欧氏距离最短原则,用非线性最小二乘法优化下式,计算Ki和ki。\n[0045] \n[0046] 其中Ψ为三维到二维的投影函数\n[0047] 步骤2:本实例中采用四个摄像机Ci,i=1,...4如图3所示,它们相互之间有一定的公共区域1,所有摄像机能够覆盖汽车周围的区域,并拍摄这些不同区域的图像Ii。\n[0048] 步骤3:根据步骤1.4)所得参数Ki和ki,对所拍摄的汽车四周的图像Ii进行去除undist\n失真处理,得到失真校正后图像Ii 。具体地,假设图4a为标定模板在鱼眼摄相机中的图像,经过失真校正后,得到如图4b的普通透视图,原来的曲线变成直线。\n[0049] 步骤4.在每两个摄像机之间的公共地面区域内标记两点,如图3中的区域1。用经过两点的直线确定图像之间的拼接缝隙(lij,i=1,...4和j=1,2分别为摄相机和拼接缝隙的索引)。\n[0050] 步骤5:在摄像机的非公共地面区域内沿地面平铺标定模板,如图3中的区域2。\n使得模板上的格子方向与汽车的长和宽方向基本平行。指定每块模板的世界坐标系原点Oi和x,y方向。\n[0051] 步骤6:测量汽车的长L和宽W,确定虚拟鸟瞰摄相机的位置,如图3中P(L/2,W/2,v v\nH)所示,对地面垂直投影的位置P(L/2,W/2,0),测量P 在步骤4)中的每个世界坐标系Oi下的相对位置(Xi,Yi)。\n[0052] 步骤7:根据步骤3得到的无失真图Iiundist,计算从原始摄相机Ci位置到虚拟鸟瞰undist\n位置P的单映性变换矩阵Hi。利用该矩阵,将无失真图像Ii 变换到虚拟鸟瞰摄相机视grd\n角图像Ii 。主要包括以下步骤:\n[0053] 1)标记步骤3中所述标定模板在无失真图像Iiundist上至少四个不共线的点pi,s(xi,s,yi,s,1),s为所标记的点的数目。\n[0054] 2)计算pi,s(xi,s,yi,s,1)的对应点在各自世界坐标系Oi中的三维位置Pi,s(Xi,s,Yi,s,0)。\n[0055] 3)计算Pi,s(Xi,s,Yi,s,0)在虚拟鸟瞰图像上的投影位置如下:\n[0056] qi,s=Ki{RPi,sT+[Xi,Yi,H]T}\n[0057] 4)线性最小二乘法计算单映性变换矩阵Hi:\n[0058] \n[0059] 5)无失真图像Iiundist经单映性矩阵Hi变换到虚拟鸟瞰视角图像Iigrd。如图4b到\n4c表示了单映性矩阵对标定模板变换的结果。\n[0060] 步骤8:根据步骤7)得到虚拟鸟瞰视角的图像Iigrd,利用非线性最小二乘法计算拼接缝隙方向,以补偿步骤5)中标定模板之间的对齐误差。如图5中表示了拼接缝隙之间的旋转误差,目的就是使得相邻缝隙尽量平行。主要包括以下步骤:\n[0061] 1)标记步骤4所述公共区域内拼接缝隙li,j在图像Iigrd上的位置,计算对应直线的斜率mi,j.\n[0062] 2)最小化如下函数,补偿图像Iigrd对应的旋转角度Θ=[θ1,θ2...θM]:\n[0063] \n[0064] 不失一般性,初始参数Θ=0,M表示所用摄相机的个数。\n[0065] 步骤9:根据步骤8中的最优化拼接方向,对步骤7)中所得的虚拟鸟瞰视角图像grd\nIi 进行平移变换,直到得到满意的全景拼接图像,记录此时的平移参数Ti=[Δxi,Δyi]。\n[0066] 步骤10输出标定参数:每个鱼眼摄相机内部参数矩阵Ki和镜头失真系数ki,每个视角的单映性矩阵Hi,补偿标定模板对齐旋转参数θi和平移参数Ti。\n[0067] 到此,实现了全景视觉辅助泊车系统的标定。
法律信息
- 2016-02-10
未缴年费专利权终止
IPC(主分类): G06T 7/00
专利号: ZL 200810163310.X
申请日:
授权公告日:
- 2012-05-09
- 2009-07-01
- 2009-05-06
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2008-02-06
|
2007-05-22
| | |
2
| |
2007-10-24
|
2006-04-21
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 1 | | 2016-03-18 | 2016-03-18 | | |