著录项信息
专利名称 | 通过景物亮度估计的动态后视镜自适应减低亮度覆盖 |
申请号 | CN201310497786.8 | 申请日期 | 2013-10-22 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2014-05-07 | 公开/公告号 | CN103770708A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | B60R1/00 | IPC分类号 | B;6;0;R;1;/;0;0查看分类表>
|
申请人 | 通用汽车环球科技运作有限责任公司 | 申请人地址 | 美国密执安州
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 通用汽车环球科技运作有限责任公司 | 当前权利人 | 通用汽车环球科技运作有限责任公司 |
发明人 | W.张;J.王;K.S.利贝克;J.S.皮亚塞基;J.克莱姆;C.A.格林;R.M.弗拉克斯;T.S.赫斯特 |
代理机构 | 中国专利代理(香港)有限公司 | 代理人 | 邓雪萌;胡斌 |
摘要
本发明涉及通过景物亮度估计的动态后视镜自适应减低亮度覆盖。车辆成像系统包括捕获车辆外部的图像的图像捕获装置。捕获图像包括天空景象的至少一部分。处理器产生来自由图像捕获装置捕获的天空景象的部分的虚拟天空景象的虚拟图像。处理器从虚拟图像确定虚拟天空景象的亮度。处理器基于确定的虚拟图像的亮度动态地调整捕获图像的亮度。后视镜显示装置显示调整的捕获图像。
1.一种车辆成像系统,包括:
捕获车辆外部的图像的图像捕获装置,捕获的图像包括天空景象的至少一部分;
从由图像捕获装置捕获的天空景象的部分产生虚拟天空景象的虚拟图像的处理器,所述处理器从虚拟图像确定虚拟天空景象的亮度,处理器基于虚拟图像的确定的亮度动态地调整捕获的图像的亮度;以及
用于显示调整的捕获的图像的后视镜显示装置。
2.根据权利要求1所述的车辆成像系统,其中动态地调整捕获的图像的亮度包括在调整的捕获的图像中将行进的道路变暗以补偿明亮的照明条件。
3.根据权利要求1所述的车辆成像系统,其中动态地调整捕获的图像的亮度包括在调整的捕获的图像中将行进的道路变亮以补偿变暗的照明条件。
4.根据权利要求1所述的车辆成像系统,其中在虚拟图像内感兴趣的区域中产生强度直方图,用于分析照明条件,其中感兴趣的区域从多个像素产生,其中感兴趣的区域中的每个像素包括相关的光强度值,其中每一光强度值在强度直方图中使用,用于确定捕获的图像的照明条件的亮度。
5.根据权利要求4所述的车辆成像系统,其中强度直方图分离到多个分类库中,并且每个库表示了光强度值的范围,其中每一像素基于每一像素的光强度值分配至各自的库。
6.根据权利要求5所述的车辆成像系统,其中累积直方图基于强度直方图产生,其中产生累积直方图是用于识别将白天照明条件与夜间照明条件区分开的各自的分类库。
7.根据权利要求4所述的车辆成像系统,其中感兴趣的区域是地平线。
8.根据权利要求1所述的车辆成像系统,其中图像捕获装置包括宽角度视野图像捕获装置。
9.根据权利要求1所述的车辆成像系统,其中用于产生虚拟图像的光轴不同于实际图像的光轴,其中产生补偿以将虚拟入射线的投影与实际入射线相关联。
10.根据权利要求1所述的车辆成像系统,其中后视镜显示装置包括视镜显示关闭设置,其中后视镜显示装置仅显示由后视镜显示装置的反射属性捕获的目标。
11.根据权利要求1所述的车辆成像系统,其中后视镜显示装置包括没有图像覆盖的视镜显示打开设置,其中后视镜显示装置仅显示调整的捕获的图像。
12.根据权利要求1所述的车辆成像系统,其中后视镜显示装置包括没有图像覆盖的视镜显示打开设置,其中后视镜显示装置显示具有图像覆盖的调整的捕获的图像,其中图像覆盖复制将由驾驶员在后视镜显示装置中看到的车辆的部件,用于帮助驾驶员识别车辆相对于车辆的环境目标的相对定位。
13.根据权利要求12所述的车辆成像系统,其中图像覆盖复制车辆的后窗缘饰。
14.根据权利要求12所述的车辆成像系统,其中图像覆盖复制车辆的头枕。
15.根据权利要求12所述的车辆成像系统,其中图像覆盖复制车辆的C柱。
16.根据权利要求1所述的车辆成像系统,其中捕获的图像是地平线。
17.一种用于动态地调整在后方显示装置上的图像的亮度的方法,所述方法包括步骤:
由图像捕获装置捕获车辆外部的图像,捕获的图像包括天空景象的至少一部分;
从由图像捕获装置捕获的天空景象的部分产生虚拟天空景象的虚拟图像,处理器从虚拟图像确定虚拟天空景象的亮度,处理器基于虚拟图像的确定的亮度动态地调整捕获的图像的亮度;以及
在用于显示调整的捕获的图像的后视镜显示装置上显示调整的捕获的图像。
18.根据权利要求17所述的方法,其中动态地调整捕获的图像的亮度包括在调整的捕获的图像中将行进的道路变暗以补偿明亮的照明条件。
19.根据权利要求17所述的方法,其中动态地调整捕获的图像的亮度包括在调整的捕获的图像中将行进的道路变亮以补偿变暗的照明条件。
20.根据权利要求17所述的方法,还包括在虚拟图像内感兴趣的区域中产生强度直方图以用于分析照明条件的步骤,其中感兴趣的区域从多个像素产生,其中感兴趣的区域中的每个像素包括相关的光强度值,其中每一光强度值在强度直方图中使用,用于确定捕获的图像的照明条件的亮度。
21.根据权利要求20所述的方法,还包括将强度直方图分离到多个分类库中的步骤,其中每个库表示了光强度值的范围,并且其中每一像素基于每一像素的光强度值分配至各自的库。
22.根据权利要求21所述的方法,还包括基于强度直方图产生累积直方图的步骤,其中产生累积直方图是用于识别将白天照明条件与夜间照明条件区分开的各自的分类库。
23.根据权利要求20所述的方法,其中感兴趣的区域是地平线。
24.根据权利要求17所述的方法,其中用于产生虚拟图像的光轴不同于实际图像的光轴,其中产生补偿以将虚拟入射线的投影与实际入射线相关联。
25.根据权利要求17所述的方法,其中后视镜显示装置包括视镜显示关闭设置,其中当视镜显示关闭设置启动时,后视镜显示装置仅显示由后视镜显示装置的反射属性捕获的目标。
26.根据权利要求17所述的方法,其中后视镜显示装置包括没有图像覆盖的视镜显示打开设置,其中当没有图像覆盖的视镜显示打开设置启动时,后视镜显示装置仅显示调整的捕获的图像。
27.根据权利要求17所述的方法,其中后视镜显示装置包括没有图像覆盖的视镜显示打开设置,其中当没有图像覆盖的视镜显示打开设置启动时,后视镜显示装置显示具有图像覆盖的调整的捕获的图像,其中图像覆盖复制将由驾驶员在后视镜显示装置中看到的车辆的部件,用于帮助驾驶员识别车辆相对于车辆的环境目标的相对定位。
28.根据权利要求27所述的方法,其中图像覆盖复制车辆的后窗缘饰。
29.根据权利要求27所述的方法,其中图像覆盖复制车辆的头枕。
30.根据权利要求27所述的方法,其中图像覆盖复制车辆的C柱。
31.根据权利要求17所述的方法,其中动态视图合成是基于车辆操作的驾驶方案启动的,其中动态视图合成产生至图像区域的方向缩放,用于增强驾驶员对各个区域的视觉了解。
32.根据权利要求31所述的方法,其中用于启动动态视图合成的驾驶方案包括确定车辆是否在停车场行驶。
33.根据权利要求31所述的方法,其中用于启动动态视图合成的驾驶方案包括确定车辆是否在高速公路上行驶。
34.根据权利要求31所述的方法,其中用于启动动态视图合成的驾驶方案包括致动转向灯。
35.根据权利要求31所述的方法,其中用于启动动态视图合成的驾驶方案是基于方向盘角度的。
36.根据权利要求31所述的方法,其中用于启动动态视图合成的车辆操作的驾驶方案是基于车辆的速度的。
通过景物亮度估计的动态后视镜自适应减低亮度覆盖\n[0001] 相关申请的交叉引用\n[0002] 本申请要求了2012年10月22日提交的、序号为61/716,799的美国临时申请为优先权,其内容在此结合作为参考。\n技术领域\n[0003] 实施例总体上涉及用于动态后视镜显示特征的图像捕获和处理。\n背景技术\n[0004] 车辆系统通常使用用于后视景象检测、侧视景象检测、以及前视景象检测的车辆内视觉系统。对于那些需要图解道路覆盖层或强调捕获图像的区域的应用,关键的是精确地校准相机相对于车辆与周围目标的定位与定向。采用来自装置的捕获的输入图像并且重新建模图像以示出或提高捕获图像的各个区域的相机建模必须在对图像不畸变至对观看重显图像的人而言变得不可使用或不准确的情况下对图像内的全部对象再次定位。\n[0005] 当视图在显示屏中再现时,景象的亮度需要确定和调节。典型地,对于后视镜,手动减低亮度功能由操作者致动,用于相应地调节变暗。可以使用自动感测;然而,这较为昂贵并且需要附加的传感器以感测景象的亮度。\n发明内容\n[0006] 实施例总体上涉及用于动态后视镜显示特征的图像捕获和处理。动态后视镜装置的亮度可以基于由视觉图像捕获装置分析的景象进行调节。虚拟景象可以从捕获的实际图像的至少一部分产生并且可以分析用于确定用于作用至后视镜显示装置的亮度调整的景象的照明强度。此外,车辆的车辆部件的图像覆盖可以显示在后视镜显示特征中从而为驾驶员给出由图像显示装置捕获的环境目标与车辆的相对位置的感觉。\n[0007] 车辆成像系统包括捕获车辆外部的图像的图像捕获装置。捕获图像包括天空景象的至少一部分。处理器产生来自由图像捕获装置捕获的天空景象的部分的虚拟天空景象的虚拟图像。处理器从虚拟图像确定虚拟天空景象的亮度。处理器基于确定的虚拟图像的亮度动态地调整捕获图像的亮度。后视镜显示装置显示调整的捕获图像。\n[0008] 提供了一种用于动态地调整后方显示装置上图像的亮度的方法。车辆外部的图像由图像捕获装置捕获。捕获图像包括天空景象的至少一部分。由处理器产生的虚拟天空景象的虚拟图像是来自由图像捕获装置捕获的天空景象的部分。处理器从虚拟图像确定虚拟天空景象的亮度。处理器基于确定的虚拟图像的亮度动态地调整捕获图像的亮度。调整的捕获图像显示在用于显示调整的捕获图像的后视镜显示装置上。\n[0009] 本发明还提供了以下方案:\n[0010] 1.一种车辆成像系统,包括:\n[0011] 捕获车辆外部的图像的图像捕获装置,捕获的图像包括天空景象的至少一部分;\n[0012] 从由图像捕获装置捕获的天空景象的部分产生虚拟天空景象的虚拟图像的处理器,所述处理器从虚拟图像确定虚拟天空景象的亮度,处理器基于虚拟图像的确定的亮度动态地调整捕获的图像的亮度;以及\n[0013] 用于显示调整的捕获的图像的后视镜显示装置。\n[0014] 2.根据方案1所述的车辆成像系统,其中动态地调整捕获的图像的亮度包括在调整的捕获的图像中将行进的道路变暗以补偿明亮的照明条件。\n[0015] 3.根据方案1所述的车辆成像系统,其中动态地调整捕获的图像的亮度包括在调整的捕获的图像中将行进的道路变亮以补偿变暗的照明条件。\n[0016] 4.根据方案1所述的车辆成像系统,其中在虚拟图像内感兴趣的区域中产生强度直方图,用于分析照明条件,其中感兴趣的区域从多个像素产生,其中感兴趣的区域中的每个像素包括相关的光强度值,其中每一光强度值在强度直方图中使用,用于确定捕获的图像的照明条件的亮度。\n[0017] 5.根据方案4所述的车辆成像系统,其中强度直方图分离到多个分类库中,并且每个库表示了光强度值的范围,其中每一像素基于每一像素的光强度值分配至各自的库。\n[0018] 6.根据方案5所述的车辆成像系统,其中累积直方图基于强度直方图产生,其中产生累积直方图是用于识别将白天照明条件与夜间照明条件区分开的各自的分类库。\n[0019] 7.根据方案1所述的车辆成像系统,其中感兴趣的区域是地平线。\n[0020] 8.根据方案1所述的车辆成像系统,其中图像捕获装置包括宽角度视野图像捕获装置。\n[0021] 9.根据方案1所述的车辆成像系统,其中用于产生虚拟图像的光轴不同于实际图像的光轴,其中产生补偿以将虚拟入射线的投影与实际入射线相关联。\n[0022] 10.根据方案1所述的车辆成像系统,其中后视镜显示装置包括视镜显示关闭设置,其中后视镜显示装置仅显示由后视镜显示装置的反射属性捕获的目标。\n[0023] 11.根据方案1所述的车辆成像系统,其中后视镜显示装置包括没有图像覆盖的视镜显示打开设置,其中后视镜显示装置仅显示调整的捕获的图像。\n[0024] 12.根据方案1所述的车辆成像系统,其中后视镜显示装置包括没有图像覆盖的视镜显示打开设置,其中后视镜显示装置显示具有图像覆盖的调整的捕获的图像,其中图像覆盖复制将由驾驶员在后视镜显示装置中看到的车辆的部件,用于帮助驾驶员识别车辆相对于车辆的环境目标的相对定位。\n[0025] 13.根据方案12所述的车辆成像系统,其中图像覆盖复制车辆的后窗缘饰。\n[0026] 14.根据方案12所述的车辆成像系统,其中图像覆盖复制车辆的头枕。\n[0027] 15.根据方案12所述的车辆成像系统,其中图像覆盖复制车辆的C柱。\n[0028] 16.根据方案1所述的车辆成像系统,其中捕获的图像是地平线。\n[0029] 17.一种用于动态地调整在后方显示装置上的图像的亮度的方法,所述方法包括步骤:\n[0030] 由图像捕获装置捕获车辆外部的图像,捕获的图像包括天空景象的至少一部分;\n[0031] 从由图像捕获装置捕获的天空景象的部分产生虚拟天空景象的虚拟图像,处理器从虚拟图像确定虚拟天空景象的亮度,处理器基于虚拟图像的确定的亮度动态地调整捕获的图像的亮度;以及\n[0032] 在用于显示调整的捕获的图像的后视镜显示装置上显示调整的捕获的图像。\n[0033] 18.根据方案17所述的方法,其中动态地调整捕获的图像的亮度包括在调整的捕获的图像中将行进的道路变暗以补偿明亮的照明条件。\n[0034] 19.根据方案17所述的方法,其中动态地调整捕获的图像的亮度包括在调整的捕获的图像中将行进的道路变亮以补偿变暗的照明条件。\n[0035] 20.根据方案17所述的方法,还包括在虚拟图像内感兴趣的区域中产生强度直方图以用于分析照明条件的步骤,其中感兴趣的区域从多个像素产生,其中感兴趣的区域中的每个像素包括相关的光强度值,其中每一光强度值在强度直方图中使用,用于确定捕获的图像的照明条件的亮度。\n[0036] 21.根据方案20所述的方法,还包括将强度直方图分离到多个分类库中的步骤,其中每个库表示了光强度值的范围,并且其中每一像素基于每一像素的光强度值分配至各自的库。\n[0037] 22.根据方案21所述的方法,还包括基于强度直方图产生累积直方图的步骤,其中产生累积直方图是用于识别将白天照明条件与夜间照明条件区分开的各自的分类库。\n[0038] 23.根据方案17所述的方法,其中感兴趣的区域是地平线。\n[0039] 24.根据方案17所述的方法,其中用于产生虚拟图像的光轴不同于实际图像的光轴,其中产生补偿以将虚拟入射线的投影与实际入射线相关联。\n[0040] 25.根据方案17所述的方法,其中后视镜显示装置包括视镜显示关闭设置,其中当视镜显示关闭设置启动时,后视镜显示装置仅显示由后视镜显示装置的反射属性捕获的目标。\n[0041] 26.根据方案17所述的方法,其中后视镜显示装置包括没有图像覆盖的视镜显示打开设置,其中当没有图像覆盖的视镜显示打开设置启动时,后视镜显示装置仅显示调整的捕获的图像。\n[0042] 27.根据方案17所述的方法,其中后视镜显示装置包括没有图像覆盖的视镜显示打开设置,其中当没有图像覆盖的视镜显示打开设置启动时,后视镜显示装置显示具有图像覆盖的调整的捕获的图像,其中图像覆盖复制将由驾驶员在后视镜显示装置中看到的车辆的部件,用于帮助驾驶员识别车辆相对于车辆的环境目标的相对定位。\n[0043] 28.根据方案27所述的方法,其中图像覆盖复制车辆的后窗缘饰。\n[0044] 29.根据方案27所述的方法,其中图像覆盖复制车辆的头枕。\n[0045] 20.根据方案27所述的方法,其中图像覆盖复制车辆的C柱。\n[0046] 31.根据方案1所述的方法,其中动态视图合成是基于车辆操作的驾驶方案启动的,其中动态视图合成产生至图像区域的方向缩放,用于增强驾驶员对各个区域的视觉了解。\n[0047] 32.根据方案31所述的方法,其中用于启动动态视图合成的驾驶方案包括确定车辆是否在停车场行驶。\n[0048] 33.根据方案31所述的方法,其中用于启动动态视图合成的驾驶方案包括确定车辆是否在高速公路上行驶。\n[0049] 34.根据方案31所述的方法,其中用于启动动态视图合成的驾驶方案包括致动转向灯。\n[0050] 35.根据方案31所述的方法,其中用于启动动态视图合成的驾驶方案是基于方向盘角度的。\n[0051] 36.根据方案31所述的方法,其中用于启动动态视图合成的车辆操作的驾驶方案是基于车辆的速度的。\n附图说明\n[0052] 图1是包括环境视图的基于视觉的成像系统的车辆的视图。\n[0053] 图2是用于针孔相机模型的视图。\n[0054] 图3是非平面的针孔相机模型的视图。\n[0055] 图4是使用圆柱图像表面建模的方框流程图。\n[0056] 图5是使用椭圆图像表面模型的方框流程图。\n[0057] 图6是用于将点从实际图像映射至虚拟图像的视图合成的流程图。\n[0058] 图7是径向畸变修正模型的视图。\n[0059] 图8是严重径向畸变模型的视图。\n[0060] 图9是基于虚拟图像上的点用于确定虚拟入射线角度的用于作用视图合成的方框图。\n[0061] 图10是投影到各自的圆柱的成像表面模型上的入射线的视图。\n[0062] 图11是作用虚拟平移/倾斜用于基于虚拟入射线角度用于确定光线入射线角度的方框图。\n[0063] 图12是在虚拟入射线角度与真实入射线角度之间的平移/倾斜的转动表示。\n[0064] 图13是用于在后视镜显示装置上显示来自一个或多个图像捕获装置的捕获图像的方框图。\n[0065] 图14示出了使用单个相机的动态后视镜显示成像系统的方框图。\n[0066] 图15示出了用于在后视镜装置中图像的自适应变暗和自适应覆盖的流程图。\n[0067] 图16示出了用于日光条件的虚拟天空视图的示例性图像。\n[0068] 图17是用于日光条件的强度直方图的示例。\n[0069] 图18是用于日光条件的累积直方图的示例。\n[0070] 图19示出了用于夜间条件的虚拟天空视图的示例性图像。\n[0071] 图20是用于夜间条件的强度直方图的示例。\n[0072] 图21是用于夜间条件的累积直方图的示例。\n具体实施方式\n[0073] 图1示出的是沿道路行驶的车辆10。基于视觉的成像系统12捕获道路的图像。\n基于视觉的成像系统12根据一个或多个基于视觉捕获装置的位置捕获围绕车辆的图像。\n在此处描述的实施例中,基于视觉的成像系统捕获车辆后方,车辆前方,以及车辆侧面的图像。\n[0074] 基于视觉的成像系统12包括用于捕获车辆10的前方的视野(FOV)的前视相机\n14,用于捕获车辆17的后方FOV的后视相机16,用于捕获车辆19的左侧FOV的左视相机\n18,和用于捕获车辆21的右侧FOV的右视相机20。相机14-20可以是适于在此描述的目的的任意相机,它们中的许多在汽车领域中是公知的,其能够接收光,或其它辐射,并且使用例如电荷耦合器件(CCD)以像素格式将光能转换为电信号。相机14-20以某些数据帧频产生可以存储用于后续处理的图像数据的帧。相机14-20可以安装在车辆10的一部分的内部或在车辆10的一部分的任意适当结构上,例如,如本领域技术人员将会理解和认识的,保险杠,面板,格栅,侧视镜,门板,挡风玻璃后方等。来自相机14-20的图像数据被发送到处理器22,其处理图像数据以产生可以显示在观察视镜显示装置器24上的图像。\n[0075] 本发明使用了来自基于视觉成像的装置12捕获的景象,用于检测捕获景象的照明条件,其然后用于调整后视镜24的图像显示的变暗功能。优选地,使用了宽角镜头相机,用于捕获车辆外部的景象的超宽FOV,这样的区域由26表示。基于视觉成像的装置12聚焦在捕获图像的各自的区域上,其优选地是包括天空28以及太阳的区域,以及在晚上时来自其它车辆的强亮光。通过聚焦在天空的照明强度上,可以确定捕获景象的照明强度水平。\n此目的是建立合成图像,如从虚拟相机获取的,其具有的光轴指向天空用于产生虚拟天空视图。一旦天空视图从在天空处导向的虚拟相机产生,可以确定景象的亮度。此后,可以动态地调整通过后视镜24或车辆内部其它显示装置显示的图像。此外,图形图像覆盖可以投影到后视镜24的图像显示上。当通过具有普通反射属性的后视镜观察反射时,图像覆盖复制将典型地将由驾驶员看到的车辆的部件(例如,头枕,后窗玻璃装饰,C柱),其包括基于线的覆盖(例如略图)。由图形覆盖显示的图像还可以相对于景象的亮度调整以保持所需的半透明度,从而图形覆盖不干扰投影到后视镜上的景象,并且不被模糊。\n[0076] 为了基于实际相机的捕获图像产生虚拟天空图像,捕获图像必须建模,处理,并且视图合成,用于产生来自实际图像的虚拟图像。以下详细描述了该处理如何完成。本发明使用了在没有使用径向畸变修正的情况下、采用了简单的两步方法并且提供了快速的处理时间和增强的图像质量的用于窄FOV和超宽FOV相机两者的图像建模和去变形处理。畸变是偏离直线投影,在景象中的直线在图像中保持直线的投影。径向畸变是镜片成直线的误差。\n[0077] 如上所述的两步步骤包括(1)为了在非平面成像表面上投影捕获的图像作用相机模型至捕获的图像和(2)为了将投影到非平面表面上的虚拟图像映射到实际显示图像上作用视图合成。对于视图合成,给出来自具有具体相机设置和方位的具体点的具体物的一个或多个图像,目标是建造作为来自具有相同或不同光轴的虚拟相机的合成图像。\n[0078] 如上所述的两步步骤包括(1)为了在非平面成像表面上投影捕获的图像作用相机模型至捕获的图像和(2)为了将投影到非平面像面上的虚拟图像映射到实际显示图像上作用视觉合成。为了视觉合成,给出来自具有具体相机设置和方位的具体点的具体主题的一个或多个图像,目标是建造作为来自具有相同或不同光轴的虚拟相机的合成图像。\n[0079] 除用于超宽FOV相机的动态视图合成外,提出的方法提供了实际的环境视图和具有提高的去变形操作的动态后视镜功能。在此使用的相机修正是指估计估计包括固有和外在参数的多个相机参数。固有参数包括焦距,图像中心(或象主点),径向畸变参数等并且外在参数包括相机位置,相机方向等。\n[0080] 相机模型在本领域公知为用于将自然空间中的目标映射到相机的图像传感器平面以产生图像。本领域公知的一个模型被认为是对窄FOV相机的图像建模有效的针孔相机模型。针孔相机模型被限定为:\n[0081] 相机模型在本领域公知为用于将自然空间中的目标映射到相机的图像传感器平面以产生图像。本领域公知的一个模型被认为是对窄FOV相机的图像建模有效的针孔相机模型。针孔相机模型被限定为:\n[0082] (1)\n[0083] 图2是用于针孔相机模型的视图30并且示出了由坐标 ,限定的二维相机图像平面32,和由全局坐标 , ,限定的三维物体空间34。从焦点C至图像平面32的距离是相机的焦距 并且由焦距 和 限定。从点C至图像平面32的原理点的垂直线限定了由, 限定的平面32的图像中心。在视图30中,物体空间34中的物体点 在点 映射到图像平面32中,其中图像点 坐标是 , 。\n[0084] 等式(1)包括采用以提供在物体空间34中的点 至图像平面32中的点 的映射的参数。尤其地,固有参数包括 , , , 和 以及外在参数包括用于相机转动的3乘3的矩阵 和从图像平面32至物体空间34的3乘1的转换矢量t。参数 表示两个图像轴的偏斜,其典型地可以忽略,并且经常设置为零。\n[0085] 由于针孔相机模型遵循直线投影,其中有限尺寸的平面图像表面仅可以覆盖有限的FOV范围(<<180°FOV),以使用平面图像表面产生用于超宽(~180°FOV)鱼眼相机的圆柱形的全景,必须使用具体的相机模型以考虑横向径向畸变。一些其它的视图可能需要其它具体的相机建模,(并且一些具体视图可能不能产生)。然而,通过将图像平面改变为非平面的图像表面,仍然通过使用简单的光线跟踪和针孔相机模型可以很容易地产生具体的视图。因此,以下的描述将描述使用非平面图像表面的优点。\n[0086] 后视镜显示装置24(图1所示)输出由基于视觉的成像系统12捕获的图像。图像可能改变可能转换的图像以示出提高的捕获图像的FOV的各个部分的视图。例如,可能改变图像用于产生全景景像,或可能产生在车辆转向方向上增强图像的区域的图像。在此描述的提出的方法在没有径向畸变修正的情况下用较简单的相机模型对具有凹面成像表面的宽FOV相机进行建模。该方法使用具有新的相机成像表面模型(例如,基于光-光线的建模)的虚拟视图合成技术。该技术具有后视相机应用的各种应用,其包括动态方针,360度环视相机系统,以及动态后视镜特征。该技术通过具有各种相机成像表面的简单相机针孔模型对各种相机成像效果进行模拟。应当理解,除相机针孔模型外,可以使用其它模型,包括传统的模型。\n[0087] 图3示出了使用非平面图像表面对捕获的景像38建模的优选技术。使用针孔模型,捕获的景像38投影到非平面的图像49上(例如,凹面)。由于图像正显示在非平面表面上,没有径向畸变修正作用到投影的图像上。\n[0088] 为了减少对图像的偏差,视图合成技术被应用到非平面表面上的投影图像上。在图3中,使用凹面成像表面完成图像去变形。这样的表面可以包括,但不限制为,圆柱或椭圆图像表面。即,捕获的景象使用针孔模型投影到圆柱状表面上。此后,投影到圆柱成像表面上的图像展示到平面车内图像显示装置上。因此,为了帮助驾驶员集中在打算行进的区域中,为了更好地观察,增强了车辆正努力停放的停车空间。\n[0089] 图4示出了用于作用圆柱图像表面建模至捕获的景像的方框流程图。在方框46中示出了捕获的景像。相机建模52被应用到捕获的景像46上。如较早描述的,相机模型优选地是针孔相机模型,然而,可以使用传统的或其它相机建模。捕获的图像使用针孔相机模型投影到各自的表面上。各自的图像表面是圆柱图像表面54。通过将投影到圆柱表面上的图像的光线映射到捕获的实际图像的入射线上以产生去变形的图像而执行视图合成42。\n结果是增强了可利用的停车空间的视图,其中停车空间对中在去变形图像51的最前部。\n[0090] 图5示出了使用针孔模型用于使用椭圆图像表面模型至捕获的景像上的流程图。\n椭圆图像模型56作用了更大的分辨率至捕获的景像46的中心。因此,如去变形图像57中所示,与图5相比使用了椭圆模型,在去变形图像的中心最前部处的物体被进一步增强。\n[0091] 动态视图合成是一种技术,通过其启动了基于车辆操作的驾驶方案的具体的视图合成。例如,如果车辆在停车场对比高速公路的驾驶中,可能触发具体的合成建模技术,或可能通过感测车辆的各个区域的目标的接近传感器触发,或通过车辆信号触发(例如,转向灯,方向盘角度,或车辆速度)。具体的合成建模技术可以应用各形状的模型至捕获的图像,或取决于触发操作作用虚拟平移,倾斜,或方向性缩放。\n[0092] 图6示出了用于从实际图像映射虚拟图像的视图合成的流程图。在方框61中,捕获图像上的实际点由坐标 和 识别,并且其识别哪里入射线接触成像表面。入射线可以由角度( , )表示,其中, 是入射线与光轴之间的角度,并且 是x轴与入射线在平面上的投影之间的角度。为了确定入射线角度,实际的相机模型是预先确定并且校准的。\n[0093] 在方框62中,限定了实际相机模型,例如鱼眼模型( 和 )。即,由实际鱼眼相机视图看到的入射线可以由以下示出:\n[0094] \n[0095] 其中 表示 并且 表示 。径向畸变修正模型在图7中示出。由以下的等式(3)表示的径向畸变模型,有时被认为是Brown- Conrady模型,其提供了对来自目标空间74的在图像平面72上成像的目标的非严重径向畸变的修正。相机的焦距 是点76与透镜光轴与图像平面72交叉的图像中心之间的距离。在视图中,如果使用针孔相机模型,在线70与图像平面72交叉处的图像位置 表示目标点 的虚拟成像点 。然而,由于相机图像具有径向畸变,实际成像点 在位置 ,其是线78与图像平面72的交点。值 和不是点,而是从图像中心 , 至图像点 和 的径向距离。\n[0096] \n[0097] 使用以上讨论的针孔模型确定点 并且包括提及的固有与外在参数。等式(3)的模型是在成像平面72中将点 转换为 的偶次多项式,其中 是需要确定以提供修正的参数,并且其中参数 的数目限定了修正的精确度。校准处理在实验室环境中对确定参数的具体的相机执行。因此,除用于针孔相机模型的固有和外在参数之外,用于等式(3)的模型包括附加参数 以确定径向畸变。由等式(3)的模型提供的非严重的径向畸变修正典型地对宽FOV相机是有效的,例如135°FOV相机。然而,对于超宽FOV相机,即,180°FOV,径向畸变对于等式(3)的模型而言太严重了以至于不能生效。换句话说,当相机的FOV超过一些值时,例如,140°至150°,当角度 接近90°时,值 变为无穷大。对于超宽FOV相机,在现有技术中提出了在等式(4)中示出的严重径向畸变修正模型以提供对严重径向畸变的修正。\n[0098] 图8图解了示出了圆顶以图解FOV的鱼眼模型。该圆顶表示鱼眼镜头相机模型并且由鱼眼模型可以获得的FOV达到180°或以上。鱼眼镜头是超宽角度镜头,其产生旨在产生宽的全景或半球图像的很强的视觉畸变。鱼眼镜头通过放弃产生具有透视的直线的图像(直线图像),选择替代具体映射(例如,相等立体角度)而获得及其宽的视图角度,其为图像给出了特性凸状非直线外观。该模型表示严重的径向畸变,其在以下的等式(4)中示出,其中等式(4)是奇数序多项式,并且包括用于提供在图像平面79中的点 至点 的径向修正技术。如上,图像平面由坐标 和 限定,并且目标空间由全局坐标 限定。此外, 是入射线入射线与光轴之间的入射角。在图解中,点 是使用针孔相机模型的目标点 的虚拟图像点,其中当 接近90°时其径向距离 可以变为无穷大。在径向距离 的点 是点的实际图像,其具有可以由等式(4)建模的径向畸变。\n[0099] 等式(4)中的值 是确定的参数。因此,入射角 用来在校准处理期间基于计算的参数提供畸变修正。\n[0100] \n[0101] 在现有技术中公知多种技术以提供用于对等式(3)的模型的参数 和等式(4)的模型的参数 提供估计。例如,在一个实施例中,使用了棋盘式图案并且图案的多个图像采用不同的视角度,其中相邻正方形之间的图案中的每个拐角点被识别。棋盘式图案中的每一点被标记并且每个点的位置在图像平面与全局坐标中的目标空间两者中被识别。相机的校准是由将实际图像点与3D目标空间点的二次投影之间的误差距离最小化通过参数估计而获得。\n[0102] 在方框63中,实际入射线角度( )与( )由实际相机模型确定。对应的入射线将由( , )表示。\n[0103] 在方框64中,确定虚拟入射线角度 和对应的 。如果没有虚拟倾斜和/或平移,然后( , )将等于( , )。如果虚拟倾斜和/或平移存在,则必须做出调整以确定虚拟入射线。将在下文中详细讨论虚拟入射线。\n[0104] 再次参照图6,在方框65中,一旦已知入射线角度,则通过使用各个相机模型(例如,针孔模型)和各个非平面成像表面(例如,圆柱成像表面)作用视图合成。\n[0105] 在方框66中,与非平面表面交叉的虚拟入射线在虚拟图像中确定。与虚拟非平面表面交叉的虚拟入射线的坐标在虚拟图像上示出为( , )。因此,虚拟图像( ,)上的像素的映射对应于实际图像( , )上的像素。\n[0106] 应当理解,景观上述流程图展现了通过获得实际图像中的像素并且发现与虚拟图像的相互关系的视图合成,但当在车辆中使用时可以以相反顺序执行。即,由于畸变和焦点仅在各个加亮区域上(例如,圆柱/椭圆形状),实际图像上的每个点可以不在虚拟图像中使用。因此,如果处理相对于没有使用的这些点进行,则在处理没有使用的像素中浪费了时间。因此,对于图像的车辆内处理,执行相反顺序。即,在虚拟图像中识别位置并且在实际图像中识别对应的点。以下描述了用于识别虚拟图像中的像素和确定实际图像中对应像素的细节。\n[0107] 图9图解了用于获得虚拟坐标( , )的第一步和作用用于识别虚拟入射角( , )的视图合成的第一步。图10展现了投影到各自的圆柱成像表面模型上的入射线。入射角 的水平投影水平投影由角度 表示。用于确定角度 的公式遵循以下等距投影:\n[0108] \n[0109] 其中 是虚拟图像点u-轴(水平)坐标, 是相机的u方向(水平)焦距,并且是图像中心u轴坐标。\n[0110] 接下来,角度 的垂直投影由角度 表示。用于确定角度 的公式遵循以下直线投影:\n[0111] \n[0112] 其中 是虚拟图像点v-轴(垂直)坐标, 是相机的v方向(垂直)焦距,以及是图像中心v轴坐标。\n[0113] 入射线角度然后可以通过以下公式确定:\n[0114] \n[0115] 如以上描述的,如果在虚拟相机与实际相机的光轴之间没有平移或倾斜,则虚拟入射线( , )和实际入射线( , )相同。如果平移和/或倾斜存在,则必须对虚拟入射线和实际入射线的投影的相关性做出补偿。\n[0116] 图11图解了当虚拟倾斜和/或平移存在时从虚拟入射线角度至实际入射线角度的转换的方框图。由于虚拟相机的光轴将聚焦向天空并且实际相机将实质上与移动的道路水平,差异在于轴向需要倾斜和/或平移转动操作。\n[0117] 图12图解了由于虚拟平移和/或倾斜转动从虚拟至实际的轴变化之间的比较。入射线位置不变化,因此如所示的对应的虚拟入射线角度和实际入射线角度与平移和倾斜相关。入射线由角度( , )表示,其中,是入射线与光轴之间的角度(由z轴表示),并且是x轴与入射线在x-y平面上的投影之间的角度。\n[0118] 对于每个确定的虚拟入射线( , ),入射线上的任意点可以由以下矩阵表示:\n[0119] \n[0120] 其中 是点离原点的距离。\n[0121] 虚拟平移和/或倾斜可以由以下的旋转矩阵表示:\n[0122] \n[0123] 其中 是平移角度,并且 是倾斜角度。\n[0124] 在识别虚拟平移和/或倾斜转动后,在相同入射线(对于现实)上的相同点的坐标将是如下:\n[0125] \n[0126] 在转动的坐标系中新的入射线将是如下:\n[0127] \n[0128] 因此,当倾斜和/或平移相对于虚拟相机模型存在时在( , )与( ,)之间确定一致。应当理解,在( , )与( , )之间的一直不与入射线上距离处的任何具体点相关。实际入射线角度仅与虚拟入射线角度( , )和虚拟平移和/或倾斜角 和 相关。\n[0129] 一旦知道实际入射线角度,如以上所讨论的在实际图像上各个光线的交点可以很容易地确定。结果是在虚拟图像上虚拟点映射至实际图像上对应的点。为了在实际图像上识别对应的点并且产生引起的图像,该处理对虚拟图像上的每个点执行。\n[0130] 图13图解了用于在后视镜显示装置上显示来自一个或多个图像捕获装置的捕获图像的整个系统图解的方框图。在80处总体上示出了多个图像捕获装置。多个图像捕获装置80包括至少一个前方相机,至少一个侧面相机,以及至少一个后视相机。\n[0131] 由图像捕获装置80捕获的图像输入至相机开关。基于诸如车辆速度,转弯,或倒进停车场地的车辆工作条件81可以启动多个图像捕获装置80。相机开关82基于通过诸如CAN总线的通信总线连通到相机开关82的车辆信息81启动一个或多个相机。各个相机还可以通过车辆的驾驶员有选择地启动。\n[0132] 来自所选择的图像捕获装置的捕获图像提供至处理单元22。处理单元22使用在此描述的各自的相机模型处理图像并且应用将捕获图像映射到后视镜装置24的显示器上的视图合成。\n[0133] 视镜模式按钮84可以由车辆的驾驶员致动,用于动态地启动在后视镜装置24上显示的景象相关的各自的模式。三个不同的模式包括,但不被限于,(1)具有观察相机的动态后视镜;(2)具有前视相机的动态视镜;以及(3)具有环境观察相机的动态观察视镜。\n[0134] 基于视镜模式和各自图像的处理的选择,处理的图像提供至后视成像装置24,其中捕获的景象的图像被复制并且经由后视成像显示装置24显示至车辆的驾驶员。应当理解,为了转换为用于景象亮度分析的虚拟图像,任意各个相机可以用来捕获图像。\n[0135] 图14示出了使用单个相机的动态后视镜显示图像系统的方框图的例子。动态后视镜显示成像系统包括具有宽角度FOV功能的单个相机90。相机的宽角度FOV可以大于,等于,或小于180度视角。\n[0136] 如果仅使用单个相机,不需要相机切换。捕获的图像输入至处理单元22,其中捕获的图像应用到相机模型。在该示例中使用的相机模型包括椭圆相机模型;然而,应当理解可以使用其它的相机模型。椭圆相机模型的投影意味着观察景象好像图像绕椭圆包围并且从内部观察。因此,与位于捕获图像的端部的像素相对,在图像的中心处的像素更靠近地观察。在图像的中心的缩放大于在侧面的。\n[0137] 处理单元22也作用用于将来自椭圆模型的凹面的捕获图像映射到后视镜的平面显示屏上的视图合成。\n[0138] 视镜模式按钮84包括进一步的功能,其允许驾驶员控制后视镜显示器24的其它视图选项。可以由驾驶员选择的附加视图选项包括:(1)视镜显示关闭;(2)具有图像覆盖的视镜显示打开;以及(3)没有图像覆盖的视镜显示打开。\n[0139] “视镜显示关闭”是指由捕获成像装置捕获的、被建模、处理、显示为去变形图像的图像不显示在后视镜显示装置上。而是后视镜仅在由视镜的反射属性捕获的那些目标时起到与视镜显示相同的功能。\n[0140] “具有图像覆盖的视镜显示打开”是指由捕获成像装置捕获的、被建模、处理、并且投影为去变形图像的图像显示在示出了景象的宽角度FOV的图像捕获装置24上。此外,图像覆盖92(在图15中示出)投影到后视镜24的图像显示上。当通过具有普通反射属性的后视镜观察反射时,图像覆盖92复制将典型地由驾驶员看到的车辆的部件(例如,头枕,后窗玻璃装饰,C柱)。该图像覆盖92帮助驾驶员识别车辆相对于道路和围绕车辆的其它目标的相对定位。图像覆盖92优选地是表示车辆关键元件的透明的或淡的简图线以允许驾驶员无阻碍地观察景象的整个内容。\n[0141] “没有图像覆盖的视镜显示打开”显示如上所述的相同的捕获图像,但没有图像覆盖。图像覆盖的目的是允许驾驶员参考景象相对于车辆的内容;然而,驾驶员可能发现图像覆盖不需要并且可以选择在显示中没有图像覆盖。该选择完全按照车辆驾驶员的意愿。\n[0142] 基于至视镜按钮模式84做出的选择,在方框24中适当的图像经由后视镜呈现给驾驶员。应当理解,如果使用超过一个相机,例如多个窄FOV相机,其中每个图像必须集成在一起,然后可以使用图像缝合。图像缝合是将多个图像与图像FOV的重叠区域结合用于产生无缝的分段全景的处理。即,合成图像组合从而由于重叠区域已经合并,则没有引人注意的边界。在执行图像缝合后,缝合的图像输入至处理单元,用于作用相机建模和对图像的视图合成。\n[0143] 图15示出了用于在后视镜显示装置中图像的自适应变暗和自适应图像覆盖的流程图。\n[0144] 在方框100中,虚拟天空视图从实际捕获图像中产生。虚拟天空视图可以使用由在车辆上使用的任意图像捕获装置捕获的任意图像产生;然而,由实际图像捕获的实际输入图像必须具有FOV,其中天空或其它目标区域的至少一部分在图像中捕获,用于检测景象的亮度。\n[0145] 在方框101中,确定虚拟图像的亮度。用于确定车辆外部虚拟景象的照明条件的处理描述在2011年11月17日提交的共同待决申请13/298,615中,其全部内容在此结合作为参考。确定照明条件的细节将在下文中描述。\n[0146] 在方框102中,景象亮度基于在步骤101中检测的照明条件动态地调整。\n[0147] 在方框103中,图形覆盖插入到在后方显示器上再现的图像上。图形覆盖还基于确定的照明条件动态地调整从而其不干涉再现图像,或调整为使得在重显图像中可见。\n[0148] 方框104展现了来自白天条件的景象,其中外部景象调整为补偿亮度照明条件。\n除图形覆盖之外的道路可以变暗以补偿在白天发生的亮度照明条件。\n[0149] 方框105展现了来自夜间条件的景象,其中外部景象调整为补偿那变暗的照明条件。除图形覆盖之外的道路可以变亮以补偿在夜间景象发生的黑暗照明条件。\n[0150] 图16图解了由用于白天的成像系统产生的虚拟天空视图的图像110。虚拟天空视图从由实际相机捕获的图像产生。实际相机(例如,超宽FOV)捕获天空的一部分。成像系统基于之前描述的技术产生天空区域的虚拟图像。地平线是用于确定照明条件的最好的指示器。\n[0151] 可以选择虚拟图像内的任意区域用于分析照明条件。应当理解,可以使用各种软件程序用于分析图像和选择最适于检测车辆外部环境的照明条件的区域。\n[0152] 用于确定车辆外部照明条件的车辆内技术可以使用阈值或分类器。尽管分类器增加了车辆内的复杂性并且是数据强度,使用阈值的技术可以在用于建立阈值的训练阶段期间使用分类器。在训练模式中,捕获包括各种照明条件的各种图像。在每个图像中,识别感兴趣的区域,其优选涉及如图16所示的地平线。\n[0153] 对于每个捕获的图像,产生强度直方图。图17图解了强度直方图的示例。分析各个图像的感兴趣的区域。图像从多个像素产生。感兴趣区域内的每个像素具有相关的光强度值。每一光强度值表示在直方图内。\n[0154] 直方图分离到多个分类库中。如图17所示,有十六个分类库。强度彼此接近的强度值可以在一起成为一组。如果,如果存在单个像素可以存在的256个可能的光强度值,则如图17中所示的直方图分离为在每个分类内具有十六个光强度值的十六个分类。参照图\n17,第一分类库将包括光强度值1-16,第二分类库将包括17-32,第三分类库将包括33-48,以及第四也这样。因此,对于感兴趣区域内的每个像素的每个强度值基于它们各自的分类库分配至分类库。直方图的垂直轴表示分配至该分类库的光强度值的各自范围内的像素的总值。总值可以是识别分配至该分类库的像素的总数,百分数,或其它表示。\n[0155] 在用于每一像素的强度值分配至各自的分类库后,基于强度直方图产生累积直方图。在图18中示出了示例性的累积直方图。对于每个图像产生各自的累积直方图,用于识别最好将白天照明条件与夜间照明条件区分开的各自的分类库。此外,各自的分类库可以用来将有阻碍的日光日光条件与无阻碍的日光条件区分开。有障碍的日光条件将包括路径传播在阻碍日光的结构下移动。示例包括,但不限制为,隧道和桥。\n[0156] 如之前描述的,产生了表示白天照明环境和夜间照明环境两者的多个累积直方图。来自累积直方图的数据提供至特征选择例程,用于识别在白天照明条件与夜间照明条件之间最好区分的各自的分类库。特征选择例程的示例包括,但不限制为,使用两个可能的分布之间差异的非对称测量的Kullback-Leibler偏差方法。例程的目标是共同地分析累积直方图的每一相关分类库并且识别将白天照明环境与夜间照明环境最好地区分的各自的分类库。\n[0157] 一旦识别了各自的分类库,选择第一阈值,用于识别图像是从白天环境或夜间环境获得的。表示选择的分类库的光强度值的总值与第一阈值相比较。如果总值大于第一阈值,则作出图像是在照明条件期间捕获的的确定。可替换地,如果总值小于第一阈值,则作出图像是在白天照明条件期间捕获的的确定。\n[0158] 在图18中,由特征选择例程选择分类库3,用于区分白天和夜间环境。(例如,0.2)的第一阈值用作与所选择分类库(例如,分类库3)的总值的比较器,用于确定图像是从白天照明条件或夜间照明条件捕获的。如图18所示,分类库3的总值小于0.1。分类库(例如,<0.1)的总值小于第一阈值(例如,0.2)。因此,作出由图像捕获装置捕获的外部景象在白天条件下发生的确定。此外,特征选择例程可以进一步分析用于确定外部景象的照明强度的总值或其它标准(例如,其它分类库),其可以帮助确定应用至再现图像的适当的变暗量。\n[0159] 图19图解了由用于夜间条件的成像系统产生的虚拟天空视图的图像120。虚拟天空视图从由实际相机捕获的图像产生。如之前描述的,实际相机(例如,超宽FOV)捕获天空的一部分。成像系统基于之前描述的技术产生天空区域的虚拟图像。\n[0160] 图20图解了强度直方图的示例。分析各个图像的感兴趣的区域。图像从多个像素产生。感兴趣区域内的每个像素具有相关的光强度值。每一光强度值表示在直方图内。直方图合成到多个分类仓中。类似于用于白天条件的直方图,存在十六个分类库。强度彼此接近的强度值可以在一起成为一组。例如,如果存在单个像素可以存在的256个可能的光强度值,则如图20中所示的直方图分离为在每个分类库内具有十六个光强度值的十六个分类。参照图20,第一分类库将包括光强度值1-16,第二分类库将包括17-32,第三分类库将包括33-48,以及第四也这样。因此,对于感兴趣区域内的每个像素的每个强度值基于它们各自的分类库分配至分类库。直方图的垂直轴表示分配至该分类库的光强度值的各自范围内的像素的总值。总值可以是识别分配至该分类库的像素的总数,百分数,或其它表示。\n[0161] 在用于每一像素的强度值分配至各自的分类库后,基于强度直方图产生累积直方图。在图21中示出了示例性的累积直方图。对于每个图像产生各自的累积直方图,用于识别最好将夜间照明条件与白天照明条件区分开的各自的分类库。此外,各自的分类库可以用来区分在夜间期间好的照明条件与差的照片条件。\n[0162] 如之前描述的,训练传导在示例的图像上以共同地分析训练的累积直方图的每一相关分类库并且识别将白天光环境与夜间光环境最好地区分的各自的分类库。在之前描述的示例中,分类库3识别为最好的区分白天光线与夜晚光线的各自的库。如果各自的累积直方图的分类库的总值小于第一阈值,则作出图像是在白天照明条件期间捕获的的确定。\n[0163] 如图21所示,分类库3的总值大约0.9。因此,总值(例如,0.9)大于第一阈值(例如,0.2)。因此,作出由图像捕获装置捕获的外部景象在夜间条件下发生的的确定。此外,特征选择例程可以进一步分析用于确定外部景象的照明强度值的总值或其它标准(例如,其它分类库),其可以帮助确定作用至再现图像的变暗/或增亮的适当的量。\n[0164] 用于确定车辆外部照明条件的基于视觉的成像系统可以用来替换在车辆中使用的用于自动前灯控制的传统的光传感器。在当前车辆上,自动前灯打开/关闭和白天运行灯控制依赖于位于挡风玻璃后方和工具面板的上方的光传感器以感测车辆移动的环境的照明条件。当传感器显示环境光线不够明亮时,例如,在黄昏,夜间,移动通过隧道,或在停车结构中,前灯将自动地打开。具有在此描述的基于相机和视觉的亮度估计,光传感器将被减少并且可以从车辆中除去,由此节省了硬件,软件,以及复杂度成本。\n[0165] 此外,在后视镜上使用的用于自动变暗的光传感器也可以由本发明替换。当前车辆使用了安装在后视镜上的光传感器以检测来自其它车辆头灯的闪光并且可以使用电致变色自动地将后视镜和/或侧视镜变暗。当在后方面对相机上使用在此描述的亮度感测技术时,用于自动变暗功能的灯传感器变得多余并且可以由基于亮度感测技术的本相机替换。此外,用于自动雨刮控制的当前雨水感测技术也可以由基于该方法的本相机替换。当前雨水感测技术使用红外光发射器和安装在挡风玻璃后方的光电探测器以检测挡风玻璃的反射。挡风玻璃上的雨滴将减少由挡风玻璃的外部反射回的光的量(水比空气具有较大的折射率)。挡风玻璃越湿,由雨水传感器检测到的反射越少。因此,雨水传感器可以感测雨/雪条件和挡风玻璃聚集的水的量,并且发送信号至雨刮控制单元,用于自动打开/关闭和自适应的速度控制。基于亮度检测技术的本相机可以进一步使用图像处理和计算机视觉技术用于检测雨和雪天气条件,其可以体检当前的基于光的雨水传感器。\n[0166] 尽管已经详细描述了本发明的某些实施例,但本领域技术人员将会理解用于实践本发明的各种可替换设计和实施例由以下权利要求限定。
法律信息
- 2016-01-27
- 2014-06-04
实质审查的生效
IPC(主分类): B60R 1/00
专利申请号: 201310497786.8
申请日: 2013.10.22
- 2014-05-07
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2008-02-06
|
2007-08-22
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |