著录项信息
专利名称 | 基于车联网实现图像信息共享的方法、装置和系统 |
申请号 | CN201110302260.0 | 申请日期 | 2011-10-09 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2012-02-15 | 公开/公告号 | CN102354449A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G08G1/00 | IPC分类号 | G;0;8;G;1;/;0;0;;;G;0;6;K;9;/;4;6查看分类表>
|
申请人 | 昆山市工业技术研究院有限责任公司 | 申请人地址 | 江苏省苏州市玉山镇苇城南路1699号
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 昆山市工业技术研究院有限责任公司 | 当前权利人 | 昆山市工业技术研究院有限责任公司 |
发明人 | 梁艳菊;李庆;陈大鹏;林蓁蓁;陈政 |
代理机构 | 北京集佳知识产权代理有限公司 | 代理人 | 逯长明 |
摘要
本发明提供了一种基于车联网实现图像信息共享的方法、装置和系统,该方法包括:获取各个车载终端捕获到的道路图像信息,道路图像信息包括图像以及该图像对应的位置信息和时间信息;依据位置信息和时间信息,将同一时间范围内且对应同一指定位置区域范围内的图像组成图像集合,得到多个图像集合;针对同一图像集合中的图像,提取图像特征点,并依据提取出的特征点进行图像的特征匹配,将完成特征匹配的图像进行拼接,融合成一幅宽视角图像,保存各个图像集合中拼接得到的宽视角图像,以便依据融合的宽视角图像进行道路交通监管。该方法能提供较宽视野的图像信息,为车辆以及交通监管部门提供比较准确的道路交通图像信息。
1.一种基于车联网实现图像信息共享的方法,其特征在于,包括:
获取各个车载终端捕获到的本车辆所处位置的道路图像信息,所述道路图像信息包括车辆所在路段的图像以及该图像对应的位置信息和时间信息;
对所述各个车载终端捕获的图像进行提取,依据所述位置信息和时间信息,将同一时间范围内且对应同一指定位置区域范围内的图像组成图像集合,得到多个图像集合;
针对同一图像集合中的图像,提取图像特征点,并依据提取出的特征点进行图像的特征匹配,将完成特征匹配的图像进行拼接,融合成一幅宽视野图像;
保存各个图像集合中拼接得到的宽视野图像,以便依据所述融合的宽视野图像进行道路交通监管,其中,不同图像集合中拼接得到的宽视野图像对应不同的位置信息和时间信息。
2.根据权利要求1所述的方法,其特征在于,所述车载终端捕获的道路图像信息,包括:
车载终端接收图像传感器获取到的图像信息,以及卫星定位系统获取到的位置信息和时间信息,得到当前的道路图像信息。
3.根据权利要求1所述的方法,其特征在于,所述将完成特征匹配的图像进行拼接,融合成一幅宽视野图像,包括:
A、将该同一图像集合中任意两幅完成特征匹配的图像进行拼接,将所述两幅图像融合成一幅拼接图像;
B、对所述同一图像集合中的多幅拼接图像,进行特征点提取,并依据提取出的特征点进行拼接图像间的特征匹配;
C、重复执行步骤A和B,直至将所述同一图像集合中的多幅图像拼接为一幅宽视野图像。
4.根据权利要求1所述的方法,其特征在于,所述提取图像特征点,包括:
利用SURF算法对图像进行特征点提取。
5.根据权利要求1或4所述的方法,其特征在于,所述依据提取出的特征点进行图像的特征匹配,包括:
采用k-d树最近邻搜索算法对图像进行特征点匹配。
6.根据权利要求1或3所述的方法,其特征在于,所述将完成特征匹配的图像进行拼接,融合成一幅宽视野图像,包括:
根据预置的变换关系,计算待拼接的两幅图像间的变换矩阵;
根据所述变换矩阵,将所述待拼接的两幅图像变换到同一坐标系下;
采用加权平均的方法,对所述待拼接的两幅图像中有重叠的区域进行融合,得到融合后的宽视野图像。
7.根据权利要求6所述的方法,其特征在于,所述预置的变换关系包括:
其中,p1=(x1,y1),p2=(x2,y2),p1和p2分别表示待拼接的图像1和待拼接的图像2中的匹配特征点;H代表变换矩阵。
8.根据权利要求6所述的方法,其特征在于,采用加权平均的方法,对所述待拼接的两幅图像中有重叠的区域进行融合,包括:
利用如下公式,对待拼接的两幅图像进行拼接融合,
其中,I1,I2分别表示两幅待拼接的图像,I表示融合后的图像;
α=wi/W,α∈(0,1),其中,wi为当前像素点与两幅待拼接图像重合区域左边缘的横向距离,W是两幅图像重合区域的总宽度。
9.根据权利要求1所述的方法,其特征在于,还包括:
接收某车载终端发送的获取某路段图像信息的请求;
依据所述请求,获取与所述路段对应的宽视野图像,并将获取到的宽视野图像返回给该车载终端。
10.一种基于车联网实现图像信息共享的装置,其特征在于,包括:
道路信息获取单元,用于获取各个车载终端捕获到的本车辆所处位置的道路图像信息,所述道路图像信息包括车辆所在路段的图像以及该图像对应的位置信息和时间信息;
图像集合提取单元,用于对所述各个车载终端捕获的图像进行提取,依据所述位置信息和时间信息,将同一时间范围内,且对应同一指定位置区域范围内的图像信息组成图像集合,得到多个图像集合;
特征点提取单元,用于针对同一图像集合中的图像信息,提取图像特征点;
特征匹配单元,用于依据提取出的特征点进行图像的特征匹配;
图像拼接单元,用于将完成特征匹配的图像进行拼接,融合成一幅宽视野图像;
存储单元,用于保存各个图像集合中拼接得到的宽视野图像,以便依据所述融合的宽视野图像进行道路交通监管。
11.根据权利要求10所述的装置,其特征在于,所述特征点提取单元,包括:
特征点提取子单元,用于利用SURF算法对图像进行特征点提取。
12.根据权利要求10所述的装置,其特征在于,所述特征匹配单元,包括:
特征匹配子单元,用于采用k-d树最近邻搜索算法对图像进行特征点匹配。
13.根据权利要求10所述的装置,其特征在于,所述图像拼接单元,包括:
变换矩阵计算单元,用于根据预置的变换关系,计算待拼接的两幅图像间的变换矩阵;
坐标转换单元,用于根据所述变换矩阵,将所述待拼接的两幅图像变换到同一坐标系下;
图像融合单元,用于采用加权平均的方法,对所述待拼接的两幅图像中有重叠的区域进行融合,得到融合后的宽视野图像。
14.一种基于车联网实现图像信息共享的系统,其特征在于,包括车联网服务器以及设置在车辆上的车载终端;
其中,所述车载终端设置有图像传感器和卫星导航装置;
所述车载终端,用于接收图像传感器获取到的图像信息,以及卫星导航装置获取到的位置信息和时间信息,得到当前的道路图像信息,所述道路图像信息包括所述车辆所在道路的图像信息以及该图像信息对应的位置信息和时间信息;
所述车联网服务器包括权利要求10至13任一项所述的基于车联网实现图像信息共享的装置。
基于车联网实现图像信息共享的方法、装置和系统\n技术领域\n[0001] 本发明涉及道路交通信息服务技术领域,更具体的说是涉及一种基于车联网实现图像信息共享的方法、装置和系统。\n背景技术\n[0002] 车联网系统,是指利用先进的传感器技术、网络技术、计算技术、智能技术对道路和交通进行全面感知,实现数据交互、以达到不同车辆之间信息共享,对道路交通进行控制的目的,实现智能、高效的道路管理。\n[0003] 在现有的车联网系统中,各地分散的车辆可以通过车辆中的智能车载终端将捕捉到的图像信息和位置信息发送给车联网的服务器。车联网服务器依据图像信息对应位置信息,将不同的图像信息分区域进行保存。当某车辆请求图像信息时,服务器会从保存的图像信息中获取该车辆请求的位置信息所对应的图像信息,并将图像信息传送给该车辆。\n[0004] 现有的基于车联网的图像信息服务系统中,虽然也可以为车辆提供不同路段的图像信息,但是服务器系统为车辆所提供的图像信息仅仅是每个车载终端捕捉到的原始图片图像信息,而每个车载终端所捕获的图像信息的视野较窄,图像信息所涵盖的道路交通信息内容较少,且道路信息不够全面,不能够为各个车辆比较准确的道路交通图像信息。同时由于该服务器系统所能提供的图像信息涵盖的道路交通信息内容少,也不利于进行交通监管、拥堵疏通等道路交通的监管和控制。\n发明内容\n[0005] 有鉴于此,本发明提供一种基于车联网实现图像信息共享的方法、装置和系统,该方法能提供较宽视野的图像信息,为车辆以及交通监管部门提供比较准确的道路交通图像信息。\n[0006] 为实现上述目的,本发明提供如下了一种基于车联网实现图像信息共享的方法,包括:\n[0007] 获取各个车载终端捕获到的道路图像信息,所述道路图像信息包括图像以及该图像对应的位置信息和时间信息;\n[0008] 依据所述位置信息和时间信息,将同一时间范围内且对应同一指定位置区域范围内的图像组成图像集合,得到多个图像集合;\n[0009] 针对同一图像集合中的图像,提取图像特征点,并依据提取出的特征点进行图像的特征匹配,将完成特征匹配的图像进行拼接,融合成一幅宽视角图像;\n[0010] 保存各个图像集合中拼接得到的宽视角图像,以便依据所述融合的宽视角图像进行道路交通监管,其中,不同图像集合中拼接得到的宽视野图像对应不同的位置信息和时间信息。\n[0011] 优选的,所述车载终端捕获的道路图像信息,包括:\n[0012] 车载终端接收图像传感器获取到的图像信息,以及卫星定位系统获取到的位置信息和时间信息,得到当前的道路图像信息。\n[0013] 优选的,所述将完成特征匹配的图像进行拼接,融合成一幅宽视角图像,包括:\n[0014] A、将该同一图像集合中任意两幅完成特征匹配的图像进行拼接,将所述两幅图像融合成一幅拼接图像;\n[0015] B、对所述同一图像集合中的多幅拼接图像,进行特征点提取,并依据提取出的特征点进行拼接图像间的特征匹配;\n[0016] C、重复执行步骤A和B,直至将所述同一图像集合中的多幅图像拼接为一幅宽视角图像。\n[0017] 优选的,所述提取图像特征点,包括:\n[0018] 利用SURF算法对图像进行特征点提取。\n[0019] 优选的,所述依据提取出的特征点进行图像的特征匹配,包括:\n[0020] 采用k-d树最近邻搜索算法对图像进行特征点匹配。\n[0021] 优选的,所述将完成特征匹配的图像进行拼接,融合成一幅宽视角图像,包括:\n[0022] 根据预置的变换关系,计算待拼接的两幅图像间的变换矩阵;\n[0023] 根据所述变换矩阵,将所述待拼接的两幅图像变换到同一坐标系下;\n[0024] 采用加权平均的方法,对所述待拼接的两幅图像中有重叠的区域进行融合,得到融合后的宽视角图像。\n[0025] 优选的,所述预置的变换关系包括:\n[0026] \n[0027] \n[0028] 其中,p1=(x1,y1),p2=(x2,y2),p1和p2分别表示待拼接的图像1和待拼接的图像2中的匹配特征点;H代表变换矩阵。\n[0029] 优选的,采用加权平均的方法,对所述待拼接的两幅图像中有重叠的区域进行融合,包括:\n[0030] 利用如下公式,对待拼接的两幅图像进行拼接融合,\n[0031] \n[0032] 其中,I1,I2分别表示两幅待拼接的图像,I表示融合后的图像;\n[0033] α=wi/W,α∈(0,1),其中,wi为当前像素点与两幅待拼接图像重合区域左边缘的横向距离,W是两幅图像重合区域的总宽度。\n[0034] 优选的,该方法还包括:\n[0035] 接收某车载终端发送的获取某路段图像信息的请求;\n[0036] 依据所述请求,获取与所述路段对应的宽视角图像,并将获取到的宽视角图像返回给该车载终端。\n[0037] 另一方面,本发明还提供了一种基于车联网实现图像信息共享的装置,包括:\n[0038] 道路信息获取单元,用于获取各个车载终端捕获到的道路图像信息,所述道路图像信息包括图像以及该图像对应的位置信息和时间信息;\n[0039] 图像集合提取单元,用于依据所述位置信息和时间信息,将同一时间范围内,且对应同一指定位置区域范围内的图像信息组成图像集合,得到多个图像集合;\n[0040] 特征点提取单元,用于针对同一图像集合中的图像信息,提取图像特征点;\n[0041] 特征匹配单元,用于依据提取出的特征点进行图像的特征匹配;\n[0042] 图像拼接单元,用于将完成特征匹配的图像进行拼接,融合成一幅宽视角图像;\n[0043] 存储单元,用于保存各个图像集合中拼接得到的宽视角图像,以便依据所述融合的宽视角图像进行道路交通监管。\n[0044] 优选的,所述特征点提取单元,包括:\n[0045] 特征点提取子单元,用于利用SURF算法对图像进行特征点提取。\n[0046] 优选的,所述特征匹配单元,包括:\n[0047] 特征匹配子单元,用于采用k-d树最近邻搜索算法对图像进行特征点匹配。\n[0048] 优选的,所述图像拼接单元,包括:\n[0049] 变换矩阵计算单元,用于根据预置的变换关系,计算待拼接的两幅图像间的变换矩阵;\n[0050] 坐标转换单元,用于根据所述变换矩阵,将所述待拼接的两幅图像变换到同一坐标系下;\n[0051] 图像融合单元,用于采用加权平均的方法,对所述待拼接的两幅图像中有重叠的区域进行融合,得到融合后的宽视角图像。\n[0052] 另一方面,本发明还提供了一种基于车联网实现图像信息共享的系统,包括:车联网服务器以及设置在车辆上的车载终端;\n[0053] 其中,所述车载终端设置有图像传感器和卫星导航装置;\n[0054] 所述车载终端,用于接收图像传感器获取到的图像信息,以及卫星导航装置获取到的位置信息和时间信息,得到当前的道路图像信息,所述道路图像信息包括所述车辆所在道路的图像信息以及该图像信息对应的位置信息和时间信息;\n[0055] 所述车联网服务器包括以上所述的基于车联网实现图像信息共享的装置。\n[0056] 经由上述的技术方案可知,与现有技术相比,本发明公开提供了一种基于车联网实现图像信息共享的方法、装置和系统,该方法在可以获取到各个车载终端的道路图像信息,服务器依据道路图像信息中的位置和时间信息将获取到的图像划分到不同的图像集合中,通过对图像集合中的图像进行特征点提取、特征匹配,并拼接成一幅宽视角图像,从而得到各个不同地点不同时间段的所对应的宽视角图像。由于这些宽视角图像中包含的道路交通信息内容较多,可以提供的路况信息更加准确,道路交通的图像信息共享程度较高,也更加有利于交通监管、拥堵疏通等道路交通的监管和控制。\n附图说明\n[0057] 为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。\n[0058] 图1为本发明一种基于车联网实现图像信息共享的方法一个实施例的步骤流程图;\n[0059] 图2为本发明的车联网系统的信息交互示意图;\n[0060] 图3为本发明的一种基于车联网实现图像信息共享的装置的结构示意图。\n具体实施方式\n[0061] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。\n[0062] 参见图1为本发明一种基于车联网实现图像信息共享的方法一个实施例的流程示意图,该方法包括:\n[0063] 步骤101:获取各个车载终端捕获到的道路图像信息,该道路图像信息包括图像以及该图像对应的位置信息和时间信息。\n[0064] 在车联网中,为了获取到各个路段的道路交通信息,并且实现各个车辆之间道路交通信息的共享,在车辆上均设置有车载终端。该车载终端可以捕获到本车辆所处位置的道路图像信息,该道路图像信息中包含了车辆所在路段的图像,以及该获取该图像的时间信息和相应的位置信息。\n[0065] 车载终端捕获道路图像信息的具体过程可以为:车载终端接收图像传感器获取到的图像信息,以及卫星定位系统(如GPS定位装置等)获取到的位置信息和时间信息,得到当前的道路图像信息。车载终端可以内置有图像传感器和GPS装置。当然,也可以在车载终端外接图像传感器和GPS装置(也可以认为是GPS传感器),如图像传感器可以通过USB连接的方式与车载终端进行连接,而GPS传感器或GPS装置可以通过UART与该车载终端进行连接。\n[0066] 该图像传感器用于感应或拍摄当前车辆所处的地段的图像信息,如可以为一幅图像或者是照片等,并将该图像信息发送给车载终端的处理器;GPS传感器则获取当前车辆的具体位置信息,以及时间信息,并将当前位置信息和时间信息发送给车载终端的处理器。\n其中,车辆所在的位置信息可以包括经度和纬度信息等。车载终端的处理器会将图像信息,以及捕获到的时间和位置等信息进行合成数据包,并将该数据包发送给车联网的服务器,该车联网服务器会对数据进行解析,获取到该车辆所在路段的图像、以及该图像对应的时间信息和位置信息。\n[0067] 步骤102:依据位置信息和时间信息,将同一时间范围内且对应同一指定位置区域范围内的图像组成图像集合,得到多个图像集合。\n[0068] 车联网的服务器获取到道路图像信息后,需要对其中的图像信息进行拼接融合处理。其中,对于图像的拼接一般是两两进行拼接,能够进行拼接的图像,需要满足前提条件为:两幅图像之间存在一定的重合区域,也就是说,获取这两幅图像的时间为同一时刻或者是比较接近的时刻,且获取该两幅图像的位置也比较接近。因此,首先需要对多个车载终端捕获的图像,进行提取,将同一时间范围内且位置信息属于指定位置区域范围内的图像组成图像集合,这样可以得到多个图像集合。\n[0069] 需要说明的是,由于不同的车载终端所处的位置不可能相同,同一车载终端又不可能在同一地点同一时刻捕获多幅图像信息,因此,车联网的服务器接收到的图像中,各个图像之间的时间信息和位置信息总会存在一定的时间差异,因此,在划分图像集合时,也可以允许在同一图像集合中的图像对应的时间和位置信息存在一定范围内的差异。例如,该图像集合中,各个图像对应的时间差值在15ms范围内,且各个图像对应的位置差异较小,如图像对应的经度和纬度的差值均在一个设定范围内,则可以将满足以上条件的图像放在同一集合中。\n[0070] 步骤103:针对同一图像集合中的图像,提取图像特征点,并依据提取出的特征点进行图像的特征匹配。\n[0071] 对于同一图像集合中的图像,可以进行特征点提取。在进行特征点提取的过程中一般两两图像之间进行特征点提取,提取出特征点之后,可以将具备较多特征点的图像之间进行特征匹配。\n[0072] 提取特征点的方法可以有多种,如利用SIFT算法FAST算法、ORB算法或SURF算法等。为了在进行比较高效的完成特征点的提取,本发明中可以利用SURF算法对图像进行特征点提取。SURF算法提取特征点包括:特征点检测和特征点描述符表示。\n[0073] 在进行特征点检测时,为了保证特征点具有尺度不变性,需用不同尺寸的矩形滤波器对原始图像进行滤波卷积处理,组成滤波金字塔;在该金字塔上每一层图像上计算hessian矩阵的秩,判断得到的秩是否大于设定的阈值,如大于则进行非最大化抑制,并精确定位插值,得到特征点位置。\n[0074] 其中,在利用滤波器进行图像卷积时,设积分图像I∑(x)可以用以下公式表示:\n[0075] (公式一)\n[0076] 其中I(i,j)表示原始图像。\n[0077] SURF特征点描述符的提取又可以分为:确定特征点方向和生成描述符向量两步。\n下面以一个例子对特征点描述符的提取进行介绍:\n[0078] 确定特征点方向:以特征点为圆心,半径为6σ(σ为尺度)的圆内,计算尺寸为\n4σ的Harr小波响应dx,dy,对dx,dy进行高斯加权(2σ)。用角度为π/3的扇形区域绕特征点旋转一周,计算扇形在每个角度时的dx+dy。dx+dy最大时的方向为特征点的方向。\n[0079] 生成描述符向量:确定特征点方向后,以特征点为核心,构建一个大小为20σ的正方形窗。将这个正方形窗划分为4*4个小正方向区域,每个小区域内的描述符如以下公式二所示,从而形成64维特征向量。\n[0080] Desc_squre=V(∑dx、∑dy、∑|dx|、∑|dy|) (公式二)[0081] 其中,dx,dy分别代表X方向和Y方向的Harr小波响应。\n[0082] 提取出图像的特征点后,就可以依据两幅图像的特征点对两幅图像进行特征匹配。特征点匹配目的是找到两幅图像中表示相同物理位置的特征点,形成特征点匹配对。特征点匹配的方式也有多种,为了减少特征匹配占用的时间,提高特征匹配的效率,本发明中可以采用k-d树最近邻搜索算法对图像进行特征点匹配,大幅度提高了搜索效率。\n[0083] 在利用k-d树最近邻搜索算法对图像进行特征点匹配的过程中,最近邻判别标准是欧式距离最短,具体的公式三:\n[0084] (公式三)\n[0085] 其中,desc1(i)和desc2(i)分别表示第一幅图像中特征点描述符desc1的分量和第二幅图像中特征点描述符desc2的分量。\n[0086] 为了提高计算效率,避免开方计算,欧式距离可以直接用平方代替。\n[0087] 利用k-d树最近邻搜索算法对图像进行特征点匹配,如用64维的SURF特征点描述符组成64-d搜索树。该树的每一个节点都是64维的数据,组成了一个64维超空间。64-d最近邻搜索算法在64-d树上递归进行。\n[0088] k-d树最近邻搜索算法的可以包括如下:\n[0089] 1)从根节点开始往下搜索子树。\n[0090] 2)如果搜索到叶子节点,存储该叶子节点为当前最近邻点current best。\n[0091] 3)在每个节点上首先计算当前节点与目标节点的距离,并与最近邻点与目标点的距离进行对比,如果当前节点与给定的目标点的距离更小,则更新current best;然后判断以目标节点为中心,以当前最佳距离为半径的子超空间是否与分裂超平面相交。若相交则搜索右子树,否则忽略右子树,继续搜索。\n[0092] 4.最后算法在根节点上完成上述步骤,结束。\n[0093] 进一步的,为优化匹配准确率,对特征匹配的点进行限制,如可以采用以下公式四进行限制:\n[0094] \n[0095] 其中,最近邻距离表示为FND(First Nearest Distance),次近邻距离表示为SND(Second Neighbor Distance)。\n[0096] 通过建立搜索树,并执行以上算法,以及进行特征点匹配限制,便可以完成采用两幅图像的SURF特征点匹配。\n[0097] 步骤104:将完成特征匹配的图像进行拼接,融合成一幅宽视角图像,得到该图像集合中的宽视角图像,保存各个图像集合中拼接得到的宽视角图像,以便依据融合的宽视角图像进行道路交通监管,其中,不同图像集合中拼接得到的宽视野图像对应不同的位置信息和时间信息。\n[0098] 在进行完成图像的特征匹配之后,就可以对匹配的图像进行拼接融合,以生成一幅较大的图像。由于服务器可以得到不同地点道路图像信息,将得到的道路图像进行依据时间和地点划分成不同图像集合后,每个图像集合均可以得到一幅宽视角的图像,因此最终服务器可以生成不同路段对应的宽视角图像信息。\n[0099] 对图像进行拼接的过程也是在两幅图像之间拼接,由于图像集合中存在多幅图像,因此可以对任意两幅完成特征匹配的图像进行拼接融合,得到两幅图像拼接成的拼接融合图像。当图像集合中的多个图像完成了第一次两两拼接之后,还可以对拼接后的多幅图像,进行两幅拼接图像间的特征点提取、特征点匹配、并重复执行对已拼接过的图像进行拼接融合,直至将同一图像集合中的多幅图像拼接为一幅宽视角图像。\n[0100] 例如,某一个图像集合中有图像1、图像2、图像3、图像4。首先需要对这四幅图像进行两两图像间的特征点提取,并对相似度较高的两幅图像进行特征点匹配,如图像1和图像2相似度较高,而图像3和图像4的相似度较高,就可以先对图像1和图像2进行特征匹配,并进行拼接融合得到拼接图像1。同时,对图像3和图像4进行特征点匹配,并进行拼接融合,得到拼接图像2。之后可以对拼接图像1和拼接图像2进行特征点提取、特征点匹配,以及拼接融合,进而得到一幅宽视角图像。\n[0101] 需要说明的是,对图像进行拼接融合的方式有多种,为了使得图像拼接效果较好,在进行拼接前,需要进行图像的对齐,即将两幅图像变换到同一坐标系下,具体的可以包括:根据预置的变换关系,计算待拼接的两幅图像间的变换矩阵;根据该变换矩阵,将待拼接的两幅图像变换到同一坐标系中。\n[0102] 该预置的变换关系可以根据需要设置,优选的该变换关系可以包括以下两个公式:\n[0103] (公式五)\n[0104] (公式六)\n[0105] 其中,H表示变换矩阵,h1、h2、h3为矩阵H的参数。p1=(x1,y1)、p2=(x2,y2)表示对拼接的两幅图像中的一对特征匹配点。\n[0106] 得到变化矩阵之后,从待拼接的两幅图像中选择一幅作为基准图像,另一幅待拼接图像则依据矩阵中的变化参数进行放射变换,将两幅图像变化到同一坐标系下。\n[0107] 将两幅图像变化到同一坐标系之后,便可以对这两幅待拼接图像进行拼接融合,具体的可以采用加权平均的方法,对待拼接的两幅图像中有重叠的区域进行融合,将两幅待拼接的图像合并为一幅宽视角图像。具体的可以利用如下公式,对待拼接的两幅图像进行拼接融合:\n[0108] (公式七)\n[0109] 其中,I1,I2分别表示两幅待拼接的图像,I表示融合后的图像;\n[0110] α=wi/W,α∈(0,1),其中,wi为当前像素点与两幅待拼接图像重合区域左边缘的横向距离,W是两幅图像重合区域的总宽度。\n[0111] 需要说明的是,本发明中车联网的服务器将各个车载终端获取到的图像信息进行拼接融合处理之后,得到展现各个路段、路况信息的宽视角图像信息之后,还可以包括:接收某车载终端发送的获取当前路段的图像信息的请求,该请求中包含该车载终端所处的位置信息;服务器依据该请求,确定该车载终端所处的位置信息,并将与该位置信息对应的宽视角图像返回给该车载终端。\n[0112] 车联网服务器可以生成各个不同路段对应的宽视野图像信息,将生成的多个路段对应的宽视野图像进行保存,并提供给车联网的控制终端,这些控制终端也可以依据这些宽视野图像,比较全面的掌握各个路段的道路状况,从而对各个路段进行控制。\n[0113] 为了清楚的描述发明的具体实现过程,下面以一具体场景对本发明进行介绍,参见图2,为本发明中车联网系统的信息交互示意图,在该车联网系统中不同的车辆可能会位于多个不同的路段中,每个车辆上都设置有车载终端,如在图2中,各个车载终端都带有图像传感器和GPS装置,图像传感器可以获取当前车辆所处道路信息,生成相应的图像信息,如可以采用摄像机拍照的方式生成照片,并将生成的图像信息传送给车载终端。GPS装置可以获取当前车辆的位置信息,并将该位置信息上传给车载终端。车载终端中内设置有处理器可以对图像传感器和GPS装置获取到的信息进行处理,生成对应的道路图像信息。\n[0114] 车载终端捕获到道路图像信息后,可以通过无线通信的方式将该道路图像信息发送给车联网的服务器中。其中,进行该道路图像信息的数据传输过程中,采用的无线通信网可以为交通部分现有的交通光纤专网、也可以是电信运营商的IP通信网络和互联网,也可以采用2G/3G/TLI等方式。\n[0115] 车联网服务器(即图中的车联网服务支撑平台)中可以无线通信模块可以接收车载终端发送的图像信息,并与其他终端进行通信等,当接收到道路图像信息后会依据本发明的上述方法,对同一时间范围内指定位置区域内的多幅图像进行拼接融合处理,得到不同路段对应的宽视角图像,并保存。当其他车载终端请求某路段的图像信息时,服务器便可以将与该路段的位置信息相对应的宽视角图像传送给该车载终端。\n[0116] 对应本发明的方法,参见图3,本发明还提供了一种基于车联网实现图像信息共享的装置,包括:\n[0117] 道路信息获取单元301,用于获取各个车载终端捕获到的道路图像信息,所述道路图像信息包括图像以及该图像对应的位置信息和时间信息;\n[0118] 图像集合提取单元302,用于依据所述位置信息和时间信息,将同一时间范围内,且对应同一指定位置区域范围内的图像信息组成图像集合,得到多个图像集合;\n[0119] 特征点提取单元303,用于针对同一图像集合中的图像信息,提取图像特征点;\n[0120] 特征匹配单元304,用于依据提取出的特征点进行图像的特征匹配;\n[0121] 图像拼接单元305,用于将完成特征匹配的图像进行拼接,融合成一幅宽视角图像。\n[0122] 存储单元306,用于保存各个图像集合中拼接得到的宽视角图像,以便依据所述融合的宽视角图像进行道路交通监管。\n[0123] 根据特征点提取的方式,特征点提取单元303,可以包括:\n[0124] 特征点提取子单元,用于利用SURF算法对图像进行特征点提取。\n[0125] 进行特征点匹配方式也可以有多种,该特征匹配单元304,可以包括:\n[0126] 特征匹配子单元,用于采用k-d树最近邻搜索算法对图像进行特征点匹配。\n[0127] 优选的,图像拼接单元,可以包括:\n[0128] 变换矩阵计算单元,用于根据预置的变换关系,计算待拼接的两幅图像间的变换矩阵;\n[0129] 坐标转换单元,用于根据所述变换矩阵,将所述待拼接的两幅图像变换到同一坐标系下;\n[0130] 图像融合单元,用于采用加权平均的方法,对所述待拼接的两幅图像中有重叠的区域进行融合,得到融合后的宽视角图像。\n[0131] 为了能够与其他终端进行交互,进一步的,本发明的装置还包括:\n[0132] 请求接收单元,用于接收某车载终端发送的获取当前路段的位置信息所对应的图像信息的请求;\n[0133] 请求处理单元,用于依据所述请求,获取与所述路段对应的宽视角图像,并将获取到的宽视角图像返回给该车载终端。\n[0134] 另外,本发明还提供了一种基于车联网实现图像信息共享的系统,包括车联网服务器和设置在车联上的车载终端;\n[0135] 其中所述车载终端设置有图像传感器和卫星导航装置;\n[0136] 所述车载终端,用于接收图像传感器获取到的图像信息,以及卫星定位系统获取到的位置信息和时间信息,得到当前的道路图像信息,所述道路图像信息包括所述车辆所在道路的图像信息以及该图像信息对应的位置信息和时间信息;\n[0137] 所述车联网服务器包括以上所述的基于车联网实现图像信息共享的装置。\n[0138] 本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。\n[0139] 对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。\n对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
法律信息
- 2013-09-04
- 2012-03-28
实质审查的生效
IPC(主分类): G08G 1/00
专利申请号: 201110302260.0
申请日: 2011.10.09
- 2012-02-15
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2009-10-14
|
2008-04-09
| | |
2
| |
2010-12-15
|
2010-08-03
| | |
3
| | 暂无 |
2010-04-12
| | |
4
| |
2007-11-28
|
2007-05-17
| | |
5
| |
2011-04-06
|
2010-12-13
| | |
6
| | 暂无 |
2010-07-20
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |