著录项信息
专利名称 | 无人车半自主遥控方法 |
申请号 | CN201510255747.6 | 申请日期 | 2015-05-19 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2016-05-18 | 公开/公告号 | CN105589459A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G05D1/02 | IPC分类号 | G;0;5;D;1;/;0;2查看分类表>
|
申请人 | 中国人民解放军国防科学技术大学 | 申请人地址 | 湖南省长沙市开福区德雅路109号
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 中国人民解放军国防科学技术大学 | 当前权利人 | 中国人民解放军国防科学技术大学 |
发明人 | 李焱;史美萍;孙振平;王维;王全 |
代理机构 | 北京弘权知识产权代理事务所(普通合伙) | 代理人 | 逯长明;许伟群 |
摘要
本发明实施例公开了一种无人车半自主遥控方法,包括:无人车现场控制平台实时采集现场路况图像,生成自主导引点,以及,将采集的现场路况图像、自主导引点和无人车的当前运动状态发送至远程控制平台;所述远程控制平台根据所述现场路况图像、自主导引点和无人车的运动状态生成人工导引点,以及将所述人工导引点发送至所述无人车现场控制平台;所述无人车现场控制平台按照所述人工导引点的指示生成无人车控制目标,按照所述控制目标控制所述无人车的运行。通过本发明实施例的无人车半自主遥控方法,避免无人车在自主运行过程中由于无人车拍摄范围有限造成对无人车控制不准确,从而使无人车有效进行避障以及提高无人车的灵活性。
1.一种无人车半自主遥控方法,其特征在于,包括:
无人车现场控制平台实时采集现场路况图像,生成自主导引点,以及,将采集的现场路况图像、自主导引点和无人车的当前运动状态发送至远程控制平台;
所述远程控制平台根据所述现场路况图像、自主导引点和无人车的运动状态生成人工导引点,以及将所述人工导引点发送至所述无人车现场控制平台;
所述无人车现场控制平台按照所述人工导引点的指示生成无人车控制目标,按照所述控制目标控制所述无人车的运行;
所述远程控制平台根据所述现场路况图像、自主导引点和无人车的运动状态生成人工导引点,包括:远程控制平台生成包括现场路况图像和自主导引点的视频图像,所述远程控制平台根据所述视频图像和无人车的运动状态生成人工导引点;
其中,所述人工导引点为由操作人员控制模拟操控装置,并根据远程控制平台生成的无人车预期到达目标位置而生成的目标点或控制点;
所述远程控制平台根据所述视频图像和无人车的运动状态生成人工导引点,包括:所述远程控制平台接收根据所述现场路况图像和自主导引点控制模拟操控装置动作产生的模拟操控数据,所述模拟操控数据是通过操作人员控制模拟操控装置给出对无人车控制的期望运动控制信号来得到;根据所述模拟操控数据和无人车的运动状态,并根据运动学模型、动力学模型以及无人车的自主控制方法计算得出所述人工导引点;通过所述人工导引点配合自主导引点控制无人车运行;
所述方法还包括:远程控制平台生成包含人工导引点的视频图像;所述包含自主导引点的视频图像和包含人工导引点的视频图像相互叠加,合成包含所述自主导引点和人工导引点的视频图像。
2.根据权利要求1所述的无人车半自主遥控方法,其特征在于,
无人车现场控制平台生成包括现场路况图像和自主导引点的视频图像,将所述视频图像发送至远程控制平台;以及,
所述远程控制平台根据所述视频图像和无人车的运动状态生成人工导引点。
3.根据权利要求1或2所述的无人车半自主遥控方法,其特征在于,还包括:
将所述包括现场路况图像和自主导引点的视频图像转换成增强的视频图像。
4.根据权利要求1所述的无人车半自主遥控方法,其特征在于,
远程控制平台发送包含人工导引点的控制指令至无人车现场控制平台;以及,无人车现场控制平台解析所述控制指令,并按照解析后的控制指令控制所述无人车的运行。
5.根据权利要求1所述的无人车半自主遥控方法,其特征在于,
无人车现场控制平台生成包含人工导引点的控制指令,以及,按照所述控制指令控制所述无人车的运行。
6.根据权利要求4所述的无人车半自主遥控方法,其特征在于,所述控制指令以固定频率发送至所述无人车现场控制平台。
无人车半自主遥控方法\n技术领域\n[0001] 本发明涉及无人驾驶车辆遥控技术领域,特别是涉及一种无人车半自主遥控方法。\n背景技术\n[0002] 无人驾驶车辆泛指车上无人、具备一定自主驾驶能力的地面无人驾驶车辆系统,简称无人车,既包括无人驾驶汽车,也包括小型地面移动机器人。无人车在军用等众多领域内具有广阔的应用前景,同时,无人车遥控技术属于无人车导航与控制技术的核心技术。\n[0003] 目前,无人车遥控技术从广义上主要分为主从遥控和自主监控。其中,主从遥控是指操作员通过模拟操纵装置向无人车连续发送直接操控指令,直接操控指令主要是直接针对无人车的底层伺服机构的控制指令(如前轮转角、油门开度、刹车踏板位置等);在主从遥控过程中,操作员通过观察由无人车采集路况的原始视频图像,根据操作员的感知与决策控制能力对模拟操纵装置动作,由模拟操纵装置产生伺服操控指令发送至无人车的底层伺服机构,从而由无人车根据底层伺服机构接收到的伺服操控指令进行移动,完成无人车的移动。自主监控是指无人车根据既定的自动导航系统控制无人车移动,操作员监视无人车的运行状态,仅在必要时刻(如无人车需要启动导航功能等)给无人车发送离散的任务级监控指令干预无人车运行,其中,任务级监控指令是在任务规划、决策层面的监控指令(如加载任务路径数据、启动导航任务、终止导航任务等指令);在自主遥控过程中,无人车以全自主导航控制的方式运行,无需操作员的具体干预(如由操作员控制改变无人车的行驶路线等),使无人车完全根据该无人车采集路况的原始视频图像以及已设定的导航地图运行。\n[0004] 对于自主监控无人车的方式,无人车通过自主导航系统、根据采集得到的原始图像信息自主控制该无人车移动,操作员不直接干预无人车的运行,无人车运行过程中,主要通过无人车对得到的原始图像信息进行处理,并根据自主导航系统控制无人车移动;对于主从遥控无人车的方式,由于无人车仅通过摄像设备采集路况的原始图像信息,并将原始图像信息发送至遥控站,操作人员直接根据原始图像信息控制模拟操控装置动作、并发送如前轮转角等伺服控制指令至无人车,无人车的底层伺服控制机构根据伺服控制指令控制无人车移动,在主从遥控过程中,无人车仅作为遥控对象由操作人员对其进行操控。\n[0005] 但是,无论对于自主监控无人车运行的方式或主从遥控无人车的方式,由于无人车 上拍摄装置的局限性,可能由于无人车因拍摄范围的局限性造成无人车无法高速运行、有效躲避障碍物以及造成无人车灵活性降低。\n发明内容\n[0006] 本发明实施例中提供了一种无人车半自主遥控方法,以解决现有技术中由于无人车上拍摄装置的局限性,可能由于无人车因拍摄范围的局限性造成无人车无法高速运行、有效躲避障碍物以及造成无人车灵活性降低等问题。\n[0007] 为了解决上述技术问题,本发明实施例公开了如下技术方案:\n[0008] 第一方面,本发明实施例提供一种无人车半自主遥控方法,该无人车半自主遥控方法包括:\n[0009] 无人车现场控制平台实时采集现场路况图像,生成自主导引点,以及,将采集的现场路况图像、自主导引点和无人车的当前运动状态发送至远程控制平台;\n[0010] 所述远程控制平台根据所述现场路况图像、自主导引点和无人车的运动状态生成人工导引点,以及将所述人工导引点发送至所述无人车现场控制平台;\n[0011] 所述无人车现场控制平台按照所述人工导引点的指示生成无人车控制目标,按照所述控制目标控制所述无人车的运行。\n[0012] 结合第一方面,在第一方面第一种可能的实现方式中,无人车现场控制平台生成包括现场路况图像和自主导引点的视频图像,将所述视频图像发送至远程控制平台;以及,[0013] 所述远程控制平台根据所述视频图像和无人车的运动状态生成人工导引点。\n[0014] 结合第一方面,在第一方面第二种可能的实现方式中,远程控制平台生成包括现场路况图像和自主导引点的视频图像,以及所述远程控制平台根据所述视频图像和无人车的运动状态生成人工导引点。\n[0015] 结合第一方面第一种可能的实现方式或第一方面第二种可能的实现方式,在第一方面第三种可能的实现方式中,该无人车半自主遥控方法还包括:\n[0016] 将所述包括现场路况图像和自主导引点的视频图像转换成增强的视频图像。\n[0017] 结合第一方面或第一方面第三种可能的实现方式,在第一方面第四种可能的实现方式中,该无人车半自主遥控方法还包括:\n[0018] 远程控制平台生成包含人工导引点的视频图像。\n[0019] 结合第一方面第四种可能的实现方式,在第一方面第五种可能的实现方式中,该无人车半自主遥控方法还包括:\n[0020] 所述包含自主导引点的视频图像和包含人工导引点的视频图像相互叠加,合成包含所述自主导引点和人工导引点的视频图像。\n[0021] 结合第一方面,在第一方面第六种可能的实现方式中,\n[0022] 远程控制平台发送包含人工导引点的控制指令至无人车现场控制平台;以及,[0023] 无人车现场控制平台解析所述控制指令,并按照解析后的控制指令控制所述无人车的运行。\n[0024] 结合第一方面,在第一方面第七种可能的实现方式中,\n[0025] 无人车现场控制平台生成包含人工导引点的控制指令,以及,按照所述控制指令控制所述无人车的运行。\n[0026] 结合第一方面第六种可能的实现方式,在第一方面第八种可能的实现方式中,所述控制指令以固定频率发送至所述无人车现场控制平台。\n[0027] 结合第一方面,在第一方面第九种可能的实现方式中,\n[0028] 所述远程控制平台接收根据所述现场路况图像和自主导引点控制模拟操控装置动作产生的模拟操控数据;\n[0029] 根据所述模拟操控数据和无人车的运动状态生成人工导引点。\n[0030] 由以上技术方案可见,本发明实施例提供的无人车半自主遥控方法,通过无人车现场控制平台实时采集现场路况图像,生成自主导引点,以及将采集的现场路况图像、自主导引点或生成的包含自主导引点的视频图像以及无人车的当前运动状态发送至远程控制平台;由远程控制平台生成人工导引点发送至无人车现场控制平台,使无人车现场控制平台根据人工导引点的指示控制无人车的运行。通过该无人车端的无人车现场控制平台自身实时生成的自主导引点发送至远程控制平台,根据该自主导引点、现场路况图像和无人车的运动状态在远程控制平台生成人工导引点,从而使无人车在自主导引点控制运行的情况下,能够根据人工导引点的引导控制无人车运行,避免无人车在自主运行过程中,由于无人车的拍摄范围有限造成对无人车控制不准确,在无法准确预测运行轨迹或运行速度较高时,可通过远程控制平台由人工控制模拟操控装置、对无人车的运行状态进行控制,从而使无人车有效进行避障以及提高灵活性等问题。\n附图说明\n[0031] 为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。\n[0032] 图1为本发明实施例提供的一种无人车半自主遥控方法的流程示意图;\n[0033] 图2为本发明实施例提供的另一种无人车半自主遥控方法的流程示意图;\n[0034] 图3为本发明实施例提供的又一种无人车半自主遥控方法的流程示意图;\n[0035] 图4为本发明实施例提供的再一种无人车半自主遥控方法的流程示意图;\n[0036] 图5为本发明实施例提供的另一种无人车半自主遥控方法的流程示意图;\n[0037] 图6为本发明实施例提供的又一种无人车半自主遥控方法的流程示意图;\n[0038] 图7为本发明实施例提供的另一种无人车半自主遥控方法的流程示意图;\n[0039] 图8为本发明实施例提供的又一种无人车半自主遥控方法的流程示意图。\n具体实施方式\n[0040] 为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。\n[0041] 参见图1,为本发明实施例提供的一种无人车半自主遥控方法的流程示意图,在本发明实施例提供的无人车半自主遥控方法中,现场控制平台设置在无人车端,远程控制平台设置在远程遥控站端,从而通过远程遥控站端对无人车端进行远程半自主遥控,控制无人车运行。\n[0042] 如图1所示,本发明实施例提供的无人车半自主遥控方法包括:\n[0043] 步骤S10:无人车现场控制平台实时采集现场路况图像,生成自主导引点,以及,将采集的现场路况图像、自主导引点和无人车的当前运动状态发送至远程控制平台;\n[0044] 在本实施例提出的无人车半自主遥控方法中,无人车现场控制平台即为设置在无人车端的控制终端以及设置在无人车上的图像采集设备,通过该图像采集设备实时采集无人车在运行过程中无人车的前方和/或后方的现场路况信息,无人车现场控制平台根据现场路况图像生成自主导引点,通过自主导引点或由自主导引点形成的轨迹线控制无人车运行。\n[0045] 同时,该无人车现场控制平台还将采集的现场路况图像、自主导引点和无人车的当前运动状态发送至远程控制平台;该无人车的当前运动状态即为无人车现场控制平台发送现场路况图像和自主导引点时、该无人车的运动状态数据,其中,运动状态数据包括但不限于无人车运行的速度、加速度以及转向角度等数据。\n[0046] 在本实施例提供的无人车半自主遥控方法中,无人车现场控制平台根据无人车的运动学模型和动力学模型等计算无人车的自主导引点,从而使无人车在没有人工控制的情况下,能够根据无人车的自主导引点在路面上行驶;具体的,该自主导引点的计算方法在与其同日申请的其他申请文件中公开,本申请中并不再详细赘述。\n[0047] 步骤S20:所述远程控制平台根据所述现场路况图像、自主导引点和无人车的运动状态生成人工导引点,以及将所述人工导引点发送至该无人车现场控制平台;\n[0048] 在本实施例中提供的无人车半自主遥控方法中,该步骤S20中远程控制平台根据现场路况图像、自主导引点和无人车的运动状态生成人工导引点:\n[0049] 步骤S10的无人车现场控制平台发送至远程控制平台的为无人车采集的现场路况图像、自主导引点和无人车的当前运动状态时,该远程控制平台接收该无人车采集的现场路况图像、自主导引点和无人车的当前运动状态,并根据现场路况图像、自主导引点和无人车的运动状态生成人工导引点;其中,该人工导引点为由工作人员控制模拟操控装置、并根据远程控制平台生成的无人车预期到达目标位置生成的目标点或控制点。该人工导引点主要通过操作人员控制人工交互设备(即模拟操控装置)给出对无人车控制的期望运动控制信号,并根据运动学模型、动力学模型以及无人车的自主控制方法计算得出该人工导引点,通过该人工导引点配合无人车的自主导引点控制无人车运行。该人工导引点的计算方法会在其同日申请的其他申请文件中公开,在此不再详细赘述。具体的,生成该人工导引点的方法可参看图2所示的无人车半自主遥控方法的流程示意图,如图2所示,生成人工导引点包括:\n[0050] S201:所述远程控制平台接收根据所述现场路况图像和自主导引点控制模拟操控装置动作产生的模拟操控数据;\n[0051] 其中,在本步骤S201中,操作人员根据该现场路况图像和自主导引点控制模拟操控装置动作,通过模拟操控装置动作对无人车进行人工控制,进而该远程控制平台接收模拟操控装置动作产生的模拟操控数据;其中,该模拟操控装置为以自然方式给出无人车连续的转向、加速、减速等模拟机动操控信号的设备,在本实施例中,该模拟操控装置包括但不限于模拟方向盘、操纵手柄和模拟脚踏板等。\n[0052] 步骤S202:根据所述模拟操控数据和无人车的运动状态生成人工导引点;\n[0053] 其中,在步骤S201中根据现场路况图像和自主导引点控制模拟操控装置,由远程控制平台接收该模拟操控装置产生的模拟操控数据,进而,该远程控制平台根据模拟操控数据以及无人车的运动状态数据生成人工导引点。具体的,人工导引点的生成方法在本实施例中不再详细赘述。\n[0054] 当然,对于生成人工导引点的实施例并不仅限于以上实施方式,可根据无人车现场 控制平台发送至远程控制平台的数据进行适应性修改以及计算,从而对生成人工导引点的实施方式进行调整,相关内容在此不再详细阐述。\n[0055] 具体的,参见图3所示,本发明实施例提供无人车半自主遥控方法中步骤S20的流程示意图,具体包括:\n[0056] 步骤S211:远程控制平台生成人工导引点;\n[0057] 其中,远程控制平台根据无人车现场平台发送的现场路况图像、自主导引点或无人车现场平台生成的包含自主导引点的视频图像,并根据无人车的运动状态生成人工导引点;或者远程控制平台根据无人车现场平台发送的现场路况图像、自主导引点和无人车的运动状态生成人工导引点,在生成人工导引点时结合无人车的运动学模型或动力学模型,具体的生成方式在本实施例中不详细阐述。\n[0058] 步骤S212:判断人工导引点是否改变;\n[0059] 由于远程控制平台发送人工导引点为实时发送,则需要通过一判断单元判断人工导引点是否发生改变,具体的,可通过该判断单元对比当前预期的人工导引点与上一时刻的人工导引点是否相同(其中,可根据人工导引点在视频图像上的位置坐标以及人工导引点可以表示的无人车的转向角度、加速度以及速度等数据),如果当前预期的人工导引点与上一时刻的人工导引点不同,即需要人工控制无人车移动,则由远程控制平台重新生成人工导引点;如果两者相同,则转向步骤S213。\n[0060] 步骤S213:将人工导引点发送至无人车现场控制平台;\n[0061] 其中,将人工导引点发送至无人车现场控制平台时,可以直接将人工导引点的相关信息(如人工导引点在现场路况图像上具体的位置坐标等)直接发送至无人车现场控制平台;或者远程控制平台根据人工导引点生成相关控制无人车的控制指令,如控制无人车的转向角度或加速度大小的指令,然后,远程控制平台将控制无人车的转向角度或加速度大小的指令发送至无人车现场控制平台。\n[0062] 采用本实施例提供的步骤S20的无人车半自主遥控方法中,通过无人车自身产生的自主导引点,通过自主导引点引导无人车自主运行,同时将实时生成的自主导引点和现场路况图像发送至远程控制平台,以使远程控制平台根据无人车的运行状态和自主导引点生成人工导引点,通过人工导引点对无人车进行准确控制。\n[0063] 步骤S30:所述无人车现场控制平台按照所述人工导引点的指示生成无人车控制目标,按照所述控制目标控制所述无人车的运行;\n[0064] 其中,在本实施例提出的无人车半自主遥控方法中,如果远程控制平台生成人工导引点后,直接将人工导引点的信息发送至无人车现场控制平台,则无人车现场控制平台 接收该人工导引点的信息,并根据人工导引点的指示生成无人车控制目标,无人车现场控制平台按照控制目标控制无人车的运行;具体的,该无人车现场控制平台根据人工导引点生成用于直接控制无人车底层伺服机构的控制指令,并发送至无人车底层伺服机构,由底层伺服机构根据控制指令控制无人车的运行。其中,无人车现场控制平台根据人工导引点生成控制指令的方法在本实施例中并不做详细阐述。\n[0065] 如果远程控制平台生成人工导引点,根据人工导引点生成用于控制无人车运行的控制指令,以及将控制指令发送至无人车现场控制平台;此时,无人车现场控制平台接收该人工导引点的控制指令,并解析控制指令(解析为直接用于无人车的底层伺服机构的控制指令;包括无人车的转向角度、加速度等控制指令),无人车现场控制平台将解析后的控制指令发送到无人车的底层伺服机构,由无人车的底层伺服机构根据解析后的控制指令控制无人车的运行,从而使无人车在自主导引点的自主运行作用下,再根据人工导引点的控制对无人车运行过程中运行轨迹的控制。\n[0066] 采用本实施例提供的无人车半自主遥控方法,通过无人车现场控制平台和远程控制平台之间进行相互交互,通过远程控制平台根据无人车现场控制平台采集的现场路况以及无人车自身生成的自主导引点生成人工导引点,并根据人工导引点的指示由无人车现场控制平台控制无人车运行,不仅有效避免无人车因拍摄范围的局限性造成无人车的运行速度较低的情况,而且,使无人车能够有效避开障碍物以及提高无人车的灵活性,使无人车在自主控制的基础上增加人工控制,从而提高对无人车遥控操作的准确性,提高无人车的控制性能。\n[0067] 参见图4,所示为本发明实施例提供了另一种无人车半自主遥控方法的流程示意图,如图4所示,本实施例提供的无人车半自主遥控方法包括:\n[0068] 步骤S10:无人车现场控制平台实时采集现场路况图像,生成自主导引点,以及,将采集的现场路况图像、自主导引点和无人车的当前运动状态发送至远程控制平台;\n[0069] 步骤S20:所述远程控制平台根据所述现场路况图像、自主导引点和无人车的运动状态生成人工导引点,以及将所述人工导引点发送至所述无人车现场控制平台;\n[0070] 步骤S30:所述无人车现场控制平台按照所述人工导引点的指示生成无人车控制目标,按照所述控制目标控制所述无人车的运行。\n[0071] 步骤S40:远程控制平台生成包含人工导引点的视频图像;\n[0072] 其中,步骤S40中该远程控制平台可根据现场路况图像和人工导引点生成仅包括人工导引点的视频图像,并可通过显示设备显示该包含人工导引点的视频图像,能够直观通过包含人工导引点的视频图像知道无人车的预期行驶路线;而且,能够通过该包含人工导引点的视频图像对人工导引点进行调整。在实施过程中,可以通过人工合成的包含 人工导引点的视频图像转换成增强的视频图像,使图像信息更加清晰,使得调整人工导引点或无人车运行更加精确。\n[0073] 采用本实施例提供的无人车半自主遥控方法,通过增加远程控制平台生成包含人工导引点的视频图像,能够通过该视频图像进行调整和改变人工导引点,从而通过人工导引点实现对无人车的人工控制,提高无人车运行稳定性。\n[0074] 参见图5,所示为本发明实施例提供了又一种无人车半自主遥控方法的流程示意图,本实施例提供的无人车半自主遥控方法包括:\n[0075] 步骤S10:无人车现场控制平台实时采集现场路况图像,生成自主导引点,以及,将采集的现场路况图像、自主导引点和无人车的当前运动状态发送至远程控制平台;\n[0076] 步骤S20:所述远程控制平台根据所述现场路况图像、自主导引点和无人车的运动状态生成人工导引点,以及将所述人工导引点发送至所述无人车现场控制平台;\n[0077] 步骤S30:所述无人车现场控制平台按照所述人工导引点的指示生成无人车控制目标,按照所述控制目标控制所述无人车的运行。\n[0078] 步骤S40:远程控制平台生成包含人工导引点的视频图像;\n[0079] 步骤S50:所述包含自主导引点的视频图像和包含人工导引点的视频图像相互叠加,合成包含所述自主导引点和人工导引点的视频图像。\n[0080] 其中,在本实施例提供的步骤S50生成的视频图像即为包含自主导引点和人工导引点的遥显视图,该遥显视图即为无人车的摄像设备实时采集的现场路况图像与自主导引点以及人工导引点相结合;具体的,将自主导引点根据无人车采集的现场路况图像上的坐标位置、重合在现场路况图像,形成包含自主导引点的视频图像,如果不再人工干预的情况下,无人车将根据自主导航系统按照自主导引点的位置行进;然后,远程控制平台根据人工导引点的坐标位置,将该人工导引点叠加在包含自主导引点的视频图像上形成该遥显视图。\n[0081] 需要说明的是,在形成遥显视图时,在视频图像上显示的人工导引点或自主导引点并不仅仅限制于一个坐标位置点,可以包括但不限定于由一个人工导引点、自主导引点以及包括人工导引点的预期轨迹线和包括自主导引点自主轨迹线,即该遥显视图上包括但不限于离散的导引点以及连续的预测行驶轨迹线等。且合成该遥显视图的形式为实时形成,并通过显示设备显示,便于操作人员能够通过遥显视图直观的预判无人车的行驶轨迹。\n[0082] 另外,可参看其他附图中的对无人车半自主遥控方法的流程示意图,从而对本发明实施例的不同情况的无人车半自主遥控方法进行简单描述。\n[0083] 参见图6,所示为本发明实施例提供的一种无人车半自主遥控方法的流程示意图,如图6所示,本发明实施例提供的无人车半自主遥控方法包括:\n[0084] 步骤S100:无人车现场控制平台实时采集现场路况图像,生成自主导引点,以及,将生成的包含自主导引点视频图像和无人车的当前运动状态发送至远程控制平台;\n[0085] 步骤S200:所述远程控制平台根据所述视频图像和无人车的运动状态生成人工导引点,以及将所述人工导引点发送至所述无人车现场控制平台;\n[0086] 步骤S300:所述无人车现场控制平台按照所述人工导引点的指示生成无人车控制指令,按照所述控制指令控制所述无人车的运行。\n[0087] 其中,在本实施例提供的无人车半自主遥控方法中,该无人车现场控制平台在采集现场路况图像和生成自主导引点后,可根据现场路况图像和自主导引点生成包含自主导引点的视频图像,并将该包含自主导引点的视频图像和无人车的当前运动状态发送至远程控制平台;由远程控制平台接收该包含自主导引点的视频图像和无人车的当前运动状态,进而远程控制平台根据该视频图像和无人车的运动状态生成人工导引点。\n[0088] 进一步的,在具体实施过程中,为了保证包含有自主导引点的视频图像能够快速、完整的传输至远程控制平台,并且能够在远程控制平台中直接显示或根据视频图像进一步处理,本实施例中,该无人车现场控制平台将包含自主导引点的视频图像转换成增强的视频图像。其中,该增强的视频图像即为对于无人车直接采集的视频图像进行去噪处理,具体为去除包含自主导引点的视频图像的噪音,如去除视频图像中的树木阴影或者其他障碍物阴影的去除,从而避免视频图像发送到远程控制平台后,影响人工导引点的生成,从而能够保证人工导引点更加精确。\n[0089] 而且,在本实施例中,对包含自主导引点的视频图像转化成增强的视频图像的过程中,也可以将步骤S100生成的视频图像直接发送到远程控制平台,由该远程控制平台将视频图像转换成增强的视频图像,从而便于通过增强的视频图像控制模拟操控装置动作,使产生的人工导引点更加精确,便于无人车运行。\n[0090] 在对本实施例提出的包含自主导引点的视频图像,可直接通过显示设备如液晶显示屏显示该包含自主导引点的视频图像,使操作员能够直观的根据视频图像控制模拟操控装置动作,从而提高模拟操控装置产生的模拟操控数据的准确性,进而提高生成人工导引点的质量。有关生成人工导引点的方法在此不再详细赘述,可参看其他相关实施例。\n[0091] 采用本实施例提供的无人车半自主遥控方法,该无人车和遥控站上分别设置现场控制平台和远程控制平台;并且通过无人车现场控制平台将采集的现场路况图像和自主导引点,生成包含自主导引点的视频图像,将视频图像发送至远程控制平台,从而避免现场路况图像和自主导引点发送过程中,可能出现通信链路延迟或网络问题,进而导致数 据缺失的情况,有效提高无人车与遥控站之间的数据传输速度和数据传输质量。其中,相关步骤S100至步骤S300的内容可参看其他相关实施例。\n[0092] 参见图7,所示为本发明实施例提供的另一种无人车自主遥控方法的流程示意图,如图7所示,本实施例的无人车自主遥控方法包括:\n[0093] 步骤S1000:无人车现场控制平台实时采集现场路况图像,生成自主导引点,以及,将采集的现场路况图像、自主导引点和无人车的当前运动状态发送至远程控制平台;\n[0094] 步骤S2000:所述远程控制平台生成包含现场路况图像和自主导引点的视频图像,并根据所述视频图像和无人车的运动状态生成人工导引点,以及将所述人工导引点发送至所述无人车现场控制平台;\n[0095] 步骤S3000:所述无人车现场控制平台按照所述人工导引点的指示生成无人车控制指令,按照所述控制指令控制所述无人车的运行。\n[0096] 在本实施例提供的无人车半自主遥控方法中,无人车现场控制平台发送至远程控制平台的为无人车采集的现场路况图像、自主导引点和无人车的当前运动状态,该远程控制平台接收该无人车采集的现场路况图像、自主导引点和无人车的当前运动状态。\n[0097] 远程控制平台根据接收到的现场路况图像和自主导引点生成包含自主导引点的视频图像,即将该自主导引点合成到现场路况图像上,具体的,合成在现场路况图像上的自主导引点为现场路况图像上的地理坐标等,使无人车能够沿着视频图像上所示的自主导引点自动行进;进而远程控制平台根据视频图像和无人车的运动状态形成人工导引点,并将人工导引点发送至无人车现场控制平台。本实施例中有关生成视频图像和人工导引点的方式在此不再赘述,可参看其他相关实施例。\n[0098] 同时,在本实施例中,远程控制平台还可以去除生成的包含自主导引点的视频图像中的噪音,如去除视频图像中较大的树叶阴影或障碍物阴影,从而转换成增强的视频图像,使增强的视频图像更加清晰,不仅便于无人车在行驶过程中成功避障,而且便于遥控站端对障碍物的精确判断,达到精确操作。\n[0099] 采用本实施例提供的无人车半自主遥控方法,通过远程控制平台将接收的现场路况图像和自主导引点,生成包含自主导引点的视频图像,从而避免无人车现场控制平台对数据的处理,从而能够保证无人车端的设备集成化,降低无人车的电能损耗和尺寸,从而提高无人车的灵活性。其中,相关步骤S1000至步骤S3000的内容可参看其他相关实施例。\n[0100] 参见图8,所示为本发明实施例提供的又一种无人车半自主遥控方法的流程示意图,如图8所示,本实施例提供的无人车半自主遥控方法包括:\n[0101] 步骤S1001:无人车现场控制平台实时采集现场路况图像,生成自主导引点,以及,将采集的现场路况图像、自主导引点和无人车的当前运动状态发送至远程控制平台;\n[0102] 步骤S2001:所述远程控制平台生成包含现场路况图像和自主导引点的视频图像,并根据所述视频图像和无人车的运动状态生成人工导引点;根据所述人工导引点生成控制指令,以及将控制指令发送至所述无人车现场控制平台;\n[0103] 步骤S3001:所述无人车现场控制平台解析所述控制指令,按照解析后的控制指令控制所述无人车的运行。\n[0104] 其中,在本实施例提供的无人车现场控制平台中,远程控制平台生成人工导引点后,需要将该导引点发送至无人车现场控制平台,由无人车现场控制平台按照人工导引点的指示控制无人车的运行,具体的,将所述人工导引点发送至无人车现场控制平台的实施方式包括:\n[0105] 第一种实施方式:远程控制平台生成人工导引点后,远程控制平台直接将人工导引点发送至无人车现场控制平台,其中,该人工导引点为人工控制的无人车预期达到的目标位置的目标点(具体的,发送至无人车现场控制平台的人工导引点可为在现场路况图像上的位置坐标点等);从而由无人车现场控制平台直接接收该人工导引点;该无人车现场控制平台可以根据人工导引点生成相应无人车的底层伺服机构的控制指令,然后根据控制指令控制无人车运行。\n[0106] 第二种实施方式:远程控制平台生成人工导引点后,远程控制平台以人工导引点为控制参数,生成控制指令,该控制指令为用于控制无人车运行的半自主控制指令;无人车现场控制平台接收后,解析该半自主控制指令,并根据解析后的半自主控制指令控制无人车运行。\n[0107] 需要说明的是,产生的控制指令的格式根据具体的遥控通信协议决定,其中,控制指令可以为面向RS232接口的串口协议格式或面向以太网接口的网络协议格式等,从而使得该远程控制平台以固定频率发送至无人车现场控制平台,且远程控制平台发送控制指令的频率以无人车的控制周期为标准。\n[0108] 采用本发明实施例的无人车半自主遥控方法,通过在远程控制平台中直接根据人工导引点生成控制指令,并将控制指令发送至无人车现场控制平台,无人车现场控制平台可以直接解析控制指令,并根据解析后的控制指令控制无人车运行;将人工导引点直接转换成控制指令,从而有效减少了数据传输量,提高了传输速度,有效避免传输速度慢造成无人车控制延迟。\n[0109] 以上仅为本实施例提出的示例性实施方式,还有其他相关实施方式并未在本发明说明书中全部描述,而且以上各个实施例中,相互之间部分内容相互重复、其中未描述的 部分可参看相关实施例的描述,在此并不再详细描述。而且,相关人工导引点的具体生成方法或自主导引点的具体生成方法在本申请中并不做详细阐述。\n[0110] 通过以上的方法实施例的描述,所属领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:只读存储器(ROM)、随机存取存储器(RAM)、磁碟或者光盘等各种可以存储程序代码的介质。\n[0111] 本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。以上所描述的实施例仅仅是示意性的,可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。\n[0112] 可以理解的是,本发明可用于众多通用或专用的计算系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。\n[0113] 需要说明的是,在本文中,诸如术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。\n[0114] 以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
法律信息
- 2019-07-12
- 2016-06-15
实质审查的生效
IPC(主分类): G05D 1/02
专利申请号: 201510255747.6
申请日: 2015.05.19
- 2016-05-18
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2013-05-08
|
2013-01-18
| | |
2
| |
2013-07-31
|
2013-02-27
| | |
3
| |
2014-06-18
|
2014-03-18
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |