著录项信息
专利名称 | 驾驶方法及系统 |
申请号 | CN201510532385.0 | 申请日期 | 2015-08-24 |
法律状态 | 驳回 | 申报国家 | 中国 |
公开/公告日 | 2015-12-02 | 公开/公告号 | CN105109483A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | B60W30/09 | IPC分类号 | B;6;0;W;3;0;/;0;9;;;B;6;0;W;4;0;/;0;2查看分类表>
|
申请人 | 奇瑞汽车股份有限公司 | 申请人地址 | 安徽省芜湖市芜湖经济技术开发区长春路8号
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 奇瑞汽车股份有限公司 | 当前权利人 | 奇瑞汽车股份有限公司 |
发明人 | 方啸;高红博;王继贞;徐达学;尹飞飞 |
代理机构 | 北京三高永信知识产权代理有限责任公司 | 代理人 | 吕耀萍 |
摘要
本发明公开一种驾驶方法及系统,属于车辆安全技术领域。该驾驶系统包括:环境感知模块和避撞控制模块,环境感知模块用于在车辆行驶过程中监测车辆的行驶环境;预测车辆的行驶环境中是否会发生由障碍物引发的突发事件;在车辆的行驶环境中会发生由障碍物引发的突发事件时,获取障碍物的位置;避撞控制模块用于根据障碍物的位置,采用机器学习算法确定目标决策动作;根据目标决策动作控制车辆行驶,本发明解决了相关技术中的驾驶系统具有局限性,稳定性较低,灵活性较差的问题,达到了扩大驾驶系统的应用范围,提高驾驶系统的稳定性和灵活性的有益效果。本发明用于车辆的避撞驾驶。
1.一种驾驶系统,其特征在于,所述驾驶系统包括:环境感知模块和避撞控制模块,所述环境感知模块用于在车辆行驶过程中监测所述车辆的行驶环境;预测所述车辆的行驶环境中是否会发生由障碍物引发的突发事件;在所述车辆的行驶环境中会发生由障碍物引发的突发事件时,获取所述障碍物的位置;
所述避撞控制模块用于根据所述障碍物的位置,采用机器学习算法确定目标决策动作;根据所述目标决策动作控制所述车辆行驶。
2.根据权利要求1所述的驾驶系统,其特征在于,
所述避撞控制模块用于:
从经验存储库中确定与所述障碍物的位置对应的目标可执行动作,所述经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在执行时的立即回报;
计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
将所述未来无穷回报累加和最大的决策动作作为所述目标决策动作。
3.根据权利要求1所述的驾驶系统,其特征在于,
所述避撞控制模块用于获取驾驶员的决策动作;
所述环境感知模块用于获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
所述避撞控制模块用于从经验存储库中确定与所述障碍物的第一位置对应的目标可执行动作,所述经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在执行时的立即回报;
所述避撞控制模块用于计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;将所述未来无穷回报累加和最大的决策动作作为所述目标决策动作。
4.根据权利要求3所述的驾驶系统,其特征在于,
所述避撞控制模块用于:
计算所述驾驶员的决策动作对应的未来n个状态的增强信号,得到n个增强信号,所述n为大于或者等于1的整数;
判断所述n个增强信号中是否存在符合预设条件的增强信号;
在所述n个增强信号中存在符合预设条件的增强信号时,触发所述环境感知模块获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
其中,在执行所述符合预设条件的增强信号对应的决策动作时,所述车辆与所述车辆的行驶环境中的障碍物会发生碰撞。
5.根据权利要求1至4任一所述的驾驶系统,其特征在于,
所述环境感知模块用于:
判断所述车辆的行驶环境中是否存在障碍物;
在所述车辆的行驶环境中存在障碍物时,判断所述障碍物是否处于预设范围内;
在所述障碍物处于所述预设范围时,确定所述车辆的行驶环境中会发生由所述障碍物引发的突发事件。
6.一种驾驶方法,其特征在于,所述方法包括:
在车辆行驶过程中监测所述车辆的行驶环境;
预测所述车辆的行驶环境中是否会发生由障碍物引发的突发事件;
若所述车辆的行驶环境中会发生由障碍物引发的突发事件,则获取所述障碍物的位置;
根据所述障碍物的位置,采用机器学习算法确定目标决策动作;
根据所述目标决策动作控制所述车辆行驶。
7.根据权利要求6所述的方法,其特征在于,
所述根据所述障碍物的位置,采用机器学习算法确定目标决策动作,包括:
从经验存储库中确定与所述障碍物的位置对应的目标可执行动作,所述经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在执行时的立即回报;
计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
将所述未来无穷回报累加和最大的决策动作作为所述目标决策动作。
8.根据权利要求6所述的方法,其特征在于,
所述根据所述障碍物的位置,采用机器学习算法确定目标决策动作,包括:
获取驾驶员的决策动作;
获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
从经验存储库中确定与所述障碍物的第一位置对应的目标可执行动作,所述经验存储库中记录了预先通过机器学习算法确定的障碍物的位置与可执行动作的对应关系,每个障碍物的位置对应至少一个可执行动作,每个可执行动作包括决策动作和与所述决策动作一一对应的增强信号,所述增强信号用于指示与所述增强信号一一对应的决策动作在执行时的立即回报;
计算所述目标可执行动作中的每个决策动作的未来无穷回报累加和;
将所述未来无穷回报累加和最大的决策动作作为所述目标决策动作。
9.根据权利要求8所述的方法,其特征在于,所述获取执行所述驾驶员的决策动作之后所述障碍物的第一位置,包括:
计算所述驾驶员的决策动作对应的未来n个状态的增强信号,得到n个增强信号,所述n为大于或者等于1的整数;
判断所述n个增强信号中是否存在符合预设条件的增强信号;
若所述n个增强信号中存在符合预设条件的增强信号,则获取执行所述驾驶员的决策动作之后所述障碍物的第一位置;
其中,在执行所述符合预设条件的增强信号对应的决策动作时,所述车辆与所述车辆的行驶环境中的障碍物会发生碰撞。
10.根据权利要求6至9任一所述的方法,其特征在于,所述预测所述车辆的行驶环境中是否会发生由障碍物引发的突发事件,包括:
判断所述车辆的行驶环境中是否存在障碍物;
若所述车辆的行驶环境中存在障碍物,则判断所述障碍物是否处于预设范围内;
若所述障碍物处于所述预设范围内,则确定所述车辆的行驶环境中会发生由所述障碍物引发的突发事件。
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2009-03-25
|
2007-02-28
| | |
2
| |
2012-05-02
|
2011-10-18
| | |
3
| |
2013-09-18
|
2013-06-26
| | |
4
| |
2013-06-26
|
2012-03-26
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |