CN113085873B - 驾驶策略的获取方法、装置、计算机设备和存储介质 - Google Patents
驾驶策略的获取方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN113085873B CN113085873B CN202110479113.4A CN202110479113A CN113085873B CN 113085873 B CN113085873 B CN 113085873B CN 202110479113 A CN202110479113 A CN 202110479113A CN 113085873 B CN113085873 B CN 113085873B
- Authority
- CN
- China
- Prior art keywords
- information
- driving
- vehicle
- neural network
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本申请涉及一种驾驶策略的获取方法、装置、计算机设备和存储介质,所述方法包括:获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息;将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略;其中,神经网络模型通过目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略进行模型训练得到。上述方法能够获得与驾驶员的驾驶行为习惯匹配的当前驾驶策略。
Description
技术领域
本申请涉及车辆驾驶技术领域,特别是涉及一种驾驶策略的获取方法、装置、计算机设备和存储介质。
背景技术
目前随着车辆上ADAS(Advanced Driving Assistance System,高级驾驶辅助系统)的快速发展,配备TJA(Traffic Jam Assistant,交通拥堵辅助系统)功能的量产车型呈现高速增长。全球各大主机厂和科技公司都在大力研发ADAS,TJA作为ADAS子功能之一的重要性不言而喻。但是目前的TJA功能只在通用层面上制定了驾驶策略,制定的驾驶策略不能够适配特定驾驶员。不同的驾驶员对于车辆驾驶特定的行为习惯,通用的驾驶策略不能够满足不同驾驶员的驾驶需求,降低驾驶员自动驾驶体验。
发明内容
基于此,有必要针对上述技术问题,提供一种能够与驾驶员的驾驶行为习惯适配的驾驶策略的获取方法、装置、计算机设备和存储介质。
一种驾驶策略的获取方法,该方法包括:获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息;将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略;其中,神经网络模型通过目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略进行模型训练得到。
在其中一个实施例中,一种驾驶策略的获取方法还包括:获取目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略;通过历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略对神经网络模型进行模型训练。
在其中一个实施例中,当前驾驶操作信息包括驾驶员对目标车辆的驾驶操控信息,当前驾驶环境信息包括当前道路的环境信息和目标车辆的周围车辆信息。
在其中一个实施例中,当前驾驶环境信息包括表征所述目标车辆的周围车辆的加塞操作的加塞信息,当前驾驶操作信息包括表征驾驶员对加塞操作的接受度的第一驾驶操作信息;将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略,包括:将加塞信息和第一驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的防加塞驾驶策略。
在其中一个实施例中,加塞信息包括周围车辆与目标车辆的车距信息以及周围车辆的车辆姿态信息,第一驾驶操作信息包括目标车辆的行驶方向的驾驶控制信息;将加塞信息和第一驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的防加塞驾驶策略,包括:将车距信息、车辆姿态信息和行驶方向的驾驶控制信息输入到神经网络模型中,得到神经网络模型输出的跟车距离和/或目标车辆与道路边线的距离;其中,防加塞驾驶策略用于根据跟车距离和/或目标车辆与道路边线的距离指示目标车辆进行防加塞驾驶。
在其中一个实施例中,当前驾驶环境信息包括目标车辆的周围车辆的车辆类型以及当前道路的路况信息,当前驾驶操作信息包括表征驾驶员避让周围车辆的第二驾驶操作信息;将驾驶操作信息与驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略,包括:将车辆类型、路况信息和第二驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的避让驾驶策略。
在其中一个实施例中,路况信息包括当前道路的车道数量以及导航路线信息,第二驾驶操作信息包括目标车辆的速度控制信息以及驾驶方向控制信息;将车辆类型、路况信息和第二驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的避让驾驶策略,包括:将车辆类型、车道数量以及导航路线信息和速度控制信息、驾驶方向控制信息输入到神经网络模型中,得到避让驾驶策略。
一种驾驶策略的获取装置,该装置包括:采集模块,用于获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息;获得模块,用于将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略;其中,神经网络模型通过目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略进行模型训练得到。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述任一实施例方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任一实施例方法的步骤。
上述驾驶策略的获取方法、装置、计算机设备和存储介质,目标车辆上的终端设备获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息,将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略。其中,神经网络模型通过目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略进行模型训练得到。由于在对神经网络模型进行模型训练时,采用的训练样本为目标车辆的历史相关信息,如目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略,因此使得神经网络模型与目标车辆的驾驶行为更加匹配。当驾驶员当前需要获取驾驶策略时,只需将当前驾驶操作信息以及当前驾驶环境信息输入到神经网络模型中,即可得到与驾驶员的驾驶行为习惯匹配的当前驾驶策略。
附图说明
图1为一个实施例中一种驾驶策略的获取方法的应用环境图;
图2为一个实施例中一种驾驶策略的获取方法的流程示意图;
图3为一个实施例中一种驾驶策略的获取方法中神经网络模型的输入输出的示意图;
图4为另一个实施例中一种驾驶策略的获取方法中神经网络模型的输入输出的示意图;
图5为一个实施例中目标车辆的结构示意图;
图6为一个实施例中目标车辆的TJA功能的逻辑设置示意图;
图7为一个实施例中一种驾驶策略的获取装置的结构框图;
图8为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的一种驾驶策略的获取方法,应用于如图1所示的应用环境中。如图1所示,目标车辆的终端设备中数据存储区存储有驾驶员的用车习惯信息以及车辆使用时采集到的信息。用车习惯信息包含驾驶员的历史驾驶策略,如行驶过程中避让车辆的避让驾驶策略、行驶过程中防止其他车辆加塞时采用的防加塞驾驶策略。车辆使用时采集到的信息包括目标车辆的历史驾驶操作信息和历史驾驶环境信息。此外,目标车辆的终端设备中还存储有用于深度学习的神经网络模型。目标车辆的终端设备从数据存储区中获取训练样本,采用训练样本对神经网络模型进行模型训练,得到与目标车辆匹配的神经网络模型。其中,训练样本包括目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略。因此,模型训练后得到的神经网络模型与目标车辆更加匹配。当驾驶员需要获取当前的驾驶策略时,目标车辆的终端设备获取目标车辆的当前的相关信息。当前的相关信息包括当前驾驶操作信息以及当前驾驶环境信息,将当前驾驶操作信息以及当前驾驶环境信息输入到神经网络模型中,即可通过神经网络模型输出当前驾驶策略。由于神经网络模型已通过目标车辆的历史相关信息进行模型训练,因此采用神经网络模型得到的当前驾驶策略与目标车辆更加适配,符合目标车辆的驾驶员的个人化需求。
在一个实施例中,如图2所示,提供了一种驾驶策略的获取方法,以该方法应用于目标车辆的终端设备为例进行说明,包括以下步骤:
S202,获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息。
在本实施例中,终端设备接收到驾驶员触发操作产生的触发信息,根据触发信息识别出当前驾驶策略的获取指示时,获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息。其中,当前驾驶操作信息指的是当前驾驶员对目标车辆的各个驾驶操作产生的操作信息。如,驾驶员对方向盘的驾驶操作信息、驾驶员控制目标车辆的速度的驾驶操作信息等。当前驾驶环境信息指的是目标车辆当前驾驶状态下的环境信息。如,周围车辆的车辆类型信息以及车辆驾驶姿态信息、目标车辆与周围车辆的车距信息、以及道路信息等。
S204,将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略,其中,神经网络模型通过目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略进行模型训练得到。
在本实施例中,神经网络模型已采用目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略进行模型训练,模型训练后的神经网络模型中各个参数与目标车辆更加适配,从而采用模型训练后的神经网络模型获得的当前驾驶策略更加精准。具体地,终端设备将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,由神经网络模型输出当前驾驶策略。目标车辆按照当前驾驶策略进行自动化驾驶。
上述驾驶策略的获取方法,目标车辆上的终端设备获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息,将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略。其中,神经网络模型通过目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略进行模型训练得到。由于在对神经网络模型进行模型训练时,采用的训练样本为目标车辆的历史相关信息,如目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略,因此使得神经网络模型与目标车辆的驾驶行为更加匹配。当驾驶员当前需要获取驾驶策略时,只需将当前驾驶操作信息以及当前驾驶环境信息输入到神经网络模型中,即可得到与驾驶员的驾驶行为习惯匹配的当前驾驶策略。
在一实施例中,上述将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中的步骤之前,还包括:获取目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略;通过历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略对神经网络模型进行模型训练。
该实施例中,终端设备在使用神经网络模型之前,对神经网络模型进行模型训练。模型训练的训练样本包括目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略。将目标车辆的历史驾驶操作信息和历史驾驶环境信息作为神经网络模型的输入,结合神经网络模型的输出以及历史驾驶策略对神经网络模型进行模型参数调整,得到模型训练后的神经网络模型。通过模型训练后的神经网络模型,其模型参数与目标车辆更加适配,采用模型训练后的神经网络模型获得的当前驾驶策略与驾驶员的驾驶行为习惯更加匹配。
在一实施例中,当前驾驶操作信息包括驾驶员对目标车辆的驾驶操控信息,当前驾驶环境信息包括当前道路的环境信息和目标车辆的周围车辆信息。
该实施例中,当前驾驶操作信息包括驾驶员对目标车辆的驾驶操控信息,当前驾驶环境信息包括当前道路的环境信息和目标车辆的周围车辆信息。此时,历史驾驶操作信息包括驾驶员对目标车辆的历史驾驶操控信息,历史驾驶环境信息包括历史道路的环境信息和目标车辆的历史周围车辆信息,采用驾驶员对目标车辆的历史驾驶操控信息和历史道路的环境信息和目标车辆的历史周围车辆信息及对应的历史驾驶策略对神经网络模型进行模型训练后,再将驾驶员对目标车辆的驾驶操控信息和当前道路的环境信息和目标车辆的周围车辆信息输入到模型训练后的神经网络模型,得到当前驾驶策略。因此,使得当前驾驶策略更加满足当前驾驶员的行为习惯的需求。
在一实施例中,当前驾驶环境信息包括表征目标车辆的周围车辆的加塞操作的加塞信息,当前驾驶操作信息包括表征驾驶员对加塞操作的接受度的第一驾驶操作信息。上述将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略,包括:将加塞信息和第一驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的防加塞驾驶策略。
该实施例中,历史驾驶操作信息包括表征驾驶员对加塞操作的接受度的历史驾驶操作信息。历史驾驶环境信息包括表征目标车辆的周围车辆的历史加塞操作的历史加塞信息。将历史驾驶操作信息、历史加塞信息以及对应的历史驾驶策略对神经网络模型进行模型训练,得到训练后的神经网络模型。进而,将当前的加塞信息和第一驾驶操作信息输入到训练后的神经网络模型中,得到当前驾驶策略的防加塞驾驶策略。因此,可得到满足驾驶员个性化需求的防加塞驾驶策略。
在一实施例中,加塞信息包括周围车辆与目标车辆的车距信息以及周围车辆的车辆姿态信息,第一驾驶操作信息包括目标车辆的行驶方向的驾驶控制信息。上述将加塞信息和第一驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的防加塞驾驶策略,包括:将车距信息、车辆姿态信息和行驶方向的驾驶控制信息输入到神经网络模型中,得到神经网络模型输出的跟车距离和/或目标车辆与道路边线的距离;其中,防加塞驾驶策略用于根据跟车距离和/或目标车辆与道路边线的距离指示目标车辆进行防加塞驾驶。
该实施例中,若周围车辆与目标车辆的车距信息表示出两车间距处于某一距离范围内,则表示周围车辆欲加塞到目标车辆的车道。此时,若周围车辆的车辆姿态信息表示出周围车辆的行驶方向偏向于目标车辆的车道,则表示周围车辆欲加塞到目标车辆的车道。结合周围车辆与目标车辆的车距信息以及周围车辆的车辆姿态信息,能够准确判断出周围车辆的加塞意图。若目标车辆的行驶方向的驾驶控制信息表示出驾驶员频繁操控方向盘,则表示驾驶员对加塞的容忍度较低。若目标车辆的行驶方向的驾驶控制信息表示出驾驶员操控方向盘的频率低,则表示驾驶员对加塞的容忍度较高。因此,将车距信息、车辆姿态信息和行驶方向的驾驶控制信息输入到神经网络模型,神经网络模型对车距信息以及车辆姿态信息分析出周围车辆的加塞目的,同时通过行驶方向的驾驶控制信息分析出目标车辆的驾驶员对周围车辆加塞的容忍度,最终输出适合驾驶员的当前驾驶策略。此外,需要说明的是,将车距信息、车辆姿态信息和行驶方向的驾驶控制信息输入到神经网络模型之前,神经网络模型已由目标车辆的历史车距信息、历史车辆姿态信息和历史行驶方向的驾驶控制信息进行模型训练得到。
例如,目标车辆深度学习驾驶员平时在驾驶过程中对于周围车辆不同的姿态,及周围车辆与本目标车辆的距离,结合驾驶员对目标车辆的操控得到适合驾驶员的当前驾驶策略。再通过转向助力系统(EPS)介入,控制目标车辆占据本车道内适当的位置,防止周围车辆强行加塞插队。如图3所示,周围车辆与目标车辆的车距信息包括左/右车辆与自车距离以及前车与自车距离,周围车辆的车辆姿态信息包括/右车辆姿态以及前车姿态,目标车辆的行驶方向的驾驶控制信息包括自车转向力矩。在神经网络模型中,输入层的神经元分别为左/右车辆与自车距离、左/右车辆姿态、前车与自车距离、前车姿态和转向力矩等参数,通过隐藏层中大量的数学函数计算后依靠输出层输出跟车距离及本车与道路边线距离。其中,自车以及本车均指的是目标车辆。
利用这五个参数计算跟车距离的目的是防止在道路拥堵时目标车辆被相邻车道的周围车辆加塞。左/右车辆与自车距离、左/右车辆姿态、前车与自车距离、前车姿态这四个参数用于判断相邻车道的周围车辆是否有加塞意图。加塞的通常操作是:1.靠近欲加塞车道;2.车头向欲加塞车道偏转。因此通过这四个参数可准确判断出周围车辆加塞到目标车辆的车道的意图。转向力矩用来判断目标车辆的驾驶员对被加塞情况的容忍度。通常高容忍度的驾驶员面对加塞不会向加塞侧过多打方向盘,容忍度低的驾驶员面对加塞则向加塞侧过多打方向盘。因此,通过目标车辆的转向力矩这一参数可准确识别出驾驶员对被加塞情况的容忍度。最后,神经网络模型输出跟车距离及本车与道路边线距离,目标车辆根据跟车距离及本车与道路边线距离进行驾驶操作。其中,目标车辆参照本车与道路边线距离进行驾驶操作是为了在合法的情况下阻止加塞,越靠近欲加塞的周围车辆越能阻止其加塞,但是合法和安全的做法是靠近车道线但是不压线。同样的,目标车辆根据跟车距离进行驾驶操作是为了在合法的情况下阻止加塞。因此,利用左/右车辆与自车距离、左/右车辆姿态、前车与自车距离、前车姿态和转向力矩作为神经网络模型的输入,使得神经网络模型输出的防加塞驾驶策略更加精准。
在一实施例中,当前驾驶环境信息包括目标车辆的周围车辆的车辆类型以及当前道路的路况信息,当前驾驶操作信息包括表征驾驶员避让周围车辆的第二驾驶操作信息。上述将驾驶操作信息与驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略,包括:将车辆类型、路况信息和第二驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的避让驾驶策略。
该实施例中,历史驾驶操作信息包括表征驾驶员避让周围车辆的的历史驾驶操作信息。历史驾驶环境信息包括目标车辆的历史周围车辆的车辆类型以及历史道路的路况信息。将历史驾驶操作信息、历史加塞信息以及对应的历史驾驶策略对神经网络模型进行模型训练,得到训练后的神经网络模型。进而,将当前的周围车辆的车辆类型、路况信息和第二驾驶操作信息输入到训练后的神经网络模型中,得到当前驾驶策略的避让驾驶策略。因此,可得到满足驾驶员个性化需求的避让驾驶策略。
在一实施例中,路况信息包括当前道路的车道数量以及导航路线信息,第二驾驶操作信息包括目标车辆的速度控制信息以及驾驶方向控制信息。上述将车辆类型、路况信息和第二驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的避让驾驶策略,包括:将车辆类型、车道数量以及导航路线信息和速度控制信息、驾驶方向控制信息输入到神经网络模型中,得到避让驾驶策略。
该实施例中,不同的周围车辆的车辆类型,目标车辆采用不同的避让策略。例如,若周围车辆为大型工程车辆,则目标车辆需要加速或减速以避免与大型工程车辆并行。若周围车辆为救护车,则目标车辆需尽快变道。此外,目标车辆的驾驶员,针对不同的车道数量以及不同的导航路线信息采取的避让策略也不同。速度控制信息与驾驶方向控制信息则是体现目标车辆的驾驶员对于不同周围车辆不同的车道数量的避让措施。因此,将车辆类型、车道数量以及导航路线信息和速度控制信息、驾驶方向控制信息作为神经网络模型的输入,神经网络模型输出的避让驾驶策略更加能满足驾驶员个性化需求。此外,需要说明的是,将车辆类型、车道数量以及导航路线信息和速度控制信息、驾驶方向控制信息输入到神经网络模型之前,神经网路模型已由目标车辆的历史车辆类型、历史车道数量以及历史导航路线信息和历史速度控制信息、历史驾驶方向控制信息进行模型训练得到。
对于避让驾驶策略的避让车辆类型,目标车辆主要深度学习驾驶员平时在驾驶过程中在遇到不同类型的周围车辆时的操作习惯,分析出驾驶员想要避让的车辆类型。如图4所示,在神经网络模型中,输入层的神经元分别为车道数量、导航路线信息、周围车辆的车辆类型、制动踏板状态和加速踏板状态,通过隐藏层中大量的数学函数计算后依靠输出层输出避让驾驶策略。此时避让驾驶策略更加能满足驾驶员个性化需求。
在一实施例中,上述获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息的步骤之前,还包括:获取目标车辆的驾驶员的身份信息,根据驾驶员的身份信息获取神经网络模型。
该实施例中,不同的驾驶员用车习惯不同,也即采用不同的驾驶策略。目标车辆的终端设备中存储有一个或多个驾驶员的身份信息,通过驾驶员的身份信息可识别出对应的驾驶员,进而获取与驾驶员的身份信息对应的神经网络模型。目标车辆的终端设备中存储有一个或多个驾驶员的历史数据,历史数据包括历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略,通过驾驶员的历史数据对神经网络模型进行模型训练,得到与驾驶员的身份信息对应的神经网络模型。进而,采用驾驶员的身份信息对应的神经网络模型获得的当前驾驶策略更加满足驾驶员的个性化需求。
例如,驾驶员的身份信息包括生物信息。生物信息包括面部识别信息、语音指令信息和指纹信息等。将驾驶员的生物信息进行存储,并作为参数调用对应的神经网络模型及调用储存的历史数据进行模型训练,从而得到与驾驶员匹配的神经网络模型。
在一实施例中,上述得到神经网络模型输出的当前驾驶策略之后,还包括:将当前驾驶策略发送到周围车辆。
该实施例中,目标车辆的终端设备可以通过目标车辆的V2X(vehicletoeverything,车用无线通信技术)设备上的路侧单元将当前驾驶策略发送到周围车辆,以实现当前驾驶策略在相邻车辆上的共享。周围车辆接收到目标车辆的当前驾驶策略后,可根据当前驾驶策略即时调整周围车辆自身的驾驶策略,避免与目标车辆发生交通意外。
在一实施例中,上述获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息的步骤之前,还包括:接收周围车辆发送的周围车辆驾驶策略,周围车辆驾驶策略用于表示周围车辆当前或历史的驾驶策略。
该实施例中,目标车辆的终端设备可以通过目标车辆的V2X(vehicletoeverything,车用无线通信技术)设备上的路侧单元将接收周围车辆的周围车辆驾驶策略,以实现相邻车辆的驾驶策略的共享。目标车辆接收到周围车辆的周围车辆驾驶策略后,可根据周围车辆驾驶策略即时调整目标车辆自身的驾驶策略,避免与周围车辆发生交通意外。
以下对目标车辆进行详细说明,目标车辆的结构示意图如图5所示。
参见图5,目标车辆的各个模块单元如下:
控制单元ECU:用于接收各个模块的状态信息,向执行模块发送执行指令。例如接收毫米波雷达距离、速度、方位信息,接受摄像头图像信息;接收EPS模块转角信息等。
毫米波雷达:获取自车与目标之间的速度、方位、角度信息。
激光雷达:可以获取更大范围,更多数量周围车辆、行人、障碍物等的速度、方位、角度信息;其用途与毫米波雷达相同,但是二者在性能上部分可以互补,还可以做感知冗余。
摄像头:获取目标的图像信息。
AEB(自动刹车辅助系统):获取自车雷达信号信息,并执行报警以及刹车灯指令。
BSM(盲区监测系统):获取自车雷达信号信息,并执行报警等指令。
ABS(防抱死系统):获取自车四轮轮速信息,并执行四轮刹车力分布指令。
ESP(电子稳定程序):获取自车自车速度、加速度、制动踏板等指令;并执行速度、加速指令。
EPS(转向助力系统):获取自车转角、转速等信息;并执行控制单元转角、转速等信息。
OBU(V2X车载单元):向路侧单元发送信息、从路侧单元接收信息。
EMS(发动机管理系统):获取和输出扭矩信息。
TCU(变速器控制单元):获取和输出单位信息。
中控屏:获取驾驶员输入设置参数信息,并输出参数设置情况。
信息采集模块:采集驾驶员面部、指纹和声纹等生物信息。
BCM(车身控制模块):获取功能开关信号。
MP5(车机):获取导航信息。
RSU(V2X路侧单元):接收车载单元的消息、向车载单元发送消息,多个RSU间也可以进行消息交换。
目标车辆上配备TJA,其功能在出厂时默认且无法更改,不能给不同驾驶员制定特定的功能需求、不能学习不同驾驶员的驾驶习惯,降低驾驶员的自动驾驶体验。本申请对目标车辆的TJA的功能进行开发,使其实现上述各实施例所述的一种驾驶策略的获取方法:
如图6所示,驾驶员进入TJA设置界面,设置分为两种类型。第一种为系统默认设置,是目标车辆线下所配备的TJA功能交互设置。第二种为个性化设置,驾驶员第一次进入个性化设置时需进行账户创建,已创建的账户后期可对该TJA功能交互设置进行修改。创建账户后,可对该系统逻辑进行个性化设置,个性化设置分为三大类:TJA深度学习项、TJA手动设置项和生物识别项。
TJA深度学习项:深度学习作为人工神经网络的一个研究概念,属于机器学习的一个分支。本申请采用的深度学习为神经网络模型。神经网络模型的神经元网络分为三个不同类型的层次,分别是输入层、隐藏层和输出层。输入层接收输入数据,输入层的每一个神经元对应一个单一数据,如车辆速度、转向力矩和制动力大小等,输入层会将输入数据传递给隐藏层;隐藏层处理输入数据,计算机对输入数据进行数学计算。输出层输出处理结果,输出层也是人工神经网络神经元的最后一层。整个工作逻辑即是计算机通过模拟人脑,对大量的数据通过统计学和概率论等方法建立模型,通过模型对新的样例进行判断并输出结果,从而对真实世界中的样例进行预测。本申请中TJA深度学习项涵盖防加塞车间距、避让策略以及防加塞跟车。其中,防加塞车间距对应输出上述实施例中的本车与道路边线距离,避让策略对应输出上述实施例中的避让驾驶策略,防加塞跟车对应输出上述实施例中的跟车距离。驾驶员通过触发TJA深度学习项中不同的选项,以控制目标车辆的终端设备输出不同的当前驾驶策略。
TJA手动设置项:驾驶员对TJA深度学习项的功能进行关闭/启用的手动设置,TJA手动设置项更加兼顾驾驶员的不同驾驶情景。
生物识别项:驾驶员设置录入自己的人脸、指纹和声纹等数据,驾驶员可使用生物识别项功能快速调取自己的定制化TJA功能。
根据以上所有数据制定本车的当前驾驶策略以及历史驾驶策略之后,将其上传给RSU,RSU同时将本车的周围车辆的驾驶策略下发到本车,本车根据周围车辆的驾驶策略对先前制定的驾驶策略进行微调形成本车的实际驾驶策略。
应该理解的是,虽然流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,附图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本申请还提供一种驾驶策略的获取装置,如图7所示,该装置包括采集模块702以及获得模块704。采集模块702,用于获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息;获得模块704,用于将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略;其中,神经网络模型通过目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略进行模型训练得到。
在其中一个实施例中,一种驾驶策略的获取装置还包括训练模块,用于获取目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略;通过历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略对神经网络模型进行模型训练。
在其中一个实施例中,当前驾驶操作信息包括驾驶员对目标车辆的驾驶操控信息,当前驾驶环境信息包括当前道路的环境信息和目标车辆的周围车辆信息。
在其中一个实施例中,当前驾驶环境信息包括表征目标车辆的周围车辆的加塞操作的加塞信息,当前驾驶操作信息包括表征驾驶员对加塞操作的接受度的第一驾驶操作信息;将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略,包括:将加塞信息和第一驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的防加塞驾驶策略。
在其中一个实施例中,加塞信息包括周围车辆与目标车辆的车距信息以及周围车辆的车辆姿态信息,第一驾驶操作信息包括目标车辆的行驶方向的驾驶控制信息;将加塞信息和第一驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的防加塞驾驶策略,包括:将车距信息、车辆姿态信息和行驶方向的驾驶控制信息输入到神经网络模型中,得到神经网络模型输出的跟车距离和/或目标车辆与道路边线的距离;其中,防加塞驾驶策略用于根据跟车距离和/或目标车辆与道路边线的距离指示目标车辆进行防加塞驾驶。
在其中一个实施例中,当前驾驶环境信息包括目标车辆的周围车辆的车辆类型以及当前道路的路况信息,当前驾驶操作信息包括表征驾驶员避让周围车辆的第二驾驶操作信息;将驾驶操作信息与驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略,包括:将车辆类型、路况信息和第二驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的避让驾驶策略。
在其中一个实施例中,路况信息包括当前道路的车道数量以及导航路线信息,第二驾驶操作信息包括目标车辆的速度控制信息以及驾驶方向控制信息;将车辆类型、路况信息和第二驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的避让驾驶策略,包括:将车辆类型、车道数量以及导航路线信息和速度控制信息、驾驶方向控制信息输入到神经网络模型中,得到避让驾驶策略。
关于驾驶策略的获取装置的具体限定可以参见上文中对于驾驶策略的获取方法的限定,在此不再赘述。上述驾驶策略的获取装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是安装在车辆上的终端设备,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种驾驶策略的获取方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息;将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略;其中,神经网络模型通过目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略进行模型训练得到。
在其中一个实施例中,处理器执行计算机程序时还实现以下步骤:获取目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略;通过历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略对神经网络模型进行模型训练。
在其中一个实施例中,当前驾驶操作信息包括驾驶员对目标车辆的驾驶操控信息,当前驾驶环境信息包括当前道路的环境信息和目标车辆的周围车辆信息。
在其中一个实施例中,当前驾驶环境信息包括表征目标车辆的周围车辆的加塞操作的加塞信息,当前驾驶操作信息包括表征驾驶员对加塞操作的接受度的第一驾驶操作信息;处理器执行计算机程序实现上述的将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略的步骤时,具体实现以下步骤:将加塞信息和第一驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的防加塞驾驶策略。
在其中一个实施例中,加塞信息包括周围车辆与目标车辆的车距信息以及周围车辆的车辆姿态信息,第一驾驶操作信息包括目标车辆的行驶方向的驾驶控制信息;处理器执行计算机程序实现上述的将加塞信息和第一驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的防加塞驾驶策略的步骤时,具体实现以下步骤:将车距信息、车辆姿态信息和行驶方向的驾驶控制信息输入到神经网络模型中,得到神经网络模型输出的跟车距离和/或目标车辆与道路边线的距离;其中,防加塞驾驶策略用于根据跟车距离和/或目标车辆与道路边线的距离指示目标车辆进行防加塞驾驶。
在其中一个实施例中,当前驾驶环境信息包括目标车辆的周围车辆的车辆类型以及当前道路的路况信息,当前驾驶操作信息包括表征驾驶员避让周围车辆的第二驾驶操作信息;处理器执行计算机程序实现上述的将驾驶操作信息与驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略的步骤时,具体实现以下步骤:将车辆类型、路况信息和第二驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的避让驾驶策略。
在其中一个实施例中,路况信息包括当前道路的车道数量以及导航路线信息,第二驾驶操作信息包括目标车辆的速度控制信息以及驾驶方向控制信息;处理器执行计算机程序实现上述的将车辆类型、路况信息和第二驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的避让驾驶策略的步骤时,具体实现以下步骤:将车辆类型、车道数量以及导航路线信息和速度控制信息、驾驶方向控制信息输入到神经网络模型中,得到避让驾驶策略。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息;将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略;其中,神经网络模型通过目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略进行模型训练得到。
在其中一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略;通过历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略对神经网络模型进行模型训练。
在其中一个实施例中,当前驾驶操作信息包括驾驶员对目标车辆的驾驶操控信息,当前驾驶环境信息包括当前道路的环境信息和目标车辆的周围车辆信息。
在其中一个实施例中,当前驾驶环境信息包括表征目标车辆的周围车辆的加塞操作的加塞信息,当前驾驶操作信息包括表征驾驶员对加塞操作的接受度的第一驾驶操作信息;计算机程序被处理器执行实现上述的将当前驾驶操作信息与当前驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略的步骤时,具体实现以下步骤:将加塞信息和第一驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的防加塞驾驶策略。
在其中一个实施例中,加塞信息包括周围车辆与目标车辆的车距信息以及周围车辆的车辆姿态信息,第一驾驶操作信息包括目标车辆的行驶方向的驾驶控制信息;计算机程序被处理器执行实现上述的将加塞信息和第一驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的防加塞驾驶策略的步骤时,具体实现以下步骤:将车距信息、车辆姿态信息和行驶方向的驾驶控制信息输入到神经网络模型中,得到神经网络模型输出的跟车距离和/或目标车辆与道路边线的距离;其中,防加塞驾驶策略用于根据跟车距离和/或目标车辆与道路边线的距离指示目标车辆进行防加塞驾驶。
在其中一个实施例中,当前驾驶环境信息包括目标车辆的周围车辆的车辆类型以及当前道路的路况信息,当前驾驶操作信息包括表征驾驶员避让周围车辆的第二驾驶操作信息;计算机程序被处理器执行实现上述的将驾驶操作信息与驾驶环境信息输入到神经网络模型中,得到神经网络模型输出的当前驾驶策略的步骤时,具体实现以下步骤:将车辆类型、路况信息和第二驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的避让驾驶策略。
在其中一个实施例中,路况信息包括当前道路的车道数量以及导航路线信息,第二驾驶操作信息包括目标车辆的速度控制信息以及驾驶方向控制信息;计算机程序被处理器执行实现上述的将车辆类型、路况信息和第二驾驶操作信息输入到神经网络模型中,得到当前驾驶策略的避让驾驶策略的步骤时,具体实现以下步骤:将车辆类型、车道数量以及导航路线信息和速度控制信息、驾驶方向控制信息输入到神经网络模型中,得到避让驾驶策略。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (9)
1.一种驾驶策略的获取方法,所述方法包括:
获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息;
将所述当前驾驶操作信息与所述当前驾驶环境信息输入到神经网络模型中,得到所述神经网络模型输出的当前驾驶策略;
其中,所述神经网络模型通过所述目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略进行模型训练得到;
所述当前驾驶环境信息包括表征所述目标车辆的周围车辆的加塞操作的加塞信息,所述当前驾驶操作信息包括表征驾驶员对加塞操作的接受度的第一驾驶操作信息;
所述将所述当前驾驶操作信息与所述当前驾驶环境信息输入到神经网络模型中,得到所述神经网络模型输出的当前驾驶策略,包括:
将所述加塞信息和所述第一驾驶操作信息输入到所述神经网络模型中,得到所述当前驾驶策略的防加塞驾驶策略。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取所述目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略;
通过所述历史驾驶操作信息和所述历史驾驶环境信息、所述历史驾驶策略对所述神经网络模型进行模型训练。
3.根据权利要求1所述的方法,其特征在于,所述当前驾驶操作信息包括驾驶员对所述目标车辆的驾驶操控信息,所述当前驾驶环境信息包括当前道路的环境信息和所述目标车辆的周围车辆信息。
4.根据权利要求1所述的方法,其特征在于,所述加塞信息包括所述周围车辆与所述目标车辆的车距信息以及所述周围车辆的车辆姿态信息,所述第一驾驶操作信息包括所述目标车辆的行驶方向的驾驶控制信息;
所述将所述加塞信息和所述第一驾驶操作信息输入到所述神经网络模型中,得到所述当前驾驶策略的防加塞驾驶策略,包括:
将所述车距信息、所述车辆姿态信息和所述行驶方向的驾驶控制信息输入到所述神经网络模型中,得到所述神经网络模型输出的跟车距离和/或所述目标车辆与道路边线的距离;
其中,所述防加塞驾驶策略用于根据所述跟车距离和/或所述目标车辆与道路边线的距离指示所述目标车辆进行防加塞驾驶。
5.根据权利要求1所述的方法,其特征在于,所述当前驾驶环境信息包括所述目标车辆的周围车辆的车辆类型以及当前道路的路况信息,所述当前驾驶操作信息包括表征驾驶员避让所述周围车辆的第二驾驶操作信息;
所述将所述驾驶操作信息与所述驾驶环境信息输入到神经网络模型中,得到所述神经网络模型输出的当前驾驶策略,包括:
将所述车辆类型、所述路况信息和所述第二驾驶操作信息输入到所述神经网络模型中,得到所述当前驾驶策略的避让驾驶策略。
6.根据权利要求5所述的方法,其特征在于,所述路况信息包括当前道路的车道数量以及导航路线信息,所述第二驾驶操作信息包括所述目标车辆的速度控制信息以及驾驶方向控制信息;
所述将所述车辆类型、所述路况信息和所述第二驾驶操作信息输入到所述神经网络模型中,得到所述当前驾驶策略的避让驾驶策略,包括:
将所述车辆类型、所述车道数量以及所述导航路线信息和所述速度控制信息、所述驾驶方向控制信息输入到所述神经网络模型中,得到所述避让驾驶策略。
7.一种驾驶策略的获取装置,其特征在于,所述装置包括:
采集模块,用于获取目标车辆的当前驾驶操作信息以及当前驾驶环境信息;
获得模块,用于将所述当前驾驶操作信息与所述当前驾驶环境信息输入到神经网络模型中,得到所述神经网络模型输出的当前驾驶策略;
其中,所述神经网络模型通过所述目标车辆的历史驾驶操作信息和历史驾驶环境信息、历史驾驶策略进行模型训练得到;
所述当前驾驶环境信息包括表征所述目标车辆的周围车辆的加塞操作的加塞信息,所述当前驾驶操作信息包括表征驾驶员对加塞操作的接受度的第一驾驶操作信息;
所述将所述当前驾驶操作信息与所述当前驾驶环境信息输入到神经网络模型中,得到所述神经网络模型输出的当前驾驶策略,包括:
将所述加塞信息和所述第一驾驶操作信息输入到所述神经网络模型中,得到所述当前驾驶策略的防加塞驾驶策略。
8.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述方法的步骤。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110479113.4A CN113085873B (zh) | 2021-04-30 | 2021-04-30 | 驾驶策略的获取方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110479113.4A CN113085873B (zh) | 2021-04-30 | 2021-04-30 | 驾驶策略的获取方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113085873A CN113085873A (zh) | 2021-07-09 |
CN113085873B true CN113085873B (zh) | 2022-11-29 |
Family
ID=76680843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110479113.4A Active CN113085873B (zh) | 2021-04-30 | 2021-04-30 | 驾驶策略的获取方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113085873B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114013448B (zh) * | 2021-10-20 | 2023-09-26 | 奇瑞汽车股份有限公司 | 汽车的控制方法、装置及计算机存储介质 |
CN114162145A (zh) * | 2022-01-12 | 2022-03-11 | 苏州挚途科技有限公司 | 车辆自动驾驶方法、装置及电子设备 |
CN114506321B (zh) * | 2022-01-31 | 2023-09-29 | 重庆长安汽车股份有限公司 | 一种目标跟车距离计算系统及计算方法 |
CN114475597A (zh) * | 2022-02-28 | 2022-05-13 | 东风汽车集团股份有限公司 | 一种自动驾驶车辆跟车距离控制方法及控制系统 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2778327B2 (ja) * | 1992-02-12 | 1998-07-23 | トヨタ自動車株式会社 | 車両用走行制御装置 |
JP6502148B2 (ja) * | 2015-04-03 | 2019-04-17 | 株式会社日立製作所 | 運転診断方法および運転診断装置 |
JP6761967B2 (ja) * | 2015-04-21 | 2020-09-30 | パナソニックIpマネジメント株式会社 | 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム |
US10759446B2 (en) * | 2015-04-21 | 2020-09-01 | Panasonic Intellectual Property Management Co., Ltd. | Information processing system, information processing method, and program |
JP2017068461A (ja) * | 2015-09-29 | 2017-04-06 | 富士重工業株式会社 | 車両の運転支援装置 |
KR102137213B1 (ko) * | 2015-11-16 | 2020-08-13 | 삼성전자 주식회사 | 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치 |
CN107963082A (zh) * | 2017-12-29 | 2018-04-27 | 通化市聚诚网络科技有限公司 | 一种车辆驾驶信息推送方法及装置 |
CN110733509A (zh) * | 2018-07-18 | 2020-01-31 | 阿里巴巴集团控股有限公司 | 驾驶行为分析方法、装置、设备以及存储介质 |
CN109740433B (zh) * | 2018-11-29 | 2023-05-12 | 深圳市元征科技股份有限公司 | 一种车辆避让方法及车载终端 |
KR20200135630A (ko) * | 2019-05-23 | 2020-12-03 | 현대자동차주식회사 | 자율 주행 차량의 제어장치 및 그 방법 |
CN210912211U (zh) * | 2019-05-24 | 2020-07-03 | 岭南师范学院 | 一种预防司机驾乘加塞行为的系统 |
CN110217165A (zh) * | 2019-06-13 | 2019-09-10 | 岭南师范学院 | 一种自动预防汽车加塞行为的系统及方法 |
EP3750765A1 (en) * | 2019-06-14 | 2020-12-16 | Bayerische Motoren Werke Aktiengesellschaft | Methods, apparatuses and computer programs for generating a machine-learning model and for generating a control signal for operating a vehicle |
KR102234224B1 (ko) * | 2019-08-07 | 2021-03-31 | 엘지전자 주식회사 | 자율 주행 시스템에서 차량의 주행을 관리하기 위한 방법 및 장치 |
CN111252077A (zh) * | 2020-02-27 | 2020-06-09 | 东风小康汽车有限公司重庆分公司 | 一种车辆控制方法及装置 |
CN111717198B (zh) * | 2020-06-24 | 2021-07-30 | 中国第一汽车股份有限公司 | 面向l2级自动驾驶的控制方法、装置、设备及介质 |
CN112109715B (zh) * | 2020-09-14 | 2022-06-14 | 华人运通(上海)云计算科技有限公司 | 车辆动力输出策略的生成方法、装置、介质及系统 |
CN114394093A (zh) * | 2020-09-25 | 2022-04-26 | 阿波罗智能技术(北京)有限公司 | 车辆控制方法、装置、电子设备及存储介质 |
CN112319489B (zh) * | 2020-11-18 | 2022-03-04 | 三一重型装备有限公司 | 驾驶行为监测方法、监测系统、服务器和存储介质 |
CN112590787A (zh) * | 2021-01-05 | 2021-04-02 | 青岛海尔科技有限公司 | 一种行车辅助处理方法及装置 |
-
2021
- 2021-04-30 CN CN202110479113.4A patent/CN113085873B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113085873A (zh) | 2021-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113085873B (zh) | 驾驶策略的获取方法、装置、计算机设备和存储介质 | |
CN111123933B (zh) | 车辆轨迹规划的方法、装置、智能驾驶域控制器和智能车 | |
US10921814B2 (en) | Vehicle control system and method, and travel assist server | |
US11170588B2 (en) | Autonomous system validation | |
US7974748B2 (en) | Driver assistance system with vehicle states, environment and driver intention | |
CN113811473A (zh) | 自主交通工具系统 | |
CN112416004A (zh) | 一种基于自动驾驶的控制方法、装置、车辆以及相关设备 | |
CN112292719B (zh) | 使自我车辆的轨迹与运动的外来对象适配 | |
EP1332910A1 (en) | Method and system for vehicle operator assistance improvement | |
KR102540436B1 (ko) | 차량 사고 예측 시스템 및 그 방법 | |
US20210300348A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11332134B2 (en) | Predicting lane changes of other vehicles | |
CN113291308A (zh) | 一种考虑驾驶行为特性的车辆自学习换道决策系统及方法 | |
CN111332283A (zh) | 用于控制机动车的方法和系统 | |
CN113548054B (zh) | 基于时序的车辆变道意图预测方法及系统 | |
US11300954B2 (en) | System and methods to improve automated driving utilization | |
US11900811B2 (en) | Crowdsourcing road conditions from abnormal vehicle events | |
CN112918472A (zh) | 车辆驾驶辅助系统、利用其的车辆及相应的方法和介质 | |
CN110503832B (zh) | 基于智慧交通系统的指令处理方法、装置、设备和介质 | |
JP6796679B2 (ja) | 車両制御システム及び方法、並びに走行支援サーバ | |
CN113460083A (zh) | 车辆控制装置、车辆控制方法及存储介质 | |
DE112018007967T5 (de) | Fahrzeugsteuervorrichtung, automatisiertes fahrzeugfahrtentwicklungssystem, fahrzeugsteuerverfahren und programm | |
CN110509928B (zh) | 一种辅助驾驶方法、装置 | |
CN115136081A (zh) | 用于训练用于机动车的控制器的至少一个算法的方法、用于优化区域中的交通流的方法、计算机程序产品以及机动车 | |
CN115092181A (zh) | 车辆的控制方法、装置、存储介质和处理器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |