CN113460080A - 车辆控制装置、车辆控制方法及存储介质 - Google Patents

车辆控制装置、车辆控制方法及存储介质 Download PDF

Info

Publication number
CN113460080A
CN113460080A CN202110337089.0A CN202110337089A CN113460080A CN 113460080 A CN113460080 A CN 113460080A CN 202110337089 A CN202110337089 A CN 202110337089A CN 113460080 A CN113460080 A CN 113460080A
Authority
CN
China
Prior art keywords
vehicle
environment
difficulty level
model
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110337089.0A
Other languages
English (en)
Inventor
安井裕司
芝内翼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of CN113460080A publication Critical patent/CN113460080A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00276Planning or execution of driving tasks using trajectory prediction for other traffic participants for two or more other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

提供能够根据识别车辆的周边的环境时的难易度来顺畅地控制车辆的驾驶的车辆控制装置、车辆控制方法及存储介质。车辆控制装置具备:识别部,其识别车辆的周边的环境;决定部,其基于所述环境来决定所述环境的识别的难易度;生成部,其基于所述环境来生成所述车辆应该行驶的多个目标轨道,并根据由所述决定部决定的所述难易度来从所述生成的多个目标轨道中选择任一个目标轨道;以及驾驶控制部,其基于由所述生成部选择的所述目标轨道,来自动地控制所述车辆的驾驶。

Description

车辆控制装置、车辆控制方法及存储介质
本申请基于在2020年3月31日申请的日本国专利申请第2020-063515号来主张优先权,并将其内容援用于此。
技术领域
本发明涉及车辆控制装置、车辆控制方法及存储介质。
背景技术
已知一种从确定了本车辆的周边的移动体与本车辆之间的相对位置同驾驶员的驾驶操作之间的对应关系的多个模型中,根据行人的行进方向等来选择任一个模型的技术(例如,参照国际公开第2013/042260号)。
发明内容
然而,在以往的技术中,关于根据识别车辆的周边的环境时的难易度来顺畅地控制车辆的驾驶,尚未研究。
本发明的一方案提供能够根据识别车辆的周边的环境时的难易度来顺畅地控制车辆的驾驶的车辆控制装置、车辆控制方法及存储介质。
本发明的车辆控制装置、车辆控制方法及存储介质采用了以下的结构。
本发明的第一方案是一种车辆控制装置,其中,所述车辆控制装置具备:识别部,其识别车辆的周边的环境;决定部,其基于由所述识别部识别到的所述环境,来决定所述环境的识别的难易度;生成部,其基于由所述识别部识别到的所述环境来生成所述车辆应该行驶的多个目标轨道,并根据由所述决定部决定的所述难易度来从所述生成的多个目标轨道中选择任一个目标轨道;以及驾驶控制部,其基于由所述生成部选择出的所述目标轨道,来自动地控制所述车辆的驾驶。
第二方案在第一方案的基础上,也可以是,所述车辆控制装置还具备算出部,该算出部算出在由所述识别部作为所述环境的一部分而识别到的物体的周围分布的风险的区域,所述生成部对当输入所述区域时输出所述目标轨道的多个模型分别输入由所述算出部算出的所述区域,并基于输入了所述区域的所述多个模型各自的输出结果,来生成所述多个目标轨道。
第三方案在第二方案的基础上,也可以是,所述多个模型包括第一模型和第二模型,所述第一模型是基于规则或基于模型的模型,所述第二模型是基于机器学习的模型。
第四方案在第三方案的基础上,也可以是,所述生成部在所述难易度超出规定值的情况下,选择由所述第一模型输出的所述目标轨道即第一目标轨道、以及由所述第二模型输出的所述目标轨道即第二目标轨道中的所述第二目标轨道。
第五方案在第一至第四方案中的任一方案的基础上,也可以是,所述车辆控制装置还具备感测所述车辆的周围的传感器,所述识别部对于以当输入某对象车辆的周围的感测结果时输出表示所述对象车辆的周边的环境的信息的方式进行了学习的基于机器学习的第三模型,输入由所述传感器感测的感测结果,并基于输入了所述感测结果的所述第三模型的输出结果,来识别所述车辆的周边的环境。
第六方案在第五方案的基础上,也可以是,所述决定部根据所述第三模型的学习量,来决定所述难易度。
第七方案在第六方案的基础上,也可以是,所述第三模型以当输入某第一环境下的所述对象车辆的周围的感测结果时输出表示所述对象车辆的周边的环境为所述第一环境的信息的方式进行学习,并以当输入与所述第一环境不同的第二环境下的所述对象车辆的周围的感测结果时输出表示所述对象车辆的周边的环境为所述第二环境的信息的方式进行学习,所述决定部在由所述识别部识别到所述第一环境的情况下,根据在所述第一环境下学习了的所述第三模型的学习量,来决定所述难易度,在由所述识别部识别到所述第二环境的情况下,根据在所述第二环境下学习了的所述第三模型的学习量,来决定所述难易度。
第八方案在第六或第七方案的基础上,也可以是,所述第三模型的学习量越多,则所述决定部越降低所述难易度,所述第三模型的学习量越少,则所述决定部越提高所述难易度。
第九方案在第一至第八方案中的任一方案的基础上,也可以是,所述决定部根据由所述识别部作为所述环境的一部分而识别到的移动体的数量,来决定所述难易度。
第十方案在第九方案的基础上,也可以是,所述移动体的数量越少,则所述决定部越降低所述难易度,所述移动体的数量越多,则所述决定部越提高所述难易度。
第十一方案在第一至第十方案中的任一方案的基础上,也可以是,所述决定部根据由所述识别部作为所述环境的一部分而识别到的道路的曲率,来决定所述难易度。
第十二方案在第十一方案的基础上,也可以是,所述道路的曲率越小,则所述决定部越降低所述难易度,所述道路的曲率越大,则所述决定部越提高所述难易度。
第十三方案在第一至第十二方案中的任一方案的基础上,也可以是,所述决定部根据由所述识别部作为所述环境的一部分而识别到的多个移动体的平均速度与所述车辆的速度之间的相对的速度差,来决定所述难易度。
第十四方案在第十三方案的基础上,也可以是,所述速度差越小,则所述决定部越降低所述难易度,所述速度差越大,则所述决定部越提高所述难易度。
第十五方案在第一至第十四方案中的任一方案的基础上,也可以是,所述决定部根据所述车辆的速度,来决定所述难易度。
第十六方案在第十五方案的基础上,也可以是,所述速度越大,则所述决定部越降低所述难易度,所述速度越小,则所述决定部越提高所述难易度。
第十七方案在第一至第十六方案中的任一方案的基础上,也可以是,所述决定部基于由所述识别部作为所述环境的一部分而识别到的移动体与所述车辆之间的相对距离及相对速度,来判定所述车辆是否处于紧急状态,所述生成部在由所述决定部判定为所述车辆处于紧急状态的情况下,无论所述难易度如何都选择所述第一目标轨道,所述驾驶控制部基于由所述生成部选择出的所述第一目标轨道,控制所述车辆的驾驶以躲避所述移动体。
第十八方案是一种车辆控制方法,其中,车辆控制方法,其中,所述车辆控制方法使搭载于车辆的计算机执行如下处理:识别所述车辆的周边的环境;基于所述识别的环境,来决定所述环境的识别的难易度;基于所述识别的环境来生成所述车辆应该行驶的多个目标轨道,并根据所述决定的难易度来从所述生成的多个目标轨道中选择任一个目标轨道;以及基于所述选择的目标轨道,来自动地控制所述车辆的驾驶。
第十九方案是一种存储介质,其是存储有程序的计算机可读取的存储介质,其中,所述程序用于使搭载于车辆的计算机执行如下处理:识别所述车辆的周边的环境;基于所述识别的环境,来决定所述环境的识别的难易度;基于所述识别的环境来生成所述车辆应该行驶的多个目标轨道,并根据所述决定的难易度来从所述生成的多个目标轨道中选择任一个目标轨道;以及基于所述选择的目标轨道,来自动地控制所述车辆的驾驶。
根据上述的任一方案,能够根据识别车辆的周边的环境时的难易度来顺畅地控制车辆的驾驶。
附图说明
图1是利用了第一实施方式的车辆控制装置的车辆系统的结构图。
图2是第一实施方式的第一控制部、第二控制部及存储部的功能结构图。
图3是用于说明风险区域的图。
图4是表示某坐标x1处的Y方向的潜在风险值的变化的图。
图5是表示某坐标x2处的Y方向的潜在风险值的变化的图。
图6是表示某坐标x3处的Y方向的潜在风险值的变化的图。
图7是表示某坐标y4处的X方向的潜在风险值的变化的图。
图8是表示决定了潜在风险值的风险区域的图。
图9是示意性地表示目标轨道的生成方法的图。
图10是表示某一个DNN模型输出的目标轨道的一例的图。
图11是表示由第一实施方式的自动驾驶控制装置进行的一系列处理的流程的一例的流程图。
图12是表示学习量数据的一例的图。
图13是表示第一时刻的场景的一例的图。
图14是表示第二时刻的场景的一例的图。
图15是表示本车辆可能遭遇的场景的一例的图。
图16是表示本车辆可能遭遇的场景的另一例的图。
图17是表示实施方式的自动驾驶控制装置的硬件结构的一例的图。
具体实施方式
以下,参照附图来说明本发明的车辆控制装置、车辆控制方法及程序的实施方式。实施方式的车辆控制装置例如适用于自动驾驶车辆。自动驾驶例如是指控制车辆的速度及转向中的一方或双方来控制车辆的驾驶。在上述的车辆的驾驶控制中,例如包括ACC(Adaptive Cruise Control System)、TJP(Traffic Jam Pilot)、ALC(Auto LaneChanging)、CMBS(Collision Mitigation Brake System)、LKAS(Lane KeepingAssistance System)这样的各种的驾驶控制。自动驾驶车辆也可以通过乘员(驾驶员)的手动驾驶来控制驾驶。
<第一实施方式>
[整体结构]
图1是利用了第一实施方式的车辆控制装置的车辆系统1的结构图。搭载车辆系统1的车辆(以下称作本车辆M)例如是二轮、三轮、四轮等的车辆,其驱动源是柴油发动机、汽油发动机等内燃机、电动机、或者它们的组合。电动机使用由与内燃机连结的发电机发出的发电电力、或者二次电池、燃料电池的放电电力来进行动作。
车辆系统1例如具备相机10、雷达装置12、LIDAR(Light Detection and Ranging)14、物体识别装置16、通信装置20、HMI(Human Machine Interface)30、车辆传感器40、导航装置50、MPU(Map Positioning Unit)60、驾驶操作件80、自动驾驶控制装置100、行驶驱动力输出装置200、制动装置210及转向装置220。这些装置、设备通过CAN(Controller AreaNetwork)通信线等多路通信线、串行通信线、无线通信网等互相连接。图1所示的结构只不过是一例,既可以省略结构的一部分,也可以还追加别的结构。自动驾驶控制装置100是“车辆控制装置”的一例。
相机10例如是利用了CCD(Charge Coupled Device)、CMOS(Complementary MetalOxide Semiconductor)等固体摄像元件的数码相机。相机10安装于本车辆M的任意部位。例如,在对本车辆M的前方进行拍摄的情况下,相机10安装于前风窗玻璃上部、车室内后视镜背面等。另外,在对本车辆M的后方进行拍摄的情况下,相机10安装于后风窗玻璃上部等。另外,在对本车辆M的右侧方或左侧方进行拍摄的情况下,相机10安装于车身、车门上后视镜的右侧面或左侧面等。相机10例如周期性地反复对本车辆M的周边进行拍摄。相机10也可以是立体相机。相机10是“传感器”的一例。
雷达装置12向本车辆M的周边放射毫米波等电波,并且检测由物体反射的电波(反射波)来至少检测物体的位置(距离及方位)。雷达装置12安装于本车辆M的任意部位。雷达装置12也可以通过FM-CW(Frequency Modulated Continuous Wave)方式来检测物体的位置及速度。雷达装置12是“传感器”的另一例。
LIDAR14向本车辆M的周边照射光,并测定该照射的光的散射光。LIDAR14基于从发光到受光的时间,来检测到对象为止的距离。照射的光例如可以是脉冲状的激光。LIDAR14安装于本车辆M的任意部位。LIDAR14是“传感器”的另一例。
物体识别装置16对由相机10、雷达装置12及LIDAR14中的一部分或全部检测的检测结果进行传感器融合处理,来识别物体的位置、种类、速度等。物体识别装置16将识别结果向自动驾驶控制装置100输出。另外,物体识别装置16可以将相机10、雷达装置12及LIDAR14的检测结果直接向自动驾驶控制装置100输出。在该情况下,也可以从车辆系统1中省略物体识别装置16。
通信装置20例如利用蜂窝网、Wi-Fi网、Bluetooth(注册商标)、DSRC(DedicatedShort Range Communication)等与存在于本车辆M的周边的其他车辆通信、或者经由无线基站与各种服务器装置通信。
HMI30对本车辆M的乘员(包括驾驶员)提示各种信息,并且接受由乘员进行的输入操作。HMI30例如可以具备显示器、扬声器、蜂鸣器、触摸面板、麦克风、开关、按键等。
车辆传感器40包括检测本车辆M的速度的车速传感器、检测加速度的加速度传感器、检测绕铅垂轴的角速度的横摆角速度传感器、检测本车辆M的朝向的方位传感器等。
导航装置50例如具备GNSS(Global Navigation Satellite System)接收机51、导航HMI52及路径决定部53。导航装置50在HDD(Hard Disk Drive)、闪存器等存储装置中保持有第一地图信息54。
GNSS接收机51基于从GNSS卫星接收的信号来确定本车辆M的位置。本车辆M的位置也可以通过利用了车辆传感器40的输出的INS(Inertial Navigation System)来确定或补充。
导航HMI52包括显示装置、扬声器、触摸面板、按键等。导航HMI52也可以一部分或全部与前述的HMI30共用化。例如,乘员也可以代替对HMI30输入本车辆M的目的地,或者除此之外还对导航HMI52输入本车辆M的目的地。
路径决定部53例如参照第一地图信息54来决定从由GNSS接收机51确定的本车辆M的位置(或者输入的任意的位置)到由乘员使用HM30、导航HMI52输入的目的地的路径(以下称作地图上路径)。
第一地图信息54例如是通过表示道路的路段和由路段连接的节点来表现道路形状的信息。第一地图信息54也可以包括道路的曲率、POI(Point Of Interest)信息等。地图上路径向MPU60输出。
导航装置50也可以基于地图上路径来进行使用了导航HMI52的路径引导。导航装置50例如也可以由乘员持有的智能手机、平板终端等终端装置的功能来实现。导航装置50也可以经由通信装置20向导航服务器发送当前位置和目的地,并从导航服务器取得与地图上路径同等的路径。
MPU60例如包括推荐车道决定部61,并在HDD、闪存器等存储装置中保持有第二地图信息62。推荐车道决定部61将从导航装置50提供的地图上路径分割为多个区块(例如,在车辆行进方向上按每100[m]进行分割),并参照第二地图信息62按每个区块来决定推荐车道。推荐车道决定部61进行在从左数第几车道上行驶这一决定。推荐车道决定部61在地图上路径存在分支部位的情况下,以使本车辆M能够在用于向分支目的地行进的合理的路径上行驶的方式决定推荐车道。
第二地图信息62是比第一地图信息54高精度的地图信息。第二地图信息62例如包括车道的中央的信息或者车道的边界的信息等。另外,在第二地图信息62中,可以包括道路信息、交通限制信息、住所信息(住所、邮政编码)、设施信息、电话号码信息等。第二地图信息62可以通过通信装置20与其他装置通信而随时被更新。
驾驶操作件80例如包括油门踏板、制动踏板、换挡杆、转向盘、异形方向盘、操纵杆以及其他的操作件。在驾驶操作件80安装有检测操作量或者操作的有无的传感器,其检测结果向自动驾驶控制装置100、或者行驶驱动力输出装置200、制动装置210及转向装置220中的一部分或全部输出。
自动驾驶控制装置100例如具备第一控制部120、第二控制部160及存储部180。第一控制部120及第二控制部160分别例如通过CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等硬件处理器执行程序(软件)来实现。这些构成要素中的一部分或全部也可以通过LSI(Large Scale Integration)、ASIC(Application SpecificIntegrated Circuit)、FPGA(Field-Programmable Gate Array)等硬件(包括电路部:circuitry)来实现,也可以通过软件与硬件的协同配合来实现。程序可以预先保存于自动驾驶控制装置100的HDD、闪存器等存储装置(具备非暂时性的存储介质的存储装置),也可以保存于DVD、CD-ROM等能够装卸的存储介质,并通过存储介质(非暂时性的存储介质)装配于驱动装置来安装于自动驾驶控制装置100的HDD、闪存器。
存储部180由上述的各种存储装置来实现。存储部180例如由HDD、闪存器、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、或RAM(Random Access Memory)等实现。在存储部180中,例如除了保存由处理器读出并执行的程序之外,还保存环境识别模型数据182、轨道生成模型数据184、学习量数据186等。关于环境识别模型数据182、轨道生成模型数据184、学习量数据186的详细情况,见后述。
图2是第一实施方式的第一控制部120、第二控制部160及存储部180的功能结构图。第一控制部120例如具备识别部130、难易度决定部135及行动计划生成部140。
第一控制部120例如并行实现基于AI(Artificial Intelligence:人工智能)的功能和基于预先给出的模型的功能。例如,“识别交叉路口”的功能可以通过“并行执行基于深度学习等的交叉路口的识别和基于预先给出的条件(存在能够图案匹配的信号、道路标示等)的识别,并对双方评分而综合地评价”来实现。由此,确保自动驾驶的可靠性。
识别部130从存储部180读出环境识别模型数据182,并使用由该数据定义的模型来识别本车辆M的周边的环境。
环境识别模型数据182是定义了为了识别环境而被利用的环境识别模型MDL1的信息(程序或数据构造)。环境识别模型MDL1是以当直接地输入或经由物体识别装置16间接地输入相机10、雷达装置12、LIDAR14这样的各种的传感器的感测结果时将物体的种类、状态等作为环境的一部分而输出的方式进行了学习的DNN(Deep Neural Network(s))。具体而言,环境识别模型MDL1可以是CNN(Convolutional Neural Network)、RNN(ReccurentNeural Network)或者它们的组合。环境识别模型MDL1是“第三模型”的一例。
环境识别模型数据182例如包括构成DNN的多个层分别包含的单元互相以怎样的方式耦合这样的耦合信息、对耦合的单元间输入输出的数据赋予的耦合系数等各种信息。
所谓耦合信息,例如包括各层中包含的单元数、指定各单元的耦合对象的单元的种类的信息、各单元的激活函数、设置于隐含层的单元间的门(gate)等信息。激活函数例如既可以是修正线性函数(ReLU函数),也可以是sigmoid函数、step函数、以及其他的函数等。门例如根据由激活函数返回的值(例如1或0),使在单元间传递的数据选择性地通过、加权。耦合系数例如包括在神经网络的隐含层中从某层的单元向更深层的单元输出数据时,对输出数据赋予的权重系数。另外,耦合系数也可以包括各层的固有的偏置成分等。
环境识别模型MDL1例如基于教示数据来充分地学习。教示数据例如是相对于在某对象车辆安装的传感器的感测结果而在该对象车辆的周边存在的物体的种类及状态作为教示标签(也称作目标)建立了对应关系的数据集。对象车辆既可以是本车辆M,也可以是本车辆M以外的其他车辆。即,教示数据是将作为输入数据的传感器的感测结果与作为输出数据的物体的种类及状态进行组合的数据集。
由环境识别模型MDL1输出的物体的种类例如包括自行车、摩托车、四轮机动车、行人、道路标识、道路标示、划分线、电线杆、护栏、落下物等。由环境识别模型MDL1输出的物体的状态包括位置、速度、加速度、加加速度等。物体的位置例如可以是以本车辆M的代表点(重心、驱动轴中心等)为原点的相对坐标上的位置(即相对于本车辆M的相对位置)。物体的位置可以由该物体的重心、角部等代表点表示,也可以由表现出的区域表示。
例如,识别部130将相机10的图像向环境识别模型MDL1输入,由此该环境识别模型MDL1输出了本车辆M的周边的道路划分线的位置及图案的种类。在该情况下,识别部130将由环境识别模型MDL1输出的道路划分线的图案(例如实线与虚线的排列)与从第二地图信息62得到的道路划分线的图案进行比较,来识别道路划分线之间的空间作为本车道、相邻车道。
另外,识别部130不限于识别道路划分线,也可以通过识别道路划分线、包括路肩、缘石、中央隔离带、护栏等的行驶路边界(道路边界),来识别本车道、相邻车道等。在该识别中也可以考虑从导航装置50取得的本车辆M的位置、基于INS的处理结果。另外,识别部130可以识别暂时停止线、障碍物、红灯、收费站、以及其他的道路现象。
识别部130在识别本车道时,识别本车辆M相对于本车道的相对位置、姿态。识别部130例如也可以识别本车辆M的基准点从车道中央的偏离、以及本车辆M的行进方向相对于将车道中央相连的线所成的角度作为本车辆M相对于本车道的相对位置及姿态。也可以代替于此,识别部130识别本车辆M的基准点相对于本车道的任一侧端部(道路划分线或道路边界)的位置等作为本车辆M相对于本车道的相对位置。
难易度决定部135基于由识别部130识别到的本车辆M的周边的环境,来决定识别环境时的难易度(以下称作环境识别难易度)。关于环境识别难易度的具体的决定方法,后述。
行动计划生成部140例如具备事件决定部142、风险区域算出部144及目标轨道生成部146。
事件决定部142在决定有推荐车道的路径上本车辆M处于自动驾驶下的情况下,决定该自动驾驶的行驶形态。以下,将规定了自动驾驶的行驶形态的信息称作事件进行说明。
在事件中,例如包括定速行驶事件、追随行驶事件、车道变更事件、分支事件、汇合事件、接管事件等。定速行驶事件是使本车辆M以恒定的速度在相同的车道上行驶的行驶形态。追随行驶事件是使本车辆M追随在本车道上存在于本车辆M的前方的规定距离以内(例如100[m]以内)且距本车辆M最近的其他车辆(以下称作先行车辆)的行驶形态。
“追随”例如可以是使本车辆M与先行车辆的车间距离(相对距离)维持为恒定的行驶形态,也可以是除了使本车辆M与先行车辆的车间距离维持为恒定以外还使本车辆M在本车道的中央行驶的行驶形态。
车道变更事件是使本车辆M从本车道向相邻车道进行车道变更的行驶形态。分支事件是在道路的分支地点使本车辆M向目的地侧的车道分支的行驶形态。汇合事件是在汇合地点使本车辆M向干线汇合的行驶形态。接管事件是结束自动驾驶并切换为手动驾驶的行驶形态。
另外,在事件中,例如也可以包括赶超事件、躲避事件等。赶超事件是使本车辆M暂且向相邻车道进行车道变更并在相邻车道上赶超先行车辆后再次向原来的车道进行车道变更的行驶形态。躲避事件是为了躲避存在于本车辆M的前方的障碍物而使本车辆M进行制动及转向中的至少一方的行驶形态。
另外,事件决定部142例如可以根据在本车辆M行驶时由识别部130识别到的周边的状况,将对当前的区间已经决定的事件变更为其他的事件、对当前的区间决定新的事件。
风险区域算出部144算出在由识别部130作为环境的一部分而识别出的物体的周围潜在地分布的、或者潜在地存在的风险的区域(以下称作风险区域RA)。风险例如是物体对本车辆M带来的风险。更具体而言,风险可以是由于先行车辆急减速、其他车辆从相邻车道向本车辆M的前方插队而强使本车辆M进行急制动这样的风险,也可以是由于行人、自行车进入车道而强使本车辆M进行急转向这样的风险。另外,风险也可以是本车辆M给物体带来的风险。以下,将这样的风险的高低作为定量的指标值来处理,并将该指标值称作“潜在风险值p”进行说明。
图3是用于说明风险区域RA的图。图中LN1表示划分本车道的一方的划分线,LN2表示划分本车道的另一方、且划分相邻车道的一方的划分线。LN3表示划分相邻车道的另一方的划分线。这些多个划分线中的、LN1及LN3为车道外侧线,LN2为允许车辆为了赶超而超出的中央线。另外,在图示的例子中,在本车道上的本车辆M的前方存在先行车辆m1。图中X表示车辆的行进方向,Y表示车辆的宽度方向,Z表示铅垂方向。
在图示的状况的情况下,在风险区域RA中,越是靠近车道外侧线LN1及LN3的区域,则风险区域算出部144越提高潜在风险值p,越是远离车道外侧线LN1及LN3的区域,则风险区域算出部144越降低潜在风险值p。
另外,在风险区域RA中,越是靠近中央线LN2的区域,则风险区域算出部144越提高潜在风险值p,越是远离中央线LN2的区域,则风险区域算出部144越降低潜在风险值p。中央线LN2与车道外侧线LN1及LN3不同,允许车辆超出,因此风险区域算出部144使针对中央线LN2的潜在风险值p比针对车道外侧线LN1及LN3的潜在风险值p低。
另外,在风险区域RA中,越是靠近作为物体的一种的先行车辆m1的区域,则风险区域算出部144越提高潜在风险值p,越是远离先行车辆m1的区域,则风险区域算出部144越降低潜在风险值p。即,可以的是,在风险区域RA中,本车辆M与先行车辆m1的相对距离越短,则风险区域算出部144越提高潜在风险值p,本车辆M与先行车辆m1的相对距离越长,则风险区域算出部144越降低潜在风险值p。此时,可以的是,先行车辆m1的绝对速度、绝对加速度越大,则风险区域算出部144越提高潜在风险值p。另外,对于潜在风险值p,也可以代替先行车辆m1的绝对速度、绝对加速度或者除此之外还根据本车辆M与先行车辆m1的相对速度、相对加速度、TTC(Time to Collision)等来适当决定。
图4是表示某坐标x1处的Y方向上的潜在风险值p的变化的图。图中y1表示Y方向上的车道外侧线LN1的位置(坐标),y2表示Y方向上的中央线LN2的位置(坐标),y3表示Y方向上的车道外侧线LN3的位置(坐标)。
如图示那样,在车道外侧线LN1所存在的坐标(x1、y1)的附近、车道外侧线LN3所存在的坐标(x1、y3)的附近,潜在风险值p最高,在中央线LN2所存在的坐标(x1、y2)的附近,潜在风险值p相对于坐标(x1、y1)、(x1、y3)次高。如后所述,在潜在风险值p与预先决定的阈值Th相同或为该预先决定的阈值Th以上的区域,为了防止车辆进入该区域,不生成目标轨道TR。
图5是表示某坐标x2处的Y方向上的潜在风险值p的变化的图。坐标x2比坐标x1靠近先行车辆m1。因此,虽然在车道外侧线LN1所存在的坐标(x2、y1)与中央线LN2所存在的坐标(x2、y2)之间的区域不存在先行车辆m1,但是考虑先行车辆m1进行急减速等风险。其结果是,(x2、y1)与(x2、y2)之间的区域的潜在风险值p容易比(x1、y1)与(x1、y2)之间的区域的潜在风险值p高,例如为阈值Th以上。
图6是表示某坐标x3处的Y方向上的潜在风险值p的变化的图。在坐标x3存在先行车辆m1。因此,车道外侧线LN1所存在的坐标(x3、y1)与中央线LN2所存在的坐标(x3、y2)之间的区域的潜在风险值p比(x2、y1)与(x2、y2)之间的区域的潜在风险值p高、且为阈值Th以上。
图7是表示某坐标y4处的X方向上的潜在风险值p的变化的图。坐标y4是y1与y2的中间坐标,在该坐标y4存在先行车辆m1。因此,坐标(x3、y4)处的潜在风险值p最高,比坐标(x3、y4)远离先行车辆m1的坐标(x2、y4)处的潜在风险值p比坐标(x3、y4)处的潜在风险值p低,比坐标(x2、y4)进一步远离先行车辆m1的坐标(x1、y4)处的潜在风险值p比坐标(x2、y4)处的潜在风险值p低。
图8是表示决定了潜在风险值p的风险区域RA的图。如图示那样,风险区域算出部144用多个网格(mesh)(也称作格子:grid)划分风险区域RA,并将这些多个网格分别与潜在风险值p建立对应关系。例如,网格(xi、yj)与潜在风险值pij建立对应关系。即,风险区域RA由向量、张量这样的数据构造表示。
风险区域算出部144当将多个网格与潜在风险值p建立对应关系时,将各网格的潜在风险值p归一化。
例如,可以的是,风险区域算出部144以潜在风险值p的最大值为1且最小值为0的方式将潜在风险值p归一化。具体而言,风险区域算出部144从风险区域RA中包括的全网格的潜在风险值p中选择取最大值的潜在风险值Pmax、以及取最小值的潜在风险值Pmin。风险区域算出部144从风险区域RA中包括的全网格中选出某着眼的一个网格(xi、yj),并从与该网格(xi、yj)建立了对应关系的潜在风险值pij减去最小的潜在风险值Pmin,并且从最大的潜在风险值Pmax减去最小的潜在风险值Pmin,并将(Pij-Pmin)除以(Pmax-Pmin)。风险区域算出部144一边改变着眼的网格,一边反复进行上述处理。由此,风险区域RA以潜在风险值p的最大值为1且最小值为0的方式归一化。
另外,风险区域算出部144也可以算出风险区域RA中包括的全网格的潜在风险值p的平均值μ和标准偏差σ,并从与网格(xi、yj)建立了对应关系的潜在风险值pij减去平均值μ,并将(pij-μ)除以标准偏差σ。由此,风险区域RA以潜在风险值p的最大值为1且最小值为0的方式归一化。
另外,风险区域算出部144可以以潜在风险值p的最大值为任意的M且最小值为任意的m的方式将潜在风险值p归一化。具体而言,风险区域算出部144在使(pij-Pmin)/(pmax-Pmin)为A的情况下,将该A乘以(M-m),并将A(M-m)加上m。由此,风险区域RA以潜在风险值p的最大值为M且最小值为m的方式归一化。
返回图2的说明。为了原则上本车辆M在由推荐车道决定部61决定的推荐车道上行驶、而且本车辆M在推荐车道上行驶时应对周边的状况,目标轨道生成部146生成以由事件规定的行驶形态使本车辆M自动地(不依赖于驾驶员的操作地)行驶的将来的目标轨道TR。在目标轨道TR中,例如包括确定将来的本车辆M的位置的位置要素、以及确定将来的本车辆M的速度等的速度要素。
例如,目标轨道生成部146将本车辆M应该按顺序到达的多个地点(轨道点)决定为目标轨道TR的位置要素。轨道点是每隔规定的行驶距离(例如数[m]程度)的本车辆M应该到达的地点。规定的行驶距离例如可以通过沿路径行进时的沿途距离来计算。
另外,目标轨道生成部146将每隔规定的采样时间(例如零点几[sec]程度)的目标速度v及目标加速度α决定为目标轨道TR的速度要素。另外,轨道点也可以是每隔规定的采样时间的、在该采样时刻的本车辆M应该到达的位置。在该情况下,目标速度v、目标加速度α由采样时间及轨道点的间隔决定。
例如,目标轨道生成部146从存储部180读出轨道生成模型数据184,并使用由该数据定义的模型来生成一个或多个目标轨道TR。而且,目标轨道生成部146根据由难易度决定部135决定的环境识别难易度,来从所生成的一个或多个目标轨道TR中选择任一个目标轨道TR。
轨道生成模型数据184是定义出为了生成目标轨道TR而被利用的多个轨道生成模型MDL2的信息(程序或数据构造)。多个轨道生成模型MDL2包括通过基于规则而安装的轨道生成模型MDL2、以及通过DNN安装的轨道生成模型MDL2。以下,将通过基于规则而安装的轨道生成模型MDL2称作“基于规则的模型MDL2-1”,将通过DNN而安装的轨道生成模型MDL2称作“DNN模型MDL2-2”来进行说明。基于规则的模型MDL2-1是“第一模型”的一例,DNN模型MDL2-2是“第二模型”的一例。
基于规则的模型MDL2-1是基于由专家等预先决定的规则组来根据风险区域RA导出目标轨道TR的模型。由于专家等决定规则组,因此这样的基于规则的模型MDL2-1也称作专家系统。规则组包括道路交通法等法律、规则、惯例等。
例如,在规则组中可能存在某条件X与目标轨道TRx唯一建立了对应关系的规则。条件X例如是向基于规则的模型MDL2-1输入的风险区域RA与在本车辆M正于单侧一车道的道路上行驶、且在本车辆M的前方的规定距离以内存在时速XX[km/h]的先行车辆时可能生成的风险区域RAX相同。目标轨道TRx例如是目标速度为vX、目标加速度为αX、转向的位移量为uX、轨道的曲率为κX的目标轨道TR。在遵循了这样的规则的情况下,基于规则的模型MDL2-1当输入满足条件X这样的风险区域RA时,输出目标轨道TRx。
虽然专家等决定规则组,但是包罗地决定所有规则这一情况较为稀少。因此,也设想本车辆M陷入不存在于规则组中的状况(专家未设想的状况),有时向基于规则的模型MDL2-1输入不属于规则组的风险区域RA。在该情况下,基于规则的模型MDL2-1不会输出目标轨道TR。代替于此,基于规则的模型MDL2-1也可以在输入了不属于规则组的风险区域RA的情况下,输出以预先决定的速度在当前的车道上行驶这样的不依存于现状的风险区域RA的预先决定的目标轨道TR。即,也可以包括在向规则组中输入了未事先设想的风险区域RA的情况下输出不依存于现状的风险区域RA的预先决定的目标轨道TR这样的、用于应对不规则的状况的通用的规则。
DNN模型MDL2-2是以当输入风险区域RA时输出目标轨道TR的方式进行了学习的模型。具体而言,DNN模型MDL2-2可以是CNN、RNN、或者它们的组合。轨道生成模型数据184例如包括上述的耦合信息、耦合系数等各种信息。
DNN模型MDL2-2例如基于教示数据充分地进行学习。教示数据例如是相对于风险区域RA而将DNN模型MDL2-2应该输出的正确解的目标轨道TR作为教示标签(也称作目标)建立了对应关系的数据集。即,教示数据是将作为输入数据的风险区域RA、以及作为输出数据的目标轨道TR进行了组合的数据集。正确解的目标轨道TR例如可以是通过在风险区域RA所包括的多个网格中潜在风险值p小于阈值Th、且潜在风险值p最低的网格的目标轨道。另外,正确解的目标轨道TR例如可以是在某风险区域RA下实际上驾驶员进行了驾驶的车辆的轨道。
目标轨道生成部146对基于规则的模型MDL2-1和DNN模型MDL2-2分别输入由风险区域算出部144算出的风险区域RA,并基于输入了该风险区域RA的各模型MDL的输出结果,来生成目标轨道TR。
图9是示意性地表示目标轨道TR的生成方法的图。例如,目标轨道生成部146对DNN模型MDL2-2输入表示风险区域RA的向量或者张量。在图示的例子中,风险区域RA表示为m行n列的二阶的张量。输入了表示风险区域RA的向量或者张量的DNN模型MDL2-2输出目标轨道TR。该目标轨道TR例如由包括目标速度v、目标加速度α、转向的位移量u、轨道的曲率κ这样的多个要素的向量或者张量表示。
图10是表示轨道生成模型MDL2输出的目标轨道TR的一例的图。如图示的例子那样,先行车辆m1的周边的潜在风险值p变高,因此为了躲避该先行车辆m1而生成目标轨道TR。其结果是,本车辆M向由划分线LN2及LN3划分的相邻车道进行车道变更并赶超先行车辆m1。
返回图2的说明。第二控制部160控制行驶驱动力输出装置200、制动装置210及转向装置220,以使本车辆M按预定的时刻通过由目标轨道生成部146生成的目标轨道TR。第二控制部160例如具备第一取得部162、速度控制部164及转向控制部166。第二控制部160是“驾驶控制部”的一例。
第一取得部162从目标轨道生成部146取得目标轨道TR,并使存储部180的存储器存储该目标轨道TR。
速度控制部164基于存储于存储器的目标轨道TR中包括的速度要素(例如目标速度v、目标加速度α等),来控制行驶驱动力输出装置200及制动装置210的一方或双方。
转向控制部166根据存储于存储器的目标轨道中包括的位置要素(例如目标轨道的曲率κ、与轨道点的位置相应的转向的位移量u等),来控制转向装置220。
速度控制部164及转向控制部166的处理例如通过前馈控制与反馈控制的组合来实现。作为一例,转向控制部166将与本车辆M的前方的道路的曲率相应的前馈控制与基于从目标轨道TR的偏离的反馈控制组合来执行。
行驶驱动力输出装置200将用于车辆行驶的行驶驱动力(转矩)向驱动轮输出。行驶驱动力输出装置200例如具备内燃机、电动机及变速器等的组合、以及控制它们的功率ECU(Electronic Control Unit)。功率ECU按照从第二控制部160输入的信息、或者从驾驶操作件80输入的信息,来控制上述的结构。
制动装置210例如具备制动钳、向制动钳传递液压的液压缸、使液压缸产生液压的电动马达、以及制动ECU。制动ECU按照从第二控制部160输入的信息、或者从驾驶操作件80输入的信息来控制电动马达,以使与制动操作相应的制动转矩向各车轮输出。制动装置210可以具备将通过驾驶操作件80中包括的制动踏板的操作产生的液压经由主液压缸向液压缸传递的机构作为备用。需要说明的是,制动装置210不限于上述说明的结构,也可以是按照从第二控制部160输入的信息来控制致动器将主液压缸的液压向液压缸传递的电子控制式液压制动装置。
转向装置220例如具备转向ECU和电动马达。电动马达例如使力作用于齿条-小齿轮机构来变更转向轮的朝向。转向ECU按照从第二控制部160输入的信息、或者从驾驶操作件80输入的信息,来驱动电动马达,使转向轮的朝向变更。
[处理流程]
以下,使用流程图来说明由第一实施方式的自动驾驶控制装置100进行的一系列处理的流程。图11是表示由第一实施方式的自动驾驶控制装置100进行的一系列处理的流程的一例的流程图。本流程图的处理例如可以以规定的周期反复执行。
首先,识别部130识别本车辆M的周边的环境(步骤S100)。例如,识别部130可以利用环境识别模型MDL1来识别物体的种类、状态。
接着,难易度决定部135基于由识别部130识别到的本车辆M的周边的环境,来决定环境识别难易度(步骤S102)。在此所说的环境例如可以是指市区、郊外、恶劣天气、良好天气、夜间、白天、普通道路、高速道路这样的各种环境。
例如,难易度决定部135在由识别部130识别到的本车辆M的周边的环境为市区的情况下,与由识别部130识别到的本车辆M的周边的环境为郊外的情况相比,提高环境识别难易度。换言之,难易度决定部135在本车辆M正在市区行驶的情况下,与本车辆M正在郊外行驶的情况相比,提高环境识别难易度。
另外,例如,难易度决定部135在由识别部130识别到的本车辆M的周边的环境为恶劣天气的情况下,与由识别部130识别到的本车辆M的周边的环境为良好天气的情况相比,提高环境识别难易度。换言之,难易度决定部135在本车辆M正在恶劣天气中行驶的情况下,与本车辆M正在良好天气中行驶的情况相比,提高环境识别难易度。
另外,例如,难易度决定部135在由识别部130识别到的本车辆M的周边的环境为夜间的情况下,与由识别部130识别到的本车辆M的周边的环境为白天的情况相比,提高环境识别难易度。换言之,难易度决定部135在本车辆M正在夜间行驶的情况下,与本车辆M正在白天行驶的情况相比,提高环境识别难易度。
另外,例如,难易度决定部135在由识别部130识别到的本车辆M的周边的环境为普通道路的情况下,与由识别部130识别到的本车辆M的周边的环境为高速道路的情况相比,提高环境识别难易度。换言之,难易度决定部135在本车辆M正在普通道路上行驶的情况下,与本车辆M正在高速道路上行驶的情况相比,提高环境识别难易度。
另外,难易度决定部135可以根据识别部130识别本车辆M的周边的环境时利用的环境识别模型MDL1的学习量n,来决定环境识别难易度。环境识别模型MDL1的学习量n作为学习量数据186预先存储于存储部180。
图12是表示学习量数据186的一例的图。如图示的例子那样,学习量数据186是种类互不相同的多个环境分别与环境识别模型MDL1的学习量n建立了对应关系的数据。
例如,环境识别模型MDL1使用在某环境A下得到的nA个教示数据反复学习nA次。即,环境识别模型MDL1以当输入环境A下的对象车辆的周围的感测结果时作为该对象车辆的周边的环境而输出表示环境A的信息的方式反复学习了nA次。在该情况下,在学习量数据186中,环境A与学习量nA建立对应关系。
同样地,环境识别模型MDL1使用在某环境B下得到的nB个教示数据反复学习nB次。即,环境识别模型MDL1以当输入环境B下的对象车辆的周围的感测结果时作为该对象车辆的周边的环境而输出表示环境B的信息的方式反复学习nB次。在该情况下,在学习量数据186中,环境B与学习量nB建立对应关系。
例如,难易度决定部135在由识别部130识别到的本车辆M的周边的环境为环境A的情况下,根据在学习量数据186中与环境A建立了对应关系的学习量nA,来决定环境识别难易度。另外,难易度决定部135在由识别部130识别到的本车辆M的周边的环境为环境B的情况下,根据在学习量数据186中与环境B建立了对应关系的学习量nB,来决定环境识别难易度。
可以是,环境识别模型MDL1的学习量n越多,则难易度决定部135越降低环境识别难易度,环境识别模型MDL1的学习量n越少,则难易度决定部135越提高环境识别难易度。由此,例如,在学习量nB比学习量nA少的情况下,与环境A相比,环境B的环境识别难易度高。
另外,难易度决定部135也可以根据由识别部130作为环境的一部分而识别到的本车辆M的周边的移动体(例如其他车辆、行人、自行车等)的数量,来决定环境识别难易度。具体而言,可以是,移动体的数量越少,则难易度决定部135越降低环境识别难易度,移动体的数量越多,则难易度决定部135越提高环境识别难易度。
另外,难易度决定部135也可以根据由识别部130作为环境的一部分而识别到的道路的曲率,来决定环境识别难易度。具体而言,可以是,道路的曲率越小,则难易度决定部135越降低环境识别难易度,道路的曲率越大,则难易度决定部135越提高环境识别难易度。
另外,难易度决定部135也可以根据由识别部130作为环境的一部分而识别到的多个移动体的平均速度与本车辆M之间的相对的速度差,来决定环境识别难易度。例如,识别部130识别到在本车辆M的周边存在3台其他车辆这一情况。在该情况下,难易度决定部135算出3台其他车辆的平均速度,并算出该平均速度与本车辆M之间的速度差。例如,可以是,速度差越小,则难易度决定部135越降低环境识别难易度,速度差越大,则越提高环境识别难易度。由此,在周边的其他车辆比本车辆M显著快或显著慢的情况下,环境识别难易度提高,在本车辆M与周边的其他车辆之间的速度为同等程度的情况下,环境识别难易度降低。
另外,难易度决定部135也可以根据本车辆M的速度(绝对速度)来决定环境识别难易度。具体而言,可以是,本车辆M的速度越大,则难易度决定部135越降低环境识别难易度,本车辆M的速度越小,则难易度决定部135越提高环境识别难易度。
图13是表示某第一时刻t1的场景的一例的图。图14是表示第二时刻t2的场景的一例的图。在图13及图14所例示的场景中,存在m1~m3这3台其他车辆。
在第一时刻t1,本车辆M的速度为vM(t1),其他车辆m1的速度为vm1(t1),其他车辆m2的速度为vm2(t1),其他车辆m3的速度为vm3(t1)。另外,相对于本车辆M而言的先行车辆即其他车辆m2与本车辆M之间的车间距离为D(t1)。
另一方面,在第二时刻t2,本车辆M的速度是比第一时刻t1的速度vM(t1)大的vM(t2)。其他车辆m1的速度是比第一时刻t1的速度vm1(t1)大的vm1(t2)。其他车辆m2的速度是比第一时刻t1的速度vm2(t1)大的vm2(t2)。其他车辆m3的速度是比第一时刻t1的速度vm3(t1)大的vm3(t2)。在这样的速度条件下,在第二时刻t2的其他车辆m2与本车辆M之间的车间距离D(t2)容易变得比第一时刻t1时的车间距离D(t1)长。
通常,本车辆M的速度越大,则本车辆M的周边的其他车辆的速度也越大,考虑安全性这些车辆的车间距离必然地容易变宽。这意味着在风险区域R内存在的移动体的数量变少。即,本车辆M的速度越大,则风险区域算出部144算出潜在风险值p的对象的物体的数量越少。在图13的场景中,潜在风险值p的算出对象为m1~m3这3台其他车辆,但是在本车辆M的速度比图13的场景大的图14的场景中,潜在风险值p的算出对象仅为其他车辆m1这1台。
作为潜在风险值p的算出对象的物体的数量越少,则本车辆M的周边的交通状况越单纯化,因此越容易与由基于规则的模型MDL2-1规定的规则组吻合,由基于规则的模型MDL2-1输出的目标轨道TR成为与本车辆M的周边环境更为相适的精度高的轨道。
难易度决定部135也可以求取基于上述的各种的要素而决定的环境识别难易度的加权和(线性和)。例如,难易度决定部135可以将(1)与市区或郊外相应的难易度、(2)与恶劣天气或良好天气相应的难易度、(3)与夜间或白天相应的难易度、(4)与普通道路或高速道路相应的难易度、(5)与环境识别模型MDL1的学习量n相应的难易度、(6)与本车辆M的周边的移动体的数量相应的难易度、(7)与多个移动体的平均速度和本车辆M之间的相对的速度差相应的难易度、(8)与本车辆M的速度相应的难易度这样的共计8种类的难易度的加权和作为最终的环境识别难易度。
返回图11的流程图的说明。接着,风险区域算出部144基于由识别部130作为环境的一部分而识别出的物体的种类、状态,来算出风险区域RA(步骤S104)。
例如,风险区域算出部144将以本车辆M为基准的预先决定的范围内分割为多个网格,并关于该多个网格分别算出潜在风险值p。而且,风险区域算出部144算出各网格与潜在风险值p建立了对应关系的向量或张量作为风险区域RA。此时,风险区域算出部144将潜在风险值p归一化。
接着,目标轨道生成部146对基于规则的模型MDL2-1和DNN模型MDL2-2分别输入由风险区域算出部144算出的风险区域RA,并基于输入了该风险区域RA的各模型MDL的输出结果,来生成多个目标轨道TR(步骤S106)。
接着,目标轨道生成部146根据由难易度决定部135决定的环境识别难易度,从多个目标轨道TR中选择任一个目标轨道TR(步骤S108)。
例如,环境识别难易度由0到1的数值范围表示,越接近0则难易度越低,越接近1则难易度越高。在该情况下,目标轨道生成部146在环境识别难易度为规定值以下的情况(容易进行环境识别的情况)下,从多个目标轨道TR中选择由基于规则的模型MDL2-1输出的目标轨道TR(以下称作第一目标轨道TR1)。另一方面,目标轨道生成部146在环境识别难易度超过规定值的情况(不易进行环境识别的情况)下,从多个目标轨道TR中选择由DNN模型MDL2-2输出的目标轨道TR(以下称作第二目标轨道TR2)。规定值例如可以是0.5左右。
由此,在环境识别难易度低而本车辆M的周边的交通状况比较单纯的情况下,容易选择第一目标轨道TR1,在环境识别难易度高而本车辆M的周边的交通状况复杂的情况下,容易选择第二目标轨道TR2。
目标轨道生成部146当从多个目标轨道TR中选择第一目标轨道TR1及第二目标轨道TR2中的任一目标轨道时,将该选择出的目标轨道TR向第二控制部160输出。接受到该情况,第二控制部160基于由目标轨道生成部146输出的目标轨道TR,来控制本车辆M的速度及转向中的至少一方(步骤S110)。由此本流程图的处理结束。
根据以上说明的第一实施方式,自动驾驶控制装置100利用预先学习了的环境识别模型MDL1来识别本车辆M的周边的环境。自动驾驶控制装置100基于识别到的本车辆M的周边的环境来决定环境识别难易度。另外,自动驾驶控制装置100基于识别到的本车辆M的周边的环境,利用基于规则的模型MDL2-1及DNN模型MDL2-2这双方的模型来生成多个目标轨道TR。自动驾驶控制装置100根据环境识别难易度,来从多个目标轨道TR中选择任一个目标轨道TR。而且,自动驾驶控制装置100基于选择出的目标轨道TR来自动地控制本车辆M的驾驶。由此,能够顺畅地控制本车辆M的驾驶。
<第二实施方式>
以下,说明第二实施方式。在第二实施方式中,若本车辆M为紧急状态,则无论环境识别难易度如何都选择第一目标轨道TR1,在这点上与上述的第一实施方式不同。以下,以与第一实施方式的不同点为中心进行说明,关于与第一实施方式共用的点省略说明。需要说明的是,在第二实施方式的说明中,关于与第一实施方式相同的部分标注同一附图标记进行说明。
第二实施方式的难易度决定部135除了决定环境识别难易度之外还进一步判定本车辆M是否为紧急状态。紧急状态例如是指应该躲避的风险正迫近本车辆M这样的状态。具体而言,紧急状态是行人、自行车向车道蹿出了的状态、先行车辆进行了急减速的状态等。
例如,难易度决定部135可以基于由识别部130作为环境的一部分而识别到的移动体(行人、先行车辆等)与本车辆M之间的TTC,来判定本车辆M是否为紧急状态。TTC是将移动体与本车辆M之间的相对距离除以移动体与本车辆M之间的相对速度而得到的。例如,难易度决定部135可以在TTC为阈值TTh以上的情况下,判定为本车辆M未处于紧急状态,在TTC小于阈值TTh的情况下,判定为本车辆M处于紧急状态。
图15是表示本车辆M可能遭遇的场景的一例的图。图中P1表示行人,V1表示行人P1的移动方向。在图示的场景中,行人P1与本车辆M之间的TTCM-P1为阈值TTh以上。在该情况下,难易度决定部135判定为本车辆M未处于紧急状态。
另一方面,在图示的场景中,接近行人P1的区域的潜在风险值p小于阈值Th。在这样的情况下,基于规则的模型MDL2-1按照靠左行驶(keep left)这样的规则,输出在由车道外侧线LN1及LN2划分出的车道上通过比车道中央靠左的区域的轨道作为第一目标轨道TR1。DNN模型MDL2-2学习驾驶员的手动驾驶的倾向,因此与第一目标轨道TR1同样地,容易输出通过比车道中央靠左的区域的轨道作为第二目标轨道TR2。
在图示的场景中,判定为本车辆M未处于紧急状态。在该情况下,第二实施方式的目标轨道生成部146根据环境识别难易度,来选择第一目标轨道TR1及第二目标轨道TR2中的任一目标轨道。在图示的场景中,道路的曲率大,因此环境识别难易度高。因此,选择第二目标轨道TR2,并基于该第二目标轨道TR2控制本车辆M的驾驶。
图16是表示本车辆M可能遭遇的场景的另一例的图。在图16的场景中,与图15的场景相比,行人P1接近车道,存在蹿出的风险,因此行人P1与本车辆M之间的TTCM-P1小于阈值TTh。在该情况下,难易度决定部135判定为本车辆M处于紧急状态。
另一方面,在图示的场景中,接近行人P1的区域的潜在风险值p为阈值Th以上。在这样的情况下,基于规则的模型MDL2-1按照将相对于障碍物的相对距离维持为一定以上这样的规则,输出通过比车道中央靠右的区域的轨道作为第一目标轨道TR1。DNN模型MDL2-2学习躲避障碍物这样的驾驶员的手动驾驶的倾向,因此与第一目标轨道TR1同样地,容易输出通过比车道中央靠右的区域的轨道(潜在风险值p较低的区域)作为第二目标轨道TR2。
在图示的场景中,判定为本车辆M处于紧急状态。在该情况下,第二实施方式的目标轨道生成部146无论环境识别难易度如何都选择能够期待更安全的驾驶控制的第一目标轨道TR1。由此,以躲避行人P1的方式控制本车辆M的驾驶,因此能够更安全地控制本车辆M的驾驶。
根据以上说明的第二实施方式,自动驾驶控制装置100判定本车辆M是否处于紧急状态,在判定为本车辆M处于紧急状态的情况下,无论环境识别难易度如何都选择第一目标轨道TR1,并基于该第一目标轨道TR1,以躲避行人等移动体的方式控制本车辆M的驾驶。由此,能够更安全地控制本车辆M的驾驶。
<其他的实施方式(变形例)>
以下,说明其他的实施方式(变形例)。在上述的第一实施方式或第二实施方式中说明了目标轨道生成部146对基于规则的模型MDL2-1和DNN模型MDL2-2分别输入由风险区域算出部144算出的风险区域RA,并基于输入了该风险区域RA的各模型MDL的输出结果来生成多个目标轨道TR的情况,但并不限定于此。
例如,目标轨道生成部146也可以代替使用基于规则的模型MDL2-1,或者除此之外还使用基于模型或基于称作基于模型的设计的方法做出的模型(以下称作基于模型的模型),来生成目标轨道TR。基于模型的模型是通过利用模型预测控制(Model PredictiveControl;MPC)等最优化方法并根据风险区域RA来决定(或输出)目标轨道TR的模型。基于模型的模型是“第一模型”的另一例。
另外,例如,目标轨道生成部146也可以代替使用DNN模型MDL2-2,或者除此之外还使用二叉树型的模型、博弈树型的模型、使低层神经网络如波茨曼机这样相互耦合而得到的模型、强化学习模型、深度强化学习模型这样的基于其他的机器学习而得到的模型,来生成目标轨道TR。二叉树型的模型、博弈树型的模型、使低层神经网络如波茨曼机这样相互耦合而得到的模型、强化学习模型、深度强化学习模型等是“第二模型”的另一例。
[硬件结构]
图17是表示实施方式的自动驾驶控制装置100的硬件结构的一例的图。如图所示,自动驾驶控制装置100成为通信控制器100-1、CPU100-2、作为工作存储器使用的RAM100-3、保存引导程序等的ROM100-4、闪存器、HDD等存储装置100-5、驱动装置100-6等通过内部总线或者专用通信线相互连接而成的结构。通信控制器100-1进行与自动驾驶控制装置100以外的构成要素之间的通信。在存储装置100-5中保存有CPU100-2执行的程序100-5a。该程序通过DMA(Direct Memory Access)控制器(未图示)等向RAM100-3展开,并由CPU100-2执行。由此,实现第一控制部及第二控制部160中的一部分或全部。
上述说明的实施方式能够如以下这样表现。
一种车辆控制装置,其构成为具备:
保存有程序的至少一个以上的存储器;以及
至少一个以上的处理器,
所述处理器通过执行所述程序来进行如下处理:
识别车辆的周边的环境;
基于所述识别的环境,来决定所述环境的识别的难易度;
基于所述识别的环境来生成所述车辆应该行驶的多个目标轨道,并根据所述决定的难易度来从所述生成的多个目标轨道中选择任一个目标轨道;以及
基于所述选择的目标轨道,来自动地控制所述车辆的驾驶。
以上使用实施方式说明了本发明的具体实施方式,但本发明丝毫不被这样的实施方式限定,在不脱离本发明的主旨的范围内能够施加各种变形及替换。

Claims (19)

1.一种车辆控制装置,其中,
所述车辆控制装置具备:
识别部,其识别车辆的周边的环境;
决定部,其基于由所述识别部识别到的所述环境,来决定所述环境的识别的难易度;
生成部,其基于由所述识别部识别到的所述环境来生成所述车辆应该行驶的多个目标轨道,并根据由所述决定部决定的所述难易度来从所述生成的多个目标轨道中选择任一个目标轨道;以及
驾驶控制部,其基于由所述生成部选择出的所述目标轨道,来自动地控制所述车辆的驾驶。
2.根据权利要求1所述的车辆控制装置,其中,
所述车辆控制装置还具备算出部,该算出部算出在由所述识别部作为所述环境的一部分而识别到的物体的周围分布的风险的区域,
所述生成部对当输入所述区域时输出所述目标轨道的多个模型分别输入由所述算出部算出的所述区域,并基于输入了所述区域的所述多个模型各自的输出结果,来生成所述多个目标轨道。
3.根据权利要求2所述的车辆控制装置,其中,
所述多个模型包括第一模型和第二模型,所述第一模型是基于规则或基于模型的模型,所述第二模型是基于机器学习的模型。
4.根据权利要求3所述的车辆控制装置,其中,
所述生成部在所述难易度超出规定值的情况下,选择由所述第一模型输出的所述目标轨道即第一目标轨道、以及由所述第二模型输出的所述目标轨道即第二目标轨道中的所述第二目标轨道。
5.根据权利要求1至4中任一项所述的车辆控制装置,其中,
所述车辆控制装置还具备感测所述车辆的周围的传感器,
所述识别部对于以当输入某对象车辆的周围的感测结果时输出表示所述对象车辆的周边的环境的信息的方式进行了学习的基于机器学习的第三模型,输入由所述传感器感测的感测结果,并基于输入了所述感测结果的所述第三模型的输出结果,来识别所述车辆的周边的环境。
6.根据权利要求5所述的车辆控制装置,其中,
所述决定部根据所述第三模型的学习量,来决定所述难易度。
7.根据权利要求6所述的车辆控制装置,其中,
所述第三模型以当输入某第一环境下的所述对象车辆的周围的感测结果时输出表示所述对象车辆的周边的环境为所述第一环境的信息的方式进行学习,并以当输入与所述第一环境不同的第二环境下的所述对象车辆的周围的感测结果时输出表示所述对象车辆的周边的环境为所述第二环境的信息的方式进行学习,
所述决定部在由所述识别部识别到所述第一环境的情况下,根据在所述第一环境下学习了的所述第三模型的学习量,来决定所述难易度,在由所述识别部识别到所述第二环境的情况下,根据在所述第二环境下学习了的所述第三模型的学习量,来决定所述难易度。
8.根据权利要求6或7所述的车辆控制装置,其中,
所述第三模型的学习量越多,则所述决定部越降低所述难易度,所述第三模型的学习量越少,则所述决定部越提高所述难易度。
9.根据权利要求1~4、6、7中任一项所述的车辆控制装置,其中,
所述决定部根据由所述识别部作为所述环境的一部分而识别到的移动体的数量,来决定所述难易度。
10.根据权利要求9所述的车辆控制装置,其中,
所述移动体的数量越少,则所述决定部越降低所述难易度,所述移动体的数量越多,则所述决定部越提高所述难易度。
11.根据权利要求1~4、6、7、10中任一项所述的车辆控制装置,其中,
所述决定部根据由所述识别部作为所述环境的一部分而识别到的道路的曲率,来决定所述难易度。
12.根据权利要求11所述的车辆控制装置,其中,
所述道路的曲率越小,则所述决定部越降低所述难易度,所述道路的曲率越大,则所述决定部越提高所述难易度。
13.根据权利要求1~4、6、7、10、12中任一项所述的车辆控制装置,其中,
所述决定部根据由所述识别部作为所述环境的一部分而识别到的多个移动体的平均速度与所述车辆的速度之间的相对的速度差,来决定所述难易度。
14.根据权利要求13所述的车辆控制装置,其中,
所述速度差越小,则所述决定部越降低所述难易度,所述速度差越大,则所述决定部越提高所述难易度。
15.根据权利要求1~4、6、7、10、12、14中任一项所述的车辆控制装置,其中,
所述决定部根据所述车辆的速度,来决定所述难易度。
16.根据权利要求15所述的车辆控制装置,其中,
所述速度越大,则所述决定部越降低所述难易度,所述速度越小,则所述决定部越提高所述难易度。
17.根据权利要求4所述的车辆控制装置,其中,
所述决定部基于由所述识别部作为所述环境的一部分而识别到的移动体与所述车辆之间的相对距离及相对速度,来判定所述车辆是否处于紧急状态,
所述生成部在由所述决定部判定为所述车辆处于紧急状态的情况下,无论所述难易度如何都选择所述第一目标轨道,
所述驾驶控制部基于由所述生成部选择出的所述第一目标轨道,控制所述车辆的驾驶以躲避所述移动体。
18.一种车辆控制方法,其中,
所述车辆控制方法使搭载于车辆的计算机执行如下处理:
识别所述车辆的周边的环境;
基于所述识别的环境,来决定所述环境的识别的难易度;
基于所述识别的环境来生成所述车辆应该行驶的多个目标轨道,并根据所述决定的难易度来从所述生成的多个目标轨道中选择任一个目标轨道;以及
基于所述选择的目标轨道,来自动地控制所述车辆的驾驶。
19.一种存储介质,其是存储有程序的计算机可读取的存储介质,其中,
所述程序用于使搭载于车辆的计算机执行如下处理:
识别所述车辆的周边的环境;
基于所述识别的环境,来决定所述环境的识别的难易度;
基于所述识别的环境来生成所述车辆应该行驶的多个目标轨道,并根据所述决定的难易度来从所述生成的多个目标轨道中选择任一个目标轨道;以及
基于所述选择的目标轨道,来自动地控制所述车辆的驾驶。
CN202110337089.0A 2020-03-31 2021-03-29 车辆控制装置、车辆控制方法及存储介质 Pending CN113460080A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-063515 2020-03-31
JP2020063515A JP7369078B2 (ja) 2020-03-31 2020-03-31 車両制御装置、車両制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
CN113460080A true CN113460080A (zh) 2021-10-01

Family

ID=77855369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110337089.0A Pending CN113460080A (zh) 2020-03-31 2021-03-29 车辆控制装置、车辆控制方法及存储介质

Country Status (3)

Country Link
US (1) US20210300414A1 (zh)
JP (1) JP7369078B2 (zh)
CN (1) CN113460080A (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113506470A (zh) * 2020-03-24 2021-10-15 深圳市超捷通讯有限公司 超车辅助方法、车载装置及可读存储介质
WO2024081190A1 (en) * 2022-10-14 2024-04-18 Motional Ad Llc Ensemble-based vehicle motion planner

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018193039A (ja) * 2017-05-22 2018-12-06 本田技研工業株式会社 車両制御装置
CN108974009A (zh) * 2017-06-02 2018-12-11 百度(美国)有限责任公司 用于自动驾驶控制的方法、介质和系统
US20190139415A1 (en) * 2017-11-06 2019-05-09 Toyota Jidosha Kabushiki Kaisha Autonomous driving device
WO2019086518A1 (de) * 2017-11-03 2019-05-09 Volkswagen Aktiengesellschaft Fahrerassistenzsystem für ein zumindest teilweise automatisch fahrendes kraftfahrzeug, kraftfahrzeug und verfahren zum regeln einer fahrdynamik
US20190294167A1 (en) * 2016-08-02 2019-09-26 Pcms Holdings, Inc. System and method for optimizing autonomous vehicle capabilities in route planning

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5286214B2 (ja) 2009-09-30 2013-09-11 日立オートモティブシステムズ株式会社 車両制御装置
JP5663942B2 (ja) 2010-05-11 2015-02-04 トヨタ自動車株式会社 走行軌道作成装置
WO2013042260A1 (ja) 2011-09-22 2013-03-28 トヨタ自動車株式会社 運転支援装置
JP6270227B2 (ja) 2016-03-14 2018-01-31 本田技研工業株式会社 車両制御装置、車両制御方法、および車両制御プログラム
CN110087960B (zh) * 2016-12-21 2022-06-17 本田技研工业株式会社 车辆控制系统、车辆控制方法及存储介质
US20180373992A1 (en) * 2017-06-26 2018-12-27 Futurewei Technologies, Inc. System and methods for object filtering and uniform representation for autonomous systems
JP6651486B2 (ja) 2017-09-01 2020-02-19 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
KR102485268B1 (ko) * 2017-11-03 2023-01-06 현대자동차주식회사 차량 및 그 제어방법
JP7087623B2 (ja) * 2018-04-19 2022-06-21 トヨタ自動車株式会社 車両の制御装置
US11604464B2 (en) * 2018-10-30 2023-03-14 Here Global B.V. Virtual valet
US20200209857A1 (en) * 2018-12-31 2020-07-02 Uber Technologies, Inc. Multimodal control system for self driving vehicle
WO2020184281A1 (ja) * 2019-03-08 2020-09-17 マツダ株式会社 自動車用演算装置
JP2020158048A (ja) * 2019-03-28 2020-10-01 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
WO2020246637A1 (ko) * 2019-06-05 2020-12-10 엘지전자 주식회사 자율 주행 차량 제어 방법
US11433922B1 (en) * 2019-12-20 2022-09-06 Zoox, Inc. Object uncertainty detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190294167A1 (en) * 2016-08-02 2019-09-26 Pcms Holdings, Inc. System and method for optimizing autonomous vehicle capabilities in route planning
JP2018193039A (ja) * 2017-05-22 2018-12-06 本田技研工業株式会社 車両制御装置
CN108974009A (zh) * 2017-06-02 2018-12-11 百度(美国)有限责任公司 用于自动驾驶控制的方法、介质和系统
WO2019086518A1 (de) * 2017-11-03 2019-05-09 Volkswagen Aktiengesellschaft Fahrerassistenzsystem für ein zumindest teilweise automatisch fahrendes kraftfahrzeug, kraftfahrzeug und verfahren zum regeln einer fahrdynamik
US20190139415A1 (en) * 2017-11-06 2019-05-09 Toyota Jidosha Kabushiki Kaisha Autonomous driving device

Also Published As

Publication number Publication date
JP2021160532A (ja) 2021-10-11
JP7369078B2 (ja) 2023-10-25
US20210300414A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
CN113460081B (zh) 车辆控制装置、车辆控制方法及存储介质
CN110053617B (zh) 车辆控制装置、车辆控制方法及存储介质
CN111819124A (zh) 车辆控制装置、车辆控制方法及程序
CN113460077B (zh) 移动体控制装置、移动体控制方法及存储介质
CN110271542B (zh) 车辆控制装置、车辆控制方法及存储介质
JP7199150B2 (ja) 車両制御装置、車両制御方法、及びプログラム
JP7313298B2 (ja) 車両制御装置、車両制御方法、およびプログラム
CN112208532B (zh) 车辆控制装置、车辆控制方法及存储介质
JP7000202B2 (ja) 車両制御システム、車両制御方法、およびプログラム
US20190283740A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2019185112A (ja) 車両制御装置、車両制御方法、およびプログラム
CN113460080A (zh) 车辆控制装置、车辆控制方法及存储介质
US20210300350A1 (en) Vehicle control device, vehicle control method, and storing medium
CN110341703B (zh) 车辆控制装置、车辆控制方法及存储介质
CN113525413B (zh) 车辆控制装置、车辆控制方法及存储介质
CN113460079B (zh) 车辆控制装置、车辆控制方法及存储介质
JP7503921B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7166988B2 (ja) 車両制御装置、車両制御方法、およびプログラム
CN114506316A (zh) 车辆控制装置、车辆控制方法以及存储介质
US12024194B2 (en) Vehicle control method, vehicle control device, and storage medium
JP7429555B2 (ja) 車両制御装置、車両制御方法、およびプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination