CN113460081B - 车辆控制装置、车辆控制方法及存储介质 - Google Patents

车辆控制装置、车辆控制方法及存储介质 Download PDF

Info

Publication number
CN113460081B
CN113460081B CN202110337193.XA CN202110337193A CN113460081B CN 113460081 B CN113460081 B CN 113460081B CN 202110337193 A CN202110337193 A CN 202110337193A CN 113460081 B CN113460081 B CN 113460081B
Authority
CN
China
Prior art keywords
model
vehicle
region
risk
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110337193.XA
Other languages
English (en)
Other versions
CN113460081A (zh
Inventor
安井裕司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of CN113460081A publication Critical patent/CN113460081A/zh
Application granted granted Critical
Publication of CN113460081B publication Critical patent/CN113460081B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0095Automatic control mode change
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • B60W2710/207Steering angle of wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Ophthalmology & Optometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

提供能通过生成与周边的状况相适合的目标轨道来顺畅地控制车辆的驾驶的车辆控制装置、车辆控制方法及存储介质。车辆控制装置具备:识别部,其识别存在于车辆的周边的物体;算出部,其算出在所述物体的周围分布的风险的区域;生成部,其基于所述区域来生成所述车辆应该行驶的目标轨道;以及驾驶控制部,其基于所述目标轨道来自动地控制所述车辆的速度及转向中的至少一方,所述生成部从当输入所述区域时输出所述目标轨道的多个模型中选择任一个或多个模型,且向所述选择出的模型输入由所述算出部算出的所述区域,并基于输入了所述区域的所述模型的输出结果来生成所述目标轨道,所述算出部根据由所述生成部选择出的模型的种类来变更所述区域的范围。

Description

车辆控制装置、车辆控制方法及存储介质
技术领域
本发明涉及车辆控制装置、车辆控制方法及存储介质。
背景技术
已知一种生成车辆将来应该行驶的目标轨道的技术(例如参照日本特开2019-108124号)。
发明内容
然而,在以往的技术中,有时生成车辆卡住(stuck)这样的与周边的状况不适合的目标轨道。其结果是,有时不能顺畅地控制车辆的驾驶。
本发明的方案是考虑这样的情况而完成的,其目的之一在于提供一种能够通过生成与周边的状况相适合的目标轨道来顺畅地控制车辆的驾驶的车辆控制装置、车辆控制方法及存储介质。
为了解决上述课题而达到所涉及的目的,本发明采用了以下的方案。
本发明的第一方案是一种车辆控制装置,其中,所述车辆控制装置具备:识别部,其识别存在于车辆的周边的物体;算出部,其算出在由所述识别部识别出的所述物体的周围分布的风险的区域;生成部,其基于由所述算出部算出的所述区域,来生成所述车辆应该行驶的目标轨道;以及驾驶控制部,其基于由所述生成部生成的所述目标轨道,来自动地控制所述车辆的速度及转向中的至少一方,所述生成部从当输入所述区域时输出所述目标轨道的多个模型中选择任一个或多个模型,且向所述选择出的模型输入由所述算出部算出的所述区域,并基于输入了所述区域的所述模型的输出结果来生成所述目标轨道,所述算出部根据由所述生成部选择的模型的种类,来变更所述区域的范围。
第二方案在第一方案的基础上,也可以是,所述多个模型包括至少一个第一模型、以及至少一个第二模型,所述第一模型是基于规则或基于模型的模型,所述第二模型基于机器学习的模型。
第三方案在第二方案的基础上,也可以是,所述算出部在由所述生成部选择的模型为所述第一模型的情况下,与由所述生成部选择的模型为所述第二模型的情况相比,扩大所述区域的范围。
第四方案在第三方案的基础上,也可以是,所述生成部根据所述车辆行驶的道路的种类,来从所述多个模型中选择任一模型。
第五方案在第四方案的基础上,也可以是,在所述车辆在高速道路上行驶的情况下,所述生成部选择所述第一模型,在所述车辆在与高速道路相比周围的状况复杂的其他道路上行驶的情况下,所述生成部选择所述第二模型。
第六方案在第三方案或第四方案的基础上,也可以是,所述生成部根据由所述驾驶控制部自动地控制所述车辆的速度及转向中的至少一方时的自动化的等级,来从所述多个模型中选择任一模型。
第七方案在第六方案的基础上,也可以是,在所述等级为基准值以上的情况下,所述生成部选择所述第一模型,在所述等级小于基准值的情况下,所述生成部选择所述第二模型。
第八方案在第一方案至第七方案中的任一方案中,也可以是,所述生成部对所述多个模型分别输入所述区域,且基于输入了所述区域的所述多个模型各自的输出结果来生成多个目标轨道,并从所述生成的多个目标轨道中选择与人驾驶了所述车辆或其他车辆时的轨道最接近的所述目标轨道,所述驾驶控制部基于由所述生成部选择的所述目标轨道,来控制所述车辆的速度及转向中的至少一方。
第九方案在第一方案至第八方案中的任一方案中,也可以是,所述区域是由多个网格划分出的区域,基于所述车辆及所述物体中的至少一方的状态而算出的所述风险的潜在风险值与所述多个网格分别建立了对应关系,与所述多个网格分别建立了对应关系的所述潜在风险值基于所述区域中包含的全部的网格的潜在风险值而归一化,所述生成部生成通过所述归一化后的潜在风险值比阈值低的所述网格的轨道作为所述目标轨道。
第十方案是一种车辆控制方法,其中,所述车辆控制方法使搭载于车辆的计算机执行如下处理:识别存在于所述车辆的周边的物体;算出在所述识别的物体的周围分布的风险的区域;基于所述算出的区域,来生成所述车辆应该行驶的目标轨道;基于所述生成的目标轨道,来控制所述车辆的速度及转向中的至少一方;从当输入所述区域时输出所述目标轨道的多个模型中选择任一个或多个模型,且向所述选择出的模型输入所述算出的区域,并基于输入了所述区域的所述模型的输出结果来生成所述目标轨道;以及根据所述选择出的模型的种类,来变更所述区域的范围。
第十一方案是一种存储介质,其是存储有程序的能够由计算机读取的非暂时性的存储介质,其中,所述程序用于使搭载于车辆的计算机执行如下处理:识别存在于所述车辆的周边的物体;算出在所述识别的物体的周围分布的风险的区域;基于所述算出的区域,来生成所述车辆应该行驶的目标轨道;基于所述生成的目标轨道,来控制所述车辆的速度及转向中的至少一方;从当输入所述区域时输出所述目标轨道的多个模型中选择任一个或多个模型,且向所述选择出的模型输入所述算出的区域,并基于输入了所述区域的所述模型的输出结果来生成所述目标轨道;以及根据所述选择出的模型的种类,来变更所述区域的范围。
根据上述的任一方案,能够通过生成与周边的状况相适合的目标轨道来顺畅地控制车辆的驾驶。
附图说明
图1是利用了第一实施方式的车辆控制装置的车辆系统的结构图。
图2是第一实施方式的第一控制部、第二控制部、第三控制部及存储部的功能结构图。
图3是用于说明风险区域的图。
图4是表示某坐标x1处的Y方向上的潜在风险值的变化的图。
图5是表示某坐标x2处的Y方向上的潜在风险值的变化的图。
图6是表示某坐标x3处的Y方向上的潜在风险值的变化的图。
图7是表示某坐标y4处的X方向上的潜在风险值的变化的图。
图8是表示决定了潜在风险值的风险区域的图。
图9是示意性地表示目标轨道的生成方法的图。
图10是表示模型所输出的目标轨道的一例的图。
图11是表示由第一实施方式的自动驾驶控制装置进行一系列处理的流程的一例的流程图。
图12是表示交通状况复杂的场景的一例的图。
图13是表示图12中的坐标x4的潜在风险值的变化的图。
图14是表示在图12所例示的场景中模型输出的目标轨道的一例的图。
图15是表示交通状况复杂的场景的另一例的图。
图16是表示图15中的坐标x4处的潜在风险值的变化的图。
图17是表示在图15所例示的场景中模型输出的目标轨道的一例的图。
图18是表示由第二实施方式的自动驾驶控制装置进行的一系列处理的流程的一例的流程图。
图19是表示实施方式的自动驾驶控制装置的硬件结构的一例的图。
具体实施方式
以下,参照附图来说明本发明的车辆控制装置、车辆控制方法及存储介质的实施方式。实施方式的车辆控制装置例如适用于自动驾驶车辆。自动驾驶例如是指控制车辆的速度及转向中的一方或双方来控制车辆的驾驶。在上述的车辆的驾驶控制中,例如包括ACC(Adaptive Cruise Control System)、TJP(Traffic Jam Pilot)、ALC(Auto LaneChanging)、CMBS(Collision Mitigation Brake System)、LKAS(Lane KeepingAssistance System)这样的各种的驾驶控制。自动驾驶车辆也可以通过乘员(驾驶员)的手动驾驶来控制驾驶。
<第一实施方式>
[整体结构]
图1是利用了第一实施方式的车辆控制装置的车辆系统1的结构图。搭载车辆系统1的车辆(以下称作本车辆M)例如是二轮、三轮、四轮等的车辆,其驱动源是柴油发动机、汽油发动机等内燃机、电动机、或者它们的组合。电动机使用由与内燃机连结的发电机发出的发电电力、或者二次电池、燃料电池的放电电力来进行动作。
车辆系统1例如具备相机10、雷达装置12、LIDAR(Light Detection and Ranging)14、物体识别装置16、通信装置20、HMI(Human Machine Interface)30、车辆传感器40、导航装置50、MPU(Map Positioning Unit)60、驾驶操作件80、车内相机90、自动驾驶控制装置100、行驶驱动力输出装置200、制动装置210及转向装置220。这些装置、设备通过CAN(Controller Area Network)通信线等多路通信线、串行通信线、无线通信网等互相连接。图1所示的结构只不过是一例,既可以省略结构的一部分,也可以还追加别的结构。自动驾驶控制装置100是“车辆控制装置”的一例。
相机10例如是利用了CCD(Charge Coupled Device)、CMOS(Complementary MetalOxide Semiconductor)等固体摄像元件的数码相机。相机10安装于本车辆M的任意部位。例如,在对本车辆M的前方进行拍摄的情况下,相机10安装于前风窗玻璃上部、车室内后视镜背面等。在对本车辆M的后方进行拍摄的情况下,相机10安装于后风窗玻璃上部等。在对本车辆M的右侧方或左侧方进行拍摄的情况下,相机10安装于车身、车门上后视镜的右侧面或左侧面等。相机10例如周期性地反复对本车辆M的周边进行拍摄。相机10也可以是立体相机。
雷达装置12向本车辆M的周边放射毫米波等电波,并且检测由物体反射的电波(反射波)来至少检测物体的位置(距离及方位)。雷达装置12安装于本车辆M的任意部位。雷达装置12也可以通过FM-CW(Frequency Modulated Continuous Wave)方式来检测物体的位置及速度。
LIDAR14向本车辆M的周边照射光,并测定该照射的光的散射光。LIDAR14基于从发光到受光的时间,来检测到对象为止的距离。照射的光例如可以是脉冲状的激光。LIDAR14安装于本车辆M的任意部位。
物体识别装置16对由相机10、雷达装置12及LIDAR14中的一部分或全部检测的检测结果进行传感器融合处理,来识别物体的位置、种类、速度等。物体识别装置16将识别结果向自动驾驶控制装置100输出。物体识别装置16可以将相机10、雷达装置12及LIDAR14的检测结果直接向自动驾驶控制装置100输出。在该情况下,也可以从车辆系统1中省略物体识别装置16。
通信装置20例如利用蜂窝网、Wi-Fi网、Bluetooth(注册商标)、DSRC(DedicatedShort Range Communication)等与存在于本车辆M的周边的其他车辆通信、或者经由无线基站与各种服务器装置通信。
HMI30对本车辆M的乘员(包括驾驶员)提示各种信息,并且接受由乘员进行的输入操作。HMI30例如可以具备显示器、扬声器、蜂鸣器、触摸面板、麦克风、开关、按键等。
车辆传感器40包括检测本车辆M的速度的车速传感器、检测加速度的加速度传感器、检测绕铅垂轴的角速度的横摆角速度传感器、检测本车辆M的朝向的方位传感器等。
导航装置50例如具备GNSS(Global Navigation Satellite System)接收机51、导航HMI52及路径决定部53。导航装置50在HDD(Hard Disk Drive)、闪存器等存储装置中保持有第一地图信息54。
GNSS接收机51基于从GNSS卫星接收的信号来确定本车辆M的位置。本车辆M的位置也可以通过利用了车辆传感器40的输出的INS(Inertial Navigation System)来确定或补充。
导航HMI52包括显示装置、扬声器、触摸面板、按键等。导航HMI52也可以一部分或全部与前述的HMI30共用化。例如,乘员也可以代替对HMI30输入本车辆M的目的地而对导航HMI52输入本车辆M的目的地,或者除了对HMI30输入本车辆M的目的地之外还对导航HMI52输入本车辆M的目的地。
路径决定部53例如参照第一地图信息54来决定从由GNSS接收机51确定的本车辆M的位置(或者输入的任意的位置)到由乘员使用HM30、导航HMI52输入的目的地的路径(以下称作地图上路径)。
第一地图信息54例如是通过表示道路的路段和由路段连接的节点来表现道路形状的信息。第一地图信息54也可以包括道路的曲率、POI(Point OfInterest)信息等。地图上路径向MPU60输出。
导航装置50也可以基于地图上路径来进行使用了导航HMI52的路径引导。导航装置50例如也可以由乘员持有的智能手机、平板终端等终端装置的功能来实现。导航装置50也可以经由通信装置20向导航服务器发送当前位置和目的地,并从导航服务器取得与地图上路径同等的路径。
MPU60例如包括推荐车道决定部61,并在HDD、闪存器等存储装置中保持有第二地图信息62。推荐车道决定部61将从导航装置50提供的地图上路径分割为多个区块(例如,在车辆行进方向上按每100[m]进行分割),并参照第二地图信息62按每个区块来决定推荐车道。推荐车道决定部61进行在从左数第几车道上行驶这一决定。推荐车道决定部61在地图上路径存在分支部位的情况下,以使本车辆M能够在用于向分支目的地行进的合理的路径上行驶的方式决定推荐车道。
第二地图信息62是比第一地图信息54高精度的地图信息。第二地图信息62例如包括车道的中央的信息或者车道的边界的信息等。在第二地图信息62中,可以包括道路信息、交通限制信息、住所信息(住所、邮政编码)、设施信息、电话号码信息等。第二地图信息62可以通过通信装置20与其他装置通信而随时被更新。
驾驶操作件80例如包括油门踏板、制动踏板、换挡杆、转向盘、异形方向盘、操纵杆以及其他的操作件。在驾驶操作件80安装有检测操作量或者操作的有无的传感器,其检测结果向自动驾驶控制装置100、或者行驶驱动力输出装置200、制动装置210及转向装置220中的一部分或全部输出。
例如,安装于转向盘的传感器(以下称作转向传感器)检测通过乘员触摸转向盘而产生的微弱的电流。转向传感器也可以检测绕转向盘的旋转轴(轴)产生的转向转矩。转向传感器当检测电流、转向转矩时,将表示其检测结果的信号向自动驾驶控制装置100输出。
车内相机90是对本车辆M的车室内进行拍摄的相机。车内相机90例如是利用了CCD、CMOS等固体摄像元件的数码相机。车内相机90当对本车辆M的车室内进行拍摄时,将图像数据向自动驾驶控制装置100输出。
自动驾驶控制装置100例如具备第一控制部120、第二控制部160、第三控制部170及存储部180。第一控制部120、第二控制部160及第三控制部170分别例如通过CPU(CentralProcessing Unit)、GPU(Graphics Processing Unit)等硬件处理器执行程序(软件)来实现。这些构成要素中的一部分或全部也可以通过LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等硬件(包括电路部:circuitry)来实现,也可以通过软件与硬件的协同配合来实现。程序可以预先保存于自动驾驶控制装置100的HDD、闪存器等存储装置(具备非暂时性的存储介质的存储装置),也可以保存于DVD、CD-ROM等能够装卸的存储介质,并通过存储介质(非暂时性的存储介质)装配于驱动装置来安装于自动驾驶控制装置100的HDD、闪存器。
存储部180由上述的各种存储装置来实现。存储部180例如由HDD、闪存器、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、或RAM(Random Access Memory)等实现。在存储部180中,例如除了保存由处理器读出并执行的程序之外,还保存基于规则的模型数据182、DNN(Deep Neural Network(s))模型数据184等。关于基于规则的模型数据182、DNN模型数据184的详细情况,见后述。
图2是第一实施方式的第一控制部120、第二控制部160、第三控制部170及存储部180的功能结构图。第一控制部120例如具备识别部130和行动计划生成部140。
第一控制部120例如并行实现基于AI(Artificial Intelligence:人工智能)的功能和基于预先给出的模型的功能。例如,“识别交叉路口”的功能可以通过“并行执行基于深度学习等的交叉路口的识别和基于预先给出的条件(存在能够图案匹配的信号、道路标示等)的识别,并对双方评分而综合地评价”来实现。由此,确保自动驾驶的可靠性。
识别部130识别本车辆M的周边的状况或者环境。例如,识别部130基于从相机10、雷达装置12及LIDAR14经由物体识别装置16输入的信息,来识别存在于本车辆M的周边的物体。由识别部130识别的物体例如包括自行车、摩托车、四轮机动车、行人、道路标识、道路标示、划分线、电线杆、护栏、落下物等。识别部130识别物体的位置、速度、加速度等状态。物体的位置例如识别为以本车辆M的代表点(重心、驱动轴中心等)为原点的相对坐标上的位置(即相对于本车辆M的相对位置),并使用于控制。物体的位置也可以由该物体的重心、角部等代表点来表示,也可以由表现出的区域来表示。物体的“状态”也可以包括物体的加速度、加加速度、或者“行动状态”(例如是否正在进行或者正要进行车道变更)。
识别部130例如识别本车辆M正在行驶的车道(以下称作本车道)、与该本车道相邻的相邻车道等。例如,识别部130通过对从第二地图信息62得到的道路划分线的图案(例如实线与虚线的排列)与根据由相机10拍摄到的图像识别的本车辆M的周边的道路划分线的图案进行比较,来识别本车道、相邻车道等。
识别部130不限于识别道路划分线,也可以通过识别道路划分线、包括路肩、缘石、中央隔离带、护栏等的行驶路边界(道路边界),来识别本车道、相邻车道这样的车道。在该识别中,也可以考虑从导航装置50取得的本车辆M的位置、基于INS的处理结果。识别部130可以识别暂时停止线、障碍物、红灯、收费站、以及其他的道路现象。
识别部130在识别本车道时,识别本车辆M相对于本车道的相对位置、姿态。识别部130例如也可以将本车辆M的基准点从车道中央的偏离、以及本车辆M的行进方向相对于将车道中央相连的线所成的角度识别为本车辆M相对于本车道的相对位置及姿态。也可以代替于此,识别部130将本车辆M的基准点相对于本车道的任意侧端部(道路划分线或道路边界)的位置等识别为本车辆M相对于本车道的相对位置。
行动计划生成部140例如具备事件决定部142、风险区域算出部144及目标轨道生成部146。
事件决定部142在决定有推荐车道的路径上本车辆M处于自动驾驶下的情况下,决定该自动驾驶的行驶形态。以下,将规定了自动驾驶的行驶形态的信息称作事件进行说明。
在事件中,例如包括定速行驶事件、追随行驶事件、车道变更事件、分支事件、汇合事件、接管事件等。定速行驶事件是使本车辆M以恒定的速度在相同的车道上行驶的行驶形态。追随行驶事件是使本车辆M追随在本车道上存在于本车辆M的前方的规定距离以内(例如100[m]以内)且距本车辆M最近的其他车辆(以下称作先行车辆)的行驶形态。
“追随”例如可以是使本车辆M与先行车辆的车间距离(相对距离)维持为恒定的行驶形态,也可以是除了使本车辆M与先行车辆的车间距离维持为恒定以外还使本车辆M在本车道的中央行驶的行驶形态。
车道变更事件是使本车辆M从本车道向相邻车道进行车道变更的行驶形态。分支事件是在道路的分支地点使本车辆M向目的地侧的车道分支的行驶形态。汇合事件是在汇合地点使本车辆M向干线汇合的行驶形态。接管事件是结束自动驾驶并切换为手动驾驶的行驶形态。
在事件中,例如也可以包括赶超事件、躲避事件等。赶超事件是使本车辆M暂且向相邻车道进行车道变更并在相邻车道上赶超先行车辆后再次向原来的车道进行车道变更的行驶形态。躲避事件是为了躲避存在于本车辆M的前方的障碍物而使本车辆M进行制动及转向中的至少一方的行驶形态。
事件决定部142例如可以根据在本车辆M行驶时由识别部130识别到的周边的状况,将对当前的区间已经决定的事件变更为其他的事件、对当前的区间决定新的事件。
风险区域算出部144算出在由识别部130识别出的物体的周围潜在地分布的、或者潜在地存在的风险的区域(以下称作风险区域RA)。风险例如是物体对本车辆M带来的风险。更具体而言,风险可以是由于先行车辆急减速、其他车辆从相邻车道向本车辆M的前方插队而强使本车辆M进行急制动这样的风险,也可以是由于行人、自行车进入车道而强使本车辆M进行急转向这样的风险。风险也可以是本车辆M给物体带来的风险。以下,将这样的风险的高低作为定量的指标值来处理,并将该指标值称作“潜在风险值p”进行说明。
图3是用于说明风险区域RA的图。图中LN1表示划分本车道的一方的划分线,LN2表示划分本车道的另一方、且划分相邻车道的一方的划分线。LN3表示划分相邻车道的另一方的划分线。这些多个划分线中的、LN1及LN3为车道外侧线,LN2为允许车辆为了赶超而超出的中央线。在图示的例子中,在本车道上的本车辆M的前方存在先行车辆ml。图中X表示车辆的行进方向,Y表示车辆的宽度方向,Z表示铅垂方向。
在图示的状况的情况下,在风险区域RA中,越是靠近车道外侧线LN1及LN3的区域,则风险区域算出部144越提高潜在风险值p,越是远离车道外侧线LN1及LN3的区域,则风险区域算出部144越降低潜在风险值p。
在风险区域RA中,越是靠近中央线LN2的区域,则风险区域算出部144越提高潜在风险值p,越是远离中央线LN2的区域,则风险区域算出部144越降低潜在风险值p。中央线LN2与车道外侧线LN1及LN3不同,允许车辆超出,因此风险区域算出部144使针对中央线LN2的潜在风险值p比针对车道外侧线LN1及LN3的潜在风险值p低。
在风险区域RA中,越是靠近作为物体的一种的先行车辆m1的区域,则风险区域算出部144越提高潜在风险值p,越是远离先行车辆m1的区域,则风险区域算出部144越降低潜在风险值p。即,可以是,在风险区域RA中,本车辆M与先行车辆ml的相对距离越短,则风险区域算出部144越提高潜在风险值p,本车辆M与先行车辆m1的相对距离越长,则风险区域算出部144越降低潜在风险值p。此时,可以是,先行车辆m1的绝对速度、绝对加速度越大,则风险区域算出部144越提高潜在风险值p。对于潜在风险值p,也可以代替先行车辆m1的绝对速度、绝对加速度而(或者除此之外还)根据本车辆M与先行车辆m1的相对速度、相对加速度、TTC(Time to Collision)等来适当决定。
图4是表示某坐标x1处的Y方向上的潜在风险值p的变化的图。图中y1表示Y方向上的车道外侧线LN1的位置(坐标),y2表示Y方向上的中央线LN2的位置(坐标),y3表示Y方向上的车道外侧线LN3的位置(坐标)。
如图示那样,在车道外侧线LN1所存在的坐标(x1、y1)的附近、车道外侧线LN3所存在的坐标(x1、y3)的附近,潜在风险值p最高,在中央线LN2所存在的坐标(x1、y2)的附近,潜在风险值p相对于坐标(x1、y1)、(x1、y3)次高。如后所述,在潜在风险值p与预先决定的阈值Th相同或为该预先决定的阈值Th以上的区域,为了防止车辆进入该区域,不生成目标轨道TR。
图5是表示某坐标x2处的Y方向上的潜在风险值p的变化的图。坐标x2比坐标x1靠近先行车辆ml。因此,虽然在车道外侧线LN1所存在的坐标(x2、y1)与中央线LN2所存在的坐标(x2、y2)之间的区域不存在先行车辆m1,但是考虑先行车辆m1进行急减速等风险。其结果是,(x2、y1)与(x2、y2)之间的区域的潜在风险值p容易比(x1、y1)与(x1、y2)之间的区域的潜在风险值p高,例如为阈值Th以上。
图6是表示某坐标x3处的Y方向上的潜在风险值p的变化的图。在坐标x3存在先行车辆m1。因此,车道外侧线LN1所存在的坐标(x3、y1)与中央线LN2所存在的坐标(x3、y2)之间的区域的潜在风险值p比(x2、y1)与(x2、y2)之间的区域的潜在风险值p高、且为阈值Th以上。
图7是表示某坐标y4处的X方向上的潜在风险值p的变化的图。坐标y4是y1与y2的中间坐标,在该坐标y4存在先行车辆m1。因此,坐标(x3、y4)处的潜在风险值p最高,比坐标(x3、y4)远离先行车辆m1的坐标(x2、y4)处的潜在风险值p比坐标(x3、y4)处的潜在风险值p低,比坐标(x2、y4)进一步远离先行车辆m1的坐标(x1、y4)处的潜在风险值p比坐标(x2、y4)处的潜在风险值p低。
图8是表示决定了潜在风险值p的风险区域RA的图。如图示那样,风险区域算出部144用多个网格(mesh)(也称作格子:grid)划分风险区域RA,并将这些多个网格分别与潜在风险值p建立对应关系。例如,网格(xi、yj)与潜在风险值pij建立对应关系。即,风险区域RA由向量、张量这样的数据构造表示。
风险区域算出部144当将多个网格与潜在风险值p建立对应关系时,将各网格的潜在风险值p归一化。
例如,可以是,风险区域算出部144以潜在风险值p的最大值为1且最小值为0的方式将潜在风险值p归一化。具体而言,风险区域算出部144从风险区域RA中包括的全部网格的潜在风险值p中选择取最大值的潜在风险值Pmax、以及取最小值的潜在风险值Pmin。风险区域算出部144从风险区域RA中包括的全部网格中选出某着眼的一个网格(xi、yj),并从与该网格(xi、yj)建立了对应关系的潜在风险值pij减去最小的潜在风险值Pmin,并且从最大的潜在风险值Pmax减去最小的潜在风险值pmin,并将(Pij-Pmin)除以(pmax-Pmin)。风险区域算出部144一边改变着眼的网格,一边反复进行上述处理。由此,风险区域RA以潜在风险值p的最大值为1且最小值为0的方式归一化。
风险区域算出部144也可以算出风险区域RA中包括的全部网格的潜在风险值p的平均值μ和标准偏差σ,并从与网格(xi、yj)建立了对应关系的潜在风险值pij减去平均值μ,并将(pij-μ)除以标准偏差σ。由此,风险区域RA以潜在风险值p的最大值为1且最小值为0的方式归一化。
风险区域算出部144可以以潜在风险值p的最大值为任意的M且最小值为任意的m的方式将潜在风险值p归一化。具体而言,风险区域算出部144在使(pij-pmin)/(pmax-pmin)为A的情况下,将该A乘以(M-m),并将A(M-m)加上m。由此,风险区域RA以潜在风险值p的最大值为M且最小值为m的方式归一化。
返回图2的说明。为了原则上本车辆M在由推荐车道决定部61决定的推荐车道上行驶、而且本车辆M在推荐车道上行驶时应对周边的状况,目标轨道生成部146生成以由事件规定的行驶形态使本车辆M自动地(不依赖于驾驶员的操作地)行驶的将来的目标轨道TR。在目标轨道TR中,例如包括确定将来的本车辆M的位置的位置要素、以及确定将来的本车辆M的速度等的速度要素。
例如,目标轨道生成部146将本车辆M应该按顺序到达的多个地点(轨道点)决定为目标轨道TR的位置要素。轨道点是每隔规定的行驶距离(例如数[m]程度)的本车辆M应该到达的地点。规定的行驶距离例如可以通过沿路径行进时的沿途距离来计算。
目标轨道生成部146将每隔规定的采样时间(例如零点几[sec]程度)的目标速度v及目标加速度α决定为目标轨道TR的速度要素。轨道点也可以是每隔规定的采样时间的、在该采样时刻的本车辆M应该到达的位置。在该情况下,目标速度v、目标加速度α由采样时间及轨道点的间隔决定。
例如,目标轨道生成部146从存储部180读出基于规则的模型数据182、DNN模型数据184等,并使用由读出的数据定义的模型来生成目标轨道TR。
基于规则的模型数据182是定义了一个或多个基于规则的模型MDL1的信息(程序或数据构造)。基于规则的模型MDL1是基于由专家等预先决定的规则组来从风险区域RA导出目标轨道TR的模型。由于专家等决定规则组,因此这样的基于规则的模型MDL1也称作专家系统。基于规则的模型MDL1是“第一模型”的一例。
例如,在规则组中可能存在目标轨道TRx与某条件X唯一建立了对应关系的规则。条件X例如是向基于规则的模型MDL1输入的风险区域RA与在本车辆M正于单侧一车道的道路上行驶、且在本车辆M的前方的规定距离以内存在时速XX[km/h]的先行车辆时可能生成的风险区域RAX相同。目标轨道TRx例如是目标速度为vX、目标加速度为αX、转向的位移量为μX、轨道的曲率为κX的目标轨道TR。在遵循了这样的规则的情况下,基于规则的模型MDL1当输入满足条件X这样的风险区域RA时,输出目标轨道TRx。
虽然专家等决定出规则组,但是包罗地决定出所有的规则这一情况较为稀少。因此,也设想本车辆M陷入不存在于规则组中的状况(专家未设想的状况),有时向基于规则的模型MDL1输入不属于规则组的风险区域RA。在该情况下,基于规则的模型MDL1不会输出目标轨道TR。代替于此,基于规则的模型MDL1也可以在输入了不属于规则组的风险区域RA的情况下,输出以预先决定的速度在当前的车道上行驶这样的不依存于现状的风险区域RA的预先决定的目标轨道TR。即,也可以包括在向规则组中输入了未事先设想的风险区域RA的情况下输出不依存于现状的风险区域RA的预先决定的目标轨道TR这样的、用于应对不规则的状况的通用的规则。
DNN模型数据184是定义了一个或多个DNN模型MDL2的信息(程序或数据构造)。DNN模型MDL2是以当输入风险区域RA时输出目标轨道TR的方式进行了学习的深度学习模型。具体而言,DNN模型MDL2可以是CNN(Convolutional Neural Network)、RNN(ReccurentNeural Network)、或者它们的组合。在DNN模型数据184中,例如包括构成神经网络的多个层分别包括的单元互相以怎样的方式耦合这样的耦合信息、对所耦合的单元间输入输出的数据赋予的耦合系数等各种信息。DNN模型MDL2是“第二模型”的一例。
所谓耦合信息,例如包括各层所包含的单元数、指定各单元的耦合对象的单元的种类的信息、各单元的激活函数、设置于隐含层的单元间的门(gate)等信息。激活函数例如既可以是修正线性函数(ReLU函数),也可以是sigmoid函数、step函数、以及其他的函数等。门例如根据由激活函数返回的值(例如1或0),使在单元间传递的数据选择性地通过、加权。耦合系数例如包括在神经网络的隐含层中从某层的单元向更深的层的单元输出数据时,对输出数据赋予的权重系数。耦合系数也可以包括各层的固有的偏置成分等。
DNN模型MDL2例如基于教示数据充分地进行学习。教示数据例如是相对于风险区域RA而将DNN模型MDL2应该输出的正确解的目标轨道TR作为教示标签(也称作目标)建立了对应关系的数据集。即,教示数据是将作为输入数据的风险区域RA、以及作为输出数据的目标轨道TR进行了组合的数据集。正确解的目标轨道TR例如可以是通过在风险区域RA所包括的多个网格中潜在风险值p小于阈值Th、且潜在风险值p最低的网格的目标轨道。正确解的目标轨道TR例如可以是在某风险区域RA下实际上驾驶员进行了驾驶的车辆的轨道。
目标轨道生成部146根据本车辆M行驶的道路的种类、本车辆M的驾驶模式的种类(自动化等级),从包括一个或多个基于规则的模型MDL1、以及一个或多个DNN模型MDL2在内的模型集合中选择任一个模型MDL。而且,目标轨道生成部146对选择出的模型MDL输入由风险区域算出部144算出的风险区域RA,并基于输入了该风险区域RA的模型MDL的输出结果,来生成目标轨道TR。
图9是示意性地表示目标轨道TR的生成方法的图。例如,目标轨道生成部146在选择了某DNN模型MDL2的情况下,对该DNN模型MDL2输入表示风险区域RA的向量或张量。表示风险区域RA的向量或张量的要素数(维数)根据选择出的模型MDL的种类而变动。在图示的例子中,风险区域RA表示为m行n列的二阶张量,在该情况下,根据选择出的模型MDL的种类而行数m及列数n变动。被输入了表示风险区域RA的向量或张量的模型MDL输出目标轨道TR。该目标轨道TR例如由包括目标速度v、目标加速度α、转向的位移量u、轨道的曲率κ这样的多个要素的向量或张量来表示。
图10是表示模型MDL输出的目标轨道TR的一例的图。如图示的例子那样,先行车辆m1的周边的潜在风险值p变高,因此为了躲避该先行车辆m1而生成目标轨道TR。其结果是,本车辆M向由划分线LN2及LN3划分的相邻车道进行车道变更并赶超先行车辆m1。
返回图2的说明。第二控制部160控制行驶驱动力输出装置200、制动装置210及转向装置220,以使本车辆M按预定的时刻通过由目标轨道生成部146生成的目标轨道TR。第二控制部160例如具备第一取得部162、速度控制部164及转向控制部166。第二控制部160是“驾驶控制部”的一例。
第一取得部162从目标轨道生成部146取得目标轨道TR,并使存储部180的存储器存储该目标轨道TR。
速度控制部164基于存储于存储器的目标轨道TR中包括的速度要素(例如目标速度v、目标加速度α等),来控制行驶驱动力输出装置200及制动装置210的一方或双方。
转向控制部166根据存储于存储器的目标轨道中包括的位置要素(例如目标轨道的曲率κ、与轨道点的位置相应的转向的位移量u等),来控制转向装置220。
速度控制部164及转向控制部166的处理例如通过前馈控制与反馈控制的组合来实现。作为一例,转向控制部166将与本车辆M的前方的道路的曲率相应的前馈控制与基于从目标轨道TR的偏离的反馈控制组合来执行。
行驶驱动力输出装置200将用于车辆行驶的行驶驱动力(转矩)向驱动轮输出。行驶驱动力输出装置200例如具备内燃机、电动机及变速器等的组合、以及控制它们的功率ECU(Electronic Control Unit)。功率ECU按照从第二控制部160输入的信息、或者从驾驶操作件80输入的信息,来控制上述的结构。
制动装置210例如具备制动钳、向制动钳传递液压的液压缸、使液压缸产生液压的电动马达、以及制动ECU。制动ECU按照从第二控制部160输入的信息、或者从驾驶操作件80输入的信息来控制电动马达,以使与制动操作相应的制动转矩向各车轮输出。制动装置210可以具备将通过驾驶操作件80中包括的制动踏板的操作产生的液压经由主液压缸向液压缸传递的机构作为备用。制动装置210不限于上述说明的结构,也可以是按照从第二控制部160输入的信息来控制致动器从而将主液压缸的液压向液压缸传递的电子控制式液压制动装置。
转向装置220例如具备转向ECU和电动马达。电动马达例如使力作用于齿条-小齿轮机构来变更转向轮的朝向。转向ECU按照从第二控制部160输入的信息、或者从驾驶操作件80输入的信息,来驱动电动马达,使转向轮的朝向变更。
第三控制部170具备第二取得部172、模式控制部174、第一判定部176及第二判定部178。第二取得部172例如取得识别部130的识别结果、取得乘员对HMI30输入的信息。第二取得部172将取得的各种信息向模式控制部174、第一判定部176及第二判定部178提供。
模式控制部174控制本车辆M的驾驶模式。本车辆M的驾驶模式例如包括手动驾驶模式和自动驾驶模式。所谓手动驾驶模式,是指根据乘员的驾驶操作来控制本车辆M的速度及转向的模式。
所谓自动驾驶模式,是指不依赖于乘员的驾驶操作而自动地控制本车辆M的速度及转向中任一方、或本车辆M的速度及转向这双方的模式。自动驾驶模式包括第一自动驾驶模式、第二自动驾驶模式、第三自动驾驶模式、第四自动驾驶模式、第五自动驾驶模式这样的多个自动驾驶模式。这些自动驾驶模式的控制的自动化的等级不同。而且,在这些多个自动驾驶模式中的一部分的自动驾驶模式下,对本车辆M的乘员布置与控制的自动化的等级相应的义务(也称作任务)。
第一自动驾驶模式是自动化的等级最低的自动驾驶模式。在第一自动驾驶模式下,例如进行ACC、LKAS这样的驾驶支援控制。在第一自动驾驶模式下,在进行着ACC的期间,限制LKAS,在进行着LKAS的期间,限制ACC。即,在第一自动驾驶模式下,逐次地处理转向控制及速度控制。在第一自动驾驶模式下,对本车辆M的乘员布置第一义务和第二义务。第一义务是监视本车辆M的周边(特别是前方)的义务,第二义务是操作转向盘的义务。所谓“操作”,可以是用手抓、或者手触碰。
第二自动驾驶模式是与第一自动驾驶模式相比自动化的等级高的自动驾驶模式。在第二自动驾驶模式下,例如ACC、LKAS、ALC这样的多个驾驶支援控制连动地进行。在第二自动驾驶模式下,对乘员要求的义务的程度与第一自动驾驶模式相同或者比第一自动驾驶模式低。例如,在第二自动驾驶模式下中,对乘员布置第一义务,原则上不布置第二义务。在第二自动驾驶模式下,也可以在即将进行ALC这样的一部分的驾驶支援控制时等时机,还对乘员布置第二义务。
第三自动驾驶模式是与第二自动驾驶模式相比自动化的等级高的自动驾驶模式。在第三自动驾驶模式下,满足特定条件的情况下,自动地控制本车辆M的速度及转向这双方。所谓特定条件,例如是指正在如下道路上行驶这一情况,在该道路中,障碍物少、且本车辆M能够识别本车道、能够识别本车辆M相对于该本车道的相对的位置。这样的道路例如是高速道路。在第三自动驾驶模式下,对乘员要求的义务的程度比第二自动驾驶模式低。例如,在第三自动驾驶模式下,第一义务及第二义务中的任意义务均不对乘员布置。在第三自动驾驶模式下,有时在紧急时等要求乘员的驾驶操作。
第四自动驾驶模式是自动化的等级与第三自动驾驶模式相同或者比第三自动驾驶模式高的自动驾驶模式。在第四自动驾驶模式下,满足特定条件的情况下,自动地控制本车辆M的速度及转向这双方。在第四自动驾驶模式下,与第三自动驾驶模式同样地,对乘员要求的义务的程度比第二自动驾驶模式低。例如,在第四自动驾驶模式下,第一义务及第二义务中的任意义务均不对乘员布置。在第四自动驾驶模式下,即使在紧急时等,本车辆M的速度及转向这双方也不依赖于乘员的驾驶操作而自动地被控制。
第五自动驾驶模式是自动化的等级与第四自动驾驶模式相同或者比第四自动驾驶模式高的自动驾驶模式。在第五自动驾驶模式下,无论特定条件如何都自动地控制本车辆M的速度及转向这双方。在第五自动驾驶模式下,与第三自动驾驶模式、第四自动驾驶模式同样地,对乘员要求的义务的程度比第二自动驾驶模式低。例如,在第五自动驾驶模式下,第一义务及第二义务中的任意义务均不对乘员布置。
例如,模式控制部174可以在处于第二自动驾驶模式下的本车辆M满足特定条件的情况下,将驾驶模式切换为自动化等级比第二自动驾驶模式高的自动驾驶模式(例如第三自动驾驶模式)。
例如,模式控制部174可以在处于第三自动驾驶模式、第四自动驾驶模式下的本车辆M不满足特定条件的情况下,将驾驶模式切换为第二自动驾驶模式、第一自动驾驶模式。所谓“不满足特定条件”,例如是指在与高速道路相比障碍物多且周围的状况复杂的道路、不能识别车道等的道路上行驶。这样的道路例如是普通道路。
模式控制部174可以基于后述的第一判定部176及第二判定部178的判定结果,来控制本车辆M的驾驶模式。
模式控制部174也可以基于从驾驶操作件80输入的检测信号,来控制驾驶模式。例如,可以是,在自动驾驶模式下乘员以超过阈值的操作量操作了转向盘、油门踏板、制动踏板的情况下,模式控制部174将驾驶模式切换为手动驾驶模式。
模式控制部174也可以基于对HMI30的输入操作,来控制本车辆M的驾驶模式。
在布置第一义务的自动驾驶模式下,第一判定部176对由车内相机90生成的图像进行解析,来检测驾驶员座的乘员的视线的朝向、面部的朝向。第一判定部176基于检测到的视线或面部的朝向,来判定驾驶员座的乘员是否监视着本车辆M的周边。即,第一判定部176判定乘员是否尽到第一义务。例如,在乘员隔着前风窗玻璃而正观察车外的情况下,第一判定部176判定为乘员监视着本车辆M的周边。即,第一判定部176判定为乘员尽到第一义务。
在布置第二义务的自动驾驶模式下,第二判定部178基于转向传感器的检测结果,来判定乘员是否用手抓着转向盘、或者手触碰转向盘。即,第二判定部178判定乘员是否尽到第二义务。例如,第二判定部178在由转向传感器检测到的电流值、转向转矩为阈值以上的情况下,判定为乘员用手抓着转向盘、或者手触碰转向盘。即,第二判定部178判定为乘员尽到第二义务。
[处理流程]
以下,使用流程图来说明由第一实施方式的自动驾驶控制装置100进行的一系列处理的流程。图11是表示由第一实施方式的自动驾驶控制装置100进行的一系列处理的流程的一例的流程图。本流程图的处理例如可以在驾驶模式为“自动驾驶模式”的情况下,以规定的周期反复执行。
首先,识别部130识别在本车辆M行驶着的道路上存在的物体(步骤S100)。
接着,模式控制部174判定是否满足特定条件(步骤S102)。例如,在本车辆M于普通道路上行驶着的情况下,模式控制部174判定为不满足特定条件,并将驾驶模式切换为第二自动驾驶模式、或者切换为自动化等级比第二自动驾驶模式低的第一自动驾驶模式(步骤S104)。
目标轨道生成部146在驾驶模式为第二自动驾驶模式、或者是与第二自动驾驶模式相比自动化等级低的第一自动驾驶模式的情况下,从包括一个或多个基于规则的模型MDL1、一个或多个DNN模型MDL2的模型集合中选择某一个DNN模型MDL2(步骤S106)。换言之,目标轨道生成部146在自动驾驶模式的自动化等级小于第三自动驾驶模式的自动化等级的情况下,选择DNN模型MDL2。第三自动驾驶模式的自动化等级是“基准值”的一例。
风险区域算出部144在由目标轨道生成部146选择了DNN模型MDL2的情况下,将风险区域RA的范围设定为比后述的第一范围窄的第二范围(步骤S108)。例如,风险区域算出部144在模型集合中包含有多个DNN模型MDL2的情况下,无论在选择了哪个DNN模型MDL2的情况下,既可以是均设定出相同的宽度的第二范围,也可以是均在至少比第一范围窄这样的制约下,设定出宽度互不相同的第二范围。
另一方面,模式控制部174在本车辆M不是在普通道路而是在高速道路上行驶着的情况下,判定为满足特定条件,并将驾驶模式切换为第三自动驾驶模式,或者切换为自动化等级比第三自动驾驶模式高的第四自动驾驶模式、第五自动驾驶模式(步骤S110)。
目标轨道生成部146在驾驶模式为第三自动驾驶模式、或者为自动化等级比第三自动驾驶模式高的其他的自动驾驶模式的情况下,从模型集合中选择某一个基于规则的模型MDL1(步骤S112)。换言之,目标轨道生成部146在自动驾驶模式的自动化等级为第三自动驾驶模式的自动化等级以上的情况下,选择基于规则的模型MDL1。
风险区域算出部144在由目标轨道生成部146选择了基于规则的模型MDL1的情况下,将风险区域RA的范围设定为比上述的第二范围宽的第一范围(步骤S114)。例如,风险区域算出部144在模型集合中包含有多个基于规则的模型MDL1的情况下,无论在选择了哪个基于规则的模型MDL1的情况下,既可以是均设定出相同的宽度的第一范围,也可以是均在至少比第二范围宽这样的制约下,设定出互不相同的宽度的第一范围。
接着,风险区域算出部144在设定的风险区域RA的范围内,算出潜在风险值p(步骤S116)。例如,风险区域算出部144可以将所设定的风险区域RA的范围划分为多个网格,并算出将潜在风险值p与该多个网格分别建立了对应关系的数据来作为向量、张量。
接着,风险区域算出部144将算出的潜在风险值p归一化(步骤S118)。
接着,目标轨道生成部146对选择出的模型MDL输入由风险区域算出部144对潜在风险值p归一化后的风险区域RA(步骤S120)。具体而言,目标轨道生成部146将表示风险区域RA的向量或张量向模型MDL输入。
接着,目标轨道生成部146从被输入了风险区域RA的模型MDL取得目标轨道TR(步骤S122),并将该目标轨道TR向第二控制部160输出。
接着,第二控制部160基于由目标轨道生成部146输出的目标轨道TR,来控制本车辆M的速度及转向中的至少一方(步骤S124)。由此本流程图的处理结束。
如上所述,在只要与预先决定的规则组一致就选择能够以高的精度生成目标轨道TR的基于规则的模型MDL1的情况下,向该基于规则的模型MDL1输入的风险区域RA的范围设定为比第二范围宽的第一范围。由此,能够避免在风险区域RA的整个区域中潜在风险值p成为阈值Th以上而无法生成目标轨道TR造成本车辆M卡住这样的状况。在虽然与基于规则的模型MDL1相比目标轨道TR的精度有可能降低,但是选择了在所有场景中能够通用地利用的DNN模型MDL2的情况下,向该DNN模型MDL2输入的风险区域RA的范围设定为比第一范围窄的第二范围。由此,能够减少向DNN模型MDL2输入的向量或张量的维数,能够使目标轨道TR的精度提高。
图12是表示交通状况复杂的场景的一例的图。在图示的例子中,本车辆M在三车道中的正中间的第二车道(由划分线LN2及LN3划分出的车道)上行驶着。在第一车道(由划分线LN1及LN2划分出的车道)上存在其他车辆m2,在第三车道(由划分线LN3及LN4划分出的车道)上存在其他车辆m3。而且,在第二车道上,在本车辆M的前方存在其他车辆m4。这些其他车辆m2、m3、m4只不过是一例,也可以置换为道路上的落下物、施工用的告示盘、行人这样的其他物体。
在图12所例示的场景中,向基于规则的模型MDL1输入的风险区域RA的范围不设定为第一范围而设定为第二范围(图中R2的范围)。在该情况下,其他车辆m2、m3、m4离本车辆M近,因此本车辆M的行进目的地的区域的潜在风险值p可能成为阈值Th以上。
图13是表示图12中的坐标x4处的潜在风险值p的变化的图。划分线LN1所存在的坐标(x4、y1)与划分线LN2所存在的坐标(x4、y2)之间的潜在风险值p表示第一车道上的潜在风险值p。划分线LN2所存在的坐标(x4、y2)与划分线LN3所存在的坐标(x4、y3)之间的潜在风险值p表示第二车道上的潜在风险值p。划分线LN3所存在的坐标(x4、y3)与划分线LN4所存在的坐标(x4、y4)之间的潜在风险值p表示第三车道上的潜在风险值p。
在第一行驶车道上坐标x4成为其他车辆m2的紧前方,因此考虑其他车辆m2的加减速等而该坐标x4处的潜在风险值p为阈值Th以上。在第二行驶车道上坐标x4成为其他车辆m4的后方,因此该坐标x4上的潜在风险值p虽然比第一行驶车道低但是比阈值Th大。在第三行驶车道上坐标x4为其他车辆m3所存在的位置,因此该坐标x4处的潜在风险值p为阈值Th以上且最高。
图14是表示在图12所例示的场景中模型MDL输出的目标轨道TR的一例的图。如上所述,在坐标x4,第一行驶车道、第二行驶车道及第三行驶车道中的任意车道的潜在风险值p均为阈值Th以上,因此目标轨道TR至少不从坐标x4向前方延伸。在该情况下,本车辆M被其他车辆m1、m2、m3包围,不能从该场地获取自由活动而卡住。
图15是表示交通状况复杂场景的另一例的图。在图15所例示的场景中,向基于规则的模型MDL1输入的风险区域RA的范围不设定为第二范围而设定为第一范围(图中R1的范围)。在该情况下,在比图12的场景宽的范围中算出潜在风险值p。由此,在风险区域RA2整体的潜在风险值p被归一化了的情况下,能够期待潜在风险值p比图12的场景降低。
图16是表示图15中的坐标x4处的潜在风险值p的变化的图。使风险区域RA的范围为比第二范围宽的第一范围,因此,如图示那样,坐标x4处的潜在风险值p比第二范围时降低。尤其是,在第一行驶车道及第二行驶车道上,潜在风险值p变得比阈值Th低。
图17是表示在图15所例示的场景中模型MDL输出的目标轨道TR的一例的图。如上所述,在坐标x4,第一行驶车道及第二行驶车道的潜在风险值p均小于阈值Th,因此,如图示那样,例如生成在其他车辆m2的前方使本车辆M从第二行驶车道向第一行驶车道进行车道变更这样的目标轨道TR。其结果是,即使本车辆M处于被其他车辆m1、m2、m3包围的状况下,也能够使本车辆M不卡住而顺畅地行驶。
根据以上说明的第一实施方式,自动驾驶控制装置100从多个模型集合中选择任一个模型MDL。自动驾驶控制装置100在选择出的模型MDL为基于规则的模型MDL1的情况下,将风险区域RA的范围设定为第一范围。另一方面,自动驾驶控制装置100在选择出的模型MDL为DNN模型MDL2的情况下,将风险区域RA的范围设定为第二范围。自动驾驶控制装置100识别存在于本车辆M的周边的物体,并在所设定的范围内算出在物体的周围分布的风险区域RA。自动驾驶控制装置100对选择出的模型MDL输入所算出的风险区域RA,基于输入了风险区域RA的模型MDL的输出结果来生成目标轨道TR。而且,自动驾驶控制装置100基于目标轨道TR来控制本车辆M的速度及转向中的至少一方。这样,根据生成目标轨道TR的模型MDL的种类而适当地设定风险区域RA的范围,因此能够生成与本车辆M的周边的状况相适合的目标轨道TR,其结果是,能够顺畅地控制本车辆M的驾驶。
<第二实施方式>
以下说明第二实施方式。在上述的第一实施方式中说明了从多个模型集合中选择任一个模型MDL并在此基础上向选择出的模型MDL输入风险区域RA的情况。与此相对,在第二实施方式中,不是从多个模型集合中选择任一个模型MDL,而是对全部的模型MDL输入风险区域RA,在这点上与上述的第一实施方式不同。以下,以与第一实施方式的不同点为中心进行说明,关于与第一实施方式共用的点,省略说明。在第二实施方式的说明中,关于与第一实施方式相同的部分标注同一附图标记进行说明。
图18是表示由第二实施方式的自动驾驶控制装置100进行一系列处理的流程的一例的流程图。本流程图的处理例如可以在驾驶模式为“自动驾驶模式”的情况下,以规定的周期反复执行。
首先,识别部130识别在本车辆M行驶着的道路上存在的物体(步骤S200)。
接着,风险区域算出部144在第一范围内算出潜在风险值p(步骤S202)。
接着,风险区域算出部144将在第一范围内算出的潜在风险值p归一化(步骤S204)。
接着,目标轨道生成部146向基于规则的模型MDL1输入将潜在风险值p归一化而得到的第一范围的风险区域RA(步骤S206)。
风险区域算出部144在第二范围内算出潜在风险值p(步骤S208)。
接着,风险区域算出部144将在第二范围内算出的潜在风险值p归一化(步骤S210)。
接着,目标轨道生成部146向DNN模型MDL2输入将潜在风险值p归一化而得到的第二范围的风险区域RA(步骤S212)。
接着,目标轨道生成部146从基于规则的模型MDL1和DNN模型MDL2这双方取得目标轨道TR(步骤S214)。
接着,目标轨道生成部146从多个目标轨道TR中选择最优的目标轨道TR(步骤S216)。例如,目标轨道生成部146选择最接近像是人做出的轨道TRh的目标轨道作为最优的目标轨道TR。所谓“像是人做出的轨道TRh”,例如是指实际上使测试驾驶员等驾驶了本车辆M、其他车辆时的轨道。因此,目标轨道生成部146将多个模型MDL分别输出的目标轨道TR所包含的速度要素(速度v、加速度α等)及位置要素(转向的位移量u、轨道的曲率κ等)与像是人做出的轨道TRh所包含的速度要素及位置要素进行比较,并在多个目标轨道TR中选择与像是人做出的轨道TRh的位置要素及与位置要素最接近的目标轨道TR作为最优的目标轨道TR。而且,目标轨道生成部146将最优的目标轨道TR向第二控制部160输出。
接着,第二控制部160基于由目标轨道生成部146输出的目标轨道TR,来控制本车辆M的速度及转向中的至少一方(步骤S218)。由此本流程图的处理结束。
根据以上说明的第二实施方式,自动驾驶控制装置100在第一范围及第二范围这双方算出风险区域RA。自动驾驶控制装置100对基于规则的模型MDL1输入第一范围的风险区域RA,对DNN模型MDL2输入第二范围的风险区域RA。自动驾驶控制装置100从由基于规则的模型MDL1及DNN模型MDL2分别输出的目标轨道TR中选择最优的目标轨道TR。而且,自动驾驶控制装置100基于选择出的目标轨道TR来控制本车辆M的速度及转向中的至少一方。其结果是,与第一实施方式同样地,能够顺畅地控制本车辆M的驾驶。
<其他的实施方式(变形例)>
以下说明其他的实施方式(变形例)。在上述的第一实施方式或第二实施方式中,说明了目标轨道生成部146能够选择的多个模型中包含有一个以上的基于规则的模型MDL1、以及一个以上的DNN模型MDL2的情况,但并不限定于此。例如,也可以是,在多个模型中包含有基于模型或者基于称作基于模型的设计的方法而制作的模型(以下称作基于模型的模型)。基于模型的模型是通过利用模型预测控制(Model Predictive Control;MPC)等最优化方法根据风险区域RA来决定(或输出)目标轨道TR的模型。基于模型的模型是“第一模型”的另一例。
也可以在多个模型中包含有二叉树型的模型、博弈树型的模型、将低层神经网络如波茨曼机这样相互结合而得到的模型、强化学习模型、深度强化学习模型这样的通过机器学习能够安装的各种各样的模型。二叉树型的模型、博弈树型的模型、将低层神经网络如波茨曼机这样相互结合而得到的模型、强化学习模型、深度强化学习模型等是“第二模型”的另一例。
例如,目标轨道生成部146在驾驶模式为第二自动驾驶模式或者自动化等级比第二自动驾驶模式低的第一自动驾驶模式的情况下,可以从多个模型中选择基于模型的模型。目标轨道生成部146在驾驶模式为第三自动驾驶模式或者自动化等级比第三自动驾驶模式高的其他的自动驾驶模式的情况下,可以选择二叉树型的模型、博弈树型的模型这样的机器学习模型。风险区域算出部144在由目标轨道生成部146选择出基于模型的模型的情况下,可以与选择出基于规则的模型MDL1时同样地,将风险区域RA的范围设定为比第二范围宽的第一范围。风险区域算出部144在由目标轨道生成部146选择出二叉树型的模型、博弈树型的模型等的情况下,可以与选择出DNN模型MDL2时同样地,将风险区域RA的范围设定为比第一范围窄的第二范围。
[硬件结构]
图19是表示实施方式的自动驾驶控制装置100的硬件结构的一例的图。如图所示,自动驾驶控制装置100成为通信控制器100-1、CPU100-2、作为工作存储器使用的RAM100-3、保存引导程序等的ROM100-4、闪存器、HDD等存储装置100-5、驱动装置100-6等通过内部总线或者专用通信线相互连接而成的结构。通信控制器100-1进行与自动驾驶控制装置100以外的构成要素之间的通信。存储装置100-5保存有CPU100-2执行的程序100-5a。该程序通过DMA(Direct Memory Access)控制器(未图示)等向RAM100-3展开,并由CPU100-2执行。由此,实现第一控制部、第二控制部160及第三控制部170中的一部分或全部。
上述说明的实施方式能够如以下这样表现。
一种车辆控制装置,其构成为具备:
保存有程序的至少一个以上的存储器;以及
至少一个以上的处理器,
所述处理器通过执行所述程序来进行如下处理:
识别存在于车辆的周边的物体;
算出在所述识别的物体的周围分布的风险的区域;
基于所述算出的区域,来生成所述车辆应该行驶的目标轨道;
基于所述生成的目标轨道,来控制所述车辆的速度及转向中的至少一方;
从当输入所述区域时输出所述目标轨道的多个模型中选择任一个或多个模型;
向所述选择出的模型输入所述算出的区域;
基于输入了所述区域的所述模型的输出结果来生成所述目标轨道;以及
根据所述选择出的模型的种类,来变更所述区域的范围。
以上使用实施方式说明了本发明的具体实施方式,但本发明丝毫不被这样的实施方式限定,在不脱离本发明的主旨的范围内能够施加各种变形及替换。

Claims (11)

1.一种车辆控制装置,其中,
所述车辆控制装置具备:
识别部,其识别存在于车辆的周边的物体;
算出部,其算出在由所述识别部识别出的所述物体的周围分布的风险的区域,所述分布的风险的区域由向量或张量表示;
生成部,其基于由所述算出部算出的所述区域,来生成所述车辆应该行驶的目标轨道;以及
驾驶控制部,其基于由所述生成部生成的所述目标轨道,来自动地控制所述车辆的速度及转向中的至少一方,
所述生成部从当输入所述区域时输出所述目标轨道的多个模型中选择任一个或多个模型,且向所述选择出的模型输入由所述算出部算出的所述区域,并基于输入了所述区域的所述模型的输出结果来生成所述目标轨道,
所述算出部根据由所述生成部选择的模型的种类,来变更所述区域的范围,与在所选择的所述模型为基于规则或基于模型的模型的情况下决定的所述区域相比,使在所选择的所述模型为基于机器学习的模型的情况下决定的所述区域为较窄的区域。
2.根据权利要求1所述的车辆控制装置,其中,
所述多个模型包括至少一个第一模型、以及至少一个第二模型,所述第一模型是基于规则或基于模型的模型,所述第二模型基于机器学习的模型。
3.根据权利要求2所述的车辆控制装置,其中,
所述算出部在由所述生成部选择的模型为所述第一模型的情况下,与由所述生成部选择的模型为所述第二模型的情况相比,扩大所述区域的范围。
4.根据权利要求3所述的车辆控制装置,其中,
所述生成部根据所述车辆行驶的道路的种类,来从所述多个模型中选择任一模型。
5.根据权利要求4所述的车辆控制装置,其中,
在所述车辆在高速道路上行驶的情况下,所述生成部选择所述第一模型,在所述车辆在与高速道路相比周围的状况复杂的其他道路上行驶的情况下,所述生成部选择所述第二模型。
6.根据权利要求3所述的车辆控制装置,其中,
所述生成部根据由所述驾驶控制部自动地控制所述车辆的速度及转向中的至少一方时的自动化的等级,来从所述多个模型中选择任一模型。
7.根据权利要求6所述的车辆控制装置,其中,
在所述等级为基准值以上的情况下,所述生成部选择所述第一模型,在所述等级小于基准值的情况下,所述生成部选择所述第二模型。
8.根据权利要求1所述的车辆控制装置,其中,
所述生成部对所述多个模型分别输入所述区域,且基于输入了所述区域的所述多个模型各自的输出结果来生成多个目标轨道,并从所述生成的多个目标轨道中选择与人驾驶了所述车辆或其他车辆时的轨道最接近的所述目标轨道,
所述驾驶控制部基于由所述生成部选择的所述目标轨道,来控制所述车辆的速度及转向中的至少一方。
9.根据权利要求1至8中任一项所述的车辆控制装置,其中,
所述区域是由多个网格划分出的区域,
基于所述车辆及所述物体中的至少一方的状态而算出的所述风险的潜在风险值与所述多个网格分别建立了对应关系,
与所述多个网格分别建立了对应关系的所述潜在风险值基于所述区域中包含的全部的网格的潜在风险值而归一化,
所述生成部生成通过所述归一化后的潜在风险值比阈值低的所述网格的轨道作为所述目标轨道。
10.一种车辆控制方法,其中,
所述车辆控制方法使搭载于车辆的计算机执行如下处理:
识别存在于所述车辆的周边的物体;
算出在所述识别的物体的周围分布的风险的区域,所述分布的风险的区域由向量或张量表示;
基于所述算出的区域,来生成所述车辆应该行驶的目标轨道;
基于所述生成的目标轨道,来控制所述车辆的速度及转向中的至少一方;
从当输入所述区域时输出所述目标轨道的多个模型中选择任一个或多个模型,且向所述选择出的模型输入所述算出的所述区域,并基于输入了所述区域的所述模型的输出结果来生成所述目标轨道;以及
根据所述选择出的模型的种类,来变更所述区域的范围,与在所选择的所述模型为基于规则或基于模型的模型的情况下决定的所述区域相比,使在所选择的所述模型为基于机器学习的模型的情况下决定的所述区域为较窄的区域。
11.一种存储介质,其是存储有程序的能够由计算机读取的非暂时性的存储介质,其中,
所述程序用于使搭载于车辆的计算机执行如下处理:
识别存在于所述车辆的周边的物体;
算出在所述识别的物体的周围分布的风险的区域,所述分布的风险的区域由向量或张量表示;
基于所述算出的区域,来生成所述车辆应该行驶的目标轨道;
基于所述生成的目标轨道,来控制所述车辆的速度及转向中的至少一方;
从当输入所述区域时输出所述目标轨道的多个模型中选择任一个或多个模型,且向所述选择出的模型输入所述算出的所述区域,并基于输入了所述区域的所述模型的输出结果来生成所述目标轨道;以及
根据所述选择出的模型的种类,来变更所述区域的范围,与在所选择的所述模型为基于规则或基于模型的模型的情况下决定的所述区域相比,使在所选择的所述模型为基于机器学习的模型的情况下决定的所述区域为较窄的区域。
CN202110337193.XA 2020-03-31 2021-03-29 车辆控制装置、车辆控制方法及存储介质 Active CN113460081B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-063501 2020-03-31
JP2020063501A JP7440324B2 (ja) 2020-03-31 2020-03-31 車両制御装置、車両制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
CN113460081A CN113460081A (zh) 2021-10-01
CN113460081B true CN113460081B (zh) 2024-05-07

Family

ID=77855348

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110337193.XA Active CN113460081B (zh) 2020-03-31 2021-03-29 车辆控制装置、车辆控制方法及存储介质

Country Status (3)

Country Link
US (1) US20210300348A1 (zh)
JP (1) JP7440324B2 (zh)
CN (1) CN113460081B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112334377B (zh) * 2018-07-03 2023-02-14 三菱电机株式会社 车辆控制装置
DE102018216364B4 (de) * 2018-09-25 2020-07-09 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Unterstützen eines Spurwechselvorgangs für ein Fahrzeug
US11550325B2 (en) 2020-06-10 2023-01-10 Nvidia Corp. Adversarial scenarios for safety testing of autonomous vehicles
US11390301B2 (en) * 2020-06-10 2022-07-19 Nvidia Corp. Tensor-based driving scenario characterization
US11661082B2 (en) * 2020-10-28 2023-05-30 GM Global Technology Operations LLC Forward modeling for behavior control of autonomous vehicles
JP2022138790A (ja) * 2021-03-11 2022-09-26 本田技研工業株式会社 移動体の制御装置、移動体の制御方法、およびプログラム
US20230121913A1 (en) * 2021-10-19 2023-04-20 Volvo Car Corporation Intelligent messaging framework for vehicle ecosystem communication
GB2621317B (en) * 2022-07-26 2024-09-11 Jaguar Land Rover Ltd Determination of autonomous manoeuvring control configurations
JP7400914B1 (ja) 2022-09-26 2023-12-19 いすゞ自動車株式会社 自動運転装置
JP7400913B1 (ja) 2022-09-26 2023-12-19 いすゞ自動車株式会社 自動運転装置
GB2625577A (en) * 2022-12-21 2024-06-26 Oxa Autonomy Ltd Generating a trajectory for an autonomous vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017224168A (ja) * 2016-06-15 2017-12-21 国立大学法人東京農工大学 運転支援装置及び運転支援方法
JP2018058588A (ja) * 2013-10-30 2018-04-12 株式会社デンソー 走行制御装置、サーバ、車載装置
US10235882B1 (en) * 2018-03-19 2019-03-19 Derq Inc. Early warning and collision avoidance
CN110121449A (zh) * 2017-01-11 2019-08-13 本田技研工业株式会社 车辆控制装置、车辆控制方法及车辆控制程序

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110291477B (zh) * 2016-12-02 2022-08-16 嘉蒂克人工智能公司 车辆控制系统及使用方法
JP6845083B2 (ja) * 2017-05-18 2021-03-17 トヨタ自動車株式会社 運転支援装置
JP6580087B2 (ja) * 2017-06-02 2019-09-25 本田技研工業株式会社 走行軌道決定装置及び自動運転装置
US10606270B2 (en) * 2017-10-18 2020-03-31 Luminar Technologies, Inc. Controlling an autonomous vehicle using cost maps
JP7084124B2 (ja) * 2017-11-06 2022-06-14 トヨタ自動車株式会社 運転支援制御システム
US10416677B2 (en) * 2017-11-14 2019-09-17 Uber Technologies, Inc. Autonomous vehicle routing using annotated maps
US10768304B2 (en) * 2017-12-13 2020-09-08 Luminar Technologies, Inc. Processing point clouds of vehicle sensors having variable scan line distributions using interpolation functions
US11610165B2 (en) * 2018-05-09 2023-03-21 Volvo Car Corporation Method and system for orchestrating multi-party services using semi-cooperative nash equilibrium based on artificial intelligence, neural network models,reinforcement learning and finite-state automata
JP7369077B2 (ja) * 2020-03-31 2023-10-25 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018058588A (ja) * 2013-10-30 2018-04-12 株式会社デンソー 走行制御装置、サーバ、車載装置
JP2017224168A (ja) * 2016-06-15 2017-12-21 国立大学法人東京農工大学 運転支援装置及び運転支援方法
CN110121449A (zh) * 2017-01-11 2019-08-13 本田技研工业株式会社 车辆控制装置、车辆控制方法及车辆控制程序
US10235882B1 (en) * 2018-03-19 2019-03-19 Derq Inc. Early warning and collision avoidance

Also Published As

Publication number Publication date
US20210300348A1 (en) 2021-09-30
JP7440324B2 (ja) 2024-02-28
CN113460081A (zh) 2021-10-01
JP2021160530A (ja) 2021-10-11

Similar Documents

Publication Publication Date Title
CN113460081B (zh) 车辆控制装置、车辆控制方法及存储介质
CN113460080B (zh) 车辆控制装置、车辆控制方法及存储介质
CN113525413B (zh) 车辆控制装置、车辆控制方法及存储介质
CN113460077B (zh) 移动体控制装置、移动体控制方法及存储介质
CN112319474B (zh) 车辆控制装置、车辆控制方法及存储介质
CN113320541B (zh) 车辆控制装置、车辆控制方法及存储介质
CN113442947B (zh) 车辆控制装置、车辆控制方法及存储介质
US11738742B2 (en) Vehicle control device, vehicle control method, and storage medium
JPWO2018230530A1 (ja) 車両制御システム、車両制御方法、およびプログラム
CN113460079B (zh) 车辆控制装置、车辆控制方法及存储介质
US20210300350A1 (en) Vehicle control device, vehicle control method, and storing medium
CN110341703B (zh) 车辆控制装置、车辆控制方法及存储介质
CN113492845B (zh) 车辆控制装置、车辆控制方法及存储介质
US11628862B2 (en) Vehicle control device, vehicle control method, and storage medium
CN114506316A (zh) 车辆控制装置、车辆控制方法以及存储介质
CN112172805B (zh) 车辆控制装置、车辆控制方法及存储介质
CN112172804B (zh) 车辆控制装置、车辆控制方法及存储介质
CN113525407B (zh) 车辆控制装置、车辆控制方法及存储介质
JP2024047663A (ja) 移動体制御装置、移動体制御方法、およびプログラム
CN116767169A (zh) 控制装置、控制方法及存储介质
CN115996870A (zh) 车辆控制装置、车辆控制方法及程序

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant