CN109421712A - 车辆控制装置、车辆、车辆控制方法以及存储介质 - Google Patents

车辆控制装置、车辆、车辆控制方法以及存储介质 Download PDF

Info

Publication number
CN109421712A
CN109421712A CN201810770139.2A CN201810770139A CN109421712A CN 109421712 A CN109421712 A CN 109421712A CN 201810770139 A CN201810770139 A CN 201810770139A CN 109421712 A CN109421712 A CN 109421712A
Authority
CN
China
Prior art keywords
vehicle
motion track
time
scene image
ecu20
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810770139.2A
Other languages
English (en)
Other versions
CN109421712B (zh
Inventor
坂本洋介
土屋成光
小原和马
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of CN109421712A publication Critical patent/CN109421712A/zh
Application granted granted Critical
Publication of CN109421712B publication Critical patent/CN109421712B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D5/00Power-assisted or power-driven steering
    • B62D5/04Power-assisted or power-driven steering electrical, e.g. using an electric servo-motor connected to, or forming part of, the steering gear
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供基于控制对象的车辆的移动轨迹而求出对预测的动作进行了修正的目标物的移动轨迹的车辆控制装置、车辆、车辆控制方法以及存储介质。进行车辆的自动驾驶的控制的车辆控制装置具备:提取部,该提取部从表示车辆的周围的状况的场景图像中提取存在于车辆的周围的目标物;以及控制部,该控制部对从获取到场景图像的时刻至规定时间内的目标物的移动轨迹和车辆的移动轨迹进行计算,并基于车辆的移动轨迹而生成对目标物的移动轨迹进行了修正的移动轨迹。

Description

车辆控制装置、车辆、车辆控制方法以及存储介质
相关申请的交叉引用
本申请要求享有于2017年8月30日提交的名称为“车辆控制装置、车辆、车辆控制方法以及存储介质”的日本专利申请2017-166064的优先权,该申请的全部内容通过引用并入本文中。
技术领域
本发明涉及车辆控制装置、车辆、车辆控制方法以及存储介质,具体而言,涉及用于自动驾驶车的控制的车辆控制技术。
背景技术
通过对车辆的周围的环境进行认知并基于该认知结果来决定车辆的前进移动轨迹进而使车辆依照该移动轨迹行驶的转向控制来实现车辆的自动驾驶。在此,在决定移动轨迹时,在确定路上或者车辆周边的移动物体以及静止物体的位置的同时,对移动物体的将来的位置进行预测,并根据上述确定以及预测的结果而决定车辆在将来的各时刻所应该存在的位置。例如,以在各时刻下车辆位于不存在物体的区域的方式来决定车辆的移动轨迹。
在专利文献1中公开了一种在基于摄像所得的图像来检测行人时,将预先设定的范围外的物体从候选中去除的构成。
现有技术文献
专利文献
专利文献1:日本特开2011-081736号公报
发明内容
发明要解决的问题
然而,在专利文献1的构成中,例如会发生如下情况:由于将间隔有距离地存在的移动物体(目标物)从预测对象的待选中去除,因此,当采用之后随着时间的经过控制对象的车辆向该目标物接近的移动轨迹的情况下,不能预测作为预测对象的目标物的动作,或者不能基于控制对象的车辆的移动轨迹而求出对预测的动作进行了修正的目标物的移动轨迹。
本发明至少解决上述的问题,目的在于提供能够基于控制对象的车辆的移动轨迹而求出对预测的动作进行了修正的目标物的移动轨迹的车辆控制技术。
解决问题的手段
本发明的一个方式所涉及的车辆控制装置是基于生成的移动轨迹而进行车辆的自动驾驶的控制的车辆控制装置,其特征在于,具备:
提取单元,该提取单元从表示上述车辆的周围的状况的场景图像中提取存在于上述车辆的周围的目标物;以及
控制单元,该控制单元对从获取到上述场景图像的时刻至规定时间内的上述目标物的移动轨迹和上述车辆的移动轨迹进行计算,并基于上述车辆的移动轨迹而生成对上述目标物的移动轨迹进行了修正的移动轨迹。
另外,本发明的一个方式所涉及的车辆,是具有基于生成的移动轨迹而进行车辆的自动驾驶的控制的车辆控制装置的车辆,其特征在于,上述车辆控制装置具备:
提取单元,该提取单元从表示上述车辆的周围的状况的场景图像中提取存在于上述车辆的周围的目标物;以及
控制单元,该控制单元对从获取到上述场景图像的时刻至规定时间内的上述目标物的移动轨迹和上述车辆的移动轨迹进行计算,并基于上述车辆的移动轨迹而生成对上述目标物的移动轨迹进行了修正的移动轨迹。
另外,本发明的一个方式所涉及的车辆控制方法,是基于生成的移动轨迹而进行车辆的自动驾驶的控制的车辆控制装置的车辆控制方法,其特征在于,具有:
提取步骤,在该提取步骤中从表示上述车辆的周围的状况的场景图像中提取存在于上述车辆的周围的目标物;以及
控制步骤,在该控制步骤中对从获取到上述场景图像的时刻至规定时间内的上述目标物的移动轨迹和上述车辆的移动轨迹进行计算,并基于上述车辆的移动轨迹而生成对上述目标物的移动轨迹进行了修正的移动轨迹。
另外,本发明的一个方式所涉及的存储介质存储有使计算机执行基于生成的移动轨迹而进行车辆的自动驾驶的控制的车辆控制装置的车辆控制方法的各步骤的程序,其特征在于,上述车辆控制方法具有,
提取步骤,在该提取步骤中从表示上述车辆的周围的状况的场景图像中提取存在于上述车辆的周围的目标物;以及
控制步骤,在该控制步骤中对从获取到上述场景图像的时刻至规定时间内的上述目标物的移动轨迹和上述车辆的移动轨迹进行计算,并基于上述车辆的移动轨迹而生成对上述目标物的移动轨迹进行了修正的移动轨迹。
发明效果
根据本发明,能够基于控制对象的车辆的移动轨迹而求出对预测的动作进行了修正的目标物的移动轨迹。
通过参照附图的以下说明,应该能够明确本发明的其他特征以及优点。此外,在附图中,对相同或者同样的构成标记相同的附图标记。
附图说明
图1A是表示车辆控制装置的基本构成的框图。
图1B是表示用于控制车辆的控制框图的构成例的图。
图2是表示自动驾驶控制中的处理的概要的图。
图3是示意性地表示本车辆行驶时的时间轴(纵轴)与在求出移动轨迹时的计算中使用的时间轴(横轴)之间的关系的图。
图4是对第一自动驾驶模式中的处理的流程进行说明的图。
图5是举例示出在某个时刻所获取的场景图像的图。
图6是示例性地说明本车辆的移动轨迹的决定的图。
图7是示意性地表示本车辆行驶时的时间轴(纵轴)与在求出移动轨迹时的计算中使用的时间轴(横轴)之间的关系的图。
图8是对第二自动驾驶模式中的处理的流程进行说明的图。
图9是示意性地表示本车辆行驶时的时间轴(纵轴)与在求出移动轨迹时的计算中使用的时间轴(横轴)之间的关系的图。
图10是对第三自动驾驶模式中的处理的流程进行说明的图。
图11是举例示出在某个时刻所获取的场景图像的图。
符号说明
1:车辆(本车辆)、20:ECU、100:车辆控制装置、205:其他车辆
具体实施方式
以下,参照附图对本发明的实施方式进行说明。该实施方式中所记载的构成要素仅是示例,并非限定于以下实施方式。
(车辆控制装置的构成)
图1A是表示进行车辆的自动驾驶控制的车辆控制装置100的基本构成的图,车辆控制装置100具有:传感器S、照相机CAM以及计算机COM。传感器S例如包括雷达S1、激光雷达S2等。另外,计算机COM包括:负责处理的执行的CPU(C1)、存储器C2以及与外部设备的接口(I/F)C3等。传感器S以及照相机CAM对车辆的外界信息进行获取,并输入至计算机COM。在此,在以下的说明中,将搭载有计算机COM的车辆又称为本车辆,将存在于本车辆的周围的两轮或者四轮的车辆又称为其他车辆。
计算机COM对从传感器S以及照相机CAM输入的信息进行图像处理,并对获取到外界信息的、某个时刻下的图像(场景图像)中所包含的目标物进行提取。目标物例如包括:不会随着经过的时间而移动的静态目标物(例如,车道、信号灯、路缘石、标识、防护栏等道路构造物等静止物体)、以及随着时间的经过而移动的动态目标物(例如,其他车辆、行人等移动物体)。
计算机COM,例如在某个时刻T0从通过传感器S以及照相机CAM所获取的图像(场景图像)中提取场景图像中所包含的目标物,并对在本车辆的周围配置有怎样的目标物进行解析(场景理解)。
计算机COM对在场景图像内所提取的目标物分别进行标识及确定,并针对各个目标物,从某个时刻至面向将来的规定时间TS内的目标物的动作(移动轨迹)进行预测计算(预测处理)。
计算机COM基于所预测的目标物的移动轨迹,对使本车辆在哪个时刻之前移动至哪个位置的本车辆的移动轨迹进行计算(行动计划)。在生成本车辆的移动轨迹时,计算机COM在获取到的场景图像中,例如考虑熟练的驾驶员所进行的行驶和此时所检测到的本车辆的周围状况的组合数据而能够决定本车辆的移动轨迹。关于其具体的处理内容,将在后文中进行详细说明。
在本实施方式中,计算机COM能够切换多个自动驾驶模式而进行自动驾驶控制。在此,多个自动驾驶模式包括:通过以一个处理流程(单流程)进行场景理解、预测以及行动计划而在短时间内对本车辆的行动计划进行计算的、计算时间优先的自动驾驶模式(第一自动驾驶模式);进行以规定的运算周期重复进行预测以及行动计划的循环运算而高精度地对本车辆的行动计划进行计算的、精度优先的自动驾驶模式(第二自动驾驶模式);以及利用从作为比时刻T1靠前的时刻的时刻T0下的场景图像求出的行动计划来计算在某个时刻T1下的场景图像内欲求出的行动计划的、在减少处理负荷的同时确保了行动计划的精度的自动驾驶模式(第三自动驾驶模式)。
自动驾驶模式的切换,例如可以根据驾驶员的设定而切换。或者,根据行驶的道路的种类(高速道路、一般道路等)、从场景图像提取的目标物的信息(例如,行人较少而其他车辆较多、或者行人以及其他车辆的双方均较多等)、日间、夜间等行驶的时间段、天气等的围绕本车辆的外界的状况,计算机COM能够自动地切换自动驾驶模式而进行自动驾驶控制。
在将图1A所示的车辆控制装置100搭载于车辆的情况下,例如可以将计算机COM配置在对传感器S、照相机CAM的信息进行处理的识别处理系统的ECU、图像处理系统ECU内,也可以配置在进行车辆的驱动控制的控制单元内的ECU、自动驾驶用的ECU内。或者,如下面所说明的图1B那样,也可以将功能分散在传感器S用的ECU、照相机用的ECU以及自动驾驶用的ECU等构成车辆控制装置100的多个ECU中。
图1B是表示用于控制车辆1的车辆控制装置100的控制框图的构成例的图。在图1B中,车辆1以俯视图和侧视图示出了其概要。作为一个示例,车辆1为轿车型的四轮乘用车。
图1B的控制单元2对车辆1的各部分进行控制。控制单元2包括通过车内网络而能够通信地连接的多个ECU20~29。各ECU(Electronic Control Unit)包括:以CPU(CentralProcessing Unit)为代表的处理器、半导体存储器等存储设备、以及与外部设备的接口等。在存储设备中保存有处理器所执行的程序、处理器在处理中所使用的数据等。各ECU可以具备多个处理器、存储设备以及接口等。
以下针对各ECU20~29所负责的功能等进行说明。此外,关于ECU的数量、所负责的功能,可以对车辆1进行适当设计,也可以比本实施方式更加细化或者整合。
ECU20执行与车辆1的自动驾驶相关的控制。在自动驾驶中,对车辆1的转向以及加减速的至少任意一项进行自动控制。关于与自动驾驶所涉及的具体的控制有关的处理,将在下文中进行详细说明。
ECU21对电动动力转向装置3进行控制。电动动力转向装置3包括根据驾驶员对方向盘31的驾驶操作(转向操作)而使前轮转向的机构。另外,电动动力转向装置3包括:发出用于辅助转向操作或者使前轮自动转向的驱动力的马达、对转向角进行检测的传感器等。在车辆1的驾驶状态为自动驾驶的情况下,ECU21根据来自ECU20的指示而对电动动力转向装置3进行自动控制,并控制车辆1的行进方向。
ECU22以及ECU23进行对检测车辆1的周围状况的检测单元41~43的控制以及检测结果的信息处理。检测单元41例如为对车辆1的前方进行拍摄的照相机(以下有时表述为照相机41。),在本实施方式的情况下,在车辆1的车顶前部设置有两个。通过对照相机41所拍摄到的图像进行解析(图像处理),能够对目标的轮廓、道路上的车道的区分线(白线等)进行提取。
检测单元42例如为激光雷达(Laser Radar)(以下,有时表述为“激光雷达42”),对车辆1的周围的目标进行检测或者对与目标的距离进行测距。在本实施方式的情况下,在车辆的周围设置有多个激光雷达42。在图1B所示的例子中,例如设置有五个激光雷达42,在车辆1的前部的各角部各设置有一个,在后部中央设置有一个,并且在后部各侧方各设置有一个。检测单元43例如为毫米波雷达(以下有时表述为“雷达43”),对车辆1的周围的目标进行检测或者对与目标的距离进行测距。在本实施方式的情况下,在车辆的周围设置有多个雷达43。在图1B所示的例子中,例如设置有五个雷达43,在车辆1的前部中央设置有一个,在前部各角部各设置有一个,并且在后部各角部各设置有一个。
ECU22进行对一个照相机41、各激光雷达42的控制以及检测结果的信息处理。ECU23进行对另一个照相机41、各雷达43的控制以及检测结果的信息处理。通过具备两组对车辆的周围状况进行检测的装置,能够提高检测结果的可靠性,另外,通过具备照相机、激光雷达以及雷达这样的不同种类的检测单元,能够多方面地进行车辆周边环境的解析。此外,可以将ECU22以及ECU23统合在一个ECU中。
ECU24进行对陀螺仪传感器5、GPS传感器24b、通信装置24c的控制以及检测结果或者通信结果的信息处理。陀螺仪传感器5检测车辆1的旋转运动。能够根据陀螺仪传感器5的检测结果、车轮速度等对车辆1的行进道路进行判定。GPS传感器24b检测车辆1的当前位置。通信装置24c与提供地图信息、交通信息的服务器进行无线通信,并获取上述信息。ECU24能够访问在存储设备中构建的地图信息的数据库24a,ECU24进行从当前位置至目的地的路径搜索等。数据库24a能够配置于网络上,通信装置24c能够访问网络上的数据库24a而能够获取信息。
ECU25具备车与车之间通信用的通信装置25a。通信装置25a进行与周边的其他车辆的无线通信,并进行车辆间的信息交换。
ECU26对动力传动系6进行控制。动力传动系6是输出使得车辆1的驱动轮旋转的驱动力的机构,例如包括发动机和变速器。ECU26,例如,根据由设置在油门踏板7A上的操作检测传感器7a所检测到的驾驶员的驾驶操作(油门操作或者加速操作)而对发动机的输出进行控制,或者基于车速传感器7c所检测到的车速等信息而切换变速器的变速挡。在车辆1的驾驶状态为自动驾驶的情况下,ECU26根据来自ECU20的指示而对动力传动系6进行自动控制,并控制车辆1的加减速。
ECU27对包括方向指示器8的照明器件(前照灯、尾灯等)进行控制。在图1B的例子的情况下,方向指示器8设置于车辆1的前部、门后视镜以及后部。
ECU28进行对输入输出装置9的控制。输入输出装置9进行对驾驶员的信息的输出和来自驾驶员的信息的输入的接受。语音输出装置91通过语音对驾驶员报告信息。显示装置92通过图像的显示对驾驶员报告信息。显示装置92例如配置在驾驶席的表面并构成仪表盘等。此外,在这里举例示出了语音和显示,但是也可以通过振动、光来报告信息。另外,可以组合语音、显示、振动或者光中的多个来报告信息。进一步地,可以根据待报告的信息的等级(例如紧急度)改变组合、或者改变报告方式。
输入装置93是配置在驾驶员能够操作的位置而对车辆1进行指示的开关组,还可以包括语音输入装置。
ECU29对制动装置10、驻车制动器(未图示)进行控制。制动装置10例如为盘式制动装置,设置于车辆1的各车轮,通过对车轮的旋转施加阻力而使车辆1减速或者停止。ECU29,例如,根据由设置在制动踏板7B上的操作检测传感器7b所检测到的驾驶员的驾驶操作(制动操作)而对制动装置10的工作进行控制。在车辆1的驾驶状态为自动驾驶的情况下,ECU29根据来自ECU20的指示而对制动装置10进行自动控制,并控制车辆1的减速以及停止。制动装置10、驻车制动器还能够为了维持车辆1的停止状态而进行工作。另外,在动力传动系6的变速器具备驻车锁止机构的情况下,还能够为了维持车辆1的停止状态而令其工作。
(自动驾驶控制中的处理的概要)
如图2所示,自动驾驶控制大致具有三个步骤。即,自动驾驶控制具有:作为第一步骤,对车辆1(本车辆)的周边的外界信息进行识别的场景理解;作为第二步骤,对通过场景理解而从场景图像中提取的目标物(物体)将以怎样的移动轨迹移动进行预测的预测处理;以及作为第三步骤,基于预测处理的结果,决定车辆1(本车辆)应当采取怎样的移动轨迹的行动计划。
在以下的说明中,对于如下内容在下面进行具体说明:通过单流程进行场景理解、预测以及行动计划的处理的、计算时间优先的第一自动驾驶模式(图2中的(a));进行以规定的运算周期对场景理解、预测以及行动计划的处理中的预测以及行动计划进行重复的循环运算而高精度地对车辆1(本车辆)的行动计划进行计算的、精度优先的第二自动驾驶模式(图2中的(b));以及利用从作为比时刻T1靠前的时刻的时刻T0的场景图像求出的行动计划来计算在某个时刻T1的场景图像内欲求出的行动计划的、第三自动驾驶模式(图2中的(c))。在各自动驾驶模式中,场景理解的处理为基本相同的处理,但是在预测以及行动计划的处理中,则具有各自不同的特征。
<第一实施方式:第一自动驾驶模式>
在本实施方式中,ECU20执行与车辆1的自动驾驶有关的控制。ECU20基于所计算的本车辆的移动轨迹而进行对作为控制对象的车辆1的自动驾驶控制。图2中的(a)是表示与第一自动驾驶模式对应的处理流程的概要的图,在第一自动驾驶模式中,ECU20以单流程进行场景理解、预测以及行动计划的处理。在第一自动驾驶模式中,由于不像在下文中所说明的第二自动驾驶模式那样进行对场景理解、预测以及行动计划的处理中的预测以及行动计划进行重复的循环运算,因此,与第二自动驾驶模式相比,能够减少计算量,从而能够以更短时间进行从场景理解到行动计划的处理。
图3是示意性地示出表示车辆1(本车辆)行驶时的实际时间的时间轴(纵轴)、与在求出动态目标物(例如,图5中的其他车辆205)以及车辆1(本车辆)的移动轨迹时的计算中所使用的计算上的时间轴(横轴)之间的关系的图。例如,在时刻T0,根据由检测单元(照相机41、激光雷达42、雷达43)所获取的信息(外界信息),例如,如图5那样,作为表示车辆的周围的状况的图像(表示一个场景的场景图像)而获取存在于车辆1(本车辆)的周围的静态目标物以及动态目标物的信息。
在第一自动驾驶模式中,ECU20以时间序列计算出从获取到场景图像的时刻(例如,时刻T0)至规定时间(TS:例如几秒钟)内的目标物的移动轨迹,并基于目标物的移动轨迹的每个时间下的位置,以时间序列计算出车辆1(本车辆)的移动轨迹。
ECU20,从获取到场景图像的时刻T0至规定时间TS内,对例如行人、其他车辆等随着时间的经过而移动的动态目标物所移动的移动轨迹进行预测。通过在每个将规定时间TS分割的时刻t1、t2、t3……直至规定时间TS,以时间序列对目标物的位置进行预测来进行该移动轨迹的预测。然后,ECU20基于目标物的与规定时间相应的移动轨迹,在每个时刻t1、t2、t3……直至规定时间TS,以时间序列计算出车辆1(本车辆)的移动轨迹。
通过场景理解、预测以及行动计划的一系列的处理(单流程的处理),能够求出目标物的移动轨迹的计算结果(预测结果)和以目标物的移动轨迹的预测结果为基础的车辆1(本车辆)的移动轨迹的计算结果(行动计划)。在此,规定时间TS是能够任意设定的时间,也可以设定更短的规定时间TS。
图4是对第一自动驾驶模式中的处理的流程进行说明的流程图。例如,当驾驶员对目的地的设定和自动驾驶进行了指示时,ECU20按照由ECU24搜索到的引导路径,朝向目的地对车辆1的行驶进行自动控制。
在自动驾驶控制时,ECU20从ECU22以及ECU23获取与车辆1的周围状况相关的信息(外界信息)(S10)。通过步骤S10的处理,基于时刻T0下的外界信息,获取例如如图5那样的、表示车辆的周围的状况的图像(场景图像)。
然后,ECU20对在获取到外界信息的时刻(例如,时刻T0)下的场景图像中所包含的目标物(行人204、其他车辆205、障碍物217)进行提取(S11)。ECU20从场景图像中提取出不会随着时间的经过而移动的静态目标物(静止物体)以及随着时间的经过而移动的动态目标物(移动物体),并确定所提取的目标物在场景图像内是怎样配置的。ECU20将场景图像中的车辆1(本车辆)的位置固定为坐标系的原点,从而确定目标物的位置。
ECU20,对于提取到的目标物中的动态目标物(移动物体),以时间序列计算并预测出从获取到外界信息的时刻T0至面向将来的规定时间TS内的目标物的动作(移动轨迹)(S12)。ECU20在每个将规定时间TS分割的时刻t1、t2、t3……直至规定时间TS,以时间序列对目标物的位置进行预测。
接下来,ECU20基于以时间序列计算出的、动态目标物的与规定时间相应的移动轨迹而以时间序列计算出车辆1(本车辆)的与规定时间相应的移动轨迹(S13)。ECU20基于在时刻T0所获取到的场景图像中的动态目标物的按时间序列的移动轨迹的计算结果,例如考虑熟练的驾驶员(熟练驾驶员)的行驶数据以及在车辆1(本车辆)的周围存在的场景图像内的目标物的位置而对车辆1(本车辆)的按时间序列的移动轨迹进行计算。ECU20在每个将规定时间TS分割的时刻t1、t2、t3……直至规定时间TS,以时间序列计算出车辆1(本车辆)的位置。
然后,ECU20基于时刻t1、t2、t3……的各时刻下的目标物的移动轨迹的计算结果而决定在各时刻下车辆1(本车辆)所应该移动的移动轨迹(S14)。基于步骤S13的运算结果,ECU20决定车辆1(本车辆)的移动轨迹。根据以上处理,能够以时间序列求出与目标物的按时间序列的移动轨迹对应的车辆1(本车辆)的移动轨迹。
接下来,利用图5以及图6对第一自动驾驶模式中的处理的具体内容进行说明。图5是举例示出在某个时刻(例如,时刻T0)以由检测单元(照相机41、激光雷达42、雷达43)所获取到的外界信息为基础的场景图像的图。在场景图像内,作为在车辆1(本车辆)的周围存在的目标物而举例示出了行人204和其他车辆205。
(场景理解的具体例)
若开始图4所示的处理,则ECU22以及ECU23基于由检测单元(照相机41、激光雷达42、雷达43)所获取的信息而进行与车辆1(本车辆)的周围状况相关的信息的处理。ECU20从ECU22以及ECU23获取与车辆1(本车辆)的周围状况相关的信息(外界信息)。ECU20基于获取到的外界信息来获取例如如图5所示那样的从上方观察车辆1及其周围的状况时的图像,即对车辆1的周围的物体进行映射的、表示车辆的周围的状况的图像(表示一个场景的场景图像)。以上处理与图4的步骤S10对应。ECU20将场景图像中的车辆1(本车辆)的位置固定为坐标系的原点,并执行以下的运算处理。
ECU20对在某个时刻T0下的场景图像中所包含的静态目标物以及动态目标物进行提取。在图5中,车辆1(本车辆)(从图5的纸面下侧朝向上侧地)行驶于由区分线201以及202(例如车道外侧线,与路侧带对应的线)所示的、车辆所能够行驶的范围中的由中央线203划分的左侧的车道。作为静态目标物,例如,对未图示的防护栏、路缘石等进行提取。
在车辆1(本车辆)的行进方向上,作为动态目标物,对位于比区分线202靠左侧的歩道侧的行人204的存在、和对向车道侧其他车辆205的存在进行提取。另外,在对向车道侧的区分线201上,作为静态目标物,对障碍物217的存在进行提取。
此外,在图5中,在某个时刻T0下的场景图像内,作为动态目标物示出了其他车辆205和行人204的例子,但是不限于该示例,例如,可以在路上或者车辆1(本车辆)的周围存在自行车、二轮车等其他交通参与者。另外,还可以假定存在多个其他车辆、多个行人。以上处理与图4的步骤S11对应。
(预测处理的具体例)
若ECU20从ECU22以及ECU23获取到与车辆1的周围状况相关的信息(外界信息),则基于外界信息而对目标物(行人204、其他车辆205等移动物体)的每一个预测移动轨迹。在图5中,举例示出了预测了各目标物的动作的移动轨迹(211~213、505~507)。
在图5中,以围绕行人204的单点划线211、虚线212、以及双点划线213来表示预测为行人204将来所存在的范围。例如,单点划线211为时刻t1下的行人204的预测范围,虚线212的范围是预测为在比时刻t1靠后的时间t2下行人204所存在的范围。同样地,双点划线213的范围是预测为在比时间t2靠后的时间t3行人204所存在的范围。
在此,关于行人的移动预测,通过行人204的眼睛、鼻子、手臂、大腿等各器官的组合来判断面部的朝向、身体的朝向。由于根据行人204的面部的朝向而预测行人204向其面部的方向前进,因此预测为行人204所移动的方向可以是面部所朝向的方向(例如,箭头214的方向)。ECU20考虑行人204的面部的朝向、身体的朝向等,在每个将规定时间TS分割的时刻t1、t2、t3……直至规定时间TS,进行行人204的移动轨迹的预测。
在图5中,其他车辆205为了躲避障碍物217而以向中央线203侧偏移的状态行驶。ECU20考虑其他车辆205所行驶的车道的状况、障碍物的有无等,在每个将规定时间TS分割的时刻t1、t2、t3……直至规定时间TS,进行其他车辆205的移动轨迹的预测。以上处理与图4的步骤S12的处理对应,以双点划线表示的移动轨迹505表示在本步骤中通过处理而求出的其他车辆205的移动轨迹。
(行动计划的具体例)
作为与图4的步骤S13对应的处理,ECU20基于目标物的移动轨迹505而计算出时刻t1、t2、t3……的各时刻下的车辆1(本车辆)的各位置作为车辆1(本车辆)的移动轨迹。然后,ECU20将在步骤S13中计算出的移动轨迹决定为车辆1(本车辆)的移动轨迹(S14)。在图5中,以双点划线表示的移动轨迹501是通过图4中的S13以及S14的处理而计算出的车辆1(本车辆)的移动轨迹的示例。ECU20依照所决定的移动轨迹501而对ECU21、ECU26以及ECU29进行指示,从而对车辆1的转向、驱动、制动进行控制。
图6是示例性地对车辆1(本车辆)的移动轨迹的计算、决定进行说明的图。在图6中的(a)中,曲线601、602表示预测为在场景图像内的规定位置(图5中的P~P’的位置)存在目标物(行人204、其他车辆205)的预测值的分布。曲线601表示与图5所示的行人204相关的预测值的分布,曲线602表示与图5所示的其他车辆205相关的预测值的分布。
矩形604表示与作为静态目标物(静止物体)的障碍物217、未图示的路缘石等静止物体相关的预测值的分布。关于静态目标物(静止物体),由于物体不动地停留在该位置,因此预测值的分布呈在该位置较高而在其他位置为零或者具有足够小的值的矩形的分布。
曲线601与曲线602之间的区域为在车辆1(本车辆)所行驶的车道内不存在目标物(物体)的区域,是车辆1(本车辆)所能够行驶的区域。曲线603表示能够行驶的区域中的熟练的驾驶员(熟练驾驶员)的行驶方式的分布,曲线603的峰值M1表示在能够行驶的区域内熟练驾驶员以最高概率所选择的行驶位置。
ECU20确定在图3所示的各时刻(例如,t1、t2、t3……TS)不存在目标物(物体)的区域(能够行驶的区域),并基于熟练驾驶员的行驶方式的分布,以使车辆1向曲线603的峰值M1的位置行进的方式计算移动轨迹。这样计算出的移动轨迹形成为通过图4中的S13、S14所求出的车辆1(本车辆)的移动轨迹501。
在此,“熟练驾驶员”是指,例如专业的司机、无事故/无违反交规的优良驾驶员等。另外,也可以对来自多个驾驶员的车辆行驶数据进行收集,从收集的行驶数据中提取出满足不进行突然的车道变更、突然起步、突然制动、突然转向或者行驶速度稳定等规定基准的行驶数据,并作为熟练驾驶员的行驶数据反映在ECU20的自动驾驶控制中。
在第一自动驾驶模式中,与目标物的按时间序列的移动轨迹对应地,以时间序列计算出车辆1(本车辆)的移动轨迹。由此,能够以车辆1与场景图像中所包含的目标物(行人204、其他车辆205)不产生干涉的方式,以时间序列决定车辆1(本车辆)的移动轨迹。
<第二实施方式:第二自动驾驶模式>
在本实施方式中ECU20也执行与车辆1的自动驾驶相关的控制。ECU20基于计算的移动轨迹,进行对作为控制对象的车辆1的自动驾驶的控制。图2中的(b)是表示与第二自动驾驶模式对应的处理流程的概要的图,在第二自动驾驶模式中,ECU20进行以规定的运算周期对场景理解、预测以及行动计划的处理中的预测以及行动计划进行重复的循环运算,从而更高精度地对车辆1(本车辆)的行动计划进行计算。
图7是示意性地示出表示车辆1(本车辆)行驶时的实际时间的时间轴(纵轴)、与在求出动态目标物(例如,图5中的其他车辆205)以及车辆1(本车辆)的移动轨迹时的计算中所使用的计算上的时间轴(横轴)之间的关系的图。例如,在时刻T0,根据由检测单元(照相机41、激光雷达42、雷达43)所获取的信息(外界信息),例如如在第一实施方式中所说明的图5那样,作为表示车辆的周围的状况的图像(表示一个场景的场景图像)而获取在车辆1(本车辆)的周围存在的静态目标物以及动态目标物的信息。
在第二自动驾驶模式中,ECU20以时间序列对从获取到场景图像的时刻(例如,时刻T0)至规定时间TS内的目标物的移动轨迹进行预测。通过在每个将规定时间TS分割的时刻t1、t2、t3……直至规定时间TS对目标物的位置进行预测,来进行该移动轨迹的预测。
然后,ECU20基于目标物的与规定时间相应的移动轨迹,在每个时刻t1、t2、t3……直至规定时间TS,以时间序列对车辆1(本车辆)的移动轨迹进行计算。通过场景理解、预测以及行动计划的一系列的处理,求出目标物的移动轨迹的计算结果和以目标物的移动轨迹的预测结果为基础的车辆1(本车辆)的移动轨迹的计算结果。在此,规定时间TS是能够任意设定的时间,也可以设定更短的规定时间TS。
接下来,通过循环运算,ECU20对在车辆1(本车辆)按照所计算的移动轨迹进行了移动的情况下目标物将进行怎样的动作进行预测。同样地,通过在每个将规定时间TS分割的时刻t1、t2、t3……直至规定时间TS对目标物的位置进行预测,来进行目标物的移动轨迹的预测。
ECU20将所预测的目标物的移动轨迹和在上一次的预测处理中求出的目标物的移动轨迹进行比较,根据比较的结果,当目标物的移动轨迹产生了变化的情况下,ECU20基于变化后的目标物的移动轨迹,在每个时刻t1、t2、t3……直至规定时间TS,对车辆1(本车辆)的移动轨迹进行再次计算(修正)。
在通过循环运算以规定次数进行了同样的处理而目标物的移动轨迹未产生变化的情况下,即,在目标物的移动轨迹的变化收敛的情况下,基于收敛的目标物的移动轨迹,ECU20决定车辆1(本车辆)的移动轨迹。
另外,在即使进行了规定次数的循环运算也不收敛的情况下,ECU20基于最近修正的目标物的移动轨迹,在每个时刻t1、t2、t3……直至规定时间TS,对车辆1(本车辆)的移动轨迹进行再次计算(修正),ECU20由此决定车辆1(本车辆)的移动轨迹。此外,以上处理是与时刻T0的场景图像中的场景理解、预测以及行动计划相关的运算的说明,但是对于比时刻T0靠后的时刻T1、比时刻T1靠后的时刻T2也是同样的。
图8是对第二自动驾驶模式中的处理的流程进行说明的流程图。例如,当驾驶员对目的地的设定和自动驾驶进行了指示时,ECU20按照由ECU24搜索到的引导路径,朝向目的地对车辆1的行驶进行自动控制。
在自动驾驶控制时,ECU20从ECU22以及ECU23获取与车辆1的周围状况相关的信息(外界信息)(S20)。通过步骤S20的处理,基于时刻T0下的外界信息,获取如在第一实施方式中所说明的图5那样的、表示车辆的周围的状况的图像(场景图像)。
然后,ECU20对在获取到外界信息的时刻(例如,时刻T0)下的场景图像中所包含的目标物(行人204、其他车辆205、障碍物217)进行提取(S21)。ECU20从场景图像中提取出静态目标物(静止物体)以及动态目标物(移动物体),并确定所提取的目标物在场景图像内是怎样配置的。ECU20将场景图像中的车辆1(本车辆)的位置固定为坐标系的原点,从而确定目标物的位置。
然后,ECU20对于提取到的目标物中的动态目标物(移动物体),对从获取到外界信息的时刻T0至面向将来的规定时间TS内的目标物的动作(移动轨迹)进行预测(S22)。ECU20在每个将规定时间TS分割的时刻t1、t2、t3……直至规定时间TS,以时间序列对目标物的位置进行预测。
接下来,ECU20基于以时间序列计算出的、目标物的与规定时间相应的移动轨迹而计算出车辆1(本车辆)的与规定时间相应的移动轨迹(S23)。ECU20基于在时刻T0所获取到的场景图像中的目标物的移动轨迹的预测结果,例如考虑熟练的驾驶员(熟练驾驶员)的行驶数据以及在车辆1(本车辆)的周围存在的场景图像内的目标物的位置而对车辆1(本车辆)的按时间序列的移动轨迹进行计算。ECU20在每个时刻t1、t2、t3……直至规定时间TS,以时间序列计算出车辆1(本车辆)的位置。
在步骤S24中,在车辆1(本车辆)按照在步骤S23中计算出的移动轨迹而进行了移动的情况下,ECU20对目标物将进行怎样的动作进行预测。然后,ECU20对在本步骤中预测的目标物的移动轨迹和在步骤S22中预测的目标物的移动轨迹(在上一次的预测处理中求出的目标物的移动轨迹)进行比较。车辆1(本车辆)的动作有时会对目标物的动作造成影响,ECU20对目标物的动作(目标物的移动轨迹)是否受到车辆1(本车辆)的与规定时间相应的动作(本车辆的移动轨迹)的影响而变化进行判定(S24)。ECU20通过规定的运算周期内的重复运算,基于与阈值的比较而对修正后的目标物的移动轨迹的变化是否收敛进行判定。在此,规定的阈值是能够任意设定的值。
在步骤S24的判定中,在目标物的移动轨迹的差值大于规定的阈值的情况下,ECU20判定为目标物的移动轨迹产生了变化(S24-是),并使处理返回至步骤S23。
在步骤S23中,ECU20基于变化后的目标物的移动轨迹对车辆1(本车辆)的移动轨迹进行再次计算(修正)。即,在目标物的移动轨迹产生了变化的情况下,ECU20基于变化后的目标物的移动轨迹,在每个时刻t1、t2、t3……直至规定时间TS对车辆1(本车辆)的移动轨迹进行再次计算(修正),并使处理进入步骤S24。
在步骤S24中,在车辆1(本车辆)按照通过步骤S23修正后的移动轨迹而进行了移动的情况下,ECU20对目标物将进行怎样的动作而再次预测。然后,ECU20将再次预测的目标物的移动轨迹和在上一次的预测处理中求出的目标物的移动轨迹进行比较,根据比较的结果,当目标物的移动轨迹的差值大于规定的阈值的情况下,ECU20判定为目标物的移动轨迹产生了变化(S24-是),并使处理返回至步骤S23。在步骤S23中,在每个时刻t1、t2、t3……直至规定时间TS,对车辆1(本车辆)的移动轨迹以时间序列进行再次计算(修正)。ECU20以预先设定的次数重复同样的循环运算。
另一方面,当根据步骤S24的比较的结果而目标物的移动轨迹未产生差值的情况下(为同一移动轨迹的情况下),或者在目标物的移动轨迹的差值为规定的阈值以下的情况下,ECU20判定为目标物的移动轨迹未产生变化(S24-否),并使处理进入步骤S25。
在步骤S25中,ECU20决定在规定时间内车辆1(本车辆)所移动的移动轨迹。基于之前的步骤S24的判定,在修正后的目标物的移动轨迹的变化收敛的情况下(S24-否),ECU20基于收敛的目标物的移动轨迹而决定车辆1(本车辆)的移动轨迹(S25)。
此外,ECU20对步骤S23以及S24之间的循环运算的次数进行计数,在即使进行了预先设定的规定次数的循环运算也不收敛的情况下(S24-是),即,在目标物的移动轨迹产生大于规定的阈值的变化的情况下,ECU20不使处理返回至步骤S23而是使处理进入步骤S25。
基于步骤S24的比较的结果,在即使进行了规定次数的循环运算而修正后的目标物的移动轨迹的变化也不收敛的情况下(S24-是),ECU20基于最近修正的目标物的移动轨迹而决定车辆1(本车辆)的移动轨迹(S25)。
接下来,利用图5以及图6,对第二自动驾驶模式中的处理的具体内容进行说明。在第二自动驾驶模式中,也能够获取如在第一实施方式中所说明的图5那样的、表示车辆的周围的状况的图像(场景图像)。例如,在时刻T0,能够获取由检测单元(照相机41、激光雷达42、雷达43)所获取的、在行驶中的车辆1(本车辆)的周围存在的目标物的场景图像。然后,ECU20通过场景理解对场景图像中所包含的目标物(行人204、其他车辆205、障碍物217)进行提取,将场景图像中的车辆1(本车辆)的位置固定为坐标系的原点,从而确定目标物的位置。通过与在第一实施方式中说明的处理同样地以单流程进行场景理解、预测以及行动计划的一系列的处理,能够求出如图5所示那样的、其他车辆205的移动轨迹505和车辆1(本车辆)的移动轨迹501。
接下来,在第二自动驾驶模式中,通过循环运算,在车辆1(本车辆)按照计算的移动轨迹501进行了移动的情况下,ECU20对目标物将进行怎样的动作进行预测。通过在每个将规定时间TS分割的时刻t1、t2、t3……直至规定时间TS而对目标物的位置进行预测,来进行目标物的移动轨迹的预测。
在车辆1(本车辆)躲避行人204而选择偏向中央线203的移动轨迹501的情况下,其他车辆205为了避免与车辆1(本车辆)的干涉,而将移动轨迹偏移(修正)至区分线201侧(间隔上有富余的障碍物217侧)。
例如,在车辆1(本车辆)以移动轨迹501而进行了移动时,在其他车辆205的移动轨迹505通过循环运算而变化为单点划线所示的移动轨迹506的情况下,ECU20基于变化后的其他车辆205的移动轨迹506,在每个时刻t1、t2、t3……直至规定时间TS,再次计算(修正)车辆1(本车辆)的移动轨迹。例如,ECU20通过再次的计算处理,将移动轨迹501修正为单点划线所示的移动轨迹502。
同样地通过循环运算,在车辆1(本车辆)以移动轨迹502而进行了移动时,在其他车辆205的移动轨迹506变化为实线所示的移动轨迹507的情况下,ECU20基于变化后的其他车辆205的移动轨迹507,在每个时刻t1、t2、t3……直至规定时间TS,再次计算(修正)车辆1(本车辆)的移动轨迹。例如,ECU20通过再次的计算处理,将移动轨迹502修正为实线所示的移动轨迹503。该处理是与图8中的S24-是、S23的处理对应的处理。
另外,在通过循环运算而目标物(其他车辆205)的移动轨迹507未产生变化的情况下,ECU20判定为其他车辆205的移动轨迹的变化已收敛,基于收敛的其他车辆205的移动轨迹507,ECU20决定图5中的移动轨迹503作为车辆1(本车辆)的移动轨迹。上述处理是与图8中的S24-否、S25的处理对应的处理。
另外,通过循环运算而以规定次数进行同样的处理,在即使进行了规定次数的循环运算也不收敛的情况下,ECU20基于最近修正的目标物的移动轨迹而决定车辆1(本车辆)的移动轨迹。上述处理与即使进行了规定次数的循环运算也不收敛的情况下的处理(图8中的S24-是、S25)对应。
图6是示例性地表示本车辆的移动轨迹的决定的图。在图6中的(b)中,曲线601、602与图6中的(a)同样地表示预测为在场景图像内的规定位置(图5中的P~P’的位置)存在目标物的预测值的分布。曲线601表示与图5所示的行人204相关的预测值的分布,曲线602表示与图5所示的其他车辆205相关的预测值的分布。
在图6中的(b)中,以虚线曲线602B表示其他车辆205的动作受到车辆1(本车辆)的移动轨迹501~503(图5)的影响而发生变化的情况下的预测值的分布的变化。虚线曲线602B的分布与曲线602的分布相比而向矩形604侧(纸面的右侧)偏移。虚线曲线602B的偏移,与图5中的其他车辆205的从移动轨迹505向移动轨迹507的变化对应。
曲线601与虚线曲线602B之间的区域为在车辆1(本车辆)所行驶的车道内不存在目标物(物体)的区域,是车辆1(本车辆)所能够行驶的区域。由于虚线曲线602B的偏移,图6中的(b)中的能够行驶的区域比图6中的(a)中的能够行驶的区域宽。另外,曲线603B表示能够行驶的区域中的熟练的驾驶员(熟练驾驶员)的行驶方式的分布,曲线603B的峰值M2表示在能够行驶的区域内熟练驾驶员以最高概率所选择的行驶位置。
ECU20在图7所示的各时刻(例如,t1、t2、t3……TS)确定不存在目标物(物体)的区域(能够行驶的区域),并基于熟练驾驶员的行驶方式的分布,以使车辆1向曲线603B的峰值M2的位置行进的方式而计算移动轨迹。这样计算的移动轨迹形成为通过图4中的S13、S14求出的车辆1(本车辆)的移动轨迹503。
根据第二自动驾驶模式,对目标物的动作进行预测并计算车辆1(本车辆)的移动轨迹。对与车辆1(本车辆)的移动轨迹相应的、目标物的动作进行预测而修正目标物的移动轨迹。基于修正后的目标物的移动轨迹,对车辆1(本车辆)的移动轨迹进行修正。通过循环运算并通过基于目标物的移动轨迹的变化而对车辆1(本车辆)的移动轨迹进行修正,能够在行动计划中更高精度地计算车辆1(本车辆)的移动轨迹。
由此,由于能够在考虑熟练驾驶员的行驶数据的累积的同时考虑目标物的移动轨迹的变化而决定本车辆的移动轨迹,因此能够更高精度地决定在规定时间内的本车辆的移动轨迹。另外,由于是基于熟练驾驶员所实际采取的行动而决定移动轨迹,因此本车辆依照周围的环境而采取只要是熟练驾驶员就会选择的行动或者与其相近的行动。其结果是,即使在市区等移动的目标物较多的环境中,也能够根据行人、其他车辆等交通参与者的动作而决定车辆1(本车辆)的移动轨迹。
<第三实施方式:第三自动驾驶模式>
在本实施方式中ECU20也执行与车辆1的自动驾驶相关的控制。ECU20基于计算的移动轨迹,进行对作为控制对象的车辆1的自动驾驶的控制。在第三自动驾驶模式中,基于在作为比时刻T1靠前的时刻的时刻T0下的场景图像内所求出的行动计划(车辆1(本车辆)的移动轨迹)而对某个时刻T1下的场景图像内所求出的目标物的移动轨迹进行修正,并基于修正后的目标物的移动轨迹而计算车辆1(本车辆)的移动轨迹。利用基于时刻T1的场景图像而计算的行动计划,对基于时刻T0的场景图像而计算的行动计划进行修正。即,利用在时刻T1计算的车辆1(本车辆)的移动轨迹,替换在时刻T0计算的车辆1(本车辆)的移动轨迹。
图2中的(c)是表示与第三自动驾驶模式对应的处理流程的概要的图。时刻T0的处理是与图2中的(a)同样的处理,ECU20以单流程进行场景理解、预测以及行动计划的处理。在时刻T0计算的行动计划(车辆1(本车辆)的移动轨迹)的计算结果反映在时刻T1的处理中。
时刻T1的处理是以单流程进行场景理解、预测以及行动计划的处理,但是在预测处理中,输入在作为比时刻T1靠前的时刻的时刻T0下的行动计划的计算结果。
ECU20使用在时刻T0计算的行动计划,对基于在时刻T1获取的场景图像而计算的目标物的移动轨迹进行修正,并以时间序列对与修正后的目标物的移动轨迹对应的车辆1(本车辆)的移动轨迹进行计算。在时刻T1计算的行动计划(车辆1(本车辆)的移动轨迹)的计算结果同样地反映在时刻T2的处理中。
图9是示意性地示出表示车辆1(本车辆)行驶时的实际时间的时间轴(纵轴)、与在求出动态目标物(移动物体)以及车辆1(本车辆)的移动轨迹时的计算中所使用的计算上的时间轴(横轴)之间的关系的图。例如,在时刻T1,根据由检测单元(照相机41、激光雷达42、雷达43)所获取的信息(外界信息),例如如图11所示那样,作为表示车辆的周围的状况的图像(表示一个场景的场景图像)而获取在车辆1(本车辆)的周围存在的静态目标物以及动态目标物的信息。
在第三自动驾驶模式中,ECU20以时间序列对从获取到场景图像的时刻(例如,时刻T1)至规定时间TS内的目标物的移动轨迹进行计算,并基于目标物的移动轨迹的每个时间下的位置,以时间序列计算车辆1(本车辆)的移动轨迹。
ECU20,从获取到场景图像的时刻T1至规定时间TS内,对例如行人、其他车辆等随着时间的经过而移动的动态目标物所移动的移动轨迹进行预测。在预测处理中,输入在作为比时刻T1靠前的时刻的时刻T0下的场景图像内所求出的行动计划(车辆1(本车辆)的移动轨迹)的计算结果。
通过在每个将规定时间TS分割的时刻t1、t2、t3……直至规定时间TS以时间序列预测目标物的位置而进行目标物的移动轨迹的预测。
ECU20基于在时刻T0的场景图像内所求出的行动计划(车辆1(本车辆)的移动轨迹)的计算结果而对目标物的移动轨迹的预测结果进行修正。然后,ECU20基于修正后的目标物的移动轨迹,在每个时刻t1、t2、t3……直至规定时间TS,以时间序列计算车辆1(本车辆)的移动轨迹。
ECU20基于在时刻T1计算的车辆1(本车辆)的移动轨迹的计算结果而对在时刻T0计算的车辆1(本车辆)的移动轨迹进行修正(更新)。ECU20将在时刻T1计算的行动计划(车辆1(本车辆)的移动轨迹)的计算结果同样地反映在时刻T2的处理中。
图10是对第三自动驾驶模式中的处理的流程进行说明的流程图。例如,当驾驶员对目的地的设定和自动驾驶进行了指示时,按照由ECU24搜索到的引导路径,朝向目的地对车辆1的行驶进行自动控制。
在自动驾驶控制时,ECU20从ECU22以及ECU23获取与车辆1的周围状况相关的信息(外界信息)(S30)。通过步骤S30的处理,基于时刻T1下的外界信息,获取例如如图11所示的场景图像。
然后,ECU20对在获取到外界信息的时刻(例如,时刻T1)下的场景图像中所包含的目标物进行提取(S31)。ECU20从场景图像中提取出不会随着时间的经过而移动的静态目标物(静止物体)以及随着时间的经过而移动的动态目标物(移动物体),并确定所提取的目标物在场景图像内是怎样配置的。ECU20将场景图像中的车辆1(本车辆)的位置固定为坐标系的原点,从而确定目标物的位置。
另外,ECU20输入计算完成的、上一个时刻T0的行动计划(本车辆的移动轨迹的计算结果)(S32)。即,ECU20获取在比获取到场景图像的时刻T1靠前的时刻T0下的上一个场景图像内求出的行动计划(本车辆的移动轨迹)。
ECU20对于提取到的目标物中的动态目标物(移动物体),以时间序列计算从获取到外界信息的时刻T1至面向将来的规定时间TS内的目标物的动作(移动轨迹)(S33)。
然后,ECU20基于在步骤S32中获取的、在时刻T0的上一个场景图像内求出的行动计划(本车辆的移动轨迹)而对在步骤S33中计算的目标物的移动轨迹进行修正。ECU20,基于通过在比获取到场景图像的时刻(例如,T1)靠前的时刻(例如,T0)获取的上一个场景图像而计算的车辆1的移动轨迹,计算对场景图像中的目标物的移动轨迹进行了修正的移动轨迹。车辆1(本车辆)的动作有时会对目标物的动作造成影响,ECU20对目标物的动作(目标物的移动轨迹)受到车辆1(本车辆)的移动轨迹的影响而发生的变化进行计算,并基于移动轨迹的变化的计算结果而对目标物的移动轨迹进行修正。ECU20在每个将规定时间TS分割的时刻t1、t2、t3……直至规定时间TS,以时间序列对目标物的移动轨迹进行修正。
在步骤S34中,ECU20基于修正后的目标物的移动轨迹,以时间序列计算车辆1(本车辆)的与规定时间相应的移动轨迹。ECU20基于修正后的目标物的移动轨迹,例如考虑熟练的驾驶员(熟练驾驶员)的行驶数据以及在车辆1(本车辆)的周围存在的场景图像内的目标物的位置,ECU20在每个将规定时间TS分割的时刻t1、t2、t3……直至规定时间TS,以时间序列计算车辆1(本车辆)的移动轨迹。
在步骤S35中,ECU20基于步骤S34的计算结果而对在时刻T0计算的行动计划(车辆1(本车辆)的移动轨迹)进行修正(更新)。
接下来,利用图11对第三自动驾驶模式中的处理的具体内容进行说明。在时刻T1,获取由检测单元(照相机41、激光雷达42、雷达43)所获取到的、在行驶中的车辆1(本车辆)的周围存在的目标物的场景图像(图11)。图11中的目标物(行人204、其他车辆205、障碍物217)与图5相同。
然后,ECU20通过场景理解对在图11所示的场景图像中包含的目标物(行人204、其他车辆205、障碍物217)进行提取,将场景图像中的车辆1(本车辆)的位置固定为坐标系的原点,从而确定目标物的位置。以上处理与图10中的步骤S30、S31对应。
在图11中,以双点划线表示的移动轨迹1101是基于比时刻T1靠前的时刻T0的场景图像而计算的行动计划(车辆1(本车辆)的移动轨迹)。通过与在第一实施方式中说明的处理同样地以单流程而进行场景理解、预测以及行动计划的一系列的处理,求出车辆1(本车辆)的移动轨迹1101。该处理是与图10中的步骤S32对应的处理,ECU20获取计算完成的、上一个时刻T0的行动计划(本车辆的移动轨迹的计算结果)。该处理与图10中的步骤S32对应。
以双点划线表示的移动轨迹1105是在时刻T1的场景图像中计算的其他车辆205的移动轨迹的预测结果。ECU20对车辆1(本车辆)以移动轨迹1101而进行了移动时的、其他车辆205的移动轨迹的变化进行计算。然后,ECU20基于移动轨迹的变化的计算结果而对其他车辆205的移动轨迹进行修正。在图11中,以实线表示的移动轨迹1106表示修正后的其他车辆205的移动轨迹。ECU20,基于通过在比获取到场景图像的时刻(例如,T1)靠前的时刻(例如,T0)获取的上一个场景图像而计算出的车辆的移动轨迹(例如,1101),计算出对场景图像中的目标物的移动轨迹(例如,1105)进行了修正的移动轨迹(例如,1106)。求出其他车辆205的移动轨迹1105以及1106的处理与图10中的步骤S33对应。
接下来,ECU20基于修正后的其他车辆205的移动轨迹1106而以时间序列计算车辆1(本车辆)的与规定时间相应的移动轨迹。在图11中,以实线表示的移动轨迹1102表示基于修正后的其他车辆205的移动轨迹1106而计算的车辆1(本车辆)的移动轨迹。求出移动轨迹1102的处理与图10中的步骤S34对应。
然后,ECU20基于计算的车辆1(本车辆)的移动轨迹1102,对在时刻T0计算的行动计划(车辆1(本车辆)的移动轨迹1101)进行修正。以移动轨迹1102对移动轨迹1101进行修正的处理与图10中的步骤S35对应。
图6是示例性地表示本车辆的移动轨迹的决定的图。在图6中的(c)中,曲线601、602表示预测为在场景图像内的规定位置(图11中的P~P’的位置)存在目标物的预测值的分布。曲线601表示与图11所示的行人204相关的预测值的分布,曲线602表示与图11所示的其他车辆205相关的预测值的分布。
在图6中的(c)中,以虚线曲线602C表示其他车辆205的动作受到车辆1(本车辆)的移动轨迹1101(图11)的影响而发生变化的情况下的预测值的分布的变化。虚线曲线602C的分布与曲线602的分布相比而向矩形604侧(纸面的右侧)偏移。虚线曲线602C的偏移,与图11中的其他车辆205的从移动轨迹1105向移动轨迹1106的变化对应。
曲线601与虚线曲线602C之间的区域为在车辆1(本车辆)所行驶的车道内不存在目标物(物体)的区域,是车辆1(本车辆)所能够行驶的区域。由于虚线曲线602C的偏移,图6中的(c)中的能够行驶的区域例如比图6中的(a)中的能够行驶的区域宽。另外,曲线603C表示能够行驶的区域中的熟练的驾驶员(熟练驾驶员)的行驶方式的分布,曲线603C的峰值M3表示在能够行驶的区域内熟练驾驶员以最高概率所选择的行驶位置。曲线603表示时刻T0的场景图像中的熟练的驾驶员(熟练驾驶员)的行驶方式的分布,该曲线与图6中的(a)的曲线603对应。
ECU20在图9所示的各时刻(例如,t1、t2、t3……TS)确定不存在目标物(物体)的区域(能够行驶的区域),并基于熟练驾驶员的行驶方式的分布,以使车辆1向曲线603C的峰值M3的位置行进的方式计算移动轨迹。这样计算的移动轨迹形成为通过图10中的S34求出的车辆1(本车辆)的移动轨迹1102。在图6中的(c)中,M1是基于时刻T0的场景图像而计算的车辆1的移动轨迹上的位置,通过车辆1(本车辆)的移动轨迹的修正,将移动轨迹上的位置M1修正为M3。
根据第三自动驾驶模式,对于在时刻T1获取的场景图像中在车辆1的周围存在的目标物的移动轨迹,基于在上一个时刻T0计算的行动计划(车辆1(本车辆)的移动轨迹)的计算结果而进行修正。通过基于在比获取到场景图像的时刻靠前的时刻所获取的上一个场景图像所计算的车辆的移动轨迹而对目标物的移动轨迹进行修正,能够减少运算处理的负担。由此,与对预测和行动计划进行重复的循环运算相比,能够在减少计算负荷的同时,对目标物的移动轨迹进行修正,并且基于修正后的目标物的移动轨迹而以时间序列计算车辆1(本车辆)的移动轨迹。
(其他实施方式)
以上举例示出了几个优选的方式,但本发明并不局限于上述例子,在未脱离本发明主旨的范围内,可以对其一部分进行变更。例如,可以根据目的、用途等在各实施方式的内容中结合其他要素,或者也可以在实施方式的内容中结合其他实施方式的内容的一部分。另外,本说明书中记载的各个术语不过是出于对本发明进行说明的目的而使用的术语而已,本发明当然并不限定于该术语的严格的含义,也可以包括其等同物。
另外,实现在各实施方式中说明的一个以上的功能的程序通过网络或者存储介质而供给至系统或者装置,该系统或者装置的计算机中的一个以上的处理器能够读取并执行该程序。本发明也可以通过这样的方式实现。
<实施方式的总结>
构成1.上述实施方式的车辆控制装置是基于生成的移动轨迹而进行车辆(例如,1)的自动驾驶的控制的车辆控制装置(例如,100),其特征在于,具备:
提取单元(例如,20、22、23),该提取单元从表示上述车辆(1)的周围的状况的场景图像(例如,图5)中提取存在于上述车辆(1)的周围的目标物(例如,204、205);以及
控制单元(例如,20),该控制单元对从获取到上述场景图像的时刻(例如,T0)至规定时间(例如,TS)内的上述目标物的移动轨迹(例如,505)和上述车辆的移动轨迹(例如,501)进行计算,并基于上述车辆的移动轨迹(501)而生成对上述目标物的移动轨迹进行了修正的移动轨迹(例如,506、507)。
根据构成1,能够基于控制对象的车辆的移动轨迹而求出对预测的动作进行了修正的目标物的移动轨迹。
构成2.为上述实施方式的车辆控制装置(100),其特征在于,上述控制单元(20)基于上述修正后的目标物的移动轨迹(506、507)而生成对上述车辆的移动轨迹进行了修正的移动轨迹(例如,502、503)。
根据构成2,能够基于修正后的目标物的移动轨迹而求出修正后的车辆的移动轨迹。
构成3.为上述实施方式的车辆控制装置(100),其特征在于,上述控制单元(20)在规定的周期内对上述移动轨迹的计算和上述移动轨迹的修正进行运算。
构成4.为上述实施方式的车辆控制装置(100),其特征在于,上述控制单元(20)通过上述周期内的重复运算,基于与阈值的比较而对上述修正后的目标物的移动轨迹的变化是否收敛进行判定。
构成5.为上述实施方式的车辆控制装置(100),其特征在于,上述控制单元(20)在基于上述判定而判定为上述修正后的目标物的移动轨迹的变化收敛的情况下,基于上述收敛的目标物的移动轨迹(例如,图5中的507)而生成对上述车辆的移动轨迹进行了修正的移动轨迹(例如,图5中的503)。
构成6.为上述实施方式的车辆控制装置(100),其特征在于,上述控制单元(20)在基于上述判定而判定为上述修正后的目标物的移动轨迹的变化在上述周期内未收敛的情况下,基于最近修正的目标物的移动轨迹而生成上述车辆的移动轨迹。
根据构成3至构成6,通过在规定的周期内进行重复运算而能够高精度地计算目标物的移动轨迹以及车辆1的移动轨迹。
构成7.为上述实施方式的车辆控制装置(100),其特征在于,上述提取单元(20、22、23)通过对上述场景图像的图像处理,从上述场景图像提取不会随着时间的经过而移动的静态目标物(例如,图5中的217)和随着时间的经过而移动的动态目标物(例如,图5中的205)。
根据构成7,能够从场景图像所包含的目标物中,确定求出移动轨迹的目标物。
构成8.为上述实施方式的车辆控制装置(100),其特征在于,上述控制单元(20)将上述场景图像中的上述车辆的位置固定为坐标系的原点,并执行运算处理。
根据构成8,通过在某个时刻获取的图像中将控制对象的车辆的位置固定为坐标系的原点,能够减少移动轨迹的计算中的运算处理的负荷。
构成9.上述实施方式的车辆(例如,1),其特征在于,具有在上述构成1至8中的任一个构成中所述的车辆控制装置(例如,100)。
根据构成9,通过在车辆内部迅速地执行上述处理,能够基于更高精度地生成的移动轨迹而进行车辆的自动驾驶的控制。
构成10.上述实施方式的车辆控制方法是基于生成的移动轨迹而进行车辆的自动驾驶的控制的车辆控制装置的车辆控制方法,其特征在于,具有:
提取步骤(例如,S20、S21),在该提取步骤中从表示上述车辆的周围的状况的场景图像(例如,图5)中提取存在于上述车辆的周围的目标物;以及
控制步骤(例如,S22~S24),在该控制步骤中对从获取到上述场景图像的时刻(例如,T0)至规定时间(例如,TS)内的上述目标物的移动轨迹(例如,505)和上述车辆的移动轨迹(例如,501)进行计算,并基于上述车辆的移动轨迹(501)而生成对上述目标物的移动轨迹进行了修正的移动轨迹(例如,506、507)。
根据构成10,能够基于本车辆的移动轨迹而求出对预测的动作进行了修正的目标物的移动轨迹。
构成11.为上述实施方式的车辆控制方法,其特征在于,在上述控制步骤(例如,S22~S24)中,基于上述修正后的目标物的移动轨迹(506、507)而生成对上述车辆的移动轨迹进行了修正的移动轨迹(例如,502、503)。
根据构成11,能够基于修正后的目标物的移动轨迹而求出修正后的车辆的移动轨迹。
构成12.为上述实施方式的车辆控制方法,其特征在于,在上述控制步骤(例如,S22~S24)中,在规定的周期内对上述移动轨迹的计算和上述移动轨迹的修正进行运算。
根据构成12,通过在规定的周期内进行重复运算而能够高精度地计算目标物的移动轨迹以及车辆1的移动轨迹。
构成13.为上述实施方式的存储介质,存储有使计算机执行上述构成10至12中的任一个构成中所述的车辆控制方法的各步骤的程序。根据构成13,能够通过计算机实现车辆控制方法的各步骤。

Claims (13)

1.一种车辆控制装置,是基于生成的移动轨迹而进行车辆的自动驾驶的控制的车辆控制装置,其特征在于,具备:
提取单元,该提取单元从表示所述车辆的周围的状况的场景图像中提取存在于所述车辆的周围的目标物;以及
控制单元,该控制单元对从获取到所述场景图像的时刻至规定时间内的所述目标物的移动轨迹和所述车辆的移动轨迹进行计算,并基于所述车辆的移动轨迹而生成对所述目标物的移动轨迹进行了修正的移动轨迹。
2.根据权利要求1所述的车辆控制装置,其特征在于,
所述控制单元基于修正后的目标物的移动轨迹而生成对所述车辆的移动轨迹进行了修正的移动轨迹。
3.根据权利要求1或2所述的车辆控制装置,其特征在于,
所述控制单元在规定的周期内对所述移动轨迹的计算和所述移动轨迹的修正进行运算。
4.根据权利要求3所述的车辆控制装置,其特征在于,
所述控制单元通过所述周期内的重复运算,基于与阈值的比较而对修正后的目标物的移动轨迹的变化是否收敛进行判定。
5.根据权利要求4所述的车辆控制装置,其特征在于,
所述控制单元在基于所述判定而判定为所述修正后的目标物的移动轨迹的变化收敛的情况下,基于收敛的目标物的移动轨迹而生成对所述车辆的移动轨迹进行了修正的移动轨迹。
6.根据权利要求4所述的车辆控制装置,其特征在于,
所述控制单元在基于所述判定而判定为所述修正后的目标物的移动轨迹的变化在所述周期内未收敛的情况下,基于最近修正的目标物的移动轨迹而生成所述车辆的移动轨迹。
7.根据权利要求1所述的车辆控制装置,其特征在于,
所述提取单元通过对所述场景图像的图像处理,从所述场景图像提取不会随着时间的经过而移动的静态目标物和随着时间的经过而移动的动态目标物。
8.根据权利要求1或2所述的车辆控制装置,其特征在于,
所述控制单元将所述场景图像中的所述车辆的位置固定为坐标系的原点,并执行运算处理。
9.一种具有权利要求1~8中任一项所述的车辆控制装置的车辆。
10.一种车辆控制方法,是基于生成的移动轨迹而进行车辆的自动驾驶的控制的车辆控制装置的车辆控制方法,其特征在于,具有:
提取步骤,在该提取步骤中从表示所述车辆的周围的状况的场景图像中提取存在于所述车辆的周围的目标物;以及
控制步骤,在该控制步骤中对从获取到所述场景图像的时刻至规定时间内的所述目标物的移动轨迹和所述车辆的移动轨迹进行计算,并基于所述车辆的移动轨迹而生成对所述目标物的移动轨迹进行了修正的移动轨迹。
11.根据权利要求10所述的车辆控制方法,其特征在于,
在所述控制步骤中,基于修正后的目标物的移动轨迹而生成对所述车辆的移动轨迹进行了修正的移动轨迹。
12.根据权利要求10或11所述的车辆控制方法,其特征在于,
在所述控制步骤中,在规定的周期内对所述移动轨迹的计算和所述移动轨迹的修正进行运算。
13.一种存储介质,存储有使计算机执行权利要求10~12中任一项所述的车辆控制方法的各步骤的程序。
CN201810770139.2A 2017-08-30 2018-07-13 车辆控制装置、车辆、车辆控制方法以及存储介质 Active CN109421712B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017166064A JP6574224B2 (ja) 2017-08-30 2017-08-30 車両制御装置、車両、車両制御方法およびプログラム
JP2017-166064 2017-08-30

Publications (2)

Publication Number Publication Date
CN109421712A true CN109421712A (zh) 2019-03-05
CN109421712B CN109421712B (zh) 2021-12-14

Family

ID=65435307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810770139.2A Active CN109421712B (zh) 2017-08-30 2018-07-13 车辆控制装置、车辆、车辆控制方法以及存储介质

Country Status (3)

Country Link
US (1) US10803307B2 (zh)
JP (1) JP6574224B2 (zh)
CN (1) CN109421712B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111661206A (zh) * 2020-06-02 2020-09-15 侯致远 自行车及其安全装置和方法及计算机可读存储介质
CN113253734A (zh) * 2021-06-07 2021-08-13 江西东锐机械有限公司 带避障信号传输功能的无人驾驶智能控制器及其控制系统
CN111409631B (zh) * 2020-04-10 2022-01-11 新石器慧通(北京)科技有限公司 一种车辆行驶的控制方法、装置、车辆及存储介质
CN115148049A (zh) * 2021-03-29 2022-10-04 本田技研工业株式会社 轨道生成装置及轨道生成方法
WO2024067174A1 (zh) * 2022-09-26 2024-04-04 华为技术有限公司 一种预测方法、装置和智能驾驶设备

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113196290A (zh) * 2019-09-26 2021-07-30 松下电器(美国)知识产权公司 信息处理方法、程序以及信息处理装置
US11884216B2 (en) * 2020-10-16 2024-01-30 Magna Mirrors Of America, Inc. Vehicular full mirror display system with auxiliary forward and rearward views

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093883A (ja) * 2010-10-26 2012-05-17 Toyota Motor Corp 危険度予測装置
CN103717999A (zh) * 2011-08-24 2014-04-09 株式会社电装 行驶轨迹存储装置
JP2015114126A (ja) * 2013-12-09 2015-06-22 株式会社デンソー 自車位置検出装置
CN104936843A (zh) * 2012-10-12 2015-09-23 丰田自动车株式会社 行驶辅助系统以及控制装置
CN105579320A (zh) * 2013-09-05 2016-05-11 李斯特内燃机及测试设备公司 一种用于优化驾驶员辅助系统的方法和设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5098584B2 (ja) * 2007-11-09 2012-12-12 日産自動車株式会社 車両用運転支援装置
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
JP5422330B2 (ja) 2009-10-09 2014-02-19 クラリオン株式会社 歩行者検出システム
US9505413B2 (en) * 2015-03-20 2016-11-29 Harman International Industries, Incorporated Systems and methods for prioritized driver alerts
US9505346B1 (en) * 2015-05-08 2016-11-29 Honda Motor Co., Ltd. System and method for warning a driver of pedestrians and other obstacles
KR20170025179A (ko) * 2015-08-27 2017-03-08 엘지전자 주식회사 보행자 추돌 방지 시스템 및 그 동작방법
US20170327035A1 (en) * 2016-05-10 2017-11-16 Ford Global Technologies, Llc Methods and systems for beyond-the-horizon threat indication for vehicles
JP6558393B2 (ja) * 2017-04-06 2019-08-14 トヨタ自動車株式会社 進路設定装置及び進路設定方法
US10446022B2 (en) * 2017-06-09 2019-10-15 Here Global B.V. Reversible lane active direction detection based on GNSS probe data
JP7043279B2 (ja) * 2018-02-08 2022-03-29 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
US10800408B2 (en) * 2018-05-24 2020-10-13 Baidu Usa Llc Determining driving paths for autonomous driving that avoid moving obstacles
US11199842B2 (en) * 2018-06-26 2021-12-14 Baidu Usa Llc Determining driving paths for autonomous driving using parallel processing
JP2020050077A (ja) * 2018-09-26 2020-04-02 株式会社Subaru 車両の乗員監視装置、および乗員保護システム
US11194331B2 (en) * 2018-10-30 2021-12-07 The Regents Of The University Of Michigan Unsupervised classification of encountering scenarios using connected vehicle datasets
TWI674984B (zh) * 2018-11-15 2019-10-21 財團法人車輛研究測試中心 自動駕駛車輛之行駛軌跡規劃系統及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012093883A (ja) * 2010-10-26 2012-05-17 Toyota Motor Corp 危険度予測装置
CN103717999A (zh) * 2011-08-24 2014-04-09 株式会社电装 行驶轨迹存储装置
CN104936843A (zh) * 2012-10-12 2015-09-23 丰田自动车株式会社 行驶辅助系统以及控制装置
CN105579320A (zh) * 2013-09-05 2016-05-11 李斯特内燃机及测试设备公司 一种用于优化驾驶员辅助系统的方法和设备
JP2015114126A (ja) * 2013-12-09 2015-06-22 株式会社デンソー 自車位置検出装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111409631B (zh) * 2020-04-10 2022-01-11 新石器慧通(北京)科技有限公司 一种车辆行驶的控制方法、装置、车辆及存储介质
CN111661206A (zh) * 2020-06-02 2020-09-15 侯致远 自行车及其安全装置和方法及计算机可读存储介质
CN115148049A (zh) * 2021-03-29 2022-10-04 本田技研工业株式会社 轨道生成装置及轨道生成方法
CN115148049B (zh) * 2021-03-29 2023-08-22 本田技研工业株式会社 轨道生成装置及轨道生成方法
CN113253734A (zh) * 2021-06-07 2021-08-13 江西东锐机械有限公司 带避障信号传输功能的无人驾驶智能控制器及其控制系统
WO2024067174A1 (zh) * 2022-09-26 2024-04-04 华为技术有限公司 一种预测方法、装置和智能驾驶设备

Also Published As

Publication number Publication date
US20190065838A1 (en) 2019-02-28
CN109421712B (zh) 2021-12-14
US10803307B2 (en) 2020-10-13
JP2019043245A (ja) 2019-03-22
JP6574224B2 (ja) 2019-09-11

Similar Documents

Publication Publication Date Title
CN109421712A (zh) 车辆控制装置、车辆、车辆控制方法以及存储介质
CN105835886B (zh) 驾驶辅助装置
JP6901555B2 (ja) 自動運転車の制御のための車両制御装置及び方法
JP6304086B2 (ja) 自動運転装置
CN110001643A (zh) 车辆控制装置、车辆控制方法、存储介质、以及信息获取装置
CN107848531A (zh) 车辆控制装置、车辆控制方法及车辆控制程序
CN107472350A (zh) 车辆控制装置、车辆控制方法和车辆控制程序
CN107848533A (zh) 车辆控制装置、车辆控制方法及车辆控制程序
CN107836018A (zh) 车辆控制装置、车辆控制方法及车辆控制程序
CN109421705A (zh) 车辆驾驶辅助装置
CN109074740A (zh) 车辆控制系统、车辆控制方法及车辆控制程序
CN110023783A (zh) 车辆周边信息获取装置以及车辆
CN109891474A (zh) 车辆用控制装置
CN108701414A (zh) 车辆控制装置、车辆控制方法及车辆控制程序
JP6792704B2 (ja) 自動運転車の制御のための車両制御装置及び方法
JP6817166B2 (ja) 自動運転のポリシー生成装置及び車両
JP6970215B2 (ja) 車両制御装置、それを有する車両、および制御方法
CN104812649A (zh) 车辆控制装置
JP2020125027A (ja) 車両並びにその制御装置及び制御方法
CN110281940A (zh) 行驶辅助系统以及车辆的控制方法
US11267397B2 (en) Autonomous driving vehicle information presentation apparatus
CN110281925A (zh) 行驶控制装置、车辆以及行驶控制方法
JP7158368B2 (ja) 自動運転車用情報提示装置
JP2021142839A (ja) 車両及びその制御装置
JP6867257B2 (ja) 車両制御装置、車両、車両制御方法およびプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant