CN108974006B - 预测装置 - Google Patents

预测装置 Download PDF

Info

Publication number
CN108974006B
CN108974006B CN201810349724.5A CN201810349724A CN108974006B CN 108974006 B CN108974006 B CN 108974006B CN 201810349724 A CN201810349724 A CN 201810349724A CN 108974006 B CN108974006 B CN 108974006B
Authority
CN
China
Prior art keywords
prediction
person
behavior
target person
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810349724.5A
Other languages
English (en)
Other versions
CN108974006A (zh
Inventor
坂本洋介
小原和马
土屋成光
松原海明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of CN108974006A publication Critical patent/CN108974006A/zh
Application granted granted Critical
Publication of CN108974006B publication Critical patent/CN108974006B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2422/00Indexing codes relating to the special location or mounting of sensors
    • B60W2422/95Measuring the same parameter at multiple locations of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

本发明提供能够实现对道路上的人的举动的预测的高精度化的预测装置、车辆、预测方法以及存储介质。车载用预测装置具备:取得单元,其取得本车辆的周边信息;判断单元,其基于上述周边信息,对道路上的举动预测对象者是否目视确认到规定的目标进行判断;以及预测单元,其在由上述判断单元判断为上述举动预测对象者目视确认到上述规定的目标的情况下,对上述举动预测对象者在上述道路上向横穿方向移动的情况进行预测。

Description

预测装置
相关申请的交叉引用
本申请要求享有于2017年6月1日提交的日本专利申请2017-109302的优先权,该申请的全部内容通过引用并入本文中。
技术领域
本发明涉及一种车载用的预测装置。
背景技术
在专利文献1中记载了如下内容:为了将拍摄到的步行者横穿道路的结果用作机械学习用的采样素材,对本车辆前方的步行者横穿的可能性进行预测,并且在通过该步行者的前面之后,对在本车辆的后方开始横穿的步行者进行拍摄。
现有技术文献
专利文献
专利文献1:日本特开2016-218873号公报
发明内容
发明所要解决的问题
可是,在进行驾驶之际,为了实现安全驾驶,要求以更高的精度对道路上的人的举动进行预测。
本发明的目的在于,实现对道路上的人的举动的预测的高精度化。
用于解决问题的方法
本发明涉及一种车载用预测装置,其特征在于,具备:取得单元,其取得本车辆的周边信息;判断单元,其基于上述周边信息,对道路上的举动预测对象者是否目视确认到规定的目标进行判断;以及预测单元,其在由上述判断单元判断为上述举动预测对象者目视确认到了上述规定的目标的情况下,对上述举动预测对象者在上述道路上向横穿方向移动的情况进行预测。
发明效果
根据本发明,能够实现对道路上的人的举动的预测的高精度化。
附图说明
图1是用于对车辆的结构的示例进行说明的图。
图2是用于对检测部的配置位置的示例进行说明的俯视图。
图3是用于对相对于道路上的各目标的警戒区域的设定方法的示例进行说明的俯视图。
图4A是用于对步行者的横穿的预测方法的示例进行说明的俯视图。
图4B是用于对步行者的横穿的预测方法的示例进行说明的俯视图。
图5A是用于对预测用ECU的预测方法的示例进行说明的流程图。
图5B是用于对预测用ECU的预测方法的示例进行说明的流程图。
图6A是用于对步行者的横穿的预测方法的示例进行说明的俯视图。
图6B是用于对步行者的横穿的预测方法的示例进行说明的俯视图。
图7A是用于对步行者的横穿的预测方法的示例进行说明的俯视图。
图7B是用于对步行者的横穿的预测方法的示例进行说明的俯视图。
图8A是用于对步行者的横穿的预测方法的示例进行说明的俯视图。
图8B是用于对步行者的横穿的预测方法的示例进行说明的俯视图。
具体实施方式
以下,参照附图对本发明的实施方式进行说明。此外,各图为表示实施方式的构造或构成的示意图,图示的各部件的尺寸未必反映现实的尺寸。另外,在各图中,对相同的部件或相同的结构要素标注相同的参照编号,以下,对于重复的内容省略说明。
(第一实施方式)
图1是用于对第一实施方式所涉及的车辆1的结构进行说明的框图。车辆1具备:操作部11、行驶控制用ECU(电子控制部单元)12、驱动机构13、制动机构14、转向机构15、检测部16以及预测用ECU17。另外,在本实施方式中车辆1为四轮车,但是,车轮的数量并不限于四个。
操作部11包括加速用操作器111、制动用操作器112以及转向用操作器113。典型地,加速用操作器111为加速踏板,制动用操作器112为制动踏板,另外,转向用操作器113为转向轮。但是,在上述操作器111~113中,也可以使用杆式、按钮式等其他方式的操作器。
行驶控制用ECU12包括CPU121、存储器122以及通信接口123。CPU121基于经由通信接口123而从操作部11接收的电信号而进行规定的处理。而且,CPU121将其处理结果存储于存储器122,或者经由通信接口123而输出至各机构13~15。根据这样的构成,行驶控制用ECU12对各机构13~15进行控制。
行驶控制用ECU12并不限于本构成,作为其他实施方式,也可以使用ASIC(面向特定用途的集成电路)等半导体装置。即,可以通过硬件以及软件中的任一者来实现行驶控制用ECU12的功能。另外,在此为了便于进行说明而将行驶控制用ECU12表示为单一的要素,但是,也可以将它们分为多个,行驶控制用ECU12例如也可以分为加速用、制动用以及转向用的三个ECU。
驱动机构13例如包括内燃机以及变速器。制动机构14例如为设置于各车轮的盘式制动器。转向机构15例如包括动力转向装置。行驶控制用ECU12基于由驾驶员实施的加速用操作器111的操作量对驱动机构13进行控制。另外,行驶控制用ECU12基于由驾驶员实施的制动用操作器112的操作量对制动机构14进行控制。另外,行驶控制用ECU12基于由驾驶员实施的转向用操作器113的操作量对转向机构15进行控制。
检测部16包括照相机161、雷达162以及光检测和测距部(Light Detection andRanging(LiDAR))163。照相机161例如是使用了CCD/CMOS图像传感器的拍摄装置。雷达162例如是毫米波雷达等测距装置。另外,光检测和测距部163例如是激光雷达等测距装置。如图2所例示,它们分别配置在能够检测车辆1的周边信息的位置,例如车身的前方侧、后方侧、上方侧以及侧方侧。
在此,在本说明书中,有时使用前、后、上、侧方(左/右)等表述,但是,这些作为表示以车身为基准的相对方向的表述而使用。例如,“前”表示车身的前后方向上的前方,“上”表示车身的高度方向。
车辆1能够基于由检测部16产生的检测结果(车辆1的周边信息)来进行自动驾驶。在本说明书中,自动驾驶是指并非由驾驶员一侧而是由行驶控制用ECU12一侧来进行驾驶操作(加速、制动以及转向)的一部分或全部。即,自动驾驶的概念中包括由行驶控制用ECU12一侧进行驾驶操作的全部的方式(所谓的完全自动驾驶)以及由行驶控制用ECU12一侧进行驾驶操作的一部分的方式(所谓的驾驶辅助)。作为驾驶辅助的示例,可列举出车速控制(自动巡航控制)功能、车间距离控制(自适应巡航控制)功能、车道偏离防止辅助(车道保持辅助)功能以及碰撞避免辅助功能等。
对于预测用ECU17的详情将在下文中叙述,上述预测用ECU17对道路上的各目标的举动进行预测。预测用ECU17既可以被称作预测装置、举动预测装置等,也可以被称作处理装置(处理器)、信息处理装置等(进一步地,代替装置,还可以被称作设备、模块、单元等。)。在进行自动驾驶之际,行驶控制用ECU12基于由预测用ECU17产生的预测结果对操作器111~113的一部分或全部进行控制。
预测用ECU17具有与行驶控制用ECU12同样的结构,包括CPU171、存储器172以及通信接口173。CPU171经由通信接口173而从检测部16取得车辆1的周边信息。CPU171基于该周边信息对道路上的各目标的举动进行预测,并将其预测结果存储于存储器172,或者经由通信接口173而输出至行驶控制用ECU12。
图3是表示在道路2上存在有车辆1以及多个目标3的情形的俯视图,且表示车辆1(以下,为了进行区别而称作“本车辆1”)在车道21上通过自动驾驶而进行行驶的情形。本车辆1通过检测部16对车道21以及人行道22上的目标3进行检测,并以避开它们的方式对行驶路径进行设定从而进行自动驾驶。在此,作为目标3的示例,可列举出其他车辆31、人32(例如步行者)以及障碍物33。此外,关于带箭头的目标3,箭头表示该目标3的行进方向。
此外,在此作为障碍物33而图示了交通锥,但是,障碍物33只要是作为行驶的物理性的障碍的物体或被推荐避免接触的物体即可,并不限于该示例。障碍物33例如既可以是垃圾等下落物,也可以是信号灯、防护栏等设置物,无论动产/不动产均可。
如图3所示,在根据由检测部16产生的检测结果(车辆1的周边信息)确认到多个目标3的情况下,预测用ECU17对于各目标3设定警戒区域R。警戒区域R是用于避免本车辆1的接触的区域,即被推荐为不与本车辆1重叠的区域。针对某目标3的警戒区域R,作为该目标3可能在规定期间内进行移动的某区域,而被设定为在该目标3的轮廓的外侧具有规定的宽度。警戒区域R,周期性地例如以每10[msec]而进行设定(变更、更新、再设定。以下,仅表述为“设定”。)。
此外,在此为了便于说明,以平面(二维)表示警戒区域R,但是,警戒区域R实际上根据由车载的检测部16检测到的空间来设定。因此,警戒区域R可以在三维空间座标中进行表述或者在追加了时间轴的四维空间座标中进行表述。
预测用ECU17,例如将针对在本车辆1的前方行驶中的其他车辆31的警戒区域R设定为其他车辆31的轮廓的外侧。警戒区域R的宽度(距轮廓的距离),基于其他车辆31的信息(例如,与本车辆1的相对位置、距本车辆1的距离等位置信息以及其他车辆31的行进方向、车速、照明器件是否点亮等状态信息)来设定。例如,警戒区域R的宽度可以设定为在前方、侧方以及后方互不相同。例如,在其他车辆31直行中的情况下,预测用ECU17将警戒区域R设定为:针对车身的侧方形成规定的宽度(例如50cm左右),针对车身的前方以及后方形成比较宽的宽度(与其他车辆31的车速相应的宽度)。在其他车辆31左转弯(或右转弯)的情况下,预测用ECU17增大警戒区域R的左侧方(或右侧方)的宽度。另外,在其他车辆31停止的情况下,可以针对前方、侧方以及后方以相同的宽度来设定警戒区域R。
另外,预测用ECU17例如基于人32的信息(例如,与本车辆1的相对位置、距本车辆1的距离等位置信息以及人32的移动方向、移动速度、姿态、视线等状态信息)将针对人行道22上的人32的警戒区域R设定为人32的轮廓的外侧。例如,警戒区域R的宽度可以设定为基于人32的信息而在前方、侧方以及后方互不相同。例如,警戒区域R的宽度基于人32的移动速度来设定、和/或基于人32的视线来设定。在人32站住的情况下,可以针对前方、侧方以及后方以相同的宽度来设定警戒区域R。
附带性地,预测用ECU17还可以进一步对人32的年龄层进行预测,并基于该预测结果对警戒区域R的宽度进行设定。使用基于来自检测部16的检测结果的人32的外观信息(体格信息、服装信息等、该人的外观的信息)来进行该预测即可。
进一步地,预测用ECU17例如基于障碍物33的信息(例如,与本车辆1的相对位置、距本车辆1的距离等位置信息以及种类、形状、尺寸等状态信息),将针对车道21上的障碍物33的警戒区域R设定为障碍物33的轮廓的外侧。由于认为障碍物33不移动,因此,可以将警戒区域R的宽度设定为规定值。检测部16例如还包括风速传感器,在能够检测风速的情况下,也可以基于风速来设定警戒区域R的宽度。
进一步地可以基于本车辆1的车速来设定针对各目标3的警戒区域R的宽度。在本车辆1处于比较高速地行驶中的情况下,例如,通过将针对其他车辆31的警戒区域R的宽度设定为较宽,能够充分取得与其他车辆31之间的车间距离,从而能够避免与其他车辆31的接触。
行驶控制用ECU12基于来自预测用ECU17的预测结果,以不穿过针对各目标3的警戒区域R的方式对行驶路径进行设定,从而能够防止本车辆1与各目标3的接触。
图4A是表示本车辆1通过自动驾驶在车道21上朝向人行横道30而处于行驶中的情形的俯视图。在本实施方式中,人行道22通过台阶33A而从车道21划分出来,在该人行道22上存在有人32。
此外,在图中,关于台阶33A,以宽幅所示的部分对应于高低差较大的部分,窄幅所示的部分对应于高低差较小的部分。即,图4A示出了车道21与人行道22的高低差在人行横道30的附近变小的情况。
作为其他实施方式,车道21与人行道22既可以通过路缘等来划分,也可以仅通过区分线(白线等)来划分、或者也可以是人行道与车道未被划分的道路。
如上所述(参照图3),本车辆1的预测用ECU17针对人32基于其信息(位置信息、状态信息等)而对警戒区域R进行设定。在此,设为人32站立在人行道22上,但是,也可以是以规定的速度而处于移动中。
此外,虽然人行横道30是道路2的一部分,但是通过以白线在道路2上示出而通常能够被目视确认,因此,能够基于由检测部16产生的检测结果而确定为一个目标3。但是,对于人行横道30,未设定警戒区域R(或者警戒区域R的宽度被设定为零。)。
在此,如图4B所例示,在人32目视确认到人行横道30(ACT1)的情况下,可认为人32希望穿过人行横道30而横穿车道21。因此,在预测用ECU17确认到了人32目视确认到人行横道30(ACT1)的情况下,基于人32要向横穿方向移动这样的预测结果,如箭头E1所示将警戒区域R扩展到人行横道30侧/车道21侧。
关于详情将在下文中叙述,确认到人32目视确认到某目标(在本实施方式中为人行横道30)的情况是指,在预测用ECU17中判断出该目标存在于人32的视线方向上(视线上)的情况。基于由检测部16产生的检测结果来进行该判断。在图中为了便于说明,示出了俯视时的视线方向,但对于视线方向为上下方向(即,相对于道路2垂直的方向)的情况也可以予以考虑,由此,能够提高该判断的精度。即,优选在三维空间座标中表述人32的视线方向。
行驶控制用ECU12能够基于如上所述所设定的警戒区域R而决定如何实施本车辆1的驾驶操作。例如,行驶控制用ECU12能够基于上述扩展后的警戒区域R(箭头E1)而决定使本车辆1减速。另外,例如,在人32开始横穿车道21的情况下,行驶控制用ECU12能够决定直至其横穿完成为止使本车辆1停止。
图5A~图5B是表示用于进行本实施方式所涉及的人32的举动预测以及与此相伴的警戒区域R的设定的方法的流程图。该流程图的内容主要在预测用ECU17中由CPU171来进行。
预测用ECU17在本车辆1开始自动驾驶的情况下,基于本车辆1的周边信息来辨别本车辆1的周边的各目标3,并对各目标3设定警戒区域R,并将其结果输出至行驶控制用ECU12。其中,预测用ECU17基于该人32目视确认到了什么目标来进行人32的举动预测,并基于该预测结果对针对人32的警戒区域R进行设定。
参照图5A,在步骤S510(以下,仅表示为“S510”。在其他步骤中也同样。)中,对本车辆1是否为自动驾驶状态进行判断。例如,通过预测用ECU17从行驶控制用ECU12接收表示本车辆1是否为自动驾驶状态的信号来进行该步骤。在自动驾驶状态的情况下进入S520,在不是自动驾驶状态的情况下结束本流程图。
在S520中,取得本车辆1的周边信息。通过预测用ECU17接收由检测部16检测到的本车辆1的周边信息来进行该步骤。
在S530中,从在S520中获得的周边信息中,提取存在于本车辆1的周边的各目标3。通过对表示周边信息的数据进行规定的数据处理(例如,进行轮廓提取的数据处理)来进行该步骤。
基于该信息(上述位置信息、状态信息等),并按照属性(种类)对各目标3进行分类(例如,对属于其他车辆31、人32以及障碍物33中的哪一个进行判断。)。例如,可以基于各目标3的外观并通过图案匹配来进行该分类。另外,可以针对各目标3设定警戒区域R。在本实施方式中,基于后述的举动预测(S540)来设定针对人32的警戒区域R,但是,可以在S530中设定针对其他目标3的警戒区域R。
在S540中,基于存在于人32视线方向的目标来进行人32的举动预测,关于详情将在下文中叙述(参照图5B)。
在S550中,对行驶控制用ECU12输出包含S540中的举动预测的预测结果。行驶控制用ECU12基于上述预测结果,决定本车辆1的行驶路径,从而决定本车辆1的驾驶操作的内容。
在S560中,对是否结束本车辆1的自动驾驶状态进行判断。例如,通过预测用ECU17从行驶控制用ECU12接收表示自动驾驶状态的结束的信号来进行该步骤。在自动驾驶状态没有结束的情况下返回至S520,在自动驾驶状态结束的情况下结束本流程图。
例如以几十[msec]左右或比其短的期间(例如10[msec]左右)反复进行S520~S560的一系列的步骤。即,周期性地进行本车辆1的周边信息的取得、本车辆1的周边的各目标3的举动预测以及与此相伴的警戒区域R的设定、以及上述结果向行驶控制用ECU12的输出。
图5B是用于对S540的举动预测的方法进行说明的流程图。S540包括S5410~S5450,基于人32是否目视确认到规定的目标的判断结果而进行对人32的举动的预测。然后,基于该预测结果而设定针对人32的警戒区域R。
在S5410中,对在S530所提取的目标3之中,是否存在有人32(步行者等)进行判断。在存在有人32的情况下进入S5420,在没有人32的存在的情况下结束本流程图。
在S5420中,对(被认为是)在S5410中确认到的人32所目视确认到的目标3进行提取。通过从在S530中提取到的目标3的组之中选择存在于人32的视线方向上的目标3来进行该步骤,由此,判断为人32目视确认到了存在于其视线方向上的目标3。在图4A~图4B的示例中,判断为人32目视确认到的目标3是人行横道30。
此外,S5420的判断,基于在S520中获得的周边信息、即由检测部16产生的检测结果来实施,与是否必须是人32本人实际上目视确认到该目标无关。
在S5430中,对在S5420中判断出的人32目视确认到的目标3是否已登记于登记信息中进行判断。在登记信息中预先登记有:在被某人目视确认到的情况下通常认为该人有可能具有横穿的意图的目标的种类。而且,当在S5420中判断出的目标3与登记信息中所登记的目标中的任一个目标一致的情况下,判断为该目标3已被登记。在该目标3已被登记的情况下进入S5440,在该目标3未被登记的情况下进入S5450(跳过S5440。)。此外,在图4A~图4B的示例中,设为人行横道30已被登记在登记信息中。
S5430既可以通过将该登记信息存储于预测用ECU17的存储器172来实现,也可以通过预测用ECU17从外部的数据库等接收该登记信息来实现。
以下,将与登记信息中登记的目标中的任一目标一致的目标,作为非任意的目标,表述为规定的目标,但在不使用登记信息的情况下也能够决定规定的目标。例如,针对判断为目视确认到的目标3,基于其用途、功能而赋予属性信息,并通过规定的信息处理对该属性信息与横穿的可能性的关联性进行运算,也能够实现与S5430同样的步骤。
在S5440中,由于在S5430中判断为人32目视确认到规定的目标,因此,对人32向横穿方向移动的情况(开始横穿动作的情况)进行预测。
在S5450中,在未进行S5440的情况下,基于人32的信息(例如位置信息、状态信息等)对针对人32的警戒区域R进行设定,在进行了S5440的情况下进一步基于人32向横穿方向移动这样的预测结果对针对人32的警戒区域R进行设定。在图4B的示例中,在S5440中预测到了人32的横穿,因此,将针对人32的警戒区域R扩展到横穿方向侧(参照箭头E1)。
如上所述,通过对人32是否目视确认到规定的目标进行判断来进行对人32的举动的预测。在该举动预测中设定的、针对人32的警戒区域R之后作为预测结果的一部分而通过S550输出至行驶控制用ECU12。
此外,本流程图的各步骤可以在不脱离本发明的主旨的范围内进行变更,例如,既可以变更它们的顺序,也可以省略一部分的步骤,或者也可以追加其他步骤。
另外,在本实施方式中,例示了在本车辆1进行自动驾驶的情况下进行人32的举动预测的方式,但是,在本车辆1处于非自动驾驶状态的情况下也可以进行上述举动预测。例如,在驾驶员自己进行驾驶操作的情况下,预测用ECU17也能够进行人32的举动预测,并能够将该预测结果通知给驾驶员。
以上,根据本实施方式,预测用ECU17基于由检测部16产生的本车辆1的周边信息,取得存在于本车辆1的周边的各目标3(其他车辆31、人32、障碍物33、人行横道30等)的信息。目标3的信息例如包括位置信息(相对位置、距离等)、状态信息(移动方向、其速度等)。在此,作为一个目标3,在确认到作为举动预测对象者的人32的情况下,预测用ECU17对人32是否目视确认到规定的目标进行判断。而且,在判断为人32目视确认到规定的目标的情况下,预测用ECU17对人32向道路2的横穿方向移动的情况进行预测。在本实施方式中,响应于判断出人32目视确认到人行横道30的情况,而预测到人32的横穿。
在本实施方式中,通过参照作为登记信息而预先登记的目标的种类来进行人32是否目视确认到规定的目标的上述判断。该登记信息既可以在预测用ECU17内中被保持于存储器172或者也可以通过参照数据库等来取得。而且,如果判断出为人32目视确认到的目标是在登记信息中登记的目标,则预测用ECU17判断为人32目视确认到规定的目标,从而能够预测人32的横穿。
此外,人32的横穿的预测是人32向道路2的横穿方向移动的情况的预测,即人32向横穿动作过渡的情况的预测,与人32是否实际上开始横穿无关。
根据本实施方式,基于人32目视确认到了什么目标而对道路2上的人32的举动进行预测,因此,能够实现对人32的举动的预测的高精度化。
(第二实施方式)
图6A是作为第二实施方式而表示本车辆1通过自动驾驶在十字路口21C进行左转的情形的俯视图。在本实施方式中,在本车辆1的左侧方的人行道221上存在有人32。与上述第一实施方式同样地,对于人32,通过预测用ECU17而设定警戒区域R。另外,在图中,在本车辆1的前方侧的人行道222、即相对于人行横道23而与人行道221相反侧的人行道222,设置有步行者用的信号灯33B。此外,在此,为了易于观察附图,未图示信号灯33B以外的信号灯(车辆用的信号灯等)。
在此,如图6B所例示,在人32目视确认到信号灯33B(ACT2)的情况下,可认为人32希望穿过人行横道23而横穿车道21向人行道222侧移动。因此,当预先将信号灯33B登记于登记信息,并且预测用ECU17判断出人32目视确认到信号灯33B(ACT2)的情况下,对人32向横穿方向移动的情况进行预测。而且,预测用ECU17基于该预测的结果,对针对人32的警戒区域R进行设定,即,如箭头E2所示扩展至车道21侧。
预测用ECU17能够基于由检测部16产生的检测结果对信号灯33B所显示的信号的颜色进行判断。在本实施方式中,信号灯33B显示点亮为蓝色作为通常容许人32的横穿的颜色,但是,在信号灯33B显示蓝色的闪烁的情况下也同样地对上述警戒区域R进行扩展。
此外,即使信号灯33B显示红色,也可认为正因为人32希望向人行道222侧移动才目视确认到信号灯33B。因此,即使在信号灯33B显示红色的情况下,预测用ECU17也能够对针对人32的警戒区域R进行扩展。在该情况下,其扩展宽度可以小于信号灯33B显示蓝色的情况下的扩展宽度。
另外,可认为人32通常欲在信号灯33B所显示的颜色从蓝色变为红色之前完成横穿。因此,预测用ECU17通过进一步对人32的移动方向和/或移动速度进行判断,从而能够更高精度地进行对人32的举动的预测。
例如,在判断为人32朝向车道21侧(人行横道23侧)的情况下,人32开始横穿的可能性变大。因此,预测用ECU17还能够基于人32的移动方向,对人32的横穿的开始进行预测,并进一步扩展警戒区域R。
另外,例如,在人32维持向车道21侧(人行横道23侧)的移动速度或加快该移动速度的情况下,人32开始横穿的可能性变大。因此,预测用ECU17还能够基于人32的移动速度,对人32的横穿的开始进行预测,并进一步扩展警戒区域R。
在本实施方式中,设为预测用ECU17基于由检测部16产生的检测结果而能够对信号灯33B所显示的信号的颜色进行判断,但是,作为其他实施方式,信号灯33B所显示的信号的颜色也可以通过外部通信(例如道路车辆间通信)来确认。例如,预测用ECU17还能够从信号灯33B直接/间接地接收表示信号灯33B所显示的信号的颜色的信息从而对其进行确认。
根据本实施方式,预测用ECU17在判断出人32目视确认到信号灯33B的情况下对人32向横穿方向的移动进行预测,对人32的警戒区域R进行扩展。由此,与第一实施方式同样地,能够高精度地进行对人32的举动的预测。
(第三实施方式)
在上述第一实施方式至第二实施方式中,叙述了在判断出人32目视确认到规定的目标(在上述示例中登记于登记信息的目标)的情况下对人32的横穿进行预测的情况。但是,规定的目标并不限于有横穿的意图的情况下可目视确认到的目标。例如,还可考虑到尽管人32没有横穿的意图,但是为了实现某种目的而结果开始横穿的情况。例如,可考虑到儿童朝向监护人(父母、保育士等)侧出其不意地开始移动的情况。以下,作为第三实施方式,对规定的目标为人的情况进行叙述。
图7A是表示在被围墙33C包围的道路2上本车辆1通过自动驾驶而处于行驶中的情形的俯视图。此外,在本实施方式中,在道路2上未设置人行道与车道的划分。在本车辆1的前方,在道路2的两侧分别存在有人(为了进行区别而将一方设为“人32A”,将另一方设为“人32B”。)。在本实施方式中,人32A为儿童,人32B为监护人。
在此,如图7B所例示,在人32A目视确认到人32B(ACT3)的情况下,存在人32A横穿道路2而向人32B侧移动的可能性。因此,预测用ECU17在判断出人32A目视确认到人32B(ACT3)的情况下,对人32A向横穿方向移动的情况进行预测。而且,预测用ECU17基于该预测的结果,对针对人32A的警戒区域R进行设定,即,如箭头E3所示扩展至人32B侧。
在图7A~图7B的示例中,假定了人32A为儿童且人32B为监护人的情况,但是,在人32A为监护人且人32B为儿童的情况下、或者人32A以及32B为交往关系的情况下也能够进行同样的预测。
在本实施方式中,预测用ECU17能够进一步对人32A以及32B是否满足规定条件进行判断,即,能够进一步对人32A以及32B的关系进行预测,基于该结果,进行人32A的横穿的预测。人32A以及32B是否满足规定条件的判断例如在图5B的流程图的S5430之后且S5450之前实施即可。
预测用ECU17例如能够基于人32A以及32B的位置条件来进行上述判断。例如,基于人32A以及32B的相对位置、他们与本车辆1的相对位置等来进行上述判断。在本实施方式中,作为位置条件,将人32A以及32B分别位于本车辆1所行驶中的道路2的两侧的情况作为条件。由此,能够适当地对人32A的横穿进行预测。
另外,预测用ECU17例如能够基于人32A以及32B的外观条件来进行上述判断。外观条件只要能够根据人32A以及32B的外观上的特征来进行判断即可。外观条件只要是能够推测人32A以及32B之间存在某种关系的条件即可,例如包括体格条件和/或服装条件。作为体格条件,例如可列举出一方的身高比较低且另一方的身高比较高(推测为儿童以及监护人的关系)、双方的身高比较低(推测为均为儿童)的情况等。另外,作为服装条件,例如可列举出一方的服装面向儿童且另一方的服装面向大人(推测为儿童以及监护人的关系)的情况、一方的服装面向男性且另一方的服装面向女性(推测为交往关系)的情况等。
根据本实施方式,预测用ECU17在判断出人32A目视确认到人32B的情况下对人32A向横穿方向的移动进行预测,并对人32A的警戒区域R进行扩展。由此,与第一实施方式同样地,能够高精度地进行对人32A的举动的预测。
(第四实施方式)
在上述第一实施方式至第三实施方式中,叙述了在判断出人32目视确认到规定的目标的情况下对人32的横穿进行预测的情况。作为该规定的目标,在第一实施方式中例示了人行横道30,在第二实施方式中例示了信号灯33B,在第三实施方式中例示了人32B。规定的目标可以不是位于上述道路2上的目标,也可以是人32的携带物品。即,预测用ECU17在判断出人32目视确认到该人32的携带物品的情况下,也能够进行上述预测,并对针对人32的警戒区域R进行扩展。作为携带物品的示例,可列举出能用手把持的物品、能够佩戴于身体的一部分的物品等,例如可列举出便携式终端、手表、音乐播放器等电子设备、书或杂志等文件。
(第五实施方式)
在上述第一实施方式至第四实施方式中,叙述了在判断出人32目视确认到规定的目标的情况下对人32的横穿进行预测的情况。但是,在不存在妨碍横穿的物体的情况下,无论是否目视确认到规定的目标,均存在开始横穿的可能性。
图8A是作为第五实施方式而表示本车辆1通过自动驾驶在车道21上处于行驶中的情形的俯视图。在本实施方式中,人行道22通过划分部件33D而从车道21划分开。在本实施方式中划分部件33D为防护栏(例如防护轨、管式护栏等)。作为其他实施方式,划分部件33D既可以是路缘或树丛、或者也可以使用防护栏、路缘以及树丛中的两者以上来构成。
在划分部件33D设置有步行者能够穿过的间隙SP,在本实施方式中,在人行道22上的间隙SP的附近存在有人32。与上述第一实施方式同样地,通过预测用ECU17而对针对人32的警戒区域R进行设定。
在此,如图8B所例示,在人32存在于间隙SP的附近的情况下,存在人32希望穿过间隙SP而横穿车道21的可能性。因此,预测用ECU17在确认到人32存在于距间隙SP规定距离的范围内的情况下,预测为人32要穿过间隙SP而向横穿方向移动,并将警戒区域R如箭头E4所示扩展至车道21侧。
根据本实施方式,考虑划分部件33D的配置方式并基于划分部件33D中有无间隙SP来进行人32的横穿的预测。因此,根据本实施方式,能够高精度地进行对人32的举动的预测。
本实施方式的内容能够应用于第一实施方式至第四实施方式。例如,作为其他实施方式,当本车辆1在由划分部件33D划分的车道21上行驶中的情况下,预测用ECU17可以将确认到间隙SP的情况作为一个条件,并基于人32目视确认到了什么目标来进行人32的横穿的预测。作为又一其他实施方式,预测用ECU17可以在判断出间隙SP位于人32的视线方向上的情况下,进行对人32的横穿的预测。
(其他)
以上,例示了几个优选的方式,但是,本发明并不限于上述示例,可以在不脱离本发明的主旨的范围内对其一部分进行变更。例如,可以根据目的、用途等在各实施方式的内容中组合其他要素,也可以在某实施方式的内容中组合其他实施方式的内容的一部分。另外,本说明书所记载的各个术语仅是出于对本发明进行说明的目的而使用,本发明当然不限定于该术语的严格的意思,也可以包含其等价物。
另外,用于实现各实施方式中所说明的一个以上的功能的程序经由网络或存储介质而供给至系统或装置,该系统或装置的计算机中的一个以上的处理器能够读取并执行该程序。通过上述方式也能够实现本发明。
(实施方式的总结)
第一方式涉及一种预测装置(例如17),上述预测装置具备:取得单元(例如171、S520),其取得本车辆(例如1)的周边信息;判断单元(例如171、S5420~S5430),其基于上述周边信息,对道路(例如2)上的举动预测对象者(例如32、32A)是否目视确认到规定的目标(例如3、30、32B、33B)进行判断;以及预测单元(例如171、S5440),其在由上述判断单元判断为上述举动预测对象者目视确认到了上述规定的目标的情况下,对上述举动预测对象者在上述道路上向横穿方向移动的情况进行预测。
根据第一方式,基于该人目视确认到了什么目标而对道路上的人(举动预测对象者)的举动进行预测。因此,根据第一方式,能够实现对人的举动的预测的高精度化。
在第二方式中,上述判断单元参照登记有目标的种类的登记信息(例如172),当存在于上述举动预测对象者的视线方向上的目标被登记在上述登记信息中的情况下,判断为上述举动预测对象者目视确认到上述规定的目标。
根据第二方式,在判断出作为举动预测对象者的人目视确认到在登记信息中登记的目标的情况下,判断为存在该人向横穿方向移动的可能性,从而进行上述预测。因此,根据第二方式,能够进一步高精度地进行上述预测。
在第三方式中,上述规定的目标包括人行横道(例如30)。
根据第三方式,在判断出作为举动预测对象者的人目视确认到人行横道的情况下,判断为存在该人向横穿方向移动的可能性,从而进行上述预测。因此,根据第三方式,能够进一步高精度地进行上述预测。
在第四方式中,上述规定的目标包括信号灯(例如33B)。
根据第四方式,在判断出作为举动预测对象者的人目视确认到信号灯的情况下,判断为存在该人向横穿方向移动的可能性,从而进行上述预测。因此,根据第四方式,能够进一步高精度地进行上述预测。
在第五方式中,上述判断单元能够进一步对上述信号灯所显示的颜色进行判断,当由上述判断单元进一步判断为上述信号灯显示蓝色的情况下,上述预测单元对上述举动预测对象者在上述道路上向横穿方向移动的情况进行预测。
根据第五方式,考虑到信号灯所显示的颜色来进行上述预测。在信号灯显示蓝色的情况下,可认为存在作为举动预测对象者的人向横穿方向移动的可能性。因此,根据第五方式,能够进一步高精度地进行上述预测。此外,信号灯所显示的蓝色除了点亮为蓝色的情况以外,还包括以蓝色闪烁的情况。
在第六方式中,上述判断单元能够进一步对上述举动预测对象者的移动方向进行判断,当由上述判断单元进一步判断为上述举动预测对象者正在朝向车道(例如21)侧进行移动的情况下,上述预测单元对上述举动预测对象者横穿上述车道的情况进行预测。
根据第六方式,考虑到作为举动预测对象者的人的移动方向来进行上述预测。因此,根据第六方式,能够进一步高精度地进行上述预测。
在第七方式中,上述判断单元能够进一步对上述举动预测对象者的移动速度进行判断,当由上述判断单元进一步判断为上述举动预测对象者维持朝向车道(例如21)侧的移动速度或加快该移动速度的情况下,上述预测单元对上述举动预测对象者横穿上述车道的情况进行预测。
根据第七方式,考虑到作为举动预测对象者的人的移动速度,即,基于该人的移动速度是否下降来进行上述预测。因此,根据第七方式,能够进一步高精度地进行上述预测。
在第八方式中,上述规定的目标包括人(例如32B)。
根据第八方式,在判断出作为举动预测对象者的人(32A)目视确认到其他人(32B)的情况下,判断为存在作为举动预测对象者的人向横穿方向移动的可能性,从而进行上述预测。因此,根据第八方式,能够进一步高精度地进行上述预测。
在第九方式中,上述判断单元能够进一步对上述举动预测对象者以及上述人是否满足规定条件进行判断,当由上述判断单元进一步判断为满足上述规定条件的情况下,上述预测单元对上述举动预测对象者在上述道路上向横穿方向移动的情况进行预测。
根据第九方式,在作为举动预测对象者的人(32A)、和判断为该人目视确认到的其他人(32B)满足规定条件的情况下,判断为存在作为举动预测对象者的人向横穿方向移动的可能性,从而进行上述预测。因此,根据第九方式,能够进一步高精度地进行上述预测。
在第十方式中,上述规定条件包括上述举动预测对象者以及上述人的位置条件。
根据第十方式,基于作为举动预测对象者的人(32A)与判断为该人目视确认到的其他人(32B)之间的位置条件,例如他们的相对位置、他们与本车辆的相对位置来进行上述预测。因此,根据第十方式,能够进一步高精度地进行上述预测。
在第十一方式中,上述位置条件包括上述举动预测对象者以及上述人分别位于上述道路的两侧的情况。
根据第十一方式,在作为举动预测对象者的人(32A)和判断为该人目视确认到的其他人(32B)分别存在于道路的两侧的情况下,进行上述预测。此外,第十一方式除了道路由车道以及人行道构成的情况以外,还能够应用于车道以及人行道没有被划分的情况。
在第十二方式中,上述规定条件包括上述举动预测对象者以及上述人的外观条件。
根据第十二方式,在作为举动预测对象者的人(32A)和判断为该人目视确认到的其他人(32B)满足规定的外观条件的情况下,进行上述预测。因此,根据第十二方式,能够进一步高精度地进行上述预测。此外,规定的外观条件只要是能够基于外观上的特征对他们之间有可能存在有某种关系的情况进行判断即可。
在第十三方式中,上述外观条件包括体格条件和/或服装条件。
根据第十三方式,在作为举动预测对象者的人(32A)和判断出该人目视确认到的其他人(32B)满足规定的体格条件和/或服装条件的情况下,进行上述预测。因此,根据第十三方式,能够进一步高精度地进行上述预测。
在第十四方式中,上述判断单元能够进一步对于将车道(例如21)与人行道(例如22)进行划分的划分部件(例如33D)的配置方式进行判断,当由上述判断单元判断为在上述划分部件设置有上述举动预测对象者能够穿过的间隙(例如SP)的情况下,上述预测单元对上述举动预测对象者穿过上述间隙而从上述人行道侧向上述车道侧移动的情况进行预测。
根据第十四方式,考虑到划分部件的配置方式来进行上述预测。在划分部件设置有间隙的情况下,可认为存在作为举动预测对象者的人从该间隙向横穿方向移动的可能性。因此,根据第十四方式,能够进一步高精度地进行上述预测。
在第十五方式中,上述划分部件包括防护栏、路缘以及树丛中的至少一个。
根据第十五方式,能够进一步高精度地进行基于第十四方式的上述预测。作为防护栏的示例,可列举出防护轨、管式护栏等。另外,车道与人行道通过路缘、树丛等来划分的情况也较多,在该的情况下也优选进行上述预测。
在第十六方式中,还具备设定单元(例如171、S5450),上述设定单元基于由上述预测单元产生的上述预测的结果,设定针对上述举动预测对象者的警戒区域(例如R)。
根据第十六方式,基于以上各方式的预测结果,设定针对作为举动预测对象者的人的警戒区域。由此,在确保与作为举动预测对象者的人的距离的同时能够进行驾驶,从而能够实现安全驾驶。
第十七方式涉及一种车辆,上述车辆具备:检测单元(例如16),其对本车辆的周边信息进行检测;判断单元(例如171、S5420~S5430),其基于由上述检测单元检测到的上述周边信息,对道路(例如2)上的举动预测对象者(例如32、32A)是否目视确认到规定的目标(例如3、30、32B、33B)进行判断;以及预测单元(例如171、S5440),其在由上述判断单元判断为上述举动预测对象者目视确认到了上述规定的目标的情况下,对上述举动预测对象者在上述道路上向横穿方向移动的情况进行预测。
根据第十七方式,与上述第一方式同样地,基于该人目视确认到了什么目标而对道路上的人(举动预测对象者)的举动进行预测,因此,能够高精度地对其举动进行预测。
第十八方式涉及一种预测方法,上述预测方法包括如下步骤:取得本车辆(例如1)的周边信息的步骤(例如S520);基于上述周边信息,对道路(例如2)上的举动预测对象者(例如32、32A)是否目视确认到规定的目标(例如3、30、32B、33B)进行判断的步骤(例如S5420~S5430);在上述判断步骤中判断为上述举动预测对象者目视确认到了上述规定的目标的情况下,对上述举动预测对象者在上述道路上向横穿方向移动的情况进行预测的步骤(例如S5440)。
根据第十八方式,与上述第一方式同样地,基于该人目视确认到了什么目标而对道路上的人(举动预测对象者)的举动进行预测,因此,能够高精度地对其举动进行预测。
第十九方式是一种计算机可读存储介质,用于存储为了使计算机执行上述各步骤的程序。
根据第十九方式,能够通过计算机实现上述第十八方式。
符号说明
1:本车辆;3:目标;31:其他车辆;17:预测用ECU(预测装置)。

Claims (15)

1.一种预测装置,其特征在于,具备:
取得单元,其取得本车辆的周边信息;
判断单元,其基于所述周边信息,对道路上的举动预测对象者是否目视确认到规定的目标进行判断;以及
预测单元,其在由所述判断单元判断为所述举动预测对象者目视确认到了所述规定的目标的情况下,对所述举动预测对象者在所述道路上向横穿方向移动的情况进行预测,
所述规定的目标是人行横道。
2.根据权利要求1所述的预测装置,其特征在于,
所述判断单元参照登记有目标的种类的登记信息,当存在于所述举动预测对象者的视线方向上的目标被登记在所述登记信息中的情况下,判断为所述举动预测对象者目视确认到所述规定的目标。
3.根据权利要求1所述的预测装置,其特征在于,
所述判断单元能够进一步对所述举动预测对象者的移动速度进行判断,
当由所述判断单元进一步判断为所述举动预测对象者维持朝向车道侧的移动速度或加快该移动速度的情况下,所述预测单元对所述举动预测对象者横穿所述车道的情况进行预测。
4.根据权利要求1所述的预测装置,其特征在于,
所述判断单元能够进一步对划分车道与人行道的划分部件的配置方式进行判断,
当由所述判断单元判断为在所述划分部件设置有所述举动预测对象者能够穿过的间隙的情况下,所述预测单元对所述举动预测对象者穿过所述间隙而从所述人行道侧向所述车道侧移动的情况进行预测。
5.根据权利要求4所述的预测装置,其特征在于,
所述划分部件包括防护栏、路缘以及树丛中的至少一个。
6.根据权利要求1所述的预测装置,其特征在于,
还具备设定单元,所述设定单元基于由所述预测单元产生的所述预测的结果,设定针对所述举动预测对象者的警戒区域。
7.一种预测装置,其特征在于,具备:
取得单元,其取得本车辆的周边信息;
判断单元,其基于所述周边信息,对道路上的举动预测对象者是否目视确认到规定的目标进行判断;以及
预测单元,其在由所述判断单元判断为所述举动预测对象者目视确认到了所述规定的目标的情况下,对所述举动预测对象者在所述道路上向横穿方向移动的情况进行预测,
所述规定的目标是信号灯。
8.根据权利要求7所述的预测装置,其特征在于,
所述判断单元能够进一步对所述信号灯所显示的颜色进行判断,
当由所述判断单元进一步判断为所述信号灯显示蓝色的情况下,所述预测单元对所述举动预测对象者在所述道路上向横穿方向移动的情况进行预测。
9.根据权利要求7所述的预测装置,其特征在于,
所述判断单元能够进一步对所述举动预测对象者的移动方向进行判断,
当由所述判断单元进一步判断为所述举动预测对象者正在朝向车道侧进行移动的情况下,所述预测单元对所述举动预测对象者横穿所述车道的情况进行预测。
10.一种预测装置,其特征在于,具备:
取得单元,其取得本车辆的周边信息;
判断单元,其基于所述周边信息,对道路上的举动预测对象者是否目视确认到规定的目标进行判断;以及
预测单元,其在由所述判断单元判断为所述举动预测对象者目视确认到了所述规定的目标的情况下,对所述举动预测对象者在所述道路上向横穿方向移动的情况进行预测,
所述规定的目标是人。
11.根据权利要求10所述的预测装置,其特征在于,
所述判断单元能够进一步对所述举动预测对象者以及所述人是否满足规定条件进行判断,
当由所述判断单元进一步判断为满足所述规定条件的情况下,所述预测单元对所述举动预测对象者在所述道路上向横穿方向移动的情况进行预测。
12.根据权利要求11所述的预测装置,其特征在于,
所述规定条件包括所述举动预测对象者以及所述人的位置条件。
13.根据权利要求12所述的预测装置,其特征在于,
所述位置条件包括所述举动预测对象者以及所述人分别存在于所述道路的两侧的情况。
14.根据权利要求11所述的预测装置,其特征在于,
所述规定条件包括所述举动预测对象者以及所述人的外观条件。
15.根据权利要求14所述的预测装置,其特征在于,
所述外观条件包括体格条件和/或服装条件。
CN201810349724.5A 2017-06-01 2018-04-18 预测装置 Active CN108974006B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-109302 2017-06-01
JP2017109302A JP6613265B2 (ja) 2017-06-01 2017-06-01 予測装置、車両、予測方法およびプログラム

Publications (2)

Publication Number Publication Date
CN108974006A CN108974006A (zh) 2018-12-11
CN108974006B true CN108974006B (zh) 2021-08-10

Family

ID=64459959

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810349724.5A Active CN108974006B (zh) 2017-06-01 2018-04-18 预测装置

Country Status (3)

Country Link
US (1) US10817730B2 (zh)
JP (1) JP6613265B2 (zh)
CN (1) CN108974006B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109345589A (zh) * 2018-09-11 2019-02-15 百度在线网络技术(北京)有限公司 基于自动驾驶车辆的位置检测方法、装置、设备及介质
JP7252513B2 (ja) * 2019-03-29 2023-04-05 マツダ株式会社 車両運転支援システム
JP7154482B2 (ja) * 2019-03-29 2022-10-18 マツダ株式会社 車両運転支援システム
US20210314752A1 (en) * 2020-04-03 2021-10-07 Cavh Llc Device allocation system
WO2021234427A1 (ja) * 2020-05-22 2021-11-25 日産自動車株式会社 走行支援方法及び走行支援装置
US11753043B2 (en) * 2021-05-20 2023-09-12 Waymo Llc Predicting crossing behavior of agents in the vicinity of an autonomous vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284473A (ja) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd 運転支援システム、自動車、および運転支援方法
CN104802793A (zh) * 2014-01-23 2015-07-29 罗伯特·博世有限公司 用于对行人在横穿车辆的行车道时的行为进行分类的方法和装置以及车辆的人员保护系统
CN105102808A (zh) * 2013-03-29 2015-11-25 日立汽车系统株式会社 行驶控制装置和行驶控制系统
CN105151043A (zh) * 2015-08-19 2015-12-16 内蒙古麦酷智能车技术有限公司 一种无人驾驶汽车紧急避让的系统和方法
CN105283883A (zh) * 2013-04-22 2016-01-27 福特全球技术公司 用于检测非机动车道路使用者的方法和装置
CN106428000A (zh) * 2016-09-07 2017-02-22 清华大学 一种车辆速度控制装置和方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4967015B2 (ja) * 2007-04-02 2012-07-04 パナソニック株式会社 安全運転支援装置
JP4939564B2 (ja) * 2009-03-23 2012-05-30 本田技研工業株式会社 車両用情報提供装置
CN103155015B (zh) * 2010-09-08 2014-12-31 丰田自动车株式会社 移动物预测装置、假想活动物预测装置、程序模块、移动物预测方法以及假想活动物预测方法
JP5246248B2 (ja) * 2010-11-29 2013-07-24 株式会社デンソー 予測装置
JP2012238185A (ja) * 2011-05-12 2012-12-06 Mitsubishi Motors Corp 飛出し警報装置
WO2013042205A1 (ja) * 2011-09-20 2013-03-28 トヨタ自動車株式会社 歩行者行動予測装置および歩行者行動予測方法
US9373042B2 (en) * 2011-09-20 2016-06-21 Toyota Jidosha Kabushiki Kaisha Subject change detection system and subject change detection method
JP5673568B2 (ja) * 2012-01-16 2015-02-18 トヨタ自動車株式会社 物体検出装置
JP5962706B2 (ja) * 2014-06-04 2016-08-03 トヨタ自動車株式会社 運転支援装置
DE102014219148A1 (de) * 2014-09-23 2016-03-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erstellen eines Bewegungsmodells eines Straßenverkehrsteilnehmers
JP2016177722A (ja) * 2015-03-23 2016-10-06 株式会社ゼンリンデータコム 安全運転支援装置及び自動運転車
JP6103265B2 (ja) 2015-05-25 2017-03-29 マツダ株式会社 車両用歩行者画像取得装置
JP6279006B2 (ja) * 2016-04-28 2018-02-14 株式会社三共 スロットマシン
US20170329332A1 (en) * 2016-05-10 2017-11-16 Uber Technologies, Inc. Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object
JP6617651B2 (ja) 2016-07-07 2019-12-11 株式会社デンソー 歩行者検出装置、歩行者検出方法
JP6680136B2 (ja) * 2016-08-08 2020-04-15 株式会社デンソー 車外表示処理装置及び車外表示システム
US10699305B2 (en) * 2016-11-21 2020-06-30 Nio Usa, Inc. Smart refill assistant for electric vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284473A (ja) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd 運転支援システム、自動車、および運転支援方法
CN105102808A (zh) * 2013-03-29 2015-11-25 日立汽车系统株式会社 行驶控制装置和行驶控制系统
CN105283883A (zh) * 2013-04-22 2016-01-27 福特全球技术公司 用于检测非机动车道路使用者的方法和装置
CN104802793A (zh) * 2014-01-23 2015-07-29 罗伯特·博世有限公司 用于对行人在横穿车辆的行车道时的行为进行分类的方法和装置以及车辆的人员保护系统
CN105151043A (zh) * 2015-08-19 2015-12-16 内蒙古麦酷智能车技术有限公司 一种无人驾驶汽车紧急避让的系统和方法
CN106428000A (zh) * 2016-09-07 2017-02-22 清华大学 一种车辆速度控制装置和方法

Also Published As

Publication number Publication date
US20180349714A1 (en) 2018-12-06
JP6613265B2 (ja) 2019-11-27
CN108974006A (zh) 2018-12-11
US10817730B2 (en) 2020-10-27
JP2018205965A (ja) 2018-12-27

Similar Documents

Publication Publication Date Title
CN108974006B (zh) 预测装置
CN110678913B (zh) 预测装置、车辆、预测方法以及存储介质
CN110392652B (zh) 在车辆从道路的车道转弯之前操纵车辆的系统和方法
US11414080B2 (en) Vehicle control device, vehicle control method, and storage medium
US10643474B2 (en) Vehicle control device, vehicle control method, and recording medium
CN110356402B (zh) 车辆控制装置、车辆控制方法及存储介质
US11130492B2 (en) Vehicle control device, vehicle control method, and storage medium
JP7039940B2 (ja) 車両制御装置
RU2738228C1 (ru) Устройство помощи при вождении и способ помощи при вождении
JP6592852B2 (ja) 車両制御装置、車両制御方法、およびプログラム
CN108974010B (zh) 处理装置、车辆、处理方法以及存储介质
CN109383367B (zh) 车辆外部通知装置
RU2731676C2 (ru) Способ управления устройством отображения и устройство отображения
CN110281934B (zh) 车辆控制装置、车辆控制方法及存储介质
CN112622908A (zh) 车辆控制装置、车辆控制方法及存储介质
CN110949389A (zh) 车辆控制装置、车辆控制方法及存储介质
EP4001044A2 (en) Increasing awareness of passengers during pullovers and drop offs for autonomous vehicles
CN114863718B (zh) 控制装置、方法以及记录有程序的非临时性计算机可读介质
US20220366175A1 (en) Long-range object detection, localization, tracking and classification for autonomous vehicles
JP7423837B2 (ja) 自動運転車用情報提示装置
US20210197863A1 (en) Vehicle control device, method, and program
JP2021172264A (ja) 車両の走行支援方法及び走行支援装置
CN116890862A (zh) 驾驶支援装置、驾驶支援方法以及存储介质
JP2018205909A (ja) 処理装置、車両、処理方法およびプログラム
WO2023194793A1 (ja) 情報提供装置及び情報提供方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant