JP2018205965A - 予測装置、車両、予測方法およびプログラム - Google Patents

予測装置、車両、予測方法およびプログラム Download PDF

Info

Publication number
JP2018205965A
JP2018205965A JP2017109302A JP2017109302A JP2018205965A JP 2018205965 A JP2018205965 A JP 2018205965A JP 2017109302 A JP2017109302 A JP 2017109302A JP 2017109302 A JP2017109302 A JP 2017109302A JP 2018205965 A JP2018205965 A JP 2018205965A
Authority
JP
Japan
Prior art keywords
prediction
person
target person
behavior
behavior prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017109302A
Other languages
English (en)
Other versions
JP6613265B2 (ja
Inventor
洋介 坂本
Yosuke Sakamoto
洋介 坂本
和馬 小原
Kazuma Ohara
和馬 小原
成光 土屋
Narimitsu Tsuchiya
成光 土屋
海明 松原
Umiaki Matsubara
海明 松原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2017109302A priority Critical patent/JP6613265B2/ja
Priority to CN201810349724.5A priority patent/CN108974006B/zh
Priority to US15/974,718 priority patent/US10817730B2/en
Publication of JP2018205965A publication Critical patent/JP2018205965A/ja
Application granted granted Critical
Publication of JP6613265B2 publication Critical patent/JP6613265B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2422/00Indexing codes relating to the special location or mounting of sensors
    • B60W2422/95Measuring the same parameter at multiple locations of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】道路上の人の挙動予測の高精度化を可能にする。【解決手段】車載用予測装置は、自車両の周辺情報を取得する取得手段と、前記周辺情報に基づいて、道路上の挙動予測対象者が所定のオブジェクトを視認しているか否かを判定する判定手段と、前記挙動予測対象者が前記所定のオブジェクトを視認したと前記判定手段により判定された場合、前記挙動予測対象者が前記道路を横断方向に移動することを予測する予測手段と、を備える。【選択図】図1

Description

本発明は、車載用の予測装置に関する。
特許文献1には、道路を横断する歩行者を撮像した結果を機械学習用のサンプルの素材に用いるため、自車両の前方の歩行者の横断の可能性を予測し、その歩行者の前を通過した後、自車両の後方において横断を開始した歩行者を撮像することが記載されている。
特開2016−218873号公報
ところで、運転を行うのに際して、安全運転を実現するため、道路上の人の挙動をより高い精度で予測することが求められる。
本発明は、道路上の人の挙動予測を高精度化することを目的とする。
本発明は、車載用予測装置に係り、前記予測装置は、自車両の周辺情報を取得する取得手段と、前記周辺情報に基づいて、道路上の挙動予測対象者が所定のオブジェクトを視認しているか否かを判定する判定手段と、前記挙動予測対象者が前記所定のオブジェクトを視認したと前記判定手段により判定された場合、前記挙動予測対象者が前記道路を横断方向に移動することを予測する予測手段と、を備えることを特徴とする。
本発明によれば、道路上の人の挙動予測の高精度化が可能となる。
車両の構成の例を説明するための図である。 検出部の配置位置の例を説明するための上面図である。 道路上の各オブジェクトについての警戒領域の設定方法の例を説明するための上面図である。 歩行者の横断の予測方法の例を説明するための上面図である。 予測用ECUの予測方法の例を説明するためのフローチャートである。 歩行者の横断の予測方法の例を説明するための上面図である。 歩行者の横断の予測方法の例を説明するための上面図である。 歩行者の横断の予測方法の例を説明するための上面図である。
以下、添付図面を参照しながら本発明の実施形態について説明する。なお、各図は、実施形態の構造ないし構成を示す模式図であり、図示された各部材の寸法は必ずしも現実のものを反映するものではない。また、各図において、同一の部材または同一の構成要素には同一の参照番号を付しており、以下、重複する内容については説明を省略する。
(第1実施形態)
図1は、第1実施形態に係る車両1の構成を説明するためのブロック図である。車両1は、操作部11、走行制御用ECU(電子制御ユニット)12、駆動機構13、制動機構14、操舵機構15、検出部16、および、予測用ECU17を備える。なお、本実施形態では車両1は四輪車とするが、車輪の数は4に限られるものではない。
操作部11は、加速用操作子111、制動用操作子112、および、操舵用操作子113を含む。典型的には、加速用操作子111はアクセルペダルであり、制動用操作子112はブレーキペダルであり、また、操舵用操作子113はステアリングホイールである。しかし、これらの操作子111〜113には、レバー式、ボタン式等、他の方式のものが用いられてもよい。
走行制御用ECU12は、CPU121、メモリ122、および、通信インタフェース123を含む。CPU121は、通信インタフェース123を介して操作部11から受け取った電気信号に基づいて所定の処理を行う。そして、CPU121は、その処理結果を、メモリ122に格納し、或いは、通信インタフェース123を介して各機構13〜15に出力する。このような構成により、走行制御用ECU12は、各機構13〜15を制御する。
走行制御用ECU12は、本構成に限られるものではなく、他の実施形態として、ASIC(特定用途向け集積回路)等の半導体装置が用いられてもよい。即ち、走行制御用ECU12の機能は、ハードウェアおよびソフトウェアの何れによっても実現可能である。また、ここでは説明の容易化のため走行制御用ECU12を単一の要素として示したが、これらは複数に分けられていてもよく、走行制御用ECU12は、例えば加速用、制動用および操舵用の3つのECUに分けられていてもよい。
駆動機構13は、例えば、内燃機関および変速機を含む。制動機構14は、例えば、各車輪に設けられたディスクブレーキである。操舵機構15は、例えば、パワーステアリングを含む。走行制御用ECU12は、運転者による加速用操作子111の操作量に基づいて駆動機構13を制御する。また、走行制御用ECU12は、運転者による制動用操作子112の操作量に基づいて制動機構14を制御する。また、走行制御用ECU12は、運転者による操舵用操作子113の操作量に基づいて操舵機構15を制御する。
検出部16は、カメラ161、レーダ162、及び、ライダ(Light Detection and Ranging(LiDAR))163を含む。カメラ161は、例えばCCD/CMOSイメージセンサを用いた撮像装置である。レーダ162は、例えばミリ波レーダ等の測距装置である。また、ライダ163は、例えばレーザレーダ等の測距装置である。これらは、図2に例示されるように、車両1の周辺情報を検出可能な位置、例えば、車体の前方側、後方側、上方側および側方側にそれぞれ配される。
ここで、本明細書において、前、後、上、側方(左/右)などの表現を用いる場合があるが、これらは、車体を基準に示される相対的な方向を示す表現として用いられる。例えば、「前」は車体の前後方向における前方を示し、「上」は車体の高さ方向を示す。
車両1は、検出部16による検出結果(車両1の周辺情報)に基づいて自動運転を行うことが可能である。本明細書において、自動運転は、運転操作(加速、制動および操舵)の一部または全部を、運転者側ではなく、走行制御用ECU12側で行うことをいう。即ち、自動運転の概念には、運転操作の全部を走行制御用ECU12側で行う態様(いわゆる完全自動運転)、および、運転操作の一部を走行制御用ECU12側で行う態様(いわゆる運転支援)、が含まれる。運転支援の例としては、車速制御(オートクルーズコントロール)機能、車間距離制御(アダプティブクルーズコントロール)機能、車線逸脱防止支援(レーンキープアシスト)機能、衝突回避支援機能等が挙げられる。
予測用ECU17は、詳細については後述とするが、道路上の各オブジェクトの挙動を予測する。予測用ECU17は、予測装置、挙動予測装置等と称されてもよいし、処理装置(プロセッサ)、情報処理装置等と称されてもよい(更に、装置の代わりに、デバイス、モジュール、ユニット等と称されてもよい。)。自動運転を行う際には、走行制御用ECU12は、予測用ECU17による予測結果に基づいて操作子111〜113の一部または全部を制御する。
予測用ECU17は、走行制御用ECU12同様の構成を有し、CPU171、メモリ172、および、通信インタフェース173を含む。CPU171は、通信インタフェース173を介して、検出部16から車両1の周辺情報を取得する。CPU171は、この周辺情報に基づいて道路上の各オブジェクトの挙動を予測し、その予測結果を、メモリ172に格納し、或いは、通信インタフェース173を介して走行制御用ECU12に出力する。
図3は、道路2上に車両1および複数のオブジェクト3が存在している様子を示す上面図であり、車両1(以下、区別のため「自車両1」)が車道21を自動運転により走行している様子が示される。自車両1は、検出部16により車道21および歩道22上のオブジェクト3を検出し、これらを避けるように走行経路を設定することで自動運転を行う。ここではオブジェクト3の例として、他車両31、人32(例えば歩行者)、および、障害物33が挙げられる。なお、矢印が付されたオブジェクト3について、矢印は、そのオブジェクト3の進行方向を示している。
なお、ここでは障害物33としてロードコーンを図示したが、障害物33は、走行の物理的な妨げとなる物体、又は、接触の回避が推奨される物体であればよく、この例に限られない。障害物33は、例えば、ごみ等の落下物であってもよいし、信号機や防護柵等の設置物であってもよく、動産/不動産を問わない。
図3に示されるように、検出部16による検出結果(車両1の周辺情報)から複数のオブジェクト3が確認された場合、予測用ECU17は、各オブジェクト3について警戒領域Rを設定する。警戒領域Rは、自車両1の接触を回避するための領域、即ち自車両1が重ならないことが推奨される領域である。あるオブジェクト3についての警戒領域Rは、そのオブジェクト3が所定期間内に移動する可能性のある領域として、そのオブジェクト3の輪郭の外側に所定の幅を有するように設定される。警戒領域Rは、周期的に、例えば10[msec]ごとに設定(変更、更新、再設定。以下、単に「設定」と表現する。)される。
なお、ここでは説明の容易化のため、警戒領域Rを平面(2次元)で示すが、警戒領域Rは、実際には、車載の検出部16により検出された空間に従って設定される。そのため、警戒領域Rは、3次元空間座標において表現され、或いは、時間軸を加えた4次元空間座標において表現されうる。
予測用ECU17は、例えば、自車両1の前方を走行中の他車両31についての警戒領域Rを、他車両31の輪郭の外側に設定する。警戒領域Rの幅(輪郭からの距離)は、他車両31の情報(例えば、自車両1に対する相対位置や自車両1からの距離などの位置情報、及び、他車両31の進行方向、車速、灯火器の点灯の有無などの状態情報)に基づいて設定される。例えば、警戒領域Rの幅は、前方、側方および後方において、互いに異なるように設定されうる。例えば、他車両31が直進中の場合、予測用ECU17は、警戒領域Rを、車体の側方について所定の幅(例えば50cm程度)となり、車体の前方および後方については比較的広めの幅(他車両31の車速に応じた幅)、となるように設定する。他車両31が左旋回(又は右旋回)した場合には、予測用ECU17は、警戒領域Rの左側方(又は右側方)の幅を広げる。また、他車両31が停止した場合には、警戒領域Rは、前方、側方および後方について同一の幅で設定されてもよい。
また、予測用ECU17は、例えば、歩道22上の人32についての警戒領域Rを、人32の情報(例えば、自車両1に対する相対位置や自車両1からの距離などの位置情報、及び、人32の移動方向、移動速度、姿勢、視線などの状態情報)に基づいて、人32の輪郭の外側に設定する。例えば、警戒領域Rの幅は、人32の情報に基づいて、前方、側方および後方において、互いに異なるように設定されうる。例えば、警戒領域Rの幅は、人32の移動速度に基づいて設定され、及び/又は、人32の視線に基づいて設定される。人32が立ち止まっている場合には、警戒領域Rは、前方、側方および後方について同一の幅で設定されてもよい。
付随的に、予測用ECU17は、人32の年齢層を更に予測し、その予測結果に基づいて、警戒領域Rの幅を設定することも可能である。この予測は、検出部16からの検出結果に基づく人32の外観情報(体格情報、服装情報等、その人の外見の情報)を用いて行われればよい。
更に、予測用ECU17は、例えば、車道21上の障害物33についての警戒領域Rを、障害物33の情報(例えば、自車両1に対する相対位置や自車両1からの距離などの位置情報、及び、種類、形状、寸法などの状態情報)に基づいて、障害物33の輪郭の外側に設定する。障害物33は移動しないと考えられるため、警戒領域Rの幅は所定値に設定されてもよい。検出部16が、例えば風速センサを更に含み、風速を検出可能な場合には、警戒領域Rの幅は、風速に基づいて設定されてもよい。
各オブジェクト3についての警戒領域Rの幅は、更に自車両1の車速に基づいて設定されてもよい。自車両1が比較的高速に走行中の場合、例えば、他車両31についての警戒領域R1の幅を広めに設定することで、他車両31との車間距離を十分に取ることが可能となり、他車両31との接触を回避することが可能となる。
走行制御用ECU12は、予測用ECU17からの予測結果に基づいて、各オブジェクト3についての警戒領域Rを通らないように走行経路を設定することで、自車両1の各オブジェクト3との接触を防ぐことを可能にする。
図4Aは、自車両1が自動運転により車道21上を横断歩道30に向かって走行中の様子を示す上面図である。本実施形態では、歩道22が段差33Aによって車道21から区画されており、この歩道22上に人32が存在している。
なお、図中において、段差33Aについて、広い幅で示された部分は高低差が大きい部分に対応し、狭い幅で示された部分は高低差が小さい部分に対応する。即ち、図4Aは、車道21と歩道22との高低差が横断歩道30の近傍で小さくなっていることを示す。
他の実施形態として、車道21と歩道22とは、縁石等で区画されてもよいし、区分線(白線など)のみで区画されてもよいし、或いは、歩道と車道とが区画されていない道路であってもよい。
前述のとおり(図3参照)、自車両1の予測用ECU17は、人32について、その情報(位置情報や状態情報など)に基づいて警戒領域Rを設定する。ここでは、人32は歩道22において立ち止まっているものとするが、所定の速度で移動中であってもよい。
なお、横断歩道30は、道路2の一部であるが、道路2上に白線で示されることにより一般に視認可能であるため、検出部16による検出結果に基づいてオブジェクト3の1つとして特定可能である。但し、横断歩道30については、警戒領域Rは設定されないものとする(或いは、警戒領域Rの幅はゼロに設定されるものとする。)。
ここで、図4Bに例示されるように、人32が横断歩道30を視認した(ACT1)場合、人32は横断歩道30を通って車道21を横断することを希望していると考えられる。そこで、予測用ECU17は、人32が横断歩道30を視認した(ACT1)と確認された場合、人32が横断方向に移動するという予測の結果に基づいて、警戒領域Rを、矢印E1で示されるように横断歩道30側/車道21側に拡張する。
詳細については後述とするが、人32が或るオブジェクト(本実施形態では、横断歩道30)を視認したと確認された場合とは、そのオブジェクトが人32の視線方向に(視線上に)存在することが、予測用ECU17において判定された場合を示す。この判定は、検出部16による検出結果に基づいて行われる。図中では説明の容易化のため、上面視での視線方向を示すが、視線方向は上下方向(即ち、道路2に対して垂直な方向)についても考慮されるとよく、これにより、この判定の精度を高めることができる。即ち、好適には、人32の視線方向は、3次元空間座標において表現されるよい。
走行制御用ECU12は、以上のようにして設定された警戒領域Rに基づいて、自車両1の運転操作をどのようにするか決定可能である。例えば、走行制御用ECU12は、上記拡張された警戒領域R(矢印E1)に基づいて、自車両1を減速させることを決定することができる。また、例えば、人32が車道21の横断を開始した場合には、走行制御用ECU12は、その横断が完了するまで自車両1を停止させることを決定することができる。
図5A〜5Bは、本実施形態に係る人32の挙動予測、及び、それに伴う警戒領域Rの設定を行うための方法を示すフローチャートである。このフローチャートの内容は、主に予測用ECU17においてCPU171により行われる。
予測用ECU17は、自車両1が自動運転を開始した場合、自車両1の周辺情報に基づいて自車両1の周辺の各オブジェクト3を認識し、各オブジェクト3に警戒領域Rを設定し、その結果を走行制御用ECU12に出力する。そのような中で、予測用ECU17は、人32の挙動予測を、その人32が何を視認したかに基づいて行い、その予測結果に基づいて人32についての警戒領域Rを設定する。
図5Aを参照すると、ステップS510(以下、単に「S510」と示す。他のステップも同様とする。)では、自車両1が自動運転状態か否かを判定する。このステップは、例えば、予測用ECU17が、自車両1が自動運転状態か否かを示す信号を走行制御用ECU12から受け取ることで行われる。自動運転状態の場合にはS520に進み、自動運転状態でない場合には本フローチャートを終了する。
S520では、自車両1の周辺情報を取得する。このステップは、検出部16により検出された自車両1の周辺情報を予測用ECU17が受け取ることで行われる。
S530では、S520で得られた周辺情報から、自車両1の周辺に存在する各オブジェクト3を抽出する。このステップは、周辺情報を示すデータに対して所定のデータ処理(例えば、輪郭抽出を行うデータ処理)をすることで行われる。
各オブジェクト3は、その情報(前述の位置情報や状態情報など)に基づいて、属性(種類)ごとに分類される(例えば、他車両31、人32および障害物33の何れに該当するのか判定される。)。この分類は、例えば、各オブジェクト3の外観に基づいて、パターンマッチングにより行われうる。また、各オブジェクト3について、警戒領域Rが設定されうる。本実施形態では、人32についての警戒領域Rは後述の挙動予測(S540)に基づいて設定されるが、その他のオブジェクト3についての警戒領域RはS530で設定されうる。
S540では、詳細については後述とするが(図5B参照)、人32が視線方向に存在するオブジェクトに基づいて、人32の挙動予測を行う。
S550では、S540での挙動予測を含む予測結果を、走行制御用ECU12に対して出力する。走行制御用ECU12は、上記予測結果に基づいて、自車両1の走行経路を決定し、自車両1の運転操作の内容を決定する。
S560では、自車両1の自動運転状態を終了するか否かを判定する。このステップは、例えば、予測用ECU17が、自動運転状態の終了を示す信号を走行制御用ECU12から受け取ることで行われる。自動運転状態が終了されない場合にはS520に戻り、自動運転状態が終了される場合には本フローチャートを終了する。
S520〜S560の一連のステップは、例えば数十[msec]程度、又は、それより短い期間(例えば10[msec]程度)で繰り返し行われる。即ち、自車両1の周辺情報の取得、自車両1の周辺の各オブジェクト3の挙動予測およびそれに伴う警戒領域Rの設定、並びに、それらの結果の走行制御用ECU12への出力は、周期的に行われる。
図5Bは、S540の挙動予測の方法を説明するためのフローチャートである。S540は、S5410〜S5450を含み、人32が所定のオブジェクトを視認したか否かの判定結果に基づいて、人32の挙動予測が行われる。そして、その予測結果に基づいて、人32についての警戒領域Rが設定される。
S5410では、S530で抽出されたオブジェクト3の中に、人32(歩行者等)が存在するか否かを判定する。人32が存在する場合にはS5420に進み、そうでない場合には本フローチャートを終了する。
S5420では、S5410で確認された人32が視認した(と考えられる)オブジェクト3を抽出する。このことは、人32の視線方向に存在するオブジェクト3を、S530で抽出されたオブジェクト3の群の中から選択することで行われ、これにより、人32がその視線方向に存在するオブジェクト3を視認したものと判定する。図4A〜4Bの例で人32が視認したと判定されたオブジェクト3は、横断歩道30である。
なお、S5420の判定は、S520で得られた周辺情報、即ち検出部16による検出結果に基づくものであり、必ずしも人32本人が実際にそれを視認したか否かを問わない。
S5430では、S5420において人32が視認したと判定されたオブジェクト3が、登録情報に登録されたものか否かを判定する。登録情報には、或る人により視認された場合に一般にその人が横断の意図を有する可能性がある、と考えられるオブジェクトの種類が予め登録されている。そして、S5420で判定されたオブジェクト3が、登録情報に登録されたオブジェクトの何れかと一致した場合、そのオブジェクト3は登録されているものと判定される。そのオブジェクト3が登録されていた場合にはS5440に進み、そうでない場合にはS5450に進む(S5440をスキップする。)。なお、図4A〜4Bの例では、横断歩道30は登録情報に登録されているものとする。
S5430は、この登録情報が予測用ECU17のメモリ173に格納されていることで実現されてもよいし、予測用ECU17が外部のデータベース等から受け取ることで実現されてもよい。
以下、登録情報に登録されたオブジェクトの何れかと一致するオブジェクトを、任意のオブジェクトではないものとして、所定のオブジェクトと表現するが、登録情報を用いない場合においても所定のオブジェクトを決定することが可能である。例えば、視認したと判定されたオブジェクト3に対して、その用途や機能に基づいて属性情報を付与し、この属性情報と横断の可能性との関連性を所定の情報処理により演算することによっても、S5430同様のステップを実現可能である。
S5440では、S5430において人32が所定のオブジェクトを視認したものと判定されたため、人32が横断方向に移動すること(横断動作を開始すること)を予測する。
S5450では、S5440が行われなかった場合には人32の情報(例えば位置情報や状態情報など)に基づいて、S5440が行われた場合には更に人32が横断方向に移動するという予測結果に基づいて、人32についての警戒領域Rを設定する。図4Bの例では、S5440において人32の横断を予測したので、人32についての警戒領域Rが横断方向側に拡張される(矢印E1参照)。
以上のようにして、人32の挙動予測が、人32が所定のオブジェクトを視認したか否かを判定することにより行われる。この挙動予測において設定された人32についての警戒領域Rは、その後、予測結果の一部として、S550により走行制御用ECU17に出力される。
なお、本フローチャートの各ステップは、本発明の趣旨を逸脱しない範囲で変更されてもよく、例えば、それらの順序が変更されてもよいし、一部のステップが省略されてもよいし、或いは、他のステップが追加されてもよい。
また、本実施形態では、自車両1が自動運転を行っている場合に人32の挙動予測を行う態様を例示したが、自車両1が自動運転状態ではない場合においても上記挙動予測は行われてもよい。例えば、運転者が自ら運転操作を行っている場合にも、予測用ECU17は、人32の挙動予測を行うことが可能であり、その予測結果を運転者に通知することができる。
以上、本実施形態によれば、予測用ECU17は、検出部16による自車両1の周辺情報に基づいて、自車両1の周辺に存在する各オブジェクト3(他車両31、人32、障害物33、横断歩道30等)の情報を取得する。オブジェクト3の情報は、例えば、位置情報(相対位置や距離など)や状態情報(移動方向やその速度など)を含む。ここで、オブジェクト3の1つとして、挙動予測対象者である人32が確認された場合、予測用ECU17は、人32が所定のオブジェクトを視認しているか否かを判定する。そして、人32が所定のオブジェクトを視認したと判定された場合、予測用ECU17は、人32が道路2の横断方向に移動することを予測する。本実施形態では、人32が横断歩道30を視認したと判定されたことに応答して、人32の横断が予測された。
人32が所定のオブジェクトを視認したか否かの上記判定は、本実施形態では、登録情報として予め登録されたオブジェクトの種類を参照することで行われる。この登録情報は、予測用ECU17内においてメモリ172に保持されていてもよいし、或いは、データベース等を参照することで取得されてもよい。そして、人32が視認したと判定されたオブジェクトが、登録情報に登録されたものであれば、予測用ECU17は、人32が所定のオブジェクトを視認したと判定し、人32の横断を予測可能となる。
なお、人32の横断の予測は、人32が道路2の横断方向に移動すること、即ち人32が横断動作に移行すること、の予測であり、人32が実際に横断を開始したか否かを問わない。
本実施形態によれば、道路2上の人32の挙動を、人32が何を視認したかに基づいて予測するため、人32の挙動予測を高精度化することができる。
(第2実施形態)
図6Aは、第2実施形態として、自車両1が自動運転により交差点21Cにおいて左折を行う様子を示す上面図である。本実施形態では、自車両1の左側方の歩道22上に人32が存在している。前述の第1実施形態同様、人32には、予測用ECU17により、警戒領域Rが設定される。また、図中において自車両1の前方側の歩道22、即ち横断歩道23に対して歩道22とは反対側の歩道22には、歩行者用の信号機33Bが設けられている。なお、ここでは図を見やすくするため、信号機33B以外の信号機(車両用の信号機等)については不図示とする。
ここで、図6Bに例示されるように、人32が信号機33Bを視認した(ACT2)場合、人32は横断歩道23を通って車道21を横断し歩道22側に移動することを希望していると考えられる。そこで、信号機33Bを登録情報に予め登録しておき、予測用ECU17は、人32が信号機33Bを視認した(ACT2)と判定された場合には、人32が横断方向に移動することを予測する。そして、予測用ECU17は、この予測の結果に基づいて、人32についての警戒領域Rを設定し、即ち、矢印E2で示されるように車道21側に拡張する。
予測用ECU17は、検出部16による検出結果に基づいて信号機33Bが示している信号の色を判定可能である。本実施形態では、信号機33Bは、人32の横断が一般に許容される色として、青色の点灯を示しているものとするが、信号機33Bが青色の点滅を示している場合においても同様に上記警戒領域Rは拡張される。
なお、信号機33Bが赤色を示していたとしても、人32は歩道22側への移動を希望しているからこそ信号機33Bを視認したものと考えられる。そのため、予測用ECU17は、信号機33Bが赤色を示している場合であっても、人32についての警戒領域Rを拡張可能である。この場合、その拡張幅は、信号機33Bが青色を示している場合の拡張幅よりも小さくてもよい。
また、人32は、一般に、信号機33Bの示す色が青色から赤色に代わる前に、横断を完了させようとすると考えられる。そのため、予測用ECU17は、人32の移動方向及び/又は移動速度を更に判定することで、人32の挙動予測を更に高精度に行うことが可能である。
例えば、人32が車道21側(横断歩道23側)に向かっていると判定された場合には、人32が横断を開始する可能性が高まる。よって、予測用ECU17は、人32の移動方向に基づいて、人32の横断の開始を予測し、更に警戒領域Rを拡張することも可能である。
また、例えば、人32が車道21側(横断歩道23側)への移動速度を維持し又は該移動速度を上げた場合には、人32が横断を開始する可能性が高まる。よって、予測用ECU17は、人32の移動速度に基づいて、人32の横断の開始を予測し、更に警戒領域Rを拡張することも可能である。
本実施形態では、予測用ECU17が検出部16による検出結果に基づいて信号機33Bが示している信号の色を判定可能であるものとしたが、他の実施形態として、信号機33Bが示している信号の色は、外部通信(例えば路車間通信)により確認されてもよい。例えば、予測用ECU17は、信号機33Bが示している信号の色を、それを示す情報を信号機33Bから直接的/間接的に受信することで確認することも可能である。
本実施形態によれば、予測用ECU17は、人32が信号機33Bを視認したと判定した場合に人32の横断方向への移動を予測し、人32の警戒領域Rを拡張する。これにより、第1実施形態同様、人32の挙動予測を高精度に行うことができる。
(第3実施形態)
前述の第1〜第2実施形態では、人32が所定のオブジェクト(上述の例では登録情報に登録されたオブジェクト)を視認したと判定された場合に人32の横断を予測することを述べた。しかし、所定のオブジェクトは、横断の意図がある場合に視認されうるものに限られない。例えば、人32は、横断の意図を有していないにも関わらず、何らかの目的を実現しようとした結果、横断を開始してしまうことも考えられる。例えば、子供が保護者(親、保育士等)側に向かって不意に移動を開始することが考えられる。以下では、第3実施形態として、所定のオブジェクトが人の場合について述べる。
図7Aは、塀33Cで囲まれた道2を自車両1が自動運転により走行中の様子を示す上面図である。なお、本実施形態では、道2には歩道と車道との区画が設けられていない。自車両1の前方には、道2の両側にそれぞれ人(区別のため、一方を「人32A」とし、他方を「人32B」とする。)が存在している。本実施形態では、人32Aは子供であり、人32Bが保護者であるものとする。
ここで、図7Bに例示されるように、人32Aが人32Bを視認した(ACT3)場合、人32Aは道2を横断して人32B側に移動する可能性がある。そこで、予測用ECU17は、人32Aが人32Bを視認した(ACT3)と判定された場合には、人32Aが横断方向に移動することを予測する。そして、予測用ECU17は、この予測の結果に基づいて、人32Aについての警戒領域Rを設定し、即ち、矢印E3で示されるように人32B側に拡張する。
図7A〜7Bの例では、人32Aが子供であり、人32Bが保護者である場合を想定したが、人32Aが保護者であり人32Bが子供の場合、或いは、人32A及び32Bが交際関係の場合も同様の予測が可能である。
本実施形態では、予測用ECU17は、人32A及び32Bが所定条件を満たすか否かを更に判定可能であり、即ち、人32A及び32Bの関係を更に予測可能であり、その結果に基づいて、人32Aの横断の予測を行う。人32A及び32Bが所定条件を満たすか否かの判定は、例えば、図5BのフローチャートのS5430の後かつS5450の前に行われればよい。
予測用ECU17は、例えば、人32A及び32Bの位置条件に基づいて上記判定を行うことが可能である。例えば、人32A及び32Bの相対的な位置、自車両1に対するそれらの相対的な位置、等に基づいて上記判定が行われる。本実施形態では、位置条件として、自車両1が走行中の道2の両側に人32A及び32Bがそれぞれ位置していることを条件とした。これにより、人32Aの横断を適切に予測可能となる。
また、予測用ECU17は、例えば、人32A及び32Bの外観条件に基づいて上記判定を行うことが可能である。外観条件は、人32A及び32Bの外見上の特徴から判定可能なものであればよい。外観条件は、人32A及び32Bの間に何らかの関係があると推察可能な条件であればよく、例えば、体格条件、及び/又は、服装条件を含む。体格条件としては、例えば、一方の身長が比較的低く且つ他方の身長が比較的高い(子供および保護者の関係と推察される)こと、双方の身長が比較的低い(何れも子供であると推察される)こと等が挙げられる。また、服装条件としては、例えば、一方の服装が子供向けであり且つ他方の服装が大人向けである(子供および保護者の関係と推察される)こと、一方の服装が男性向けであり且つ他方の服装が女性向けである(交際関係と推察される)こと等が挙げられる。
本実施形態によれば、予測用ECU17は、人32Aが人32Bを視認したと判定した場合に人32Aの横断方向への移動を予測し、人32Aの警戒領域Rを拡張する。これにより、第1実施形態同様、人32Aの挙動予測を高精度に行うことができる。
(第4実施形態)
前述の第1〜第3実施形態では、人32が所定のオブジェクトを視認したと判定された場合に人32の横断を予測することを述べた。この所定のオブジェクトとして、第1実施形態では横断歩道30が例示され、第2実施形態では信号機33Bが例示され、第3実施形態では人32Bが例示された。所定のオブジェクトは、これら道路2上に位置するものでなくてもよく、人32の所持品であってもよい。即ち、予測用ECU17は、人32が該人32の所持品を視認していると判定された場合においても、上記予測を行い、人32についての警戒領域Rを拡張することが可能である。所持品の例としては、手で把持可能なもの、身体の一部に装着可能なもの等が挙げられ、例えば携帯端末、腕時計、音楽プレイヤー等の電子機器や、本や雑誌等の書類が挙げられる。
(第5実施形態)
前述の第1〜第4実施形態では、人32が所定のオブジェクトを視認したと判定された場合に人32の横断を予測することを述べた。しかし、横断を妨げるものが存在しない場合には、所定のオブジェクトの視認の有無に関わらず横断が開始される可能性がある。
図8Aは、第5実施形態として、自車両1が自動運転により車道21を走行中の様子を示す上面図である。本実施形態では、歩道22が、区画部材33Dによって車道21から区画されている。区画部材33Dは、本実施形態では防護柵(例えばガードレール、ガードパイプ等)である。区画部材33Dは、他の実施形態として、縁石または植え込みであってもよいし、或いは、防護柵、縁石および植え込みの2以上を用いて構成されてもよい。
区画部材33Dには、歩行者が通り抜け可能な間隙SPが設けられており、本実施形態では、歩道22上における間隙SPの近傍に人32が存在している。前述の第1実施形態同様、予測用ECU17により、人32についての警戒領域Rが設定される。
ここで、図8Bに例示されるように、人32が間隙SPの近傍に存在する場合には、人32が間隙SPを通って車道21を横断することを希望している可能性がある。そこで、予測用ECU17は、人32が間隙SPから所定距離の範囲内に存在することが確認された場合には、人32が間隙SPを通って横断方向に移動すると予測し、警戒領域Rを、矢印E4で示されるように車道21側に拡張する。
本実施形態によれば、区画部材33Dの配置態様を考慮し、区画部材33Dにおける間隙SPの有無に基づいて人32の横断の予測を行う。そのため、本実施形態によれば、人32の挙動予測を高精度に行うことができる。
本実施形態の内容は、第1〜第4実施形態への適用可能である。例えば、他の実施形態として、予測用ECU17は、区画部材33Dで区画された車道21を自車両1が走行中の場合、間隙SPが確認されたことを条件の1つとして、人32が何を視認したかに基づいて人32の横断の予測を行ってもよい。更に他の実施形態として、予測用ECU17は、人32の視線方向に間隙SPが位置すると判定された場合に、人32の横断の予測を行ってもよい。
(その他)
以上、いくつかの好適な態様を例示したが、本発明はこれらの例に限られるものではなく、本発明の趣旨を逸脱しない範囲で、その一部が変更されてもよい。例えば、各実施形態の内容に、目的、用途等に応じて他の要素を組み合わせることも可能であるし、或る実施形態の内容に他の実施形態の内容の一部を組み合わせることも可能である。また、本明細書に記載された個々の用語は、本発明を説明する目的で用いられたものに過ぎず、本発明は、その用語の厳密な意味に限定されるものでないことは言うまでもなく、その均等物をも含みうる。
また、各実施形態で説明された1以上の機能を実現するプログラムは、ネットワーク又は記憶媒体を介してシステム又は装置に供給され、該システム又は装置のコンピュータにおける1以上のプロセッサは、このプログラムを読み出して実行することができる。このような態様によっても本発明は実現可能である。
(実施形態のまとめ)
第1の態様は、予測装置(例えば17)に係り、前記予測装置は、自車両(例えば1)の周辺情報を取得する取得手段(例えば171、S520)と、前記周辺情報に基づいて、道路(例えば2)上の挙動予測対象者(例えば32、32A)が所定のオブジェクト(例えば3、30、32B、33B)を視認しているか否かを判定する判定手段(例えば171、S5420〜S5430)と、前記挙動予測対象者が前記所定のオブジェクトを視認したと前記判定手段により判定された場合、前記挙動予測対象者が前記道路を横断方向に移動することを予測する予測手段(例えば171、S5440)と、を備える。
第1の態様によれば、道路上の人(挙動予測対象者)の挙動を、その人が何を視認したかに基づいて予測する。よって、第1の態様によれば、人の挙動予測を高精度化することができる。
第2の態様では、前記判定手段は、オブジェクトの種類が登録された登録情報(例えば172)を参照し、前記挙動予測対象者の視線方向に存在するオブジェクトが前記登録情報に登録されていた場合、前記挙動予測対象者が前記所定のオブジェクトを視認したものと判定する。
第2の態様によれば、登録情報に登録されているものを、挙動予測対象者である人が視認したと判定された場合に、その人が横断方向に移動する可能性があると判定し、上記予測を行う。よって、第2の態様によれば、上記予測を更に高精度に行うことができる。
第3の態様では、前記所定のオブジェクトは横断歩道(例えば30)を含む。
第3の態様によれば、挙動予測対象者である人が横断歩道を視認したと判定された場合に、その人が横断方向に移動する可能性があると判定し、上記予測を行う。よって、第3の態様によれば、上記予測を更に高精度に行うことができる。
第4の態様では、前記所定のオブジェクトは信号機(例えば33B)を含む。
第4の態様によれば、挙動予測対象者である人が信号機を視認したと判定された場合に、その人が横断方向に移動する可能性があると判定し、上記予測を行う。よって、第4の態様によれば、上記予測を更に高精度に行うことができる。
第5の態様では、前記判定手段は、前記信号機が示している色を更に判定可能であり、前記予測手段は、前記信号機が青色を示していると前記判定手段により更に判定された場合、前記挙動予測対象者が前記道路を横断方向に移動することを予測する。
第5の態様によれば、信号機が示す色を考慮して上記予測を行う。信号機が青色を示している場合、挙動予測対象者である人が横断方向に移動する可能性があると考えられる。よって、第5の態様によれば、上記予測を更に高精度に行うことができる。なお、信号機が示す青色は、青色の点灯の場合の他、青色の点滅の場合をも含むものとする。
第6の態様では、前記判定手段は、前記挙動予測対象者の移動方向を更に判定可能であり、前記予測手段は、前記挙動予測対象者が車道(例えば21)側に向かって移動していると前記判定手段により更に判定された場合には、前記挙動予測対象者が前記車道を横断することを予測する。
第6の態様によれば、挙動予測対象者である人の移動方向を考慮して上記予測を行う。よって、第6の態様によれば、上記予測を更に高精度に行うことができる。
第7の態様では、前記判定手段は、前記挙動予測対象者の移動速度を更に判定可能であり、前記予測手段は、前記挙動予測対象者が車道(例えば21)側に向かう移動速度を維持し又は該移動速度を上げたと前記判定手段により更に判定された場合には、前記挙動予測対象者が前記車道を横断することを予測する。
第7の態様によれば、挙動予測対象者である人の移動速度を考慮して、即ち、その人の移動速度が下がったか否かに基づいて、上記予測を行う。よって、第7の態様によれば、上記予測を更に高精度に行うことができる。
第8の態様では、前記所定のオブジェクトは人(例えば32B)を含む。
第8の態様によれば、挙動予測対象者である人(32A)が、他の人(32B)を視認したと判定された場合に、挙動予測対象者である人が横断方向に移動する可能性があると判定し、上記予測を行う。よって、第8の態様によれば、上記予測を更に高精度に行うことができる。
第9の態様では、前記判定手段は、前記挙動予測対象者および前記人が所定条件を満たすか否かを更に判定可能であり、前記予測手段は、前記所定条件を満たすと前記判定手段により更に判定された場合、前記挙動予測対象者が前記道路を横断方向に移動することを予測する。
第9の態様によれば、挙動予測対象者である人(32A)と、その人が視認したと判定された他の人(32B)とが所定条件を満たす場合、挙動予測対象者である人が横断方向に移動する可能性があると判定し、上記予測を行う。よって、第9の態様によれば、上記予測を更に高精度に行うことができる。
第10の態様では、前記所定条件は、前記挙動予測対象者および前記人の位置条件を含む。
第10の態様によれば、挙動予測対象者である人(32A)と、その人が視認したと判定された他の人(32B)との間の位置条件、例えば、それらの相対的な位置、自車両に対するそれらの相対的な位置、に基づいて、上記予測を行う。よって、第10の態様によれば、上記予測を更に高精度に行うことができる。
第11の態様では、前記位置条件は、前記挙動予測対象者および前記人が前記道路の両側にそれぞれ存在することを含む。
第11の態様によれば、挙動予測対象者である人(32A)と、その人が視認したと判定された他の人(32B)とが、道路の両側にそれぞれ存在する場合に、上記予測を行う。なお、第11の態様は、道路が、車道および歩道から成る場合の他、車道および歩道の区画がない場合においても適用可能である。
第12の態様では、前記所定条件は、前記挙動予測対象者および前記人の外観条件を含む。
第12の態様によれば、挙動予測対象者である人(32A)と、その人が視認したと判定された他の人(32B)とが所定の外観条件を満たす場合に、上記予測を行う。よって、第12の態様によれば、上記予測を更に高精度に行うことができる。なお、所定の外観条件は、それらの間に何らかの関係が存在する可能性があることが外見上の特徴に基づいて判定可能なものであればよい。
第13の態様では、前記外観条件は、体格条件、及び/又は、服装条件を含む。
第13の態様によれば、挙動予測対象者である人(32A)と、その人が視認したと判定された他の人(32B)とが所定の体格条件、及び/又は、服装条件を満たす場合に、上記予測を行う。よって、第13の態様によれば、上記予測を更に高精度に行うことができる。
第14の態様では、前記判定手段は、車道(例えば21)と歩道(例えば22)とを区画する区画部材(例えば33D)の配置態様を更に判定可能であり、前記予測手段は、前記区画部材に前記挙動予測対象者の通り抜け可能な間隙(例えばSP)が設けられていると前記判定手段により判定された場合には、前記挙動予測対象者が前記間隙を通って前記歩道側から前記車道側に移動することを予測する。
第14の態様によれば、区画部材の配置態様を考慮して上記予測を行う。区画部材に間隙が設けられている場合、その間隙から挙動予測対象者である人が横断方向に移動する可能性があると考えられる。よって、第14の態様によれば、上記予測を更に高精度に行うことができる。
第15の態様では、前記区画部材は、防護柵、縁石および植え込みの少なくとも1つを含む。
第15の態様によれば、第14の態様に基づく上記予測を更に高精度に行うことができる。防護柵の例としては、ガードレール、ガードパイプ等が挙げられる。また、車道と歩道とは縁石や植え込み等で区画されている場合も多く、この場合においても上記予測を行うのに好適である。
第16の態様では、前記予測手段による前記予測の結果に基づいて、前記挙動予測対象者についての警戒領域(例えばR)を設定する設定手段(例えば171、S5450)をさらに備える。
第16の態様によれば、以上の各態様の予測の結果に基づいて、挙動予測対象者である人についての警戒領域を設定する。これにより、挙動予測対象者である人との距離を確保しながら運転することが可能となり、安全運転を実現可能となる。
第17の態様は、車両に係り、前記車両は、自車両の周辺情報を検出する検出手段(例えば16)と、前記検出手段により検出された前記周辺情報に基づいて、道路(例えば2)上の挙動予測対象者(例えば32、32A)が所定のオブジェクト(例えば3、30、32B、33B)を視認しているか否かを判定する判定手段(例えば171、S5420〜S5430)と、前記挙動予測対象者が前記所定のオブジェクトを視認したと前記判定手段により判定された場合に、前記挙動予測対象者が前記道路を横断方向に移動することを予測する予測手段(例えば171、S5440)と、を備える。
第17の態様によれば、上記第1の態様同様、道路上の人(挙動予測対象者)の挙動を、その人が何を視認したかに基づいて予測するため、その挙動を高精度に予測することができる。
第18の態様は、予測方法に係り、前記予測方法は、自車両(例えば1)の周辺情報を取得する工程(例えばS520)と、前記周辺情報に基づいて、道路(例えば2)上の挙動予測対象者(例えば32、32A)が所定のオブジェクト(例えば3、30、32B、33B)を視認しているか否かを判定する工程(例えばS5420〜S5430)と、前記挙動予測対象者が前記所定のオブジェクトを視認したと前記判定する工程において判定された場合に、前記挙動予測対象者が前記道路を横断方向に移動することを予測する工程(例えばS5440)と、を含む。
第18の態様によれば、上記第1の態様同様、道路上の人(挙動予測対象者)の挙動を、その人が何を視認したかに基づいて予測するため、その挙動を高精度に予測することができる。
第19の態様では、コンピュータに上記各工程を実行させるためのプログラムである。
第19の態様によれば、上記第18の態様を、コンピュータにより実現可能となる。
1:自車両、3:オブジェクト、31:他車両、17:予測用ECU(予測装置)。

Claims (19)

  1. 自車両の周辺情報を取得する取得手段と、
    前記周辺情報に基づいて、道路上の挙動予測対象者が所定のオブジェクトを視認しているか否かを判定する判定手段と、
    前記挙動予測対象者が前記所定のオブジェクトを視認したと前記判定手段により判定された場合、前記挙動予測対象者が前記道路を横断方向に移動することを予測する予測手段と、を備える
    ことを特徴とする予測装置。
  2. 前記判定手段は、オブジェクトの種類が登録された登録情報を参照し、前記挙動予測対象者の視線方向に存在するオブジェクトが前記登録情報に登録されていた場合、前記挙動予測対象者が前記所定のオブジェクトを視認したものと判定する
    ことを特徴とする請求項1に記載の予測装置。
  3. 前記所定のオブジェクトは横断歩道を含む
    ことを特徴とする請求項1または請求項2に記載の予測装置。
  4. 前記所定のオブジェクトは信号機を含む
    ことを特徴とする請求項1から請求項3のいずれか1項に記載の予測装置。
  5. 前記判定手段は、前記信号機が示している色を更に判定可能であり、
    前記予測手段は、前記信号機が青色を示していると前記判定手段により更に判定された場合、前記挙動予測対象者が前記道路を横断方向に移動することを予測する
    ことを特徴とする請求項4に記載の予測装置。
  6. 前記判定手段は、前記挙動予測対象者の移動方向を更に判定可能であり、
    前記予測手段は、前記挙動予測対象者が車道側に向かって移動していると前記判定手段により更に判定された場合には、前記挙動予測対象者が前記車道を横断することを予測する
    ことを特徴とする請求項4または請求項5に記載の予測装置。
  7. 前記判定手段は、前記挙動予測対象者の移動速度を更に判定可能であり、
    前記予測手段は、前記挙動予測対象者が車道側に向かう移動速度を維持し又は該移動速度を上げたと前記判定手段により更に判定された場合には、前記挙動予測対象者が前記車道を横断することを予測する
    ことを特徴とする請求項1から請求項6のいずれか1項に記載の予測装置。
  8. 前記所定のオブジェクトは人を含む
    ことを特徴とする請求項1から請求項7のいずれか1項に記載の予測装置。
  9. 前記判定手段は、前記挙動予測対象者および前記人が所定条件を満たすか否かを更に判定可能であり、
    前記予測手段は、前記所定条件を満たすと前記判定手段により更に判定された場合、前記挙動予測対象者が前記道路を横断方向に移動することを予測する
    ことを特徴とする請求項8に記載の予測装置。
  10. 前記所定条件は、前記挙動予測対象者および前記人の位置条件を含む
    ことを特徴とする請求項9に記載の予測装置。
  11. 前記位置条件は、前記挙動予測対象者および前記人が前記道路の両側にそれぞれ存在することを含む
    ことを特徴とする請求項10に記載の予測装置。
  12. 前記所定条件は、前記挙動予測対象者および前記人の外観条件を含む
    ことを特徴とする請求項9から請求項11のいずれか1項に記載の予測装置。
  13. 前記外観条件は、体格条件、及び/又は、服装条件を含む
    ことを特徴とする請求項12に記載の予測装置。
  14. 前記判定手段は、車道と歩道とを区画する区画部材の配置態様を更に判定可能であり、
    前記予測手段は、前記区画部材に前記挙動予測対象者の通り抜け可能な間隙が設けられていると前記判定手段により判定された場合には、前記挙動予測対象者が前記間隙を通って前記歩道側から前記車道側に移動することを予測する
    ことを特徴とする請求項1から請求項13のいずれか1項に記載の予測装置。
  15. 前記区画部材は、防護柵、縁石および植え込みの少なくとも1つを含む
    ことを特徴とする請求項14に記載の予測装置。
  16. 前記予測手段による前記予測の結果に基づいて、前記挙動予測対象者についての警戒領域を設定する設定手段をさらに備える
    ことを特徴とする請求項1から請求項15のいずれか1項に記載の予測装置。
  17. 自車両の周辺情報を検出する検出手段と、
    前記検出手段により検出された前記周辺情報に基づいて、道路上の挙動予測対象者が所定のオブジェクトを視認しているか否かを判定する判定手段と、
    前記挙動予測対象者が前記所定のオブジェクトを視認したと前記判定手段により判定された場合に、前記挙動予測対象者が前記道路を横断方向に移動することを予測する予測手段と、を備える
    ことを特徴とする車両。
  18. 自車両の周辺情報を取得する工程と、
    前記周辺情報に基づいて、道路上の挙動予測対象者が所定のオブジェクトを視認しているか否かを判定する工程と、
    前記挙動予測対象者が前記所定のオブジェクトを視認したと前記判定する工程において判定された場合に、前記挙動予測対象者が前記道路を横断方向に移動することを予測する工程と、を含む
    ことを特徴とする予測方法。
  19. コンピュータに請求項18に記載の予測方法の各工程を実行させるためのプログラム。
JP2017109302A 2017-06-01 2017-06-01 予測装置、車両、予測方法およびプログラム Active JP6613265B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017109302A JP6613265B2 (ja) 2017-06-01 2017-06-01 予測装置、車両、予測方法およびプログラム
CN201810349724.5A CN108974006B (zh) 2017-06-01 2018-04-18 预测装置
US15/974,718 US10817730B2 (en) 2017-06-01 2018-05-09 Prediction apparatus, vehicle, prediction method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017109302A JP6613265B2 (ja) 2017-06-01 2017-06-01 予測装置、車両、予測方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018205965A true JP2018205965A (ja) 2018-12-27
JP6613265B2 JP6613265B2 (ja) 2019-11-27

Family

ID=64459959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017109302A Active JP6613265B2 (ja) 2017-06-01 2017-06-01 予測装置、車両、予測方法およびプログラム

Country Status (3)

Country Link
US (1) US10817730B2 (ja)
JP (1) JP6613265B2 (ja)
CN (1) CN108974006B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020163975A (ja) * 2019-03-29 2020-10-08 マツダ株式会社 車両運転支援システム
JP2020163970A (ja) * 2019-03-29 2020-10-08 マツダ株式会社 車両運転支援システム
WO2021234427A1 (ja) * 2020-05-22 2021-11-25 日産自動車株式会社 走行支援方法及び走行支援装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109345589A (zh) * 2018-09-11 2019-02-15 百度在线网络技术(北京)有限公司 基于自动驾驶车辆的位置检测方法、装置、设备及介质
US20210314752A1 (en) * 2020-04-03 2021-10-07 Cavh Llc Device allocation system
US11753043B2 (en) * 2021-05-20 2023-09-12 Waymo Llc Predicting crossing behavior of agents in the vicinity of an autonomous vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012238185A (ja) * 2011-05-12 2012-12-06 Mitsubishi Motors Corp 飛出し警報装置
JP2016177722A (ja) * 2015-03-23 2016-10-06 株式会社ゼンリンデータコム 安全運転支援装置及び自動運転車
JP2018005793A (ja) * 2016-07-07 2018-01-11 株式会社デンソー 歩行者検出装置、歩行者検出方法
JP2018024291A (ja) * 2016-08-08 2018-02-15 株式会社デンソー 車外表示処理装置及び車外表示システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284473A (ja) * 2004-03-29 2005-10-13 Fuji Photo Film Co Ltd 運転支援システム、自動車、および運転支援方法
US8725309B2 (en) * 2007-04-02 2014-05-13 Panasonic Corporation Safety driving support apparatus
JP4939564B2 (ja) * 2009-03-23 2012-05-30 本田技研工業株式会社 車両用情報提供装置
EP2615596A4 (en) * 2010-09-08 2017-12-06 Toyota Jidosha Kabushiki Kaisha Moving-object prediction device, virtual-mobile-object prediction device, program, mobile-object prediction method, and virtual-mobile-object prediction method
JP5246248B2 (ja) * 2010-11-29 2013-07-24 株式会社デンソー 予測装置
US9373042B2 (en) * 2011-09-20 2016-06-21 Toyota Jidosha Kabushiki Kaisha Subject change detection system and subject change detection method
JP5786947B2 (ja) * 2011-09-20 2015-09-30 トヨタ自動車株式会社 歩行者行動予測装置および歩行者行動予測方法
JP5673568B2 (ja) * 2012-01-16 2015-02-18 トヨタ自動車株式会社 物体検出装置
JP6082638B2 (ja) * 2013-03-29 2017-02-15 日立オートモティブシステムズ株式会社 走行制御装置及び走行制御システム
DE102013207223A1 (de) * 2013-04-22 2014-10-23 Ford Global Technologies, Llc Verfahren zur Erkennung von nicht motorisierten Verkehrsteilnehmern
DE102014201159A1 (de) * 2014-01-23 2015-07-23 Robert Bosch Gmbh Verfahren und Vorrichtung zum Klassifizieren eines Verhaltens eines Fußgängers beim Überqueren einer Fahrbahn eines Fahrzeugs sowie Personenschutzsystem eines Fahrzeugs
JP5962706B2 (ja) * 2014-06-04 2016-08-03 トヨタ自動車株式会社 運転支援装置
DE102014219148A1 (de) * 2014-09-23 2016-03-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erstellen eines Bewegungsmodells eines Straßenverkehrsteilnehmers
JP6103265B2 (ja) 2015-05-25 2017-03-29 マツダ株式会社 車両用歩行者画像取得装置
CN105151043B (zh) * 2015-08-19 2018-07-06 内蒙古麦酷智能车技术有限公司 一种无人驾驶汽车紧急避让的方法
JP6279006B2 (ja) * 2016-04-28 2018-02-14 株式会社三共 スロットマシン
US20170329332A1 (en) * 2016-05-10 2017-11-16 Uber Technologies, Inc. Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object
CN106428000B (zh) * 2016-09-07 2018-12-21 清华大学 一种车辆速度控制装置和方法
US10699305B2 (en) * 2016-11-21 2020-06-30 Nio Usa, Inc. Smart refill assistant for electric vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012238185A (ja) * 2011-05-12 2012-12-06 Mitsubishi Motors Corp 飛出し警報装置
JP2016177722A (ja) * 2015-03-23 2016-10-06 株式会社ゼンリンデータコム 安全運転支援装置及び自動運転車
JP2018005793A (ja) * 2016-07-07 2018-01-11 株式会社デンソー 歩行者検出装置、歩行者検出方法
JP2018024291A (ja) * 2016-08-08 2018-02-15 株式会社デンソー 車外表示処理装置及び車外表示システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020163975A (ja) * 2019-03-29 2020-10-08 マツダ株式会社 車両運転支援システム
JP2020163970A (ja) * 2019-03-29 2020-10-08 マツダ株式会社 車両運転支援システム
JP7154482B2 (ja) 2019-03-29 2022-10-18 マツダ株式会社 車両運転支援システム
JP7252513B2 (ja) 2019-03-29 2023-04-05 マツダ株式会社 車両運転支援システム
WO2021234427A1 (ja) * 2020-05-22 2021-11-25 日産自動車株式会社 走行支援方法及び走行支援装置

Also Published As

Publication number Publication date
US10817730B2 (en) 2020-10-27
US20180349714A1 (en) 2018-12-06
JP6613265B2 (ja) 2019-11-27
CN108974006B (zh) 2021-08-10
CN108974006A (zh) 2018-12-11

Similar Documents

Publication Publication Date Title
JP6613265B2 (ja) 予測装置、車両、予測方法およびプログラム
US10643474B2 (en) Vehicle control device, vehicle control method, and recording medium
CN107683234B (zh) 周边环境识别装置以及计算机程序产品
US11414080B2 (en) Vehicle control device, vehicle control method, and storage medium
JP6572847B2 (ja) 自動運転システム
JP6566132B2 (ja) 物体検出方法及び物体検出装置
JP6745294B2 (ja) 車両制御装置、車両制御方法、及びプログラム
WO2018220807A1 (ja) 予測装置、車両、予測方法およびプログラム
JP4967015B2 (ja) 安全運転支援装置
JP6676697B2 (ja) 車両制御装置、車両制御方法、及びプログラム
WO2020201796A1 (ja) 車両制御方法及び車両制御装置
JP2018025993A (ja) 自動運転システム
JP7039940B2 (ja) 車両制御装置
JP6613527B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP6511938B2 (ja) 走行制御システム
JP6592852B2 (ja) 車両制御装置、車両制御方法、およびプログラム
RU2719080C2 (ru) Способ и устройство помощи при вождении
CN109383367B (zh) 车辆外部通知装置
JP2024023319A (ja) 緊急車両の検出
JP7452455B2 (ja) 制御装置、方法、及びプログラム
JP2017001596A (ja) 停車位置設定装置及び方法
CN114194186A (zh) 车辆行驶控制装置
JP7362899B2 (ja) 車両の走行支援方法及び走行支援装置
JP2021172264A (ja) 車両の走行支援方法及び走行支援装置
WO2016170683A1 (ja) 走行制御装置およびデータ構造

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191101

R150 Certificate of patent or registration of utility model

Ref document number: 6613265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150