JP2022161464A - 運転支援装置、移動装置、運転支援方法、コンピュータプログラム、及び記憶媒体 - Google Patents

運転支援装置、移動装置、運転支援方法、コンピュータプログラム、及び記憶媒体 Download PDF

Info

Publication number
JP2022161464A
JP2022161464A JP2021066307A JP2021066307A JP2022161464A JP 2022161464 A JP2022161464 A JP 2022161464A JP 2021066307 A JP2021066307 A JP 2021066307A JP 2021066307 A JP2021066307 A JP 2021066307A JP 2022161464 A JP2022161464 A JP 2022161464A
Authority
JP
Japan
Prior art keywords
area
notification
mobile device
line
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021066307A
Other languages
English (en)
Inventor
和哉 野林
Kazuya Nohayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021066307A priority Critical patent/JP2022161464A/ja
Priority to US17/714,870 priority patent/US20220324475A1/en
Publication of JP2022161464A publication Critical patent/JP2022161464A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/056Detecting movement of traffic to be counted or controlled with provision for distinguishing direction of travel
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/12Lateral speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】移動装置の運転者のための報知を効果的に行うことができる運転支援装置等を提供する。【解決手段】運転支援装置であって、移動装置の周辺の状況を表す周辺状況情報を生成する周辺監視手段と、前記移動装置の運転者の視線方向の視線領域を表す視線領域情報を生成する運転者監視手段と、前記周辺状況情報を用いて前記移動装置の進行方向に設定された第1の領域内に存在する対象物の数と位置を検出する対象物検出手段と、前記対象物が前記視線領域に含まれる場合、前記対象物に関する第1の報知を実行し、前記対象物が前記視線領域に含まれない場合、前記対象物に関する第2の報知を実行する報知制御手段と、を有する。【選択図】 図1

Description

本発明は、移動装置の運転者のための運転支援装置、移動装置、運転支援方法、コンピュータプログラム、及び記憶媒体等に関する。
自動車等の移動装置において、車載カメラを用いて、車両の周囲状況を監視し、車両の進行を妨げる物体(以下、対象物)がある場合には、運転者に対象物の存在を知らせる手法が提案されている。例えば、特許文献1では、車両の前方にある対象物を強調する強調画像を表示装置に表示することで、運転者に対象物を早く認識させる手法が記載されている。
特開2019-120994号公報 特開2019-009511号公報
しかしながら、対象物を強調表示させたままでは、運転者は強調表示された領域を注視してしまう。そのため、他の視野への注意が低下し、却って交通安全上好ましくないという問題がある。
上記の課題に鑑み、本発明は、移動装置の運転者のための報知を効果的に行うことができる運転支援装置等を提供することを目的とする。
上記目的を達成するために、本発明の運転支援装置は、
移動装置の周辺の状況を表す周辺状況情報を生成する周辺監視手段と、
前記移動装置の運転者の視線方向の視線領域を表す視線領域情報を生成する運転者監視手段と、
前記周辺状況情報を用いて前記移動装置の進行方向に設定された第1の領域内に存在する対象物の数と位置を検出する対象物検出手段と、
前記対象物が前記視線領域に含まれる場合、前記対象物に関する第1の報知を実行し、前記対象物が前記視線領域に含まれない場合、前記対象物に関する第2の報知を実行する報知制御手段と、を有することを特徴とする。
本発明によれば、移動装置の運転者のための報知を効果的に行うことができる運転支援装置等を実現することができる。
実施例1に係る運転支援装置の構成を示すブロック図である。 (A)は運転者監視部110の構成例を示す図、(B)は、注視領域検出装置840が行う処理フローを説明するフローチャートである。 実施例1における第1の領域を説明する図である。 実施例1のフローチャートである。 (A)は実施例1における車両と対象物の関係の例を示す図、(B)は対象物の位置を表す情報を説明する図、(C)は、報知制御部を用いた対象物の位置を報知する方法について説明する図である。(D)は、運転者の注視領域と対象物の位置の関係を説明する図、(E)は、報知制御部を用いた対象物の位置の報知を抑制する方法について説明する図である。 実施例2における、第2の領域について説明する図である。 実施例2における運転支援装置のフローチャートである。 (A)は、実施例2における、車両と対象物の関係の他の例を示す図、(B)は、図8(A)の場合に、報知制御部を用いて対象物の位置を報知する方法の例について説明する図、(C)は、図8(A)の状況を上方から見た図である。 実施例2に係る、路上に設置される周辺監視装置について説明するための図である。 (A)は実施例3の運転支援装置の構成を模式的に示したシステム構成図、(B)は実施例3の運転支援装置のフローチャートである。 (A)は実施例3に係る中低速時における第1領域の例を説明する図、(B)は高速時における第1領域の例を説明する図である。(C)は進行方向の道路に横断歩道がある場合の第1領域の例を説明する図、(D)は進行方向の道路の側方にガードレールがある場合の第1領域の例を説明する図である。
以下、添付図面を参照して、本発明の好適な実施の形態について実施例を用いて説明する。尚、各図において、同一の部材ないし要素については同一の参照番号を付し、重複する説明は省略ないし簡略化する。
又、実施例においては、運転支援装置として自動車等の車両に搭載された運転支援装置の例について説明する。しかし、運転支援装置は飛行機、船舶、電車等の移動装置に搭載された運転支援装置も含む。更に、ドローン、ロボット等の移動装置をリモートで操作する運転支援装置も含む。
<実施例1>
以下、図面を参照しながら本発明の実施例1に関して詳細に説明する。
図1は、実施例1に係る運転支援装置の構成を示すブロック図である。運転支援装置100は、例えば移動装置としての自動車等の車両に搭載され、運転者監視部110、周辺監視部120、制御ユニット101、報知部160等を含む。
制御ユニット101は、取得部130、対象物検出部140、報知制御部150、判定部170等を含む。
運転支援装置にはコンピュータとしてのCPUが内蔵されており、メモリ(記憶媒体)にコンピュータが読出し可能に格納(記憶)されたコンピュータプログラムに基づき運転支援装置100内の各部の動作を制御する制御部として機能する。
運転者監視手段としての運転者監視部110は、車内を撮像する撮像装置にて取得した撮像画像を用いて、車両の運転者の視線方向を検出し、視線方向の所定角度範囲である視線領域を表す視線領域情報を生成する(運転者監視工程)。尚、運転者の視線方向の視線領域は、運転者が運転している状態では、運転者が注視している注視領域とみなすことができ、実施例では、視線領域情報を注視領域情報とも呼ぶ。
以下、図2(A)及び(B)を用いて、運転者監視部110により運転者801の注視領域を検出する方法について説明する。図2(A)は運転者監視部110の構成例を示す図である。
運転者監視部110が備える撮像装置830は、結像光学系と、結像光学系によって結像された像を撮像する撮像素子を備え、運転者801を含む車内を撮像して運転者画像を生成する。図2(A)中の820は撮像装置830の画角を表し、810は結像光学系の光軸を表している。運転者監視部110は、撮像装置830が取得した運転者画像を用いて、注視領域検出装置840にて運転者の注視領域(視線領域)を検出する処理を行う。注視領域検出装置840にもコンピュータとしてのCPUが内蔵されており、メモリに格納(記憶)されたコンピュータプログラムに基づき注視領域検出装置840の動作を制御する。なお、運転者監視部110は、運転支援装置100と別体として設けられた撮像装置から撮像画像を取得して、運転者画像を生成するものであってもよい。
図2(B)は、注視領域検出装置840が行う処理フローを説明するフローチャートである。注視領域検出装置840に内蔵されたCPUがメモリに格納(記憶)されたコンピュータプログラムを実行することで、図2(B)の各ステップの処理を行う。
ステップS850では、注視領域検出装置840は、運転者画像から顔領域の検出を行う。ステップS851では、注視領域検出装置840は、ステップS850にて検出した顔領域から、目・鼻・口などの各器官を検出する。顔領域と各器官の検出では、公知の手法を用いることができる。例えば、HoG(Histograms of Oriented Gradients)などの特徴量をサポートベクタマシン(SVM)で識別することで、検出することができる。
ステップS852では、注視領域検出装置840は、ステップS851にて検出した各器官の位置を用いて、運転者の顔が向いている方向を検出する。即ち、注視領域検出装置840は、運転者の顔内の各器官の位置と、顔の基準モデルの各器官の位置を照らし合わせ、各器官の位置が最もよく一致する顔の基準モデルの方向を算出する。算出された顔の基準モデルの方向を、運転者の顔が向いている方向とする。
ステップS853では、注視領域検出装置840は、ステップS851にて検出した目領域の画像を抽出し、瞳孔中心位置を算出する。瞳孔は目の中で最も輝度値が低く撮像される領域のため、目の領域中で最も輝度値が低い領域を探索することで、瞳孔中心の位置を検出することができる。
ステップS854では、注視領域検出装置840は、撮像装置830の光軸810と、ステップS852にて検出した運転者の顔の向き、ステップS853にて検出した瞳孔中心の位置を用いて、運転者の視線方向を検出する。
運転者の顔の向きと瞳孔中心を用いることで、光軸810に対する運転者の視線方向を算出することができる。光軸810と車両の所定の方向(例えば、車両の進行方向)との角度を用いることで、運転者の視線方向を車両の所定の方向と対応付けて算出することができる。予め設定した車両中の運転者の頭部位置を起点に、運転者の視線方向を設定することで、運転者の注視している領域(注視領域、視線領域)を算出することができる。
運転者の頭部位置は、予め設定した位置を用いているが、より精度よく注視領域を算出するためには、運転者の動きに合わせた頭部位置を算出することが望ましい。例えば特許文献2に記載の撮像装置では、撮像装置が備える結像光学系の異なる瞳領域を通過した光束による像を取得することで、撮影画像と被写体までの距離を同時に取得している。撮像装置830から運転者の頭部までの距離を撮影画像と同時に取得することで、より高精度に運転者の頭部を算出することができる。
図1の周辺監視手段としての周辺監視部120は、車室外を撮像する撮像装置にて取得した撮像画像を用いて、移動装置としての車両の周辺の状況を表す周辺状況情報を生成する(周辺監視工程)。本実施例の周辺監視部120が備える撮像装置として、2つの結像光学系と夫々の予定焦点面に配置された2つの撮像素子を備えたステレオカメラを用いることができる。ステレオカメラの各撮像素子から出力される撮像画像は、距離に応じた視差を有する画像となる。
ステレオカメラから出力される撮像画像に基づき公知の手法により視差量を検出し、検出した視差量を、所定の変換係数を用いて変換することで、撮像画像中の対象物までの距離情報を算出する。更に、ステレオカメラのいずれか一方の撮像素子から出力される撮像画像に対して、公知の機械学習を用い、対象物や対象物のカテゴリ等を検出する。車両周辺の対象物の距離情報は、ステレオカメラの各撮像素子から出力される撮像画像の画素位置ごとに算出することができる。従って、対象物の検出結果と車両周辺の距離情報を用いることで、対象物の数と位置を算出することができる。
取得部130は、運転者監視部110から視線領域情報(注視領域情報)を取得し、周辺監視部120から周辺状況情報を取得する(取得工程)。
対象物検出手段としての対象物検出部140は、取得部130が取得した周辺状況情報を用いて、予め設定した第1の領域内に存在する対象物の数と位置を検出する(対象物検出工程)。第1の領域は、車両の周辺の領域のうち、車両の進行方向に位置する領域として設定されるとする。
図3は、実施例1における第1の領域を説明する図であり、車道を走行している車両200を上から見たところを表している。図3において、本実施例の運転支援装置100を備えた車両200は、図の下から上に向かって進行している。第1の領域210は、車両200の前方(進行方向)に設定される。尚、実施例3で後述するように、第1の領域210の位置と形状は車両200の速度等に応じて変化させても良い。
判定部170は、取得部130が取得した視線領域情報と、対象物検出部140が検出した第1の領域内に存在する対象物の数と位置に基づき、対象物ごとに存在と位置を車両の運転者が確認したか(対象物が視線領域内か)否かを判定する。
報知制御手段としての報知制御部150は、判定部170の判定結果、又は対象物検出部140の検出結果の少なくとも一方と、周辺状況情報に含まれる周辺監視部120が撮像した画像情報に基づき、報知情報を生成する。そして、報知部160により、報知情報に基づき、運転者への報知を行う。
報知部160は、報知情報を表示するために液晶ディスプレイ等の表示装置を有する。
図4は実施例1のフローチャートであり、本実施例の運転支援装置100の動作について、図4を用いて説明する。運転支援装置内のコンピュータがメモリに格納(記憶)されたコンピュータプログラムを実行することで、図4の各ステップの処理を行う。
ステップS410では、取得部130が、周辺監視部120から、周辺状況情報を取得する。
図5(A)は実施例1における車両と対象物の関係の例を示す図である。車両200が図5(A)の状況にあるとして、周辺状況情報について説明する。図5(A)において、第1の領域210内に、対象物である人物310と人物311が存在している。又、第1の領域210外に対象物である人物312が存在している。
車両200が備える周辺監視部120は、人物310~312を検出し、対象物の数と人物310~312の位置を周辺状況情報として生成する。
図5(B)は対象物の位置を表す情報を説明する図である。車両200の所定の位置を原点にとり、車両の進行方向をY軸、Y軸と垂直な方向をX軸としている。XY平面上での人物310~312が位置する座標情報を対象物の位置を表す情報とすることができる。
ステップS420では、対象物検出部140が周辺状況情報を用いて検出(算出)した第1の領域内に存在する対象物の数が0より大きいか否かを判定する。図5(A)、(B)の状況では、人物310~312の夫々のXY平面上での座標情報と、第1の領域210の領域情報とを照らし合わせ、第1の領域210内の対象物数は2であると算出される。ステップS420において、対象物の数が0よりも大きい場合(S420 Yes)は、ステップS430に進み、対象物の数が0の場合(S420 No)は、報知すべき対象物がないため、処理を終了する。
ステップS430では、対象物検出部140が検出した第1の領域内に存在する対象物の数と位置の情報を用いて、報知制御部150が報知情報を生成し、報知部160を用いて運転者に対象物の位置を報知する(報知制御工程)。
図5(C)は、報知制御部を用いた対象物の位置を報知する方法について説明する図である。
表示領域360は報知部160の液晶ディスプレイ等の画像表示領域である。表示領域360に表示している報知情報は、周辺監視部120が撮像した画像情報に、枠320と枠321を重畳した情報である。
枠320と枠321の位置は、人物310と人物311のXY平面上での位置情報を用いて、車両200が走行する路面と周辺監視部120が備える撮像装置の光軸が平行であると仮定して算出している。枠320と枠321の大きさは、人物310と人物311のY座標値に基づき設定する。尚、人物312は第1の領域外にいるため、枠が重畳されていない。報知部160に、枠320と枠321を重畳して表示することで、運転者は車両の進路及び進路近傍に注意すべき対象物がいることを速やかに認識することができる。
なお、報知部160は、車両200に設けられた液晶ディスプレイなどの表示装置に限らず、車両200のフロントガラスに画像を投影して実像に虚像を合成するヘッドアップディスプレイであってもよい。この場合、報知制御部150は、運転者がフロントガラスを介して視認する人物310および人物311に対応する位置に、枠320と枠321とがそれぞれ重畳して表示されるように虚像を生成する。
ステップS440では、取得部130が、運転者監視部110から、注視領域情報(視線領域情報)を取得する。
ステップS450では、判定部170が、対象物検出部140が検出した第1の領域内に存在する対象物の数と位置の情報と、注視領域情報(視線領域情報)を用いて、運転者が対象物の位置を確認したか否かについて判定を行う。即ち、対象物が視線領域内にあるか否かについて判定を行う。
このように、本実施例では、視線領域内にある場合は、通常の運転状況では、注視領域にあるとみなすと共に、運転者が対象物の位置を確認しているとみなしている。しかし、例えば運転者の視線が対象物に向けられた時間当たりの頻度を検出し、頻度が所定回数以上の場合には、対象物が注視領域にある、或いは運転者が対象物の位置を確認していると判別するようにしても良い。そのように構成することで、注視領域にあるか否かや運転者が対象物の位置を確認しているか否かの判断の精度を高めることができる。
図5(D)は、運転者の注視領域(視線領域)と対象物の位置の関係を説明する図であり、図5(B)と同様に、車両200の所定の位置を原点にとり、車両の進行方向をY軸、Y軸と垂直な方向をX軸としている。
370は運転者の注視領域(視線領域)であり、運転者の頭部位置を起点に、運転者が注視している方向を領域370として表している。運転者の注視領域と対象物(人物310、人物311)の位置とを比較し、注視領域(視線領域)内にある対象物を判定する。図5(D)の例では、運転者の注視領域(視線領域)内に人物310がいるため、運転者は人物310を確認していると判定する。
ステップS460では、報知制御部150が、車両の運転者が位置を確認した対象物(注視領域(視線領域)内にある対象物)について、対象物の位置の報知を抑制する報知情報を生成し、報知部160を用いて運転者に報知する(報知制御工程)。
図5(E)は、報知制御部を用いた対象物の位置の報知を抑制する方法について説明する図である。運転者が位置を確認した対象物である人物310と対応する枠320について、図5(C)における報知状態と比較して抑制して表示している。即ち、図5(E)では枠320は細い破線で表すことで抑制した報知(第1の報知)をしている。一方、運転者が位置を確認していない対象物である人物311と対応する枠321については、強調した報知(第2の報知)を継続している。
即ち、図5(C)、(E)において枠321は太い破線で表しており、運転者が位置を確認した対象物(注視領域内にある対象物)については、枠の太さを細くすることによって対象物の位置の報知を抑制している。抑制する方法としては、例えば枠の色を目立たない色に変更したり、枠の色の彩度を落としたり、枠の輝度を低くしたり、枠を点滅させる場合には、点滅周期を長くしたり、或いは、枠を消すことで報知をしないようにしても良い。即ち、報知を抑制する場合には、報知をしないという場合も含む。更には枠の内側の色や枠の内側の輝度などを目立たないように変更しても良く、それらの組み合わせでも良いし、どのような方法であっても目立たなくすれば良い。目立たなくするという制御は、運転者からの視認性を低下させるとも言い換えることができる。
このように、本実施例の報知制御部は、画像表示装置を用いて所定の画像を表示することによって報知を行なわせている。又、周辺状況情報は移動装置周辺を撮像した撮像画像を含み、報知制御部は、撮像画像に対して、対象物検出部が検出した対象物を強調表示するために枠情報を生成している。
又、報知制御部は、視線領域外にある対象物について強調表示を行うことで報知を行うと共に、注視領内にある対象物については強調表示を抑制している。
このように、本実施例の運転支援装置においては、運転者が位置を確認した対象物(注視領域内にある対象物)について、報知を抑制している。その結果、位置を確認していない対象物がいる視野への運転者の注意低下を抑制することができる。
尚、ステップS460において、車両の運転者が位置を確認した対象物(注視領域内にある対象物)については位置の報知を抑制している。しかし、その際に、運転者が位置を確認していない対象物(注視領域外にある対象物)に対しては、位置の報知を通常よりも強調する報知情報を生成しても良い。
例えば、図5(E)において、枠321をより太い破線にしたり、より目立つようにしたりしても良い。即ち、視線領域内にある対象物について報知を抑制する際に、視線領域外にある対象物については報知をより一層強調するようにしても良い。
又、本実施例の報知制御部は、画像を表示する表示装置を用いて報知を行っているが、音声や振動を用いて運転者への報知を行っても良い。その場合、報知部としてスピーカーやバイブレーターを用いることができ、報知の強弱を音声や振動の強弱で行うことができる。又、画像表示、音声、振動の内の複数を用いて運転者への報知を行っても良い。
又、実施例の運転支援装置が搭載される移動装置は、実施例の報知制御部の動作と連動して移動装置の移動動作(移動速度、移動方向等)の制御を行う移動制御部を設けることが望ましい。移動制御部は、例えば、報知制御部によって報知をしたにも拘わらず、移動装置と対象物との距離が所定距離よりも短くなった場合には、移動装置にブレーキをかけて移動速度を低下させたり停止させて、衝突を回避させる。
上記の場合、移動制御部は移動装置の移動方向を変更して対象物との衝突を回避するようにしても良い。又、移動装置内の移動制御部の動作は、移動装置内に設けたコンピュータがメモリに格納(記憶)されたコンピュータプログラムを実行することによって行っても良い。
<実施例2>
実施例2では、対象物検出部140は、第1の領域210の外側に第2の領域を設定する。そして第1の領域に対象物が位置する場合と、第2の領域に対象物が位置する場合とで、判定部170と報知制御部150が行う動作を異ならせる。
図6は、実施例2における、第2の領域について説明する図である。第1の領域210の車両200の進行方向側の外側に例えば図6のようなコの字状の第2の領域220を設定している。第1の領域210内に対象物がいる場合は、第2の領域と比較して車両200との衝突可能性が高い領域となる。尚、図3や図6における領域の大きさはそれぞれ例であって、各領域の大きさは図に示される大きさには限定されない。
図7は、実施例2における運転支援装置のフローチャートであり、対象物検出部140が用いる第1の領域の外側に第2の領域を設定した場合の、運転支援装置100の動作を説明している。運転支援装置内のコンピュータがメモリに格納(記憶)されたコンピュータプログラムを実行することで、図7の各ステップの処理を実行する。
図7において、ステップS410からステップS460までの処理内容は、図4と同じであり、ステップS410では、取得部130が、周辺監視部120から、周辺状況情報を取得する。
図8(A)は、実施例2における、車両と対象物の関係の他の例を示す図である。
図8(A)において、第1の領域210内に対象物である人物310と人物311が存在している。又、第1の領域210の外側の第2の領域220に対象物である人物312が存在している。
車両200が備える周辺監視部120は、人物310~312を検出し、対象物の数と人物310~312の位置を周辺状況情報として生成する。
図7のフローにおいては、車両200が図8(A)の状況にあるとして、周辺状況情報について説明する。
ステップS411からステップS460までの処理内容は、図4の処理と同じなので説明は省略し、ステップS421以降の処理内容について説明する。
ステップS421では、対象物検出部140が、周辺状況情報を用いて第2の領域内に含まれる対象物の数を算出する。図8(A)の状況では、人物310~312の夫々のXY平面上での座標情報と、第2の領域22の領域情報とを比較することによって、第2の領域220内の対象物数は1であると算出する。ステップS421において、対象物の数が0よりも大きい場合は、ステップS431に進み、対象物の数が0の場合は、報知すべき対象物がないため、処理を終了する。
ステップS431では、対象物検出部140が検出した第2の領域220内に含まれる対象物の数と位置の情報を用いて、報知制御部150が報知情報を生成し、報知部160を用いて運転者に対象物の位置を報知する。
図8(B)は、図8(A)の場合に、報知制御部を用いて対象物の位置を報知する方法の例について説明する図である。
図8(B)においては、第2の領域220にいる対象物(人物312)に対して、枠522を重畳して表示している。
ステップS431において、枠320と枠321よりも細い破線で枠522を表すことにより、第2の領域内の対象物について第1の領域にいる対象物に対する報知より抑制した報知をしている。即ち、報知制御部は、第1の領域にいる対象物について第2の報知をする場合より、第2の領域にいる対象物について行う第2の報知を抑制している。人物312は第2の領域220に位置するため、人物310や人物311と比較して、衝突可能性が低い対象物だからである。
しかし、第2の領域220は第1の領域210と近接した領域であるため、第2の領域220に位置する対象物は、第1の領域210に移動する可能性がある。そのため、第2の領域220に位置する対象物も報知するが、抑制して表示することで報知している。運転者に対して直ちに注意すべき対象物と、今後注意すべき対象物となりうる物体とを区別して速やかに認識させることができる。
ステップS441では、取得部130が、運転者監視部110から注視領域情報(視線領域情報)を取得する。
ステップS451では、対象物検出部140が検出した第2の領域内に含まれる対象物の数と位置の情報と、視線領域情報(注視領域情報)とに基づき、運転者が第2の領域内の対象物の位置を確認したか否かについて判定部170が判定を行う。即ち、注視領域内にある対象物か否かについて判定を行う。
ステップS461では、報知制御部150が、第2の領域220に位置してかつ運転者が位置を未確認であるとステップS451にて判定した対象物について、対象物の位置に応じた報知情報を生成し、報知部160を用いて運転者に報知する。ここで、位置に応じた報知情報について、図8(C)を用いて説明する。
図8(C)は、図8(A)の状況を上方から見た図である。
報知制御部150は、第2の領域220内にいる人物312から、第1の領域210への距離532が近いほど、又は人物312の第1の領域210への接近速度が大きいほど、枠522を太い破線で表すなどして強調する。それによって、対象物の位置に応じた報知情報を生成している。即ち、報知制御部は、第2の領域にいる対象物の位置が第1の領域に近づくほど、或いは第1の領域への接近速度が大きいほど報知をより強調する。
第2の領域220に位置する対象物は、今後注意すべき対象物になる可能性があり、第1の領域210への距離が近いほど、或いは接近速度が大きいほど、その可能性は高い。従って、距離532又は接近速度に応じて報知を強調することで、運転者に今後注意すべき対象物がどの程度注意すべきなのかを認識させることができる。
本実施例の周辺監視部120として、撮像画像と距離情報を同時に取得可能なステレオカメラを用いているが、本実施例の運転支援装置は自車両の周辺状況情報を取得することができれば良い。周辺監視部120としては、例えばミリ波レーダーやLiDARなどで車外の周辺状況を監視するものであっても良い。
図9は、実施例2に係る、路上に設置される周辺監視装置について説明するための図である。図9に示すように路上の、例えば急カーブの先に周辺監視装置920が設置されており、周辺監視装置920から無線通信を介して、車両200の周辺状況情報を取得しても構わない。又、車両200が備える周辺監視部120と路上に設置される周辺監視装置920の夫々から周辺状況情報を取得しても構わない。路上に設置される周辺監視装置920から周辺状況情報を取得することで、車両200から死角となる領域についても、対象物の検出を行うことができ、車両走行時の安全性がより向上する。
<実施例3>
以下、図面を参照しながら本発明の実施例3に関して詳細に説明する。
図10(A)は、実施例3の運転支援装置の構成を模式的に示したシステム構成図である。運転支援装置600は、車両用センサ670を更に備えている。
車両用センサ670は、車速センサ、方向指示器、操舵センサ、ナビゲーションシステム等を含んでおり、移動装置の移動状況を検出するセンサとして機能している。取得部630は、車両用センサ670から、走行状況情報(車速、予定進路、周辺の道路の種類(歩道の有無など))を取得することができる。601は制御ユニットである。
本実施例の対象物検出部640は、取得部630が取得した走行状況情報を用いて第1の領域を設定し、周辺状況情報を用いて第1の領域内に含まれる対象物の数を算出する。運転支援装置600にはコンピュータとしてのCPUが内蔵されており、メモリに格納(記憶)されたコンピュータプログラムに基づき運転支援装置100全体の動作等を制御する制御部として機能する。
図10(B)は実施例3の運転支援装置のフローチャートであり、実施例3の運転支援装置600の動作について、図10(B)のフローチャートを用いて説明する。運転支援装置600内のコンピュータがメモリに格納(記憶)されたコンピュータプログラムを実行することで、図10(B)の各ステップを処理する。
ステップS710では、取得部130が、車両用センサ670から走行状況情報を取得する。
ステップS720では、対象物検出部640が、走行状況情報を用いて、第1の領域を設定する。第1の領域の設定方法について図11を用いて説明する。
図11(A)は実施例3に係る中低速時における第1領域の例を説明する図、(B)は高速時における第1領域の例を説明する図である。図11(A)、(B)においては、図2と同様に車両200の前方に設定した第1の領域を表している。走行状況情報に含まれる車両200の車速情報から、車両200が中速度(例えば時速20km~50km)の場合には、図11(A)に示すような第1の領域210を設定する。
走行状況情報に含まれる車両200の車速情報から、車両200が高速度(例えば時速50km~100km)の場合には、図11(B)に示す第1の領域210を設定する。すなわち、対象物検出部640は、車両200の速度に応じて第1の領域を設定している。車両200の速度が速いほど、第1の領域210は車両200の進行方向に沿って長くなり、かつ進行方向と垂直な方向には狭くなるように第1の領域210を設定している。即ち、対象物検出部は、移動装置の移動速度が速いほど、第1の領域を移動装置の進行方向に沿って長く設定し、第1の領域を前記移動装置の進行方向に垂直な方向に沿って短く設定している。
又、図11(C)は進行方向の道路に横断歩道がある場合の第1領域の例を説明する図、(D)は進行方向の道路の側方にガードレールがある場合の第1領域の例を説明する図である。図11(C)、(D)に示すように、走行状況情報に含まれる周囲の道路の種類等に応じて第1の領域210の形状を異ならせても良い。
即ち、周辺状況情報に含まれる移動装置の進行方向の道路に関する情報に基づき、対象物検出部が第1の領域を設定するようにしても良い。例えば、図11(C)に示すように、周囲の道路に横断歩道720が含まれる場合は、歩行者などが横断する可能性があるため、横断歩道を含むように、横長の第1の領域210を設定している。即ち、周辺状況情報に含まれる移動装置の進行方向の横断歩道に関する情報に基づき、対象物検出部が、横断歩道を含むように第1の領域を設定している。
図11(D)に示すように、車道の側方にガードレール730がある場合には、側方から対象物が侵入する可能性が低いため、第1の領域210を進行方向に沿って細長く設定している。即ち、移動装置の進行方向の道路の側方にガードレールがある場合には、第1の領域を移動装置の進行方向に沿って長く、かつ進行方向と垂直な方向に沿って短く設定するようにしている。又、他には、走行状況情報に含まれる車両の方向指示器の情報に基づき、車両の進行方向を予測し、進行方向側に第1の領域を広げたり位置をシフトしたりしても良い。
本実施例の運転支援装置においては、第1の領域を車両の走行状況に応じて設定している。即ち、移動装置の移動状況を検出するセンサを有し、センサから移動状況情報を取得し、対象物検出部は、第1の領域の形状等を移動状況情報に応じて設定している。
このように、運転者に報知する対象物を検出する領域を走行状況に応じて設定することで、より早期に対象物を運転者に報知することができるため、車両走行時の安全性がより向上する。
以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
尚、本実施例における制御の一部又は全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して運転支援装置や移動装置等に供給するようにしてもよい。そしてその運転支援装置や移動装置等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムをコンピュータが読出し可能に格納した記憶媒体は本発明を構成することとなる。
100 運転支援装置
110 運転者監視部
120 周辺監視部
130 取得部
140 対象物検出部
150 報知制御部
160 報知部
170 判定部

上記目的を達成するために、本発明の運転支援装置は、
移動装置の周辺の状況を表す周辺状況情報を生成する周辺監視手段と、
前記移動装置の運転者の視線方向の視線領域を表す視線領域情報を生成する運転者監視手段と、
前記周辺状況情報を用いて前記移動装置の進行方向に設定された第1の領域内に存在する対象物の数と位置を検出する対象物検出手段と、
前記対象物が前記視線領域に含まれる場合、前記対象物に関する第1の報知を実行し、前記対象物が前記視線領域に含まれない場合、前記対象物に関する第2の報知を実行する報知制御手段と、を有し、
前記対象物検出手段は、前記第1の領域の外側に更に第2の領域を設定し
前記報知制御手段は、前記第2の領域にいる前記対象物について行う前記第2の報知を抑制することを特徴とする。

Claims (19)

  1. 移動装置の周辺の状況を表す周辺状況情報を生成する周辺監視手段と、
    前記移動装置の運転者の視線方向の視線領域を表す視線領域情報を生成する運転者監視手段と、
    前記周辺状況情報を用いて前記移動装置の進行方向に設定された第1の領域内に存在する対象物の数と位置を検出する対象物検出手段と、
    前記対象物が前記視線領域に含まれる場合、前記対象物に関する第1の報知を実行し、前記対象物が前記視線領域に含まれない場合、前記対象物に関する第2の報知を実行する報知制御手段と、を有することを特徴とする運転支援装置。
  2. 前記第1の報知は、前記第2の報知よりも抑制された報知であることを特徴とする請求項1に記載の運転支援装置。
  3. 前記第1の報知は、報知をしない場合を含むことを特徴とする請求項1または2に記載の運転支援装置。
  4. 前記報知制御手段は、画像表示装置を用いて所定の画像を表示することによって前記報知を行うことを特徴とする請求項1乃至3のいずれか1項に記載の運転支援装置。
  5. 前記周辺状況情報は前記移動装置の周辺を撮像した撮像画像を含み、
    前記報知制御手段は、前記撮像画像に対して、前記対象物検出手段が検出した前記対象物を強調する強調表示を行うことで、少なくとも前記第2の報知を行うことを特徴とする請求項1乃至4のいずれか1項に記載の運転支援装置。
  6. 前記報知制御手段は、前記第2の報知において前記視線領域外にある前記対象物について前記強調表示を行い、前記第1の報知において前記視線領域内にある前記対象物については前記強調表示を抑制することを特徴とする請求項5に記載の運転支援装置。
  7. 前記報知制御手段は、音声又は振動による報知を行うことを特徴とする請求項1に記載の運転支援装置。
  8. 前記対象物検出手段は、前記第1の領域の外側に更に第2の領域を設定し
    前記報知制御手段は、前記第2の領域にいる前記対象物について行う前記第2の報知を抑制することを特徴とする請求項1乃至7のいずれか1項に記載の運転支援装置。
  9. 前記報知制御手段は、前記第2の領域にいる前記対象物の位置が前記第1の領域に近づくほど、当該対象物に対する前記第2の報知をより強調することを特徴とする請求項8に記載の運転支援装置。
  10. 前記移動装置の移動状況を検出するセンサを有し、
    前記対象物検出手段は、前記センサから取得した移動状況情報に応じて前記第1の領域を設定することを特徴とする請求項1乃至9のいずれか1項に記載の運転支援装置。
  11. 前記移動状況情報は前記移動装置の移動速度に関する情報を含み、
    前記対象物検出手段は、前記移動速度が速いほど、前記第1の領域を前記移動装置の進行方向に沿って長く設定することを特徴とする請求項10に記載の運転支援装置。
  12. 前記対象物検出手段は、前記移動速度が速いほど、前記第1の領域を前記移動装置の進行方向に垂直な方向に沿って短く設定することを特徴とする請求項11に記載の運転支援装置。
  13. 前記周辺状況情報は前記移動装置の進行方向の道路に関する情報を含み、
    前記対象物検出手段は、前記道路に関する情報に基づき、前記第1の領域を設定することを特徴とする請求項10乃至12のいずれか1項に記載の運転支援装置。
  14. 前記周辺状況情報は前記移動装置の進行方向の横断歩道に関する情報を含み、
    前記対象物検出手段は、前記横断歩道を含むように前記第1の領域を設定することを特徴とする請求項10乃至13のいずれか1項に記載の運転支援装置。
  15. 前記対象物検出手段は、前記移動装置の進行方向の道路の側方にガードレールがある場合には、前記第1の領域を前記移動装置の進行方向に沿って長く、かつ進行方向と垂直な方向に沿って短く設定することを特徴とする請求項10乃至14のいずれか1項に記載の運転支援装置。
  16. 請求項1乃至15のいずれか1項に記載の運転支援装置を搭載した移動装置であって、
    前記報知制御手段の動作と連動して前記移動装置の移動動作の制御を行う移動制御手段を有する移動装置。
  17. 移動装置の周辺の状況を表す周辺状況情報を生成する周辺監視工程と、
    前記移動装置の運転者の視線方向の視線領域を表す視線領域情報を生成する運転者監視工程と、
    前記周辺状況情報を用いて前記移動装置の進行方向に設定された第1の領域内にある対象物の数と位置を検出する対象物検出工程と
    前記対象物検出工程で検出された前記対象物が前記視線領域に含まれる場合、前記対象物に関する第1の報知を実行し、前記対象物が前記視線領域に含まれない場合、前記対象物に関する第2の報知を実行する報知制御工程と、を有することを特徴とする運転支援方法。
  18. 請求項1~15のいずれか1項に記載の運転支援装置又は請求項16に記載の移動装置の各手段をコンピュータにより制御するためのコンピュータプログラム。
  19. 請求項1~15のいずれか1項に記載の運転支援装置又は請求項16に記載の移動装置の各手段をコンピュータにより制御するためのコンピュータプログラムをコンピュータが読み出し可能に格納する記憶媒体。

JP2021066307A 2021-04-09 2021-04-09 運転支援装置、移動装置、運転支援方法、コンピュータプログラム、及び記憶媒体 Pending JP2022161464A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021066307A JP2022161464A (ja) 2021-04-09 2021-04-09 運転支援装置、移動装置、運転支援方法、コンピュータプログラム、及び記憶媒体
US17/714,870 US20220324475A1 (en) 2021-04-09 2022-04-06 Driving support device, moving apparatus, driving support method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021066307A JP2022161464A (ja) 2021-04-09 2021-04-09 運転支援装置、移動装置、運転支援方法、コンピュータプログラム、及び記憶媒体

Publications (1)

Publication Number Publication Date
JP2022161464A true JP2022161464A (ja) 2022-10-21

Family

ID=83510057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021066307A Pending JP2022161464A (ja) 2021-04-09 2021-04-09 運転支援装置、移動装置、運転支援方法、コンピュータプログラム、及び記憶媒体

Country Status (2)

Country Link
US (1) US20220324475A1 (ja)
JP (1) JP2022161464A (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350934A (ja) * 2005-06-20 2006-12-28 Denso Corp 情報表示装置
JP2007226666A (ja) * 2006-02-24 2007-09-06 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
JP2009040107A (ja) * 2007-08-06 2009-02-26 Denso Corp 画像表示制御装置及び画像表示制御システム
JP2009271766A (ja) * 2008-05-08 2009-11-19 Hitachi Ltd 自動車用障害物検知装置
JP2011257984A (ja) * 2010-06-09 2011-12-22 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
JP2020095688A (ja) * 2014-03-31 2020-06-18 Case特許株式会社 運転支援装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006350934A (ja) * 2005-06-20 2006-12-28 Denso Corp 情報表示装置
JP2007226666A (ja) * 2006-02-24 2007-09-06 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
JP2009040107A (ja) * 2007-08-06 2009-02-26 Denso Corp 画像表示制御装置及び画像表示制御システム
JP2009271766A (ja) * 2008-05-08 2009-11-19 Hitachi Ltd 自動車用障害物検知装置
JP2011257984A (ja) * 2010-06-09 2011-12-22 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
JP2020095688A (ja) * 2014-03-31 2020-06-18 Case特許株式会社 運転支援装置

Also Published As

Publication number Publication date
US20220324475A1 (en) 2022-10-13

Similar Documents

Publication Publication Date Title
US9771022B2 (en) Display apparatus
EP2544161B1 (en) Surrounding area monitoring device for vehicle
US10009580B2 (en) Method for supplementing a piece of object information assigned to an object and method for selecting objects in surroundings of a vehicle
JP5712119B2 (ja) 車両用歩行者報知装置
JP4517393B2 (ja) 運転支援装置
JP6379779B2 (ja) 車両用表示装置
JP2016001463A (ja) 処理装置、処理システム、処理プログラム及び処理方法
JP2016001170A (ja) 処理装置、処理プログラム、及び、処理方法
US20190204598A1 (en) Display control device and display control method
JP2020093766A (ja) 車両の制御装置、制御システム、及び制御プログラム
JP6876277B2 (ja) 制御装置、表示装置、表示方法及びプログラム
JP6213435B2 (ja) 注意過多状態判定装置及び注意過多状態判定プログラム
JP6296684B2 (ja) 運転支援装置
US11827148B2 (en) Display control device, display control method, moving body, and storage medium
CN111937055A (zh) 驾驶辅助装置
JP4270010B2 (ja) 物体危険判定装置
JP2008250453A (ja) 運転支援装置および運転支援方法
JP4345526B2 (ja) 物体監視装置
US20230022485A1 (en) Vehicle display control device, vehicle display device, vehicle display control method, and non-transitory storage medium
JP2008162550A (ja) 外部環境表示装置
JP2022161464A (ja) 運転支援装置、移動装置、運転支援方法、コンピュータプログラム、及び記憶媒体
JP3226699B2 (ja) 車両用周辺監視装置
JP2008305283A (ja) 運転支援装置および運転支援方法
JP2021037916A (ja) 表示制御装置及び表示制御プログラム
JP6946962B2 (ja) 走行支援装置及びコンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240305