JP6617651B2 - 歩行者検出装置、歩行者検出方法 - Google Patents

歩行者検出装置、歩行者検出方法 Download PDF

Info

Publication number
JP6617651B2
JP6617651B2 JP2016135404A JP2016135404A JP6617651B2 JP 6617651 B2 JP6617651 B2 JP 6617651B2 JP 2016135404 A JP2016135404 A JP 2016135404A JP 2016135404 A JP2016135404 A JP 2016135404A JP 6617651 B2 JP6617651 B2 JP 6617651B2
Authority
JP
Japan
Prior art keywords
pedestrian
roadway
target
crossing
target pedestrian
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016135404A
Other languages
English (en)
Other versions
JP2018005793A (ja
JP2018005793A5 (ja
Inventor
真也 來山
真也 來山
弘和 大藪
弘和 大藪
正明 廣瀬
正明 廣瀬
近藤 敏之
敏之 近藤
鎌田 忠
忠 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016135404A priority Critical patent/JP6617651B2/ja
Priority to US16/315,411 priority patent/US11011062B2/en
Priority to PCT/JP2017/020809 priority patent/WO2018008314A1/ja
Priority to DE112017003414.0T priority patent/DE112017003414T5/de
Publication of JP2018005793A publication Critical patent/JP2018005793A/ja
Publication of JP2018005793A5 publication Critical patent/JP2018005793A5/ja
Application granted granted Critical
Publication of JP6617651B2 publication Critical patent/JP6617651B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/005Traffic control systems for road vehicles including pedestrian guidance indicator
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/54Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking for indicating speed outside of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

本発明は、車両の周辺に存在する歩行者を検出する技術に関し、特に、車道を横断しようとしている歩行者を、実際に横断し始める前の段階で検出する技術に関する。
画像認識技術が進歩したことによって、今日では、車載カメラで得られた撮影画像から、車両の周囲に存在する歩行者を十分な精度で検出することが可能となっている。そして、次の開発目標としては、検出した歩行者が歩道を歩いているだけなのか、歩道を出て車道を横断しようとしているのかを、十分な精度で判別可能とすることが求められるようになってきた。
このような要請に対しては、歩行者の位置の時系列変化および移動速度の時系列変化を検出することによって、歩行者が車道を横断しようとしているか否かを判別しようとする技術が提案されている(特許文献1)。この提案の技術では、検出した時系列変化が、歩行者が車道を横断しようとする時の時系列変化のパターンに該当するか否かに基づいて、歩行者が車道を横断しようとしているか否かを判別している。
特開2010−102437号公報
しかし、上記の提案されている技術は、歩行者が車道を横断する動きを検出しているので、検出した時点では既に横断し始めており、横断し始める前の段階で、横断しようとしている歩行者を検出できるわけではないという問題があった。
この発明は、従来技術における上述した課題に鑑みてなされたものであり、車道を横断しようとしている歩行者を、横断し始める前の段階で、精度良く検出することが可能な技術の提供を目的とする。
上述した課題を解決するために本発明の歩行者検出装置および歩行者検出方法は、車載カメラの撮影画像の中で車道から所定距離の範囲内に存在する対象歩行者を検出する。そして、対象歩行者の視線方向が、車道の向こう側に存在する横断の目的地に留まっている状態が、所定の注視時間に亘って継続している場合には、対象歩行者が横断の目的地を注視したものと判断する。また、車道を走行する車両に対する安全確認を行ったか否かについても、対象歩行者の視線方向に基づいて判断する。その結果、対象歩行者が、横断の目的地の注視、または安全確認の何れか一方の動作を行ってから、所定時間内に他方の動作を行っていた場合に、車道の横断意思を有する横断前歩行者として検出する。
本願の発明者らが新たに見出した知見によれば、車道を横断しようとする歩行者は、横断するに先立って、100%といって良いほどの高い確率で、横断しようとする目的地の注視と、横断しようとする車道を走行する車両に対する安全確認とを行う。従って、横断の目的地の注視と、車両に対する安全確認とを所定時間内に行った対象歩行者を、車道の横断意思を有する横断前歩行者として検出してやれば、車道を横断しようとしている歩行者を、実際に横断し始める前の段階で、精度良く検出することが可能となる。
本実施例の歩行者検出装置100を搭載した車両1を示す説明図である。 本実施例の歩行者検出装置100の内部構成を示すブロック図である。 本実施例の歩行者検出装置100が車道を横断しようとしている歩行者を検出するために実行する横断前歩行者検出処理の前半部分のフローチャートである。 横断前歩行者検出処理の後半部分のフローチャートである。 車載カメラ2で得られた撮影画像を例示した説明図である。 撮影画像の中から対象歩行者を抽出する方法を示した説明図である。 対象歩行者が横断の目的地を注視したか否かを判断する方法についての説明図である。 対象歩行者が行う安全確認動作の一態様についての説明図である。 対象歩行者が行う安全確認動作の他の態様についての説明図である。 対象歩行者が行う安全確認動作の更なる他の態様についての説明図である。 対象歩行者の中から横断前歩行者を抽出するための基本的な考え方についての説明図である。 対象歩行者の中から横断前歩行者を抽出する方法についての説明図である。 横断前歩行者の抽出結果を出力する様子を例示した説明図である。 第1変形例の歩行者検出装置150の内部構成を示すブロック図である。 第2変形例の横断前歩行者検出処理が対象歩行者の中から横断前歩行者を抽出する方法についての説明図である。
以下では、上述した本願発明の内容を明確にするために実施例について説明する。
A.装置構成 :
図1には、本実施例の歩行者検出装置100を搭載した車両1の大まかな構成が示されている。図示されるように、車両1には、歩行者検出装置100に加えて、車載カメラ2や、モニター3、スピーカー4、ナビゲーション装置(以下、ナビ装置)10などが搭載されている。
車載カメラ2は、所定の時間間隔で前方の状況を撮影して、得られた撮影画像を歩行者検出装置100に出力する。
ナビ装置10は、地図データを記憶しており、車両1の現在位置を検出して、現在位置の周辺の地図データを歩行者検出装置100に出力する。
歩行者検出装置100は、車載カメラ2から受け取った撮影画像を解析して、撮影画像に写った歩行者を検出する。更に、検出した歩行者が、車道を横断しようとしている歩行者であるか否かを、歩行者が横断を開始する前の段階で判断する。歩行者が横断を開始する前の段階で、横断しようとしているか否かを判断する方法については、後ほど詳しく説明する。尚、以下では、車道を横断しようとしているが未だ横断を開始していない歩行者を「横断前歩行者」と称することにする。
また、本実施例の歩行者検出装置100には、ナビ装置10も接続されている。そこで、歩行者が横断前歩行者であるか否かを判断するに際しては、車両1の現在位置の情報や、周辺の地図情報をナビ装置10から取得して利用することもできる。
そして、歩行者検出装置100は、撮影画像に写った歩行者の中から横断前歩行者を検出した結果を、モニター3やスピーカー4を用いて運転者に出力する。
図2には、本実施例の歩行者検出装置100の内部構成が示されている。図示されるように歩行者検出装置100は、撮影画像取得部101と、歩行者検出部102と、車道検出部103と、対象歩行者検出部104と、視線方向取得部105と、注視判断部106と、安全確認判断部107と、横断前歩行者検出部108とを備えている。
尚、これらの「部」は、本実施例の歩行者検出装置100が、撮影画像中の歩行者の中から横断前歩行者を検出するために備える機能に着目して、歩行者検出装置100の内部を便宜的に分類した抽象的な概念である。従って、歩行者検出装置100がこれらの「部」に物理的に区分されることを表すものではない。これらの「部」は、CPUで実行されるコンピュータープログラムとして実現することもできるし、LSIやメモリーを含む電子回路として実現することもできるし、更にはこれらを組合せることによって実現することもできる。
撮影画像取得部101は、車載カメラ2に接続されており、車載カメラ2が車両1の前方を撮影した撮影画像を一定の時間周期で取得して、歩行者検出部102や車道検出部103に出力する。
歩行者検出部102は、撮影画像取得部101から受け取った撮影画像を解析することによって、撮影画像中に写った歩行者を検出する。撮影画像中に写った歩行者を検出する方法については、画像中で歩行者の特徴を有する部分を検出するなど、周知の種々の方法を用いることができる。
車道検出部103は、撮影画像取得部101から受け取った撮影画像を解析することによって、撮影画像中に写った車道を検出する。車道の両側には白線が引かれているので、撮影画像の中から白線を検出することによって車道を検出することができる。また、ナビ装置10は、車両1の現在位置を検出すると共に、車道の位置情報を含んだ地図情報を記憶している。そこで、車道検出部103は、撮影画像中の車道を検出するに際して、ナビ装置10から車両1の現在位置や地図情報を取得して、これらの情報も利用しながら車道を検出しても良い。
対象歩行者検出部104は、歩行者検出部102から取得した歩行者の検出結果と、車道検出部103から取得した車道の検出結果とに基づいて、対象歩行者を検出する。ここで、対象歩行者とは、歩行者検出部102で検出された歩行者の中で、横断前歩行者であるか否かを判断する対象となる歩行者である。例えば、歩行者が車道から十分に離れた位置にいる場合、その歩行者が車道を横断しようとしていないことは、判断するまでもなく明らかである。逆に言えば、車道から一定距離以内にいる歩行者について、その歩行者が横断前歩行者であるか否かを判断すればよい。そこで、対象歩行者検出部104は、歩行者検出部102で検出された歩行者の中から、横断前歩行者であるか否かの判断対象となる歩行者(すなわち、対象歩行者)を、車道検出部103で検出された車道の位置の情報に基づいて検出する。
視線方向取得部105は、対象歩行者検出部104で検出された対象歩行者について、視線の方向を取得する。本実施例では、対象歩行者の視線の方向は、撮影画像取得部101が取得した撮影画像を解析して、対象歩行者の顔の向きを検出することによって、視線の方向を取得するものとする。もちろん、視線の向きを検出して無線で送信する専用の機器を歩行者に装着して貰い、歩行者から無線で送信されてきた視線の向きを取得しても良い。あるいは、道路脇に監視カメラおよび解析装置を設置して、歩行者の画像を解析して得られた視線の向きを無線で送信するようにしておき、無線で送信されてきた視線の向きを取得しても良い。
注視判断部106は、対象歩行者についての視線の向きと、車道の位置の情報とに基づいて、対象歩行者が、車道の向こう側に存在する横断の目的地を注視したか否かを判断する。
また、安全確認判断部107は、対象歩行者についての視線の向きと、車道の位置の情報とに基づいて、対象歩行者が、車道を走行する車両に対する安全確認を行ったか否かを判断する。対象歩行者が横断の目的地を注視したか否か、あるいは安全確認を行ったか否かを判断する方法については後ほど詳しく説明する。
そして、横断前歩行者検出部108は、横断の目的地を注視する動作と、車両に対する安全確認の動作とを、対象歩行者が所定の時間内に行った場合に、その対象歩行者を横断前歩行者として検出する。詳細には後述するが、本願発明者らが見出した新たな知見によれば、車道を横断しようとする歩行者は、横断の目的地を注視する動作と、車両に対する安全確認の動作とを、横断前に実行することが分かっている。従って、これら2つの動作を所定時間内に行った対象歩行者を横断前歩行者として検出してやれば、車道を横断しようとしている歩行者を、その歩行者が横断を開始する前の段階で、精度良く検出することができる。横断前歩行者検出部108は、こうして横断前歩行者を検出した結果を、モニター3あるいはスピーカー4を用いて出力する。
B.横断前歩行者検出処理 :
図3および図4には、本実施例の歩行者検出装置100が横断前歩行者を検出する処理の詳細なフローチャートが示されている。
図示されるように、横断前歩行者検出処理では先ず始めに、車載カメラ2が撮影した撮影画像を取得する(S100)。そして、取得した撮影画像を解析することによって、撮影画像中の歩行者を検出し(S101)、更に、撮影画像の中から車道を検出する(S102)。前述したように、撮影画像中の歩行者は、撮影画像中で歩行者の特徴を有する部分を探索することによって検出することができる。また、撮影画像中の車道は、車道の両側に存在する白線や、路肩の段差などが写った部分を抽出することによって、検出することができる。
そして、歩行者の中から対象歩行者を抽出する(S103)。前述したように対象歩行者とは、横断前歩行者であるか否かを判断する対象となる歩行者である。対象歩行者を抽出する方法について、具体例を用いて説明する。
例えば、撮影画像が、図5に例示した画像であったとすると、撮影画像中の歩行者を検出する。図6(a)には、撮影画像中から歩行者A〜Hの8人の歩行者が検出された様子が示されている。続いて、撮影画像中の車道を検出する。図6(b)では、撮影画像中から検出された車道を、斜線を付すことによって表示している。
また、車載カメラ2は車両1に対して固定されているから、撮影画像上での歩行者A〜Hや車道の位置は、実空間内での車両1を基準とする相対位置に読み替えることができる。そこで、図6(a)に示した歩行者A〜Hの中で、車道までの距離が所定距離以内の歩行者を、対象歩行者として抽出する。これは、車道から十分に離れた位置にいる歩行者は、車道を横断しようとしているとは考えられないので、車道の近くにいる歩行者を対象歩行者として抽出しておけば十分と考えられるためである。
その結果、図6(c)に示したように、撮影画像中の8人の歩行者A〜Hの中から、歩行者Hを除いた7人の歩行者A〜Gが、対象歩行者として抽出される。
尚、例えば、車道の中央に柵が設けられるなどして、歩行者が車道を横断することは考えられない状況も起こり得る。あるいは、車道の片側には歩道があるが、反対側には歩道が無いなどの理由で、歩行者が車道を横断することは考えられない状況も起こり得る。そこで、撮影画像を解析して、このような状況が検出された場合には、このような状況の歩行者を除いて、それ以外の歩行者を対象歩行者として抽出しても良い。
あるいは、歩行者が車道を横断することは考えられない道路範囲を、ナビ装置10の地図情報に記憶しておく。そして、車道から所定距離以内の歩行者であっても、そのような道路範囲にいる歩行者を除いて、それ以外の歩行者を対象歩行者として抽出しても良い。
以上のようにして、撮影画像中の歩行者の中から対象歩行者を抽出したら(図3のS103)、対象歩行者を1人選択して(S104)、その対象歩行者の視線方向を取得する(S105)。本実施例では、撮影画像中で対象歩行者の頭部の画像を解析して、顔の向きを検出することによって、視線方向を取得する。
もちろん、道路脇に設置した監視カメラおよび解析装置を用いて、歩行者の視線の向きを検出して、無線で送信されてきた検出結果を受信することによって視線方向を取得しても良い。あるいは、歩行者に専用の機器を装着して貰うことによって、視線の向きを検出し、検出結果を無線で送信することによって、歩行者の視線方向を受信することとしても良い。
続いて、対象歩行者の視線方向が、車道の向こう側に存在する横断の目的地の方向を向いているか否かを判断する(S106)。前述したように、対象歩行者は車道までの距離が所定距離以内の範囲にいる歩行者であるから、対象歩行者の近くには車道が存在している。そこで、その車道の向こう側を対象歩行者が見ているか否かを判断する。
図7には、対象歩行者の視線方向が、横断の目的地の方向を向いているか否かを判断する方法が示されている。例えば、図7(a)に示すように、対象歩行者の体の真正面を車道が横切るような状態で、対象歩行者の視線方向(本実施例では顔の向き)が車道に対して直交している場合には、対象歩行者の視線方向が横断の目的地の方向を向いているものと判断できる。
また、図7(b)に例示したように、対象歩行者の体の向きが車道に対して大きく斜めに傾いている場合でも、対象歩行者の視線方向が、車道に対して直交する方向に対して−45°〜+45°の範囲内にある場合には、対象歩行者の視線方向が横断の目的地の方向を向いているものと判断できる。
これに対して、図7(c)に例示したように、対象歩行者の体の向きが車道に対して斜めに傾いていない場合でも、対象歩行者の視線方向が車道に対して直交する方向に対して、−45°〜+45°の範囲内にない場合には、対象歩行者の視線方向が横断の目的地の方向を向いていないものと判断できる。
また、図7(d)に例示したように、対象歩行者の視線方向が、水平方向から下向きに所定角度(例えば20°)よりも大きく傾いている場合には、対象歩行者の視線方向が横断の目的地の方向を向いていないものと判断できる。
あるいは、図7(e)に例示したように、対象歩行者の視線方向が、水平方向から上向きに所定角度(例えば10°)よりも大きく傾いている場合にも、対象歩行者の視線方向が横断の目的地の方向を向いていないものと判断できる。
図3のS106では、以上のようにして、対象歩行者の視線方向が、車道の向こう側に存在する横断の目的地の方向を向いているか否かを判断する。
その結果、視線方向が横断の目的地の方向を向いていると判断した場合には(S106:yes)、今度は、その方向で所定の注視時間以上(例えば、100msec以上)に亘って、視線方向が留まっているか否かを判断する(S107)。そして、注視時間以上に亘って視線方向が留まっていると判断した場合には(S107:yes)、S104で選択した対象歩行者についての注視フラグをONに設定する(S108)。ここで、注視フラグとは、対象歩行者が車道の向こう側に存在する横断の目的地を注視したことを示すフラグである。また、注視フラグは、対象歩行者毎に(図6に示した例では、歩行者A〜Gのそれぞれに対して)設定されている。一般に、人間が何かを注視する時には、所定時間以上(例えば、100msec以上)の間、視線が留まることが知られている。従って、対象歩行者の視線方向が、車道の向こう側に存在する横断の目的地の方向に、所定の注視時間以上に亘って視線が留まっていれば、横断の目的地を注視したと考えて良い。そこで、このような場合には、選択中の対象歩行者についての注視フラグをONに設定するのである。
これに対して、視線方向が横断の目的地の方向を向いているが(S106:yes)、その方向を向いてから、未だ注視時間が経過していないと判断した場合には(S107:no)、選択中の対象歩行者についての注視フラグをOFFに設定する(S109)。
また、そもそも視線方向が横断の目的地の方向を向いていない場合は(S106:no)、視線方向が注視時間以上に亘って留まっているか否かを判断することなく、選択中の対象歩行者についての注視フラグをOFFに設定する(S109)。
続いて、本実施例の歩行者検出装置100は、対象歩行者が、車道を走行する車両に対する安全確認を行ったか否かを判断する(図4のS110)。すなわち、前述したように対象歩行者の近くには車道が存在するから、対象歩行者が、その車道を走行する車両に対する安全確認を行ったか否かを判断する。対象歩行者が安全確認を行ったか否かは、対象歩行者の視線方向に基づいて、次のようにして判断する。
例えば、図8に示したように、対象歩行者の視線方向が、対象歩行者に対して車道の側を、所定の移動速度の範囲内で、所定角度以上、一方向に移動するという特徴的な動きをした場合に、その対象歩行者は安全確認を行ったものと判断する。
これは、そのような特徴的な視線の動きは、車道を走行する車両を眼で追いかける場合に現れるものであるため、そのような視線の動きをしていれば、車道を走行する車両に対する安全確認を行ったものと考えられるためである。
また、図9に例示したように、対象歩行者の視線方向が、車道に向かって左右何れか一方の方向で所定の確認時間以上に亘って留まった後、他方の方向にも確認時間以上に亘って留まるというという特徴的な動きをした場合に、その対象歩行者は安全確認を行ったものと判断する。あるいは、このような視線の移動を繰り返す場合にも、その対象歩行者は安全確認を行ったものと判断する。
これは、そのような特徴的な視線の動きは、歩行者が左右の安全を確認する際に行う場合に現れるものであるため、そのような視線の動きをしていれば、車道を走行する車両に対する安全確認を行ったものと考えられるためである。
尚、歩行者が左右の安全を確認したか否かを判断するために用いる所定の確認時間は、前述した注視時間と同じ時間(例えば、100msec以上の時間)とすることができる。また、左右の一方の方向と他方の方向とは、所定の確認角度(代表的には90°)以上離れた角度であることを確認しておくことが望ましい。
更には、図10に例示したように、対象歩行者の視線方向が、車道に沿った方向を向いている状態から、車道に直交する状態を超えて移動するという特徴的な動きをした場合に、その対象歩行者は安全確認を行ったものと判断する。
これは、そのような特徴的な視線の動きは、歩行者が後方の安全を確認する場合に現れるものであるため、そのような視線の動きをしていれば、車道を走行する車両に対する安全確認を行ったものと考えられるためである。尚、このような視線の動きをする前の視線方向と、車道に直交する状態を超えて移動した後の視線方向とは、所定の振り返り角度(代表的には120°)以上離れた角度であることを確認しておくことが望ましい。
図4のS110では、対象歩行者が車道を走行する車両に対する安全確認を行ったか否かを、以上のような方法で、対象歩行者の視線方向に基づいて判断する。
その結果、対象歩行者が安全確認を行ったと判断した場合は、選択中の対象歩行者(すなわち、図3のS104で選択した対象歩行者)についての安全確認フラグをONに設定する(S111)。ここで、安全確認フラグとは、対象歩行者が、車道を走行する車両に対する安全確認を行ったことを示すフラグである。安全確認フラグも、前述した注視フラグと同様に、対象歩行者毎に設定されている。
これに対して、対象歩行者が安全確認を行っていないと判断した場合は、選択中の対象歩行者についての安全確認フラグをOFFに設定する(S112)。
こうして、選択中の対象歩行者についての注視フラグおよび安全確認フラグを設定したら、それまでに設定した注視フラグおよび安全確認フラグの履歴に基づいて、その対象歩行者が横断前歩行者に該当するか否かを判断する(S113)。対象歩行者が横断前歩行者に該当するか否かを判断する方法については後述する。尚、横断前歩行者とは、前述したように、車道を横断する意思を有しているが、実際には未だ横断を開始していない歩行者のことである。
その結果、横断前歩行者に該当すると判断した場合は(S113:yes)、選択中の対象歩行者は横断前歩行者であると認定する(S114)。これに対して、横断前歩行者に該当しないと判断した場合は(S113:no)、選択中の対象歩行者は横断前歩行者ではないと認定する(S115)。
以上のようにして、選択中の対象歩行者について、横断前歩行者に該当するか否かを認定したら(S114、S115)、全ての対象歩行者を選択したか否かを判断する(S116)。すなわち、図3のS104では、S103で抽出された対象歩行者の中から1人の歩行者が選択されており、続くS105〜図4のS115では、その歩行者に対して上述した一連の処理が行われる。そこで、選択した1人の対象歩行者についての処理が終了したら、S116では、未だ処理が終了していない対象歩行者(すなわち、選択していない対象歩行者)が存在しているか否かを判断するのである。
その結果、未だ選択していない対象歩行者が存在している場合は(S116:no)、図3のS104に戻って、新たな対象歩行者を選択した後、選択したその対象歩行者に対して、上述した続く一連の処理(S105〜図4のS115)を行う。
このような操作を繰り返しているうちに、やがては全ての対象歩行者を選択したと判断される(S116:yes)。そこでこの場合は、横断前歩行者と認定された歩行者を抽出する(S117)。
ここで、本実施例の歩行者検出装置100が、S113の処理で、対象歩行者が横断前歩行者に該当するか否かを判断する方法について説明する。
図11には、対象歩行者が横断前歩行者に該当するか否かを判断するための基本的な考え方が示されている。先ず、車道を横断する歩行者は、横断開始の直前に、横断の目的地を注視する場合と、車道を走行する車両に対して安全確認を行う場合とがある。ここで、本願の発明者らが新たに見出した知見によれば、横断開始の直前に歩行者が横断の目的地を注視していた場合でも、その歩行者は車両への安全確認を行わずに横断したわけではなく、目的地を注視する前には安全確認を行っている(図11(a)参照のこと)。
同様なことは、横断開始の直前に歩行者が安全確認を行っていた場合にも当て嵌まる。すなわち、横断開始の直前に歩行者が安全確認を行っていた場合、その歩行者は横断の目的地を注視することなく横断したわけではなく、車両への安全確認を行う前には、横断の目的地を注視している(図11(b)参照のこと)。
そこで、10箇所以上の様々な地点で、実際に車道を横断した100人以上の歩行者について、横断開始前の動きを観察した。その結果、車道を横断した歩行者は、100%の確率で、横断の直前に、横断の目的地を注視する動きと、車両への安全確認とを行っていることが確かめられた。
このことから、横断の目的地を注視する動きと、車両への安全確認を行う動きの2つの動きを、所定の遡及時間(例えば、3秒)以内に行った場合には、車道を横断しようとしているものと考えて良い(図11(c)参照のこと)。また、車道を横断しようとしても横断を思い止まることも起こり得るから、これら2つの動きを所定時間以内に行った場合でも、その後、一定時間(例えば、5秒)が経過した後は、車道の横断を思い止まったものと判断しても良い。
本実施例の歩行者検出装置100は、以上のような考え方に基づいて、対象歩行者が横断前歩行者に該当するか否かを判断する。
図12は、対象歩行者が横断前歩行者に該当するか否かを判断する方法を示した説明図である。図4のS113で言及したように、対象歩行者が横断前歩行者に該当するか否かは、それまでに設定した注視フラグおよび安全確認フラグの履歴に基づいて判断される。
図12(a)には、図6に例示した対象歩行者A〜Gのそれぞれについて、注視フラグおよび安全確認フラグの設定が、時間の経過と共に切り換わる様子が概念的に示されている。図中で左側から右側に向かって延びる黒い直線は、注視フラグおよび安全確認フラグの何れも設定されていない(すなわち、何れのフラグもOFFに設定されている)ことを表しており、粗い斜線を付した部分は注視フラグがONに設定されていることを表している。また、細かい斜線を付した部分は、安全確認フラグがONに設定されていることを表している。
例えば、対象歩行者Aについては、暫くの期間に亘って注視フラグがONに設定された後、何れのフラグもOFFに設定された状態が続き、その後、安全確認フラグがONに設定されて、その状態が現在時点まで継続されている。
また、対象歩行者Bについては、注視フラグおよび安全確認フラグの何れもONに設定されていない。更に、対象歩行者Cについては、注視フラグがONになった後、直ぐに続けて安全確認フラグがONになり、再び注視フラグがONに設定された後、注視フラグおよび安全確認フラグの何れもONに設定されていない状態となって、その状態が現在時点まで継続されている。
尚、前述したように、注視フラグは横断の目的地を注視したことを表すフラグであり、安全確認フラグは車道を走行する車両への安全確認を行ったことを表すフラグである。横断の目的地の注視と、車両への安全確認とは同時に行うことができないから、注視フラグと安全確認フラグとが同時にONに設定されることはない。
このように、対象歩行者のそれぞれについての注視フラグおよび安全確認フラグの履歴が分かれば(図12(a)参照のこと)、対象歩行者が車道を横断しようとしているか否か、すなわち横断前歩行者に該当するか否かを判断することができる。
例えば、対象歩行者Aについては、注視フラグがONに設定された後、暫くの時間が経過した後に安全確認フラグがONに設定されている。そこで、図12(b)に示したように、安全確認フラグがONに設定された時点aで、所定の遡及時間(例えば3秒間)を遡る間に、注視フラグがONに設定されているか否かを判断する。図示されるように、対象歩行者Aについては、時点aから遡ること遡及時間以内では注視フラグがONに設定されていない。このため、安全確認フラグあるいは注視フラグの一方がONに設定されてから遡及時間以内に、他方のフラグがONにされていないので、横断前歩行者には該当しないと判断される。
また、対象歩行者Cについては、注視フラグがONに設定された後、直ぐに安全確認フラグがONに設定されている。このため、図12(c)に示したように、安全確認フラグがONに設定された時点bから遡ること遡及時間以内に、注視フラグがONに設定されている。従って、対象歩行者Cは、時点bで横断前歩行者に該当すると判断される。
更に、対象歩行者Cについては、時点b以降の時点でも、安全確認フラグがONに設定されている間は、遡及時間を遡る期間内に注視フラグがONに設定されている。このため、時点b以降も、対象歩行者Cは横断前歩行者に該当すると判断され続ける。更に加えて、安全確認フラグがOFFになって2回目に注視フラグがONになった後は、2回目の注視フラグがONになっている時点から遡及時間を遡る期間内に注視フラグがONに設定されているので、対象歩行者Cは、横断前歩行者に該当すると判断され続ける。そして、2回目の注視フラグがOFFになった後も、時点cまでの間は、遡及時間を遡る期間内に注視フラグがONに設定された状態と、安全確認フラグがONに設定された状態とが存在する。このため、対象歩行者Cは、時点cまでの間、横断前歩行者に該当すると判断され続けることになる。
図4のS113では、選択中の対象歩行者(すなわち、図3のS104で選択した歩行者)について、以上のような方法で、横断前歩行者に該当するか否かを判断する。その結果、横断前歩行者に該当すると判断した場合には(S113:yes)、その選択中の対象歩行者を横断前歩行者として認定して、その旨を記憶する(S114)。これに対して、横断前歩行者に該当しないと判断した場合には(S113:no)、その選択中の対象歩行者は横断前歩行者ではないと認定して、その旨を記憶する(S115)。
その後、前述したように、全ての対象歩行者を選択したか否かを判断して(S116)、全ての対象歩行者を選択したと判断したら(S116:yes)、横断前歩行者と認定された歩行者を抽出する(S117)。
そして、抽出された横断前歩行者が存在するか否かを判断して(S118)、横断前歩行者が存在していた場合は(S118:yes)、横断前歩行者が存在する旨を、車室内に設けられたモニター3およびスピーカー4を用いて出力する(S119)。
図13には、モニター3の画面上に横断前歩行者の抽出結果を出力した様子が例示されている。図示されているように、モニター3の画面上には、車載カメラ2で車両1の前方を撮影した撮影画像が表示されている。前述したように、撮影画像には8人の歩行者A〜Hが写っているが、その中で横断前歩行者として抽出された歩行者Gには、破線の矩形で示したマーカー画像mが重ねて表示されている。このため、車両1の運転者は、8人の歩行者A〜Hの中で、特に注意を払わなければならない歩行者が歩行者Gであることを、直ちに認識することができる。
加えて、本実施例の歩行者検出装置100では、横断前歩行者を抽出した結果、抽出された横断前歩行者が存在していた場合には(S118:yes)、横断前歩行者が存在する旨の音声(例えば、「歩行者が横断しようとしています」など)をスピーカー4から出力するようになっている。
こうして、横断前歩行者が存在する旨を出力したら(S119)、図3および図4に示した横断前歩行者検出処理を終了するか否かを判断する(S120)。その結果、処理を終了しない場合は(S120:no)、処理の先頭に戻って、車載カメラ2から撮影画像を取得した後(図3のS100)、続く上述した一連の処理を開始する。
一方、図4のS117で、横断前歩行者と認定された歩行者を抽出した結果、横断前歩行者と認定された歩行者が存在していなかった場合は(S118:no)、横断前歩行者が存在する旨を出力することなく、横断前歩行者検出処理を終了するか否かを判断する(S120)。その結果、処理を終了しない場合は(S120:no)、処理の先頭に戻って、車載カメラ2から撮影画像を取得した後(図3のS100)、続く上述した一連の処理を開始する。
また、S120で処理を終了すると判断した場合は(S120:yes)、横断前歩行者検出処理を終了する。
このように、本実施例の歩行者検出装置100は、歩行者が実際に車道を横断し始める前の段階で、横断しようとしている歩行者(すなわち横断前歩行者)を検出することができる。また、横断前歩行者を検出するに際しては、図11を用いて前述したように、歩行者が横断の目的地を注視する動きと、車道を走行する車両に対する安全確認を行う動きとを、所定の時間内に行ったか否かに基づいて検出しているので、高い精度で横断前歩行者を検出することができる。
その結果、車両1の前方に多くの歩行者が存在するような場合でも、車道を横断しようとしている歩行者を、精度良く、しかも実際に横断し始める前の段階で検出することができるので、運転者の歩行者に対する監視負担を大幅に軽減することが可能となる。
例えば、図13に示した例では、車両1の前方には8人の歩行者A〜Hが存在するが、この段階では、何れの歩行者についても、実際には未だ横断を開始していないので、何れの歩行者が車道を横断しようとしているかを判断することは困難である。しかし、本実施例の歩行者検出装置100では、歩行者Gが実際に車道を横断し始める前の段階で、運転者に対して歩行者Gが車道を横断しようとしていることを知らせることができるので、運転者の監視負担を大幅に軽減することが可能となる。
加えて、本実施例の歩行者検出装置100では、横断前歩行者が存在する場合には、その旨の音声をスピーカー4から出力する(図13参照のこと)。このため、運転者は通常の通りに前方を視認しながら運転していれば、モニター3を監視していなくても、横断前歩行者が抽出されたことを直ちに認識することができる。そして、その段階でモニター3の画面を見れば、何れの歩行者が横断前歩行者であるかを、マーカー画像mによって直ちに認識することが可能となる。
C.変形例 :
上述した本実施例には幾つかの変形例を考えることができる。以下では、これら変形例について、本実施例との相違点を中心として簡単に説明する。
C−1.第1変形例 :
上述した本実施例の歩行者検出装置100では、対象歩行者の視線方向が、図8に示した特徴的な動き(すなわち、対象歩行者に対して車道の側を、所定の移動速度の範囲内で、所定角度以上、一方向に移動する動き)をした場合に、その対象歩行者は、車道を走行する車両を眼で追いかけたものと推定して、車両に対する安全確認を行ったものと判断した。
しかし、車道を走行する車両の位置を検出して、対象歩行者の視線方向が、車両の方向を向いているか否かを判断しても良い。そして、車両の位置が移動するに伴って、対象歩行者の視線方向も移動している場合に、その対象歩行者は、車両に対する安全確認を行ったものと判断してもよい。
図14には、このような第1変形例の歩行者検出装置150の内部構成が示されている。図14に示した第1変形例の歩行者検出装置150は、図2を用いて前述した本実施例の歩行者検出装置100に対して、車両検出部109が追加されているが、その他の点については本実施例の歩行者検出装置100と同様である。
第1変形例の歩行者検出装置150が備える車両検出部109は、撮影画像取得部101から受け取った車載カメラ2の撮影画像を解析して、撮影画像中の車両の位置を検出し、その結果を安全確認判断部107に出力する。尚、ここでは、車両検出部109は撮影画像を解析することによって車両の位置を検出するものとして説明するが、車両検出部109が車両の位置を検出する方法は、周知の種々の方法を用いることができる。例えば、ミリ波などのレーダーや、ソナーなどの出力に基づいて車両の位置を検出してもよい。
安全確認判断部107は、視線方向取得部105から対象歩行者の視線方向を取得し、車両検出部109から車両の位置を取得する。そして、対象歩行者の視線方向が、車両の動きを追いかけて移動している場合に、その対象歩行者は車両に対する安全確認を行ったものと判断する。
こうすれば、対象歩行者の視線が実際に車両を追いかけている場合に、安全確認を行ったと判断することになるので、対象歩行者が車両に対する安全確認を行ったか否かを、より一層、正確に判断することができる。その結果、変形例の歩行者検出装置150は、横断前歩行者を更に精度良く検出することが可能となる。
C−2.第2変形例 :
図12を用いて前述したように、本実施例の横断前歩行者検出処理では、現在時点から所定の遡及時間を遡る期間内で、安全確認フラグおよび注視フラグがONになっている対象歩行者を、横断前歩行者として検出した。
しかし、現在時点から遡及時間を遡って、安全確認フラグおよび注視フラグがONになっている対象歩行者を探索するのではなく、安全確認フラグおよび注視フラグのそれぞれについて、ON状態が有効に継続する有効継続時間を設定しておいてもよい。そして、安全確認フラグおよび注視フラグの何れについてもON状態が継続している対象歩行者を、横断前歩行者として検出することとしても良い。
図15には、上述した第2変形例の横断前歩行者検出処理で、対象歩行者の中から横断前歩行者を検出する様子を示す説明図である。例えば、図15(a)に示した例では、対象歩行者の注視フラグがONからOFFになった時点dで、所定時間の有効継続時間が設定される。そして、時点dから有効継続時間が経過するまでの期間内で、安全確認フラグがONになっている間は、その対象歩行者を横断前歩行者として検出する。
尚、図15(a)に示した例では、時点dから有効継続時間が経過した後も安全確認フラグがONのままとなっている。しかし、注視フラグのON状態が有効に継続する有効継続時間が終了しているので、時点dから有効継続時間が経過した後は、横断前歩行者として検出されなくなる。
また、図15(b)に示した例では、対象歩行者の注視フラグがONからOFFになった時点eで所定時間の有効継続時間が設定され、時点eから有効継続時間が経過するまでの期間内で、安全確認フラグがONになっている間は、その対象歩行者は横断前歩行者として検出される。そして、安全確認フラグがONからOFFになると、その時点fから、今度は安全確認フラグの有効継続時間が設定される。尚、図15(b)では、安全確認フラグの有効継続時間については図示が省略されている。
このため、安全確認フラグがOFFになった後も、注視フラグの有効継続時間が経過するまでの間は、注視フラグおよび安全確認フラグがONになった状態が継続しているので、この期間でも対象歩行者は横断前歩行者として検出されることになる。
尚、以上の説明では、初めに注視フラグがONになり、その後に安全確認フラグがONになる場合を例に用いて説明したが、初めに安全確認フラグがONになり、その後に注視フラグがONになる場合についても、全く同様な説明が当て嵌まる。
また、以上の説明では、注視フラグと安全確認フラグとで、有効継続時間の長さに違いは無いものとして説明した。しかし、注視フラグと安全確認フラグとで、有効継続時間の長さを異ならせてもよい。
例えば、図15(c)に例示したように、安全確認フラグの有効継続時間については、図15(a)あるいは図15(b)に例示した注視フラグの有効継続時間よりも、短い時間に設定しても良い。
前述したように、注視フラグとは、対象歩行者が横断の目的地を注視したことを示すフラグであり、安全確認フラグとは、対象歩行者が車両に対する安全確認を行ったことを示すフラグである。そして、横断の目的地は一度確認しておけば時間が経過しても状況が変化することは考えにくいので、車道を横断しようとする歩行者は、横断の目的地を確認してから時間が経過しても、再度確認すること無く、そのまま横断を開始し勝ちである。
これに対して、車両に対する安全確認は時間が経過すると状況が変化して安全では無くなっている可能性があるので、車道を横断しようとする歩行者は、安全確認してから時間が経過し多場合には、再度、安全確認してから横断を開始する傾向がある。
このことから、安全確認フラグの有効継続時間を、注視フラグの有効継続時間よりも短い時間に設定しておけば、横断前歩行者をより一層精度良く検出することが可能となる。
以上、本実施例および各種の変形例について説明したが、本発明は上記の実施例および各種の変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することができる。
1…車両、 2…車載カメラ、 3…モニター、 4…スピーカー、
10…ナビ装置、 100…歩行者検出装置、 101…撮影画像取得部、
102…歩行者検出部、 103…車道検出部、 104…対象歩行者検出部、
105…視線方向取得部、 106…注視判断部、 107…安全確認判断部、
108…横断前歩行者検出部、 109…車両検出部、
150…歩行者検出装置。

Claims (12)

  1. 車載カメラ(2)から得られた撮影画像を解析することによって、該撮影画像に写った歩行者を検出する歩行者検出装置(100、150)であって、
    前記撮影画像の中から車道を検出する車道検出部(103)と、
    前記撮影画像の中で、前記車道から両側方向へ所定距離の範囲内に存在する歩行者を、対象歩行者として検出する対象歩行者検出部(104)と、
    前記対象歩行者の視線方向についての情報を取得する視線方向取得部(105)と、
    前記対象歩行者の視線方向が前記車道の向こう側に存在する横断の目的地に留まっている状態が、所定の注視時間に亘って継続している場合に、前記対象歩行者が前記横断の目的地を注視したものと判断する注視判断部(106)と、
    前記対象歩行者が前記車道を走行する車両に対する安全確認を行ったか否かを、前記対象歩行者の視線方向に基づいて判断する安全確認判断部(107)と、
    前記横断の目的地の注視または前記安全確認の何れか一方の動作を行ってから、所定時間内に他方の動作を行った前記対象歩行者を、前記車道の横断意思を有する横断前歩行者として検出する横断前歩行者検出部(108)と
    を備える歩行者検出装置。
  2. 請求項1に記載の歩行者検出装置であって、
    前記横断前歩行者検出部は、前記横断の目的地を注視してから第1の前記所定時間内に前記安全確認を行うか、若しくは、前記安全確認をしてから、前記第1の所定時間よりも短い第2の前記所定時間内に前記横断の目的地を注視した前記対象歩行者を、前記横断前歩行者として検出する
    ことを特徴とする歩行者検出装置。
  3. 請求項1または請求項2に記載の歩行者検出装置であって、
    前記視線方向取得部は、前記撮影画像に写った前記対象歩行者の画像を解析することによって、前記対象歩行者の視線方向についての情報を取得する
    ことを特徴とする歩行者検出装置。
  4. 請求項1ないし請求項3の何れか一項に記載の歩行者検出装置であって、
    前記注視判断部は、前記対象歩行者の視線方向が、前記車道に対して直角な方向から45度以内の角度範囲内になかった場合には、前記横断の目的地を注視していないと判断する
    ことを特徴とする歩行者検出装置。
  5. 請求項1ないし請求項4の何れか一項に記載の歩行者検出装置であって、
    前記注視判断部は、前記対象歩行者の視線方向が、水平方向に対して所定の上限角度以上、上向きであった場合には、前記横断の目的地を注視していないと判断する
    ことを特徴とする歩行者検出装置。
  6. 請求項1ないし請求項5の何れか一項に記載の歩行者検出装置であって、
    前記注視判断部は、前記対象歩行者の視線方向が、水平方向に対して所定の下限角度以上、向きであった場合には、前記横断の目的地を注視していないと判断する
    ことを特徴とする歩行者検出装置。
  7. 請求項ないし請求項6の何れか一項に記載の歩行者検出装置であって、
    前記安全確認判断部は、前記対象歩行者の視線方向が、前記対象歩行者に対して前記車道の側を、所定の移動速度範囲内で所定の角度以上、一方向に移動した場合に、前記車道を走行する車両に対する安全確認を行ったものと判断する
    ことを特徴とする歩行者検出装置。
  8. 求項7に記載の歩行者検出装置であって、
    前記車道を走行する車両を検出する車両検出部(109)を備え、
    前記安全確認判断部は、前記対象歩行者の視線方向が、前記車道を走行する車両の移動と共に移動する場合に、前記車両に対する安全確認を行ったものと判断する
    ことを特徴とする歩行者検出装置。
  9. 請求項1ないし請求項8の何れか一項に記載の歩行者検出装置であって
    前記安全確認判断部は、前記対象歩行者の視線方向が、前記車道に向かって左右何れか一方の方向に移動した後、他方の方向に移動した場合に、前記車道を走行する車両に対する安全確認を行ったものと判断する
    ことを特徴とする歩行者検出装置。
  10. 求項9に記載の歩行者検出装置であって、
    前記安全確認判断部は、前記対象歩行者の視線方向が前記左右何れか一方に向いた時の前記視線方向と、前記左右他方に向いた時の前記視線方向とが、90°以上離れている場合に、前記車道を走行する車両に対する安全確認を行ったものと判断する
    ことを特徴とする歩行者検出装置。
  11. 請求項1ないし請求項10の何れか一項に記載の歩行者検出装置であって、
    前記安全確認判断部は、前記対象歩行者の視線方向が、前記車道に沿った方向から、前記車道に向かって直交する方向を経由して、前記車道に対して直交しなくなる方向まで移動した場合に、前記車道を走行する車両に対する安全確認を行ったものと判断する
    ことを特徴とする歩行者検出装置。
  12. 車載カメラ(2)から得られた撮影画像を解析することによって、該撮影画像に写った歩行者を検出する歩行者検出方法であって、
    前記撮影画像の中から車道を検出する工程(S102)と、
    前記撮影画像の中で、前記車道から両側方向へ所定距離の範囲内に存在する歩行者を、対象歩行者として検出する工程(S103)と、
    前記対象歩行者の視線方向についての情報を取得する工程(S105)と、
    前記対象歩行者の視線方向が前記車道の向こう側に存在する横断の目的地に留まっている状態が、所定の注視時間に亘って継続している場合に、前記対象歩行者が前記横断の目的地を注視したものと判断する工程(S107)と、
    前記対象歩行者が前記車道を走行する車両に対する安全確認を行ったか否かを、前記対象歩行者の視線方向に基づいて判断する工程(S110)と、
    前記横断の目的地の注視または前記安全確認の何れか一方の動作を行ってから、所定時間内に他方の動作を行った前記対象歩行者を、前記車道の横断意思を有する横断前歩行者として検出する工程(S113)と
    を備える歩行者検出方法。
JP2016135404A 2016-07-07 2016-07-07 歩行者検出装置、歩行者検出方法 Active JP6617651B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016135404A JP6617651B2 (ja) 2016-07-07 2016-07-07 歩行者検出装置、歩行者検出方法
US16/315,411 US11011062B2 (en) 2016-07-07 2017-06-05 Pedestrian detection apparatus and pedestrian detection method
PCT/JP2017/020809 WO2018008314A1 (ja) 2016-07-07 2017-06-05 歩行者検出装置、歩行者検出方法
DE112017003414.0T DE112017003414T5 (de) 2016-07-07 2017-06-05 Fußgängererfassungsvorrichtung und Fußgängererfassungsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016135404A JP6617651B2 (ja) 2016-07-07 2016-07-07 歩行者検出装置、歩行者検出方法

Publications (3)

Publication Number Publication Date
JP2018005793A JP2018005793A (ja) 2018-01-11
JP2018005793A5 JP2018005793A5 (ja) 2018-11-01
JP6617651B2 true JP6617651B2 (ja) 2019-12-11

Family

ID=60912099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016135404A Active JP6617651B2 (ja) 2016-07-07 2016-07-07 歩行者検出装置、歩行者検出方法

Country Status (4)

Country Link
US (1) US11011062B2 (ja)
JP (1) JP6617651B2 (ja)
DE (1) DE112017003414T5 (ja)
WO (1) WO2018008314A1 (ja)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11190944B2 (en) 2017-05-05 2021-11-30 Ball Aerospace & Technologies Corp. Spectral sensing and allocation using deep machine learning
JP6613265B2 (ja) 2017-06-01 2019-11-27 本田技研工業株式会社 予測装置、車両、予測方法およびプログラム
CN111052126B (zh) * 2017-09-04 2024-06-04 华为技术有限公司 行人属性识别与定位方法以及卷积神经网络系统
WO2019089591A1 (en) * 2017-10-30 2019-05-09 Mobileye Vision Technologies Ltd. Vehicle navigation based on human activity
DE112018006763T5 (de) * 2018-02-09 2020-10-01 Ford Global Technologies, Llc SYSTEME UND VERFAHREN ZUR FUßGÄNGERVERWALTUNG
JP7100998B2 (ja) * 2018-03-08 2022-07-14 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP6989418B2 (ja) * 2018-03-12 2022-01-05 矢崎総業株式会社 車載システム
JP7523347B2 (ja) * 2018-06-11 2024-07-26 本田技研工業株式会社 動作確認システム
US11182672B1 (en) * 2018-10-09 2021-11-23 Ball Aerospace & Technologies Corp. Optimized focal-plane electronics using vector-enhanced deep learning
FR3088279B1 (fr) 2018-11-12 2021-01-22 Alstom Transp Tech Procede d'envoi d'une information a un individu situe dans l'environnement d'un vehicule
DE102018221054B4 (de) 2018-12-05 2020-12-10 Volkswagen Aktiengesellschaft Verfahren zum Bereitstellen von Kartendaten in einem Kraftfahrzeug, Kraftfahrzeug und zentrale Datenverarbeitungseinrichtung
US20200202133A1 (en) * 2018-12-21 2020-06-25 Continental Automotive Systems Inc. Pedestrian tracking system and method
US11851217B1 (en) 2019-01-23 2023-12-26 Ball Aerospace & Technologies Corp. Star tracker using vector-based deep learning for enhanced performance
US11412124B1 (en) 2019-03-01 2022-08-09 Ball Aerospace & Technologies Corp. Microsequencer for reconfigurable focal plane control
US11303348B1 (en) 2019-05-29 2022-04-12 Ball Aerospace & Technologies Corp. Systems and methods for enhancing communication network performance using vector based deep learning
US11488024B1 (en) 2019-05-29 2022-11-01 Ball Aerospace & Technologies Corp. Methods and systems for implementing deep reinforcement module networks for autonomous systems control
US11828598B1 (en) 2019-08-28 2023-11-28 Ball Aerospace & Technologies Corp. Systems and methods for the efficient detection and tracking of objects from a moving platform
CN113196290A (zh) * 2019-09-26 2021-07-30 松下电器(美国)知识产权公司 信息处理方法、程序以及信息处理装置
CN112249021B (zh) * 2020-10-14 2022-06-24 广州汽车集团股份有限公司 一种道路行人碰撞风险预测方法及其系统
CN112329684B (zh) * 2020-11-16 2024-04-30 常州大学 一种基于注视检测和交通场景识别的行人穿越马路意图识别方法
US11597314B2 (en) * 2021-02-08 2023-03-07 Ford Global Technologies, Llc Vehicle lamp system comprising a computer adjusting the color or direction of a lamp based on a road user's gaze direction
CN113793497B (zh) * 2021-08-04 2022-09-20 东南大学 一种考虑多因素的行人过街行为预测方法
CN115303300A (zh) * 2022-08-30 2022-11-08 重庆长安汽车股份有限公司 车辆控制方法、装置、设备及存储介质
CN115984318B (zh) * 2023-03-20 2023-06-13 宝略科技(浙江)有限公司 一种基于特征最大关联概率的跨摄像头行人跟踪方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3574780B2 (ja) * 2000-08-29 2004-10-06 株式会社日立製作所 車両の安全運転支援システム
JP4134891B2 (ja) * 2003-11-28 2008-08-20 株式会社デンソー 衝突可能性判定装置
JP4536674B2 (ja) 2006-03-27 2010-09-01 本田技研工業株式会社 歩行者認識装置
JP4935795B2 (ja) 2008-10-22 2012-05-23 株式会社豊田中央研究所 歩行者飛び出し予測装置及びプログラム
JP5269755B2 (ja) * 2009-12-10 2013-08-21 株式会社日立製作所 人横断支援車両システム及び人横断支援方法
US9507998B2 (en) 2011-06-13 2016-11-29 Toyota Jidosha Kabushiki Kaisha Pedestrian motion predicting device
JP2014059841A (ja) * 2012-09-19 2014-04-03 Daimler Ag 運転支援装置
JP2015185075A (ja) * 2014-03-26 2015-10-22 株式会社デンソー 街灯システム
JP6397934B2 (ja) * 2014-12-19 2018-09-26 株式会社日立製作所 走行制御装置
US9604639B2 (en) * 2015-08-28 2017-03-28 Delphi Technologies, Inc. Pedestrian-intent-detection for automated vehicles
JP6279006B2 (ja) 2016-04-28 2018-02-14 株式会社三共 スロットマシン

Also Published As

Publication number Publication date
JP2018005793A (ja) 2018-01-11
DE112017003414T5 (de) 2019-03-21
WO2018008314A1 (ja) 2018-01-11
US11011062B2 (en) 2021-05-18
US20190213887A1 (en) 2019-07-11

Similar Documents

Publication Publication Date Title
JP6617651B2 (ja) 歩行者検出装置、歩行者検出方法
US10618467B2 (en) Stereo image generating method using mono cameras in vehicle and providing method for omnidirectional image including distance information in vehicle
US20150338516A1 (en) Object recognition apparatus and vehicle
JP6350145B2 (ja) 顔向き検出装置及び車両用警告システム
US11074818B2 (en) Drive assist device and drive assist method
JP4885793B2 (ja) 障害物監視装置
JP2019087150A (ja) ドライバモニタシステム
KR20190012370A (ko) 차선 변경 지원 방법 및 장치
WO2012091476A2 (ko) 사각 지대 표시 장치 및 방법
JP2002240659A (ja) 車両周囲の状況を判断する装置
WO2017072955A1 (ja) 駐車支援装置及び駐車支援方法
JP6129268B2 (ja) 車両用運転支援システムおよび運転支援方法
EP3342681A1 (en) Automatic parking system and automatic parking method
JP4936060B2 (ja) 車両用走行支援装置
JP6046327B2 (ja) 車両用蛇行運転検出装置
JP2005202787A (ja) 車両用表示装置
JP2010097335A (ja) 運転意思推定装置
JP2008059178A (ja) 運転支援装置およびプログラム
JP7195200B2 (ja) 車載装置、車載システムおよび周辺監視方法
JP6136238B2 (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
JP2008040736A (ja) 車両検出装置、および車両検出方法
JP2011103058A (ja) 誤認識防止装置
CN109070799B (zh) 移动体周围显示方法及移动体周围显示装置
JP2007230314A (ja) 映像提示装置及び映像提示方法
KR20170060449A (ko) 표지판 인식을 이용한 진입 가능 알림 시스템 및 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180919

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191028

R151 Written notification of patent or utility model registration

Ref document number: 6617651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250