JP2015201010A - 予測外動き判定装置 - Google Patents
予測外動き判定装置 Download PDFInfo
- Publication number
- JP2015201010A JP2015201010A JP2014078749A JP2014078749A JP2015201010A JP 2015201010 A JP2015201010 A JP 2015201010A JP 2014078749 A JP2014078749 A JP 2014078749A JP 2014078749 A JP2014078749 A JP 2014078749A JP 2015201010 A JP2015201010 A JP 2015201010A
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- moving object
- dimensional
- unit
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
【課題】移動対象物が検出できなくなった場合であっても、対象物の予測外の動きを判定する。【解決手段】カメラ2によって撮像された二次元平面画像X上における歩行者Hの二次元位置を検出する移動対象物検出部10と、移動対象物検出部10における歩行者Hの検出結果に基づいて、予め定められた時刻における歩行者Hの二次元平面画像X上の位置を予測二次元位置として予測する位置予測部12と、予測二次元位置に、予め定められた時刻に移動対象物検出部10によって歩行者Hが検出されるか否かに基づいて、歩行者Hが予測外の動きをしたか否かを判定する判定部14と、を備える。【選択図】図1
Description
本発明は、移動対象物の予測外の動きを判定する予測外動き判定装置に関する。
従来、車両周囲の歩行者(移動対象物)等の動きを予測することが行われている。例えば、特許文献1には、歩行者の位置の時系列変化及び移動速度の時系列変化と、予め定められた位置の時系列変化のパターン及び予め定められた移動速度のパターンとの比較結果等に基づいて、歩行者の飛び出しを予測することが記載されている。
特許文献1に記載された装置では、歩行者の飛び出しを予測する際に、歩行者の位置の時系列変化が取得されていることが前提となっている。このため、歩行者を画像上から捕らえることができなくなった場合には、歩行者の飛び出し等の予測外の動きを判定しにくい恐れがあった。
そこで、本発明の一側面は、対象物が検出できなくなった場合であっても、対象物の予測外の動きを判定することができる予測外動き判定装置を提供することを目的とする。
本発明の一側面に係る予測外動き判定装置は、撮像部によって撮像された二次元平面画像上における移動対象物の二次元位置を検出する移動対象物検出部と、移動対象物検出部における移動対象物の検出結果に基づいて、予め定められた時刻における移動対象物の二次元平面画像上の位置を予測二次元位置として予測する位置予測部と、予測二次元位置に、予め定められた時刻に移動対象物検出部によって移動対象物が検出されるか否かに基づいて、移動対象物が予測外の動きをしたか否かを判定する判定部と、を備える。
本発明の他の一側面に係る予測外動き判定装置は、撮像部によって撮像された二次元平面画像上における移動対象物の二次元位置を検出する移動対象物検出部と、移動対象物及び移動対象物の周囲の遮蔽物の三次元空間における三次元位置を含む三次元情報を検出する三次元情報検出部と、三次元情報検出部によって検出された遮蔽物の三次元情報及び移動対象物の三次元情報に基づいて、遮蔽物によって三次元情報検出部の検出範囲から外れて再び移動対象物が検出される再出現時刻を予測する再出現時刻予測部と、移動対象物検出部における移動対象物の検出結果に基づいて、再出現時刻における移動対象物の二次元平面画像上の位置を予測二次元位置として予測する位置予測部と、予測二次元位置に、再出現時刻に移動対象物検出部によって移動対象物が検出されるか否かに基づいて、移動対象物が予測外の動きをしたか否かを判定する判定部と、を備える。
本発明の一側面によれば、対象物が検出できなくなった場合であっても、対象物の予測外の動きを判定することができる。
以下、本発明の実施形態について図面を参照しながら説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
(第一の実施形態)
第一の実施形態について説明する。図1に示す予測外動き判定装置1は車両に搭載されている。予測外動き判定装置1は、カメラ(撮像部)2、移動対象物検出部10、移動対象物追跡部11、位置予測部12、記憶部13、及び、判定部14を含んで構成されている。カメラ2は、例えば車両の室内のフロントガラス近傍に取り付けられている。カメラ2は、車両の前方を撮像する。カメラ2は、一例として、1秒当たり10回の撮像を行うことができる。
第一の実施形態について説明する。図1に示す予測外動き判定装置1は車両に搭載されている。予測外動き判定装置1は、カメラ(撮像部)2、移動対象物検出部10、移動対象物追跡部11、位置予測部12、記憶部13、及び、判定部14を含んで構成されている。カメラ2は、例えば車両の室内のフロントガラス近傍に取り付けられている。カメラ2は、車両の前方を撮像する。カメラ2は、一例として、1秒当たり10回の撮像を行うことができる。
移動対象物検出部10は、カメラ2によって撮像された二次元平面画像を取得する。移動対象物検出部10は、カメラ2によって撮像された二次元平面画像上における歩行者(移動対象物)の二次元位置を検出する。カメラ2によって撮像された二次元平面画像とは、画像の奥行き方向の広がりを有さない二次元平面の画像である。また、二次元位置は、二次元平面画像の二次元平面上の位置である。このため、歩行者の二次元位置は、二次元平面画像に写る歩行者とカメラ2との距離は反映されておらず、カメラ2から見て歩行者等がどの位置に存在するかのみを示している。
具体的には、移動対象物検出部10は、図2に示すように、カメラ2によって撮像された二次元平面画像X上に写る歩行者Hを検出する。この歩行者Hの検出は、既知の画像処理技術によって行うことができる。図2に示す例では、図中の左側から右側に向かって歩行者Hが移動している。
移動対象物検出部10は、二次元平面画像X上において歩行者Hを含むように矩形の歩行者領域Rを設定する。歩行者領域Rとは、二次元平面画像X上において歩行者Hを含むように設定された矩形の領域である。移動対象物検出部10は、二次元平面画像X上において、歩行者領域Rの二次元位置を検出する。本実施形態において移動対象物検出部10は、歩行者Hの二次元位置として、歩行者領域Rの二次元位置を検出する。
移動対象物検出部10は、一例として、二次元平面画像Xから検出した歩行者領域Rの二次元位置と、歩行者領域Rの二次元位置を検出する際に用いた二次元平面画像Xの撮像時刻とを対応付ける。移動対象物検出部10は、カメラ2によって二次元平面画像が撮像される毎に、歩行者領域Rの二次元位置を検出する。また、二次元平面画像Xから歩行者Hが検出されない場合もある。この場合、移動対象物検出部10は、一例として、歩行者Hが検出されなかった旨の情報と、二次元平面画像Xの撮像時刻とを対応付ける。なお、本実施形態では、移動対象物として歩行者Hの二次元位置を検出したが、歩行者H以外にも、例えば、自転車に乗った人、又は、走行する車両等の二次元位置を検出してもよい。
移動対象物追跡部11は、移動対象物検出部10の検出結果に基づいて二次元平面画像X上における歩行者Hの二次元位置を追跡する。具体的には、移動対象物追跡部11は、移動対象物検出部10によって検出された時間的に異なる2以上の歩行者領域Rの二次元位置に基づいて、歩行者領域Rの二次元位置を追跡する。移動対象物追跡部11は、一例として、歩行者領域Rの二次元位置の追跡結果と、追跡の際に用いた二次元平面画像のうち最も新しい二次元平面画像に対応付けられていた撮像時刻とを対応付ける。移動対象物追跡部11は、移動対象物検出部10によって歩行者領域Rの二次元位置が検出される毎に歩行者領域Rの二次元位置を追跡する。移動対象物追跡部11が歩行者領域Rの二次元位置を追跡することにより、追跡結果に基づいて、歩行者領域Rの移動方向及び移動速度等を算出することができる。
位置予測部12は、移動対象物追跡部11における追跡結果に基づいて、予め定められた時刻における歩行者Hの二次元平面画像X上の二次元位置(予測二次元位置)を予測する。ここで、予め定められた時刻とは、一例として、歩行者領域Rの二次元位置の追跡結果に対応付けられた撮像時刻から、T秒(一例として1秒等)後の時刻とする。すなわち、位置予測部12は、歩行者領域Rの追跡結果に対応付けられた撮像時刻からT秒後の歩行者Hの二次元平面画像X上の二次元位置を予測する。
具体的には、位置予測部12は、図2に示すように、二次元平面画像X上においてT秒後に歩行者Hが写り込むと予測される矩形の予測領域Yを設定する。本実施形態において位置予測部12は、予め定められた時刻における歩行者Hの二次元平面画像X上の二次元位置として、予測領域Yの二次元位置を予測する。予測領域Yとして、例えば、歩行者Hの移動速度の誤差等も含めた大きさの領域が設定される。また、予測領域Yの予測は、例えば、移動対象物追跡部11の追跡結果に基づいて算出される歩行者領域Rの移動速度及び移動方向等を用いて行うことができる。
位置予測部12は、歩行者領域Rの二次元位置の追跡結果に対応付けられた撮像時刻にT秒を加算した予測時刻(予め定められた時刻)を算出する。位置予測部12は、予測した予測領域Yの二次元位置と、予測時刻とを対応付ける。位置予測部12は、移動対象物追跡部11によって歩行者領域Rの二次元位置の追跡が行われる毎に、予測領域Yの二次元位置を予測する。
記憶部13は、位置予測部12によって予測された予測領域Yの二次元位置と予測時刻とを対応付けて記憶する。
判定部14は、位置予測部12によって予測された予め定められた時刻における予測領域Yの二次元位置に、予め定められた時刻に移動対象物検出部10によって歩行者Hが検出されるか否かに基づいて、歩行者Hが予測外の動きをしたか否かを判定する。
具体的には、判定部14は、カメラ2によって二次元平面画像が撮像されると、移動対象物検出部10から歩行者領域Rの二次元位置とともに撮像時刻を取得する。次に、判定部14は、取得した撮像時刻に一致する予測時刻に対応付けられた予測領域Yの二次元位置を記憶部13から取得する。判定部14は、取得した予測領域Yと歩行者領域Rとの二次元平面画像X上の重なり具合に基づいて、歩行者Hの予測外の動きを判定する。歩行者Hの予測外の動きとは、予測された予測領域Y以外の位置に歩行者Hが移動する動きである。具体的には、予測外の動きとして、例えば、飛び出し等によって歩行者Hの加速度が変わった、進行方向が変わった、又は、歩行者Hが立ち止った等の動きがある。
ここでは、一例として、予測領域Yと歩行者領域Rとが重なる面積が歩行者領域Rの面積の80%未満である場合、判定部14は、歩行者Hが予測外の動きをしたと判定する。予測領域Yと歩行者領域Rとが重なる面積が歩行者領域Rの面積の80%以上である場合、判定部14は、歩行者Hが予測内の動きをしたと判定する。判定部14は、カメラ2によって二次元平面画像が撮像される毎に、歩行者Hの予測外動きの判定を行う。
また、カメラ2によって二次元平面画像Xが撮像されたにもかかわらず、歩行者Hが検出されない場合もある。この場合、判定部14は、歩行者Hが検出されなかった二次元平面画像Xの撮像時刻に一致する予測時刻に対応付けられた予測領域Yの二次元位置を記憶部13から取得する。予測領域Yの二次元位置が取得されているにもかかわらず歩行者Hが検出されていない場合、歩行者Hは予測外の動きをしたと考えられる。このとき、歩行者Hが検出されていないため、予測領域Yには歩行者領域Rが重ならない。このため、判定部14は、歩行者Hが予測外の動きをしたと判定する。
判定部14は、歩行者Hの予測外動きの判定結果を報知部3に出力する。報知部3は、判定部14によって歩行者Hの動きが予測外であると判定されている場合、一例として、車両のドライバ等に警報音を出力する。本実施形態では、歩行者Hの予測外動きの判定結果を報知部3に出力して警報音を出力したが、例えば、車両の動力の制御を行う等、各種の動作を行うことができる。
予測外動き判定装置1の移動対象物検出部10、移動対象物追跡部11、位置予測部12、記憶部13及び判定部14は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を含むコンピュータによって構成されている。
次に、移動対象物検出部10、移動対象物追跡部11及び位置予測部12によって行われる予測領域Yの予測処理の流れを説明する。図3に示すように、移動対象物検出部10は、カメラ2によって撮像された二次元平面画像を取得する(ステップS101)。移動対象物検出部10は、二次元平面画像X上において、歩行者領域Rの二次元位置を検出する(ステップS102)。
移動対象物追跡部11は、移動対象物検出部10によって検出された時間的に異なる2以上の歩行者領域Rの二次元位置に基づいて、歩行者領域Rの二次元位置を追跡する(ステップS103)。位置予測部12は、歩行者Hの追跡結果に基づいて、予め定められた時刻における予測領域Yの二次元位置を予測する(ステップS104)。記憶部13は、予測された予測領域Yの二次元位置(予測結果)と予測時刻とを対応付けて記憶する(ステップS105)。ステップS101からステップS105までの処理は、カメラ2によって二次元平面画像が撮像される毎に行われる。
次に、判定部14によって行われる歩行者Hの予測外の動きの判定処理の流れを説明する。図4に示すように、判定部14は、カメラ2によって二次元平面画像が撮像されると、移動対象物検出部10から歩行者領域Rの二次元位置とともに撮像時刻を取得する(ステップS201)。判定部14は、取得した撮像時刻に一致する予測時刻に対応付けられた予測領域Yの二次元位置を記憶部13から取得する(ステップS202)。
判定部14は、取得した予測領域Yと歩行者領域Rとの重なりが所定値以上(一例として80%以上)であるか否かを判断する(ステップS203)。予測領域Yと歩行者領域Rとの重なりが所定値未満である場合(ステップS203:NO)、判定部14は、歩行者Hが予測外の動きをしたと判定する(ステップS204)。一方、予測領域Yと歩行者領域Rとの重なりが所定値以上である場合(ステップS203:YES)、判定部14は、歩行者Hが予測内の動きをしたと判定する(ステップS205)。
歩行者Hの予測外動きの判定(ステップS204)後、又は歩行者Hの予測内動きの判定(ステップS205)後、判定部14は、判定結果を報知部3に出力する(ステップS206)。報知部3は、歩行者Hの動きの判定結果に基づいて警報音を出力する等の動作を行う。ステップS201からステップS206までの処理は、カメラ2によって二次元平面画像が撮像される毎に行われる。
本実施形態は以上のように構成され、判定部14は、予測された歩行者Hの予測領域Yと、カメラ2によって撮像された二次元平面画像から検出された歩行者領域Rとを取得する。判定部14は、予測された予測領域Yの位置に、歩行者Hが検出されるか否かに基づいて、歩行者Hの予測外の動きを判定する。これにより、歩行者Hが検出できなくなった場合であっても、歩行者Hの予測外の動きを判定することができる。
判定部14は、歩行者領域Rと予測領域Yとの重なり具合に基づいて、予測された予測領域Yの位置に、歩行者Hが検出されるか否かを判定する。これにより、歩行者領域Rと予測領域Yとの重なり具合に応じて、予測された予測領域Yに歩行者Hが存在するか否かを適切に判定することができる。
(第二の実施形態)
第二の実施形態について説明する。図5に示す予測外動き判定装置1Aは車両に搭載されている。予測外動き判定装置1Aは、カメラ(撮像部)2、検出部4、移動対象物検出部10、移動対象物追跡部11、位置予測部12A、記憶部13、判定部14A、三次元情報検出部15、及び、再出現時刻予測部16を含んで構成されている。カメラ2は、第一の実施形態と同様の構成であり、詳細な説明は省略する。
第二の実施形態について説明する。図5に示す予測外動き判定装置1Aは車両に搭載されている。予測外動き判定装置1Aは、カメラ(撮像部)2、検出部4、移動対象物検出部10、移動対象物追跡部11、位置予測部12A、記憶部13、判定部14A、三次元情報検出部15、及び、再出現時刻予測部16を含んで構成されている。カメラ2は、第一の実施形態と同様の構成であり、詳細な説明は省略する。
検出部4は、検出対象物の三次元情報として、三次元空間における三次元位置、及び、大きさ(幅)を検出することができる。三次元空間とは、カメラ2によって撮像された二次元平面画像の二次元平面に、画像の奥行き方向の広がりを加えた空間である。三次元位置とは、カメラ2によって撮像された二次元平面画像の二次元平面に加えて、画像の奥行きも考慮した三次元的な位置である。検出部4として、例えば、車両のバンパーに取り付けられたLIDAR(light detection and ranging)、又は、車両の室内のフロントガラス近傍に取り付けられたステレオカメラ等を用いることができる。検出部4は、車両の前方を検出領域とする。
検出部4は、図6に示すように、車両Bの前方の歩行者(移動対象物)Hと、歩行者Hの周囲の遮蔽物Dとを検出する。ここでの遮蔽物Dは、一例として、電信柱とする。遮蔽物Dとして、電信柱以外にも、停止中の車両、又は街路樹等であってもよい。また、歩行者H以外にも、例えば、自転車に乗った人、又は、走行する車両等を検出してもよい。図6に示す例では、図中の左側から右側に向かって歩行者Hが移動している。また、図6に示す例では、検出部4から見て、歩行者Hが遮蔽物Dに隠れる直前の状態となっている。
三次元情報検出部15は、検出部4の検出結果に基づいて、歩行者Hの三次元位置と、歩行者Hの周囲の遮蔽物Dの三次元位置と、遮蔽物Dの幅とを検出する。ここで、遮蔽物Dの幅とは、図7に示すように、検出部4から見て歩行者Hの進行方向(矢印P方向)に沿った遮蔽物Dの幅wである。遮蔽物Dの幅として、例えば、水平方向の幅(横幅)としてもよい。歩行者Hの三次元位置及び遮蔽物Dの三次元位置を検出することで、検出部4から歩行者Hまでの距離、及び、検出部4から遮蔽物Dまでの距離を把握することができる。
再出現時刻予測部16は、三次元情報検出部15によって取得された遮蔽物Dの三次元位置と、遮蔽物Dの幅と、歩行者Hの三次元位置と、歩行者Hの移動速度及び移動方向とに基づいて、隠れ時間を予測する。隠れ時間とは、図6に示すように、歩行者Hが遮蔽物Dに隠れてから再度現れるまでの時間であり、検出部4の検出領域(検出範囲)Jから外れて再び歩行者Hが三次元情報検出部15によって検出される(検出領域Jに入る)までの時間である。すなわち、隠れ時間とは、遮蔽物Dによって検出部4が歩行者Hを検出することができない検出外領域Kを、歩行者Hが移動する時間である。なお、再出現時刻予測部16は、予め定められた時間内に歩行者Hが遮蔽物Dに隠れると判断されるときにのみ、隠れ時間を予測する。
図6に示すように、検出部4から見て遮蔽物Dによって歩行者Hが隠れる検出外領域Kは、検出部4からみて遮蔽物Dの背後から離れるにつれて扇状に広がっている。このため、歩行者Hが遮蔽物Dの背後近傍を横切る場合には、検出部4から見て遮蔽物Dによって歩行者Hが隠れる隠れ時間は短い。一方、歩行者Hが遮蔽物Dの背後から離れた位置を横切る場合、検出部4から見て遮蔽物Dによって歩行者Hが隠れる時間は長い。
また、隠れ時間は、歩行者Hの移動速度が速い場合には短くなり、歩行者Hの移動速度が遅い場合には長くなる。歩行者Hの移動速度は、検出部4の検出結果に基づいて求めてもよく、移動対象物追跡部11による追跡結果に基づいて求めてもよい。
再出現時刻予測部16は、歩行者Hが遮蔽物Dに隠れてから再度検出される時刻である再出現時刻を予測する。一例として、再出現時刻予測部16は、隠れ時間を算出する際に用いた遮蔽物Dの三次元位置等が三次元情報検出部15によって取得された取得時刻に、隠れ時間を加算して再出現時刻を算出(予測)する。再出現時刻とは、隠れ時間を算出する際に用いた歩行者H及び遮蔽物Dの三次元位置等の状態において、歩行者Hが遮蔽物Dに隠れてから再度検出される時刻である。
再出現時刻予測部16は、隠れ時間を算出する際に用いた遮蔽物Dの三次元位置等が三次元情報検出部15によって取得された取得時刻と、再出現時刻とを対応付ける。再出現時刻予測部16は、三次元情報検出部15によって検出部4の検出結果が取得される毎に、隠れ時間の予測処理及び再出現時刻の算出処理を行う。但し、上述したように、再出現時刻予測部16は、予め定められた時間内に歩行者Hが遮蔽物Dに隠れると判断されない場合、隠れ時間を予測等しない。
移動対象物検出部10は、第一の実施形態と同様に、図2に示すように、カメラ2によって撮像された二次元平面画像Xから、歩行者領域Rの二次元位置を検出する。なお、本実施形態では、対象物として歩行者の二次元位置を検出したが、歩行者以外にも、例えば、自転車に乗った人、又は、走行する車両等の二次元位置を検出してもよい。移動対象物検出部10は、二次元平面画像Xから検出した歩行者領域Rの二次元位置と、歩行者領域Rの二次元位置を検出する際に用いた二次元平面画像Xの撮像時刻とを対応付ける。
移動対象物追跡部11は、第一の実施形態と同様に、歩行者領域Rの二次元位置を追跡する。移動対象物追跡部11は、歩行者領域Rの二次元位置の追跡結果と、追跡の際に用いた二次元平面画像のうち最も新しい二次元平面画像に対応付けられていた撮像時刻とを対応付ける。
位置予測部12Aは、移動対象物追跡部11における追跡結果に基づいて、再出現時刻予測部16で算出された再出現時刻における歩行者Hの二次元平面画像X上の二次元位置(予測二次元位置)を予測する。位置予測部12Aは、再出現時刻予測部16によって再出現時刻が予測されている場合にのみ、歩行者Hの二次元位置を予測する。
位置予測部12Aは、歩行者Hの二次元位置を予測する際に、移動対象物追跡部11から入力された追跡結果に対応付けられた撮像時刻と、再出現時刻予測部16から入力された再出現時刻に対応付けられた取得時刻とが一致する追跡結果及び再出現時刻を用いる。なお、追跡結果に対応付けられた撮像時刻と再出現時刻に対応付けられた取得時刻との時間的な差が所定の範囲内である追跡結果と再出現時刻とを用いてもよい。
具体的には、位置予測部12Aは、図8に示すように、二次元平面画像X上において二次元平面画像Xの撮像時刻から隠れ時間の経過後(再出現時刻)に歩行者Hが写り込むと予測される矩形の予測領域Yを設定する。本実施形態において位置予測部12Aは、再出現時刻における歩行者Hの二次元平面画像X上の二次元位置として、予測領域Yの二次元位置を予測する。予測領域Yとして、例えば、歩行者Hの移動速度の誤差等も含めた大きさの領域が設定される。
位置予測部12Aは、予測した予測領域Yの二次元位置と、再出現時刻とを対応付ける。
記憶部13は、第一の実施形態と同様に、位置予測部12によって予測された予測領域Yの二次元位置と再出現時刻とを対応付けて記憶する。
判定部14Aは、再出現時刻における予測領域Yの二次元位置に、再出現時刻に移動対象物検出部10によって歩行者Hが検出されるか否かに基づいて、歩行者Hの予測外の動きを判定する。なお、判定部14Aは、位置予測部12Aによって歩行者Hの二次元位置が予測されているときにのみ、歩行者Hの予測外の動きを判定する。
具体的には、判定部14Aは、カメラ2によって二次元平面画像が撮像されると、移動対象物検出部10から歩行者領域Rの二次元位置とともに撮像時刻を取得する。次に、判定部14Aは、取得した撮像時刻に一致する再出現時刻に対応付けられた予測領域Yの二次元位置を記憶部13から取得する。判定部14Aは、第一の実施形態と同様に、取得した予測領域Yと歩行者領域Rとの二次元平面画像X上の重なり具合に基づいて、歩行者Hの予測外の動きを判定する。
また、カメラ2によって二次元平面画像Xが撮像されたにもかかわらず、歩行者Hが検出されない場合もある。この場合、判定部14Aは、歩行者Hが検出されなかった二次元平面画像Xの撮像時刻に一致する再出現時刻に対応付けられた予測領域Yの二次元位置を記憶部13から取得する。予測領域Yの二次元位置が取得されているにもかかわらず歩行者Hが検出されていない場合、歩行者Hは予測外の動きをしたと考えられる。このとき、歩行者Hが検出されていないため、予測領域Yには歩行者領域Rが重ならない。このため、判定部14Aは、第一の実施形態と同様に、歩行者Hが予測外の動きをしたと判定する。
判定部14Aは、歩行者Hの予測外動きの判定結果を報知部3に出力する。報知部3は、第一の実施形態と同様に、判定部14Aによって歩行者Hの動きが予測外であると判定されている場合、一例として、車両のドライバ等に警報音を出力する。本実施形態では、歩行者Hの予測外動きの判定結果を報知部3に出力して警報音を出力したが、例えば、車両の動力の制御を行う等、各種の動作を行うことができる。
予測外動き判定装置1Aの移動対象物検出部10、移動対象物追跡部11、位置予測部12A、記憶部13、判定部14A、三次元情報検出部15及び再出現時刻予測部16は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を含むコンピュータによって構成されている。
次に、三次元情報検出部15及び再出現時刻予測部16において行われる再出現時刻の予測処理の流れについて説明する。図9に示すように、三次元情報検出部15は、検出部4の検出結果を取得する(ステップS301)。三次元情報検出部15は、検出部4の検出結果に基づいて、歩行者Hの三次元位置と、遮蔽物Dの三次元位置と、遮蔽物Dの幅とを取得する(ステップS302)。
再出現時刻予測部16は、取得された遮蔽物Dの三次元位置と、遮蔽物Dの幅と、歩行者Hの三次元位置と、歩行者Hの移動速度及び移動方向とに基づいて、隠れ時間を予測する(ステップS303)。再出現時刻予測部16は、予測された隠れ時間に基づいて、歩行者Hが遮蔽物Dに隠れてから再度検出される再出現時刻を予測する(ステップS304)。
次に、移動対象物検出部10、移動対象物追跡部11及び位置予測部12Aによって行われる予測領域Yの予測処理の流れを説明する。図3に示すように、移動対象物検出部10は、カメラ2によって撮像された二次元平面画像を取得する(ステップS101)。移動対象物検出部10は、二次元平面画像X上において、歩行者領域Rの二次元位置を検出する(ステップS102)。移動対象物追跡部11は、移動対象物検出部10によって検出された時間的に異なる2以上の歩行者領域Rの二次元位置に基づいて、歩行者領域Rの二次元位置を追跡する(ステップS103)。
位置予測部12Aは、歩行者Hの追跡結果に基づいて、再出現時刻における歩行者Hの二次元位置を予測する(ステップS104A)。記憶部13は、予測された予測領域Yの二次元位置(予測結果)と予測時刻とを対応付けて記憶する(ステップS105)。
ここで、判定部14Aによって行われる歩行者Hの予測外の動きの判定処理の流れは、第一の実施形態において図4を用いて説明した判定処理の流れと同様であり、詳細な説明を省略する。
本実施形態は以上のように構成され、位置予測部12Aは、再出現時刻における歩行者Hの二次元平面画像X上の二次元位置を予測する。すなわち、位置予測部12Aは、遮蔽物Dの幅等を考慮して、歩行者Hが遮蔽物Dに隠れてから再び現れたときの二次元位置を予測している。判定部14Aは、再出現時刻における予測領域Yの二次元位置に、再出現時刻に歩行者Hが検出されるか否かに基づいて、歩行者Hの予測外の動きを判定する。これにより、歩行者Hが遮蔽物Dに隠れる場合であっても、歩行者Hの予測外の動きをより一層適切に判定することができる。
以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されるものではない。例えば、第一の実施形態及び第二の実施形態において、カメラ2によって撮像された二次元平面画像に基づいて歩行者Hの二次元位置を検出したが、検出部4の検出結果に基づいて歩行者Hの二次元位置を検出してもよい。
1,1A…予測外動き判定装置、2…カメラ(撮像部)、4…検出部、10…移動対象物検出部、11…移動対象物追跡部、12,12A…位置予測部、14,14A…判定部、15…三次元情報検出部、16…再出現時刻予測部、H…歩行者(移動対象物)、D…遮蔽物。
Claims (2)
- 撮像部によって撮像された二次元平面画像上における移動対象物の二次元位置を検出する移動対象物検出部と、
前記移動対象物検出部における前記移動対象物の検出結果に基づいて、予め定められた時刻における前記移動対象物の前記二次元平面画像上の位置を予測二次元位置として予測する位置予測部と、
前記予測二次元位置に、前記予め定められた時刻に前記移動対象物検出部によって前記移動対象物が検出されるか否かに基づいて、前記移動対象物が予測外の動きをしたか否かを判定する判定部と、
を備える予測外動き判定装置。 - 撮像部によって撮像された二次元平面画像上における移動対象物の二次元位置を検出する移動対象物検出部と、
前記移動対象物及び前記移動対象物の周囲の遮蔽物の三次元空間における三次元位置を含む三次元情報を検出する三次元情報検出部と、
前記三次元情報検出部によって検出された前記遮蔽物の三次元情報及び前記移動対象物の三次元情報に基づいて、前記遮蔽物によって前記三次元情報検出部の検出範囲から外れて再び前記移動対象物が検出される再出現時刻を予測する再出現時刻予測部と、
前記移動対象物検出部における前記移動対象物の検出結果に基づいて、前記再出現時刻における前記移動対象物の前記二次元平面画像上の位置を予測二次元位置として予測する位置予測部と、
前記予測二次元位置に、前記再出現時刻に前記移動対象物検出部によって前記移動対象物が検出されるか否かに基づいて、前記移動対象物が予測外の動きをしたか否かを判定する判定部と、
を備える予測外動き判定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014078749A JP2015201010A (ja) | 2014-04-07 | 2014-04-07 | 予測外動き判定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014078749A JP2015201010A (ja) | 2014-04-07 | 2014-04-07 | 予測外動き判定装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015201010A true JP2015201010A (ja) | 2015-11-12 |
Family
ID=54552224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014078749A Pending JP2015201010A (ja) | 2014-04-07 | 2014-04-07 | 予測外動き判定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015201010A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019144919A (ja) * | 2018-02-22 | 2019-08-29 | パイオニア株式会社 | 出力装置、出力方法及びプログラム |
JP7460870B2 (ja) | 2019-12-26 | 2024-04-03 | パナソニックオートモーティブシステムズ株式会社 | 表示制御装置、表示システム、表示制御方法 |
-
2014
- 2014-04-07 JP JP2014078749A patent/JP2015201010A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019144919A (ja) * | 2018-02-22 | 2019-08-29 | パイオニア株式会社 | 出力装置、出力方法及びプログラム |
JP7460870B2 (ja) | 2019-12-26 | 2024-04-03 | パナソニックオートモーティブシステムズ株式会社 | 表示制御装置、表示システム、表示制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101887335B1 (ko) | 자기 위치 추정 장치 및 자기 위치 추정 방법 | |
JP5884912B2 (ja) | 衝突判定装置及び衝突判定方法 | |
JP2018106676A (ja) | 情報処理装置、被操作車両、情報処理方法及びプログラム | |
JP2016218732A5 (ja) | ||
JP2010198552A (ja) | 運転状況監視装置 | |
JP6722051B2 (ja) | 物体検出装置、及び物体検出方法 | |
WO2014132748A1 (ja) | 撮像装置及び車両制御装置 | |
JP2009169776A (ja) | 検出装置 | |
JP6325927B2 (ja) | 物体検知装置及びそれを用いた車両制御システム | |
JP6694067B2 (ja) | 物体検知装置及びそれを備えた車両制御システム | |
JP2015179063A (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP2008195293A (ja) | 衝突予測装置 | |
JPWO2014033954A1 (ja) | 衝突判定装置及び衝突判定方法 | |
WO2013035612A1 (ja) | 障害物検知装置、障害物検知方法及び障害物検知プログラム | |
JPWO2014033955A1 (ja) | 速度算出装置及び速度算出方法並びに衝突判定装置 | |
JP2013114610A (ja) | 画像処理装置、運転支援装置、画像処理方法及び画像処理プログラム | |
JP2013054702A (ja) | 車両接近情報通知装置、車両接近情報通知方法及びプログラム | |
JP2009186353A (ja) | 物体検出装置および物体検出方法 | |
JP4762830B2 (ja) | 周辺監視システム | |
JP2015201010A (ja) | 予測外動き判定装置 | |
JP2013054399A (ja) | 車両周辺監視装置 | |
JP6387710B2 (ja) | カメラシステム、測距方法、およびプログラム | |
JP2017182139A (ja) | 判定装置、判定方法、および判定プログラム | |
WO2019078211A1 (ja) | 移動物体認識装置 | |
JP2019207607A (ja) | 移動体追跡装置 |