JPWO2018011964A1 - 移動物体検出装置 - Google Patents
移動物体検出装置 Download PDFInfo
- Publication number
- JPWO2018011964A1 JPWO2018011964A1 JP2018515317A JP2018515317A JPWO2018011964A1 JP WO2018011964 A1 JPWO2018011964 A1 JP WO2018011964A1 JP 2018515317 A JP2018515317 A JP 2018515317A JP 2018515317 A JP2018515317 A JP 2018515317A JP WO2018011964 A1 JPWO2018011964 A1 JP WO2018011964A1
- Authority
- JP
- Japan
- Prior art keywords
- moving
- moving object
- unit
- data
- speed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims description 69
- 238000005259 measurement Methods 0.000 claims abstract description 79
- 238000012545 processing Methods 0.000 description 57
- 238000000034 method Methods 0.000 description 50
- 230000005484 gravity Effects 0.000 description 48
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 230000004927 fusion Effects 0.000 description 14
- 238000007499 fusion processing Methods 0.000 description 13
- 238000009434 installation Methods 0.000 description 10
- 238000009826 distribution Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000002360 preparation method Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000013213 extrapolation Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 2
- 229910010272 inorganic material Inorganic materials 0.000 description 2
- 239000011147 inorganic material Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 241000408659 Darpa Species 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 206010070834 Sensitisation Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 244000144992 flock Species 0.000 description 1
- 238000005755 formation reaction Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008313 sensitization Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06M—COUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
- G06M7/00—Counting of objects carried by a conveyor
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
移動物体の個数、位置、あるいは、移動方向を推定するには、例えば、複数のカメラによって通路を通過する物体を観測し、各カメラが撮影した画像上における移動物体の画像のずれを基に、個数、位置等を推定する方法がある。
しかしながら、このように、複数のカメラによって移動物体の個数、位置等を推定する方法では、低解像度のカメラを利用した場合に推定精度が著しく劣化してしまう。また、例えば、夜間に可視光カメラを用いる場合等、移動物体による光の反射強度が低い場合は、画像から移動物体の形状が正しく得られず、推定精度が著しく劣化する。また、例えば、歩行者が顔の向きを変える等、移動物体の形状が時間的に変化する場合も、推定精度が劣化する。
このように複数のレーザセンサを用いて移動物体を検出する方法では、移動物体の移動方向を推定するために、時刻フレーム当たりの移動物体の移動範囲に比べ十分に広い範囲がレーザセンサによって観測されることを前提としている。しかし、レーザ光を投光するレーザセンサは、カメラに比べ単位時間当たりの観測可能範囲が狭いため、レーザセンサの台数が少ないほど観測範囲が狭まり、結果として移動方向の推定精度が著しく劣化する。
特許文献1に開示された技術では、1つの撮像装置と、当該撮像装置の近傍に配置された1つのレーザとを用いた場合には、通路における人物の通過数を計数することができる。また、1つの撮像装置と、当該撮像装置の近傍の複数箇所に配置されたレーザとを用いた場合には、人物の進行の向きごとに通過数を計数することができる。
実施の形態1.
以下の説明においては、一例として、この発明の実施の形態1に係る移動物体検出装置100を、1方向に延びた通路を移動する歩行者を検出対象として、適用したものとする。すなわち、ここでは、移動物体として歩行者を検出するものとして、以下説明する。
図1に示すように、移動物体検出システムにおいて、移動物体検出装置100は、測距センサ200および映像取得センサ300と、ネットワークを介して接続される。
測距センサ200は、例えば、レーザ測距計、レーダ、超音波センサ、アクティブステレオセンサ等であり、映像取得センサ300が撮影した画像の1時刻フレーム内を走査し、測距データを取得する。
映像取得センサ300は、可視光カメラ、赤外線カメラ等であり、歩行者を検出する通路を見下ろすように設置され、通路を撮影する。
移動物体検出装置100は、測距センサ200から取得した時刻フレームにおける測距センサ観測範囲の測距情報と、映像取得センサ300から取得した時刻フレームにおける映像取得センサ観測範囲内の映像とに基づき、通路を移動する歩行者の位置、移動方向を含む移動速度等を推定する。
また、上記1つの測距センサ200と1つの映像取得センサ300とからなるセットが複数、1台の移動物体検出装置100にネットワークを介して接続され、移動物体検出装置100は、1つの測距センサ200と1つの映像取得センサ300とからなる1セットごとに、通路を移動する歩行者の位置、移動速度等を推定する処理を実施することができる。具体的な処理内容については後述する。
図2,図3において、x軸方向は通路の延伸方向、z軸方向は地面と垂直な方向、y軸方向は通路の延伸方向と垂直かつ地面と平行な方向とし、x軸、y軸、z軸の正方向は右手系の直交座標系とする。
映像取得センサ300は、予め設定された視野角で通路の映像を取得するものであり、映像取得センサ300の設置位置から通路上のxy平面へ射影した範囲を、映像取得センサ300の観測範囲53とする。
測距センサ200は、1時刻フレーム内にy軸方向を少なくとも1回走査し、測距データを取得するものであり、測距センサ200の設置位置からy軸に平行なxy平面上の1次元ラインへ射影した範囲を測距センサ200の観測範囲54とする。
映像取得センサ300の観測範囲53と、測距センサ200の観測範囲54は、一部が重複しており、測距センサ200の観測範囲54のx軸方向の幅は、映像取得センサ300の観測範囲53のx軸方向の幅に比べて十分に狭い。
なお測距センサ200の観測範囲である1次元ラインは、観測環境に応じて選択可能としてもよい。例えば、測距センサ200は複数の1次元ラインを観測し、各1次元ラインの中から障害物等によって遮られる可能性が低い1次元ラインを観測範囲として選択するとしてもよい。
図4に示すように、移動物体検出装置100は、測距データ取得部11と、物体位置データ作成部12と、映像取得部13と、画素移動方向データ作成部14と、位置移動方向相関部15と、表示部16と、記録部17とを備える。
測距データ取得部11と物体位置データ作成部12とは、測距センサ処理部101を構成し、映像取得部13と画素移動方向データ作成部14とは、映像取得センサ処理部102を構成し、位置移動方向相関部15は、融合処理部103を構成する。
物体位置データ作成部12は、測距データ取得部11から取得した複数の時刻フレームにおける測距情報に基づき、移動物体の重心位置が測距センサ200の観測範囲54を通過した時刻フレームを特定する。また、物体位置データ作成部12は、測距データ取得部11から取得した複数の時刻フレームから、移動物体のx軸およびy軸方向の重心位置を算出して、当該重心位置を表す物体位置データを作成する。
物体位置データ作成部12は、移動物体の重心が通過した時刻フレーム、すなわち、移動物体の測距センサ200の観測範囲54の通過時刻と、物体位置データを、位置移動方向相関部15に出力する。
なおここでは、移動物体の位置座標を表す物理量の一例として移動物体全体の重心位置を算出する装置としたが、重心位置の代わりに移動物体の一部に関する位置座標としてもよい。例えば、歩行者に対する両肩の位置や、自動車に対する車輪の位置としてもよい。
画素移動方向データ作成部14は、映像取得部13から取得した複数の時刻フレームにおける映像に基づき、画素ごとのx軸およびy軸方向の推定速度を算出し、当該推定速度を表す画素速度データを、時刻フレームごとに作成する。画素移動方向データ作成部14は、画素速度データを、位置移動方向相関部15に出力する。
なおここでは、映像上の領域ごとに推定速度を算出する装置の一例として、画素ごとに推定速度を算出する装置である画素移動方向データ作成部14としたが、映像上の推定速度を算出する領域の選び方は、必ずしも1画素ごとである必要はない。例えば、縦10画素、横10画素の領域ごとに推定速度を算出することで、処理負荷を軽減させてもよい。
またここでは、画素移動方向データ作成部14は、物体の移動方向を表す物理量の一例としてx軸およびy軸方向の速度を算出することとしたが、各移動物体の移動方向のみを推定する目的においては、必ずしも速度を算出する必要はない。例えば、画素移動方向データ作成部14は、移動方向のみを表す大きさ一定のベクトルや、移動方向を表す方位角を算出することとしてもよい。
位置移動方向相関部15は、移動物体について、重心位置が測距センサ200の観測範囲54を通過した時刻、x軸およびy軸上の重心位置、x軸およびy軸方向の推定速度を表すデータを、表示部16に表示させる。また、位置移動方向相関部15は、移動物体ごとに、重心位置が測距センサ200の観測範囲54を通過した時刻、x軸およびy軸上の重心位置、x軸およびy軸方向の推定速度を表すデータを、記録部17に記憶させる。
ここでは、移動物体ごとの、重心位置が測距センサ200の観測範囲54を通過した時刻、x軸およびy軸上の重心位置、x軸およびy軸方向の推定速度を表すデータを合わせて、融合データという。
記録部17は、位置移動方向相関部15から出力された融合データを記憶する。
なお、ここでは、図4に示すように、表示部16と記録部17とは、移動物体検出装置100が備えるものとしたが、これに限らず、表示部16と記録部17とを、移動物体検出装置100の外部に備え、移動物体検出装置100と表示部16および記録部17とが、ネットワークを介して接続されるようにしてもよい。
この発明の実施の形態1において、測距センサ処理部101と、映像取得センサ処理部102と、融合処理部103の各機能は、処理回路501により実現される。すなわち、移動物体検出装置100は、取得した測距情報と映像情報とに基づき、移動物体の位置、速度等に関する情報を表示あるいは記憶させる制御を行うための処理回路501を備える。
処理回路501は、図5Aに示すように専用のハードウェアであっても、図5Bに示すようにメモリ506に格納されるプログラムを実行するCPU(Central Processing Unit)507であってもよい。
表示部16は、例えば、ディスプレイ503である。
記録部17は、例えば、HDD502を使用する。なお、これは一例にすぎず、記録部17は、DVD、メモリ506等によって構成されるものであってもよい。
また、移動物体検出装置100は、測距センサ200、映像取得センサ300等の外部機器との通信を行う入力インタフェース装置504、出力インタフェース装置505を有する。例えば、測距センサ処理部101は、測距センサ200が取得した測距情報を、USB(Universal Serial Bus)、イーサネット(登録商標。以下記載を省略する)等の入力インタフェース装置504を利用して取得する。また、例えば、映像取得センサ処理部102は、映像取得センサ300が撮影した映像を、DVI(Digital Visual Interface、登録商標)、HDMI(High−Definition Multimedia Interface、登録商標)、USB、イーサネット等の入力インタフェース装置504を利用して取得する。また、例えば、融合処理部103は移動物体の個数、位置、速度等の情報をUSB、イーサネット等の出力インタフェース装置505を利用してディスプレイ503に接続し出力する。
図6は、この発明の実施の形態1に係る移動物体検出装置100の動作を説明するフローチャートである。
図6を用いて、観測開始からk(kは自然数)番目の時刻フレームにおいて、重心が測距センサ200の観測範囲54を通過した移動物体に対して、移動速度を推定する場合を例に、移動物体検出装置100の動作を説明する。
以下では、観測開始からk番目の時刻フレームを、時刻kと表記する。また、測距センサ200および映像取得センサ300の設置位置および観測範囲は予め設定されていて既知であるとし、測距センサ200および映像取得センサ300の観測時刻を計測するための時計は、測距センサ200および映像取得センサ300間で同期されているものとする。
各時刻フレームの測距情報から移動物体の重心位置を抽出する方法としては、例えば、特開2011−108223号公報に開示されている方法を用いる。当該文献に開示されている方法は、特定の高さにおける移動物体の個数および位置を抽出する方法であり、例えば、歩行者の位置を抽出する場合には、歩行者の頭部の高さに存在する物体の個数および位置を求めることができる。
なお、上記方法に限らず、物体位置データ作成部12は、予め作成された時刻kの物体位置データを取得してもよい。具体的には、例えば、物体位置データ作成部12は、ステップST601においてその都度時刻kの物体位置データを作成するのではなく、すでに作成済みの物体位置データを記憶しておき、当該記憶している物体位置データを取得するようにしてもよい。
各時刻フレームの映像から画素速度データを作成する方法としては、例えば、B.Lucas,T.Kanade,“An Iterative Image Registration Technique with an Application to Stereo Vision,” Proceedindgs DARPA Image Understanding Workshop,pp.121−130,April 1981.に開示されている方法を用いる。当該文献に開示されている方法は、各画素の輝度強度は空間的に連続であることと、物体の運動が線形であることを前提に、最小二乗法によって時刻フレーム間の輝度強度の残差が最小となる速度ベクトルを推定する。この方法によって、静止物をあらわす画素の速度ベクトルは零に近い値となり、移動物体を表す画素の速度ベクトルは物体の移動速度に近い値となる画素速度データが得られる。
なお、上記方法に限らず、画素移動方向データ作成部14は、予め作成された時刻kの画素速度データを取得してもよい。具体的には、例えば、画素移動方向データ作成部14は、ステップST602においてその都度時刻kの画素速度データを作成するのではなく、すでに作成済みの画素速度データを記憶しておき、当該記憶している画素速度データを取得するようにしてもよい。
なお、画素移動方向データ作成部14は、観測環境に応じて映像上の一部領域に対してのみ画素速度データを作成するようにしてもよい。例えば、歩行者が通行し得ない区域など、移動物体が存在し得ない領域が、データ取得前または過去の時刻フレームのデータから既知であれば、当該移動物体が存在し得ない領域の画素速度データの作成を省略してもよい。
位置移動方向相関部15は、時刻kにおける各移動物体の重心位置61に対して、当該重心位置61を中心に物体サイズ63以内の画素速度62を抽出する。そして、位置移動方向相関部15は、物体サイズ63内の画素速度から、各移動物体の推定速度v1およびv2を算出する。
以下では、物体位置データにおいて時刻kの重心位置が(xd,yd)とされた、ある移動物体を例に、推定速度v1=(v1,x,v1,y)の算出方法を説明する。ここで、xdは移動物体の重心位置のx軸位置、ydは移動物体の重心位置のy軸位置とする。また、v1,x、v1,yは推定速度のx軸方向成分、y軸方向成分とする。なお、測距センサ200の観測範囲54はx軸方向に狭いため、xdは測距センサ200の観測範囲の中心のx軸位置としてもよい。
ここで、W(xi,yi;xd,yd)は、物体サイズ63を表す関数であり、任意の(xd、yd)に対して以下の式(3)を満たす関数である。
例えば、(xd、yd)を中心に円形の物体サイズ63を定義する場合、以下の式(4)のように定義する。
ここで、物体サイズ63の半径を表すパラメタをRとし、以下の式(5)を満たす画素(xi’、yi’)の個数をn(R)とする。
なお、想定する移動物体の種類や、映像取得センサ300における画素速度データの誤差および測距センサ200の物体位置データの誤差に応じて、物体サイズ63の大きさを変えたり、形状を楕円や長方形等にしてもよい。本実施の形態のように、歩行者を検出対象としている場合、物体サイズ63は、上方から見下ろした歩行者の平均的な大きさを表すものとすればよい。
また、上記のように物体サイズ63内部の画像速度データを一様に加算平均する他に、物体サイズ63内で重み付け平均するように関数W(xi、yi;xd、yd)の値に傾斜を持たせてもよい。
また、物体位置データには静止物体や実在する物体以外の不要なデータも誤って含まれていることを前提に、推定速度を基に不要なデータを棄却してもよい。例えば、推定速度が閾値未満であれば静止物体として移動物体の個数から除いてもよい。すなわち、物体位置データ作成部12で算出した移動物体の個数を、仮の移動物体個数とし、位置移動方向相関部15において最終的な移動物体個数の推定をおこなうとしてもよい。
位置移動方向相関部15は、時刻kの物体位置データによって特定されているすべての移動物体に対して推定速度を推定したか否かを判定する(ステップST604)。
ステップST604において、時刻kの物体位置データによって特定されているすべての移動物体に対して推定速度を推定していないと判定した場合(ステップST604の“NO”の場合)、ステップST603に戻り、以降の処理を繰り返す。
表示部16に表示させる情報は、予め設定された条件に基づき決められるようにすればよい。これに限らず、使用者が、入力装置(図示省略)から表示部16に表示させる情報を、予め設定しておくようにしてもよいし、あるいは、使用者が、表示中に表示させる情報を切り替え可能とすることもできる。
記録部17に記録させる情報は、予め設定された条件に基づき決められるようにすればよい。これに限らず、使用者が、入力装置(図示省略)から記録部17に記録させる情報を予め設定しておくようにしてもよいし、あるいは、使用者が、記録させる情報を変更可能とすることもできる。
一般に、受光素子のみを要する映像取得センサに比べ、投光素子と受光素子をともに備える測距センサの方が、構成する部品数が多く、また、経年劣化を補正する頻度が高いため、製造時、運用時の費用が高額になる。この実施の形態1に係る移動物体検出装置100では、1つの検出箇所に対して、レーザセンサ等の測距センサ200を1台しか必要としないため、測距センサを複数用いる方法に比べ、少ない費用で同じ機能を実現できる。
実施の形態1では、映像取得センサ300によって取得された映像上において移動物体の輝度および強度が連続であることを前提に、測距センサ200からの測距情報に基づく移動物体の重心位置と、映像取得センサ300からの映像に基づく画素速度とを、同じ時刻フレーム内で対応付けるようにしていた。
しかし、実際は、例えば光源照度の偏りや、背景色の変化、移動物体の回転および変形、夜間撮影時の増感ノイズ等によって、移動物体の輝度強度が不連続に変化する。このような場合、移動物体の画素速度が一時的に真の移動物体の速度と大きく異なる値となり、ある時刻フレームの画素速度上において移動物体が消失する事態が起こり得る。
そこで、この実施の形態2では、複数の時刻フレームの画素速度から、各移動物体の推定速度の候補を複数通り設定し、各候補の中から尤もらしい推定速度を判定する実施の形態について説明する。
また、測距センサ200と映像取得センサ300の設置状況、および、測距センサ200と映像取得センサ300の観測条件についても、例えば、実施の形態1において、図2,図3を用いて説明したとおりであるので、重複した説明を省略する。
図8において、図4を用いて説明した実施の形態1に係る移動物体検出装置100と同様の構成については、同じ符号を付して重複した説明を省略する。
この発明の実施の形態2に係る移動物体検出装置100aは、実施の形態1に係る移動物体検出装置100とは、融合処理部103が、位置移動方向相関部15に代えて、移動方向仮説設定部18と移動方向決定部19とから構成される点が異なるのみである。
この実施の形態2において、物体位置データ作成部12は、物体位置データを移動方向仮説設定部18に出力する。また、画素移動方向データ作成部14は、画素速度データを、移動方向仮説設定部18および移動方向決定部19に出力する。
移動方向仮説設定部18は、速度仮説を移動方向決定部19に出力する。
図9は、この発明の実施の形態2に係る移動物体検出装置100aの動作を説明するフローチャートである。
なお、以下の説明において、kはN+1以上の自然数とする。パラメタNについては後述する。
映像取得センサ処理部102は、映像取得センサ300が取得した複数の時刻フレームの映像から、時刻k−iにおける画素速度データを作成する(ステップST903)。具体的な画素速度データの作成方法は、実施の形態1で説明した図6のステップST602と同様である。映像取得センサ処理部102の画素移動方向データ作成部14は、時刻k−iにおける画素速度データを移動方向仮説設定部18および移動方向決定部19に出力する。
移動方向仮説設定部18は、時刻kの移動物体の重心位置61に対して、時刻k−1における移動物体の重心位置の推定値、すなわち、時刻k−1の物体位置推定値64と、時刻k−1の物体位置推定値64を中心とする物体サイズ63以内の時刻k−1の画素速度65を抽出する。そして、移動方向仮説設定部18は、抽出した時刻k−1の画素速度65から、移動物体の速度仮説v1を算出する。
ここでは、対象とする、ある移動物体の重心位置を(xd,yd)とし、速度仮説をvu=(vu,x,vu,y)とする。xdは移動物体の重心位置のx軸位置、ydは移動物体の重心位置のy軸位置とし、vu,x,vu,yは、それぞれ、推定速度のx軸方向成分、y軸方向成分とする。なお、測距センサ200の観測範囲54は、x軸方向に狭いため、xdは測距センサ200の観測範囲54の中心のx軸位置としてもよい。
平均速度vm=(vm,x,vm,y)は、以下の式(6)および式(7)より算出する。
ここで、W(xq,yq;xs,ys)は、物体サイズ63を表す関数であり、任意の(xs,ys)に対して以下の式(8)を満たす関数である。
例えば、(xs,ys)を中心に円形の物体サイズ63を定義する場合、以下の式(9)のように定義する。
ここで、物体サイズ63の半径を表すパラメタをRとし、以下の式(10)を満たす画素(xq’,yq’)の個数をn(R)とする。
また、想定する移動物体の種類や、映像取得センサ300における画素速度データの誤差および測距センサ200の物体位置データの誤差に応じて、物体サイズ63の大きさを変えたり、形状を楕円や長方形等にしてもよい。本実施の形態のように、歩行者を検出対象としている場合、物体サイズ63は、上方から見下ろした歩行者の平均的な大きさを表すものとすればよい。
また、上記のように物体サイズ63内部の画像速度データを一様に加算平均する他に、物体サイズ63内で重み付け平均するように関数W(xq,yq;xs,ys)の値に傾斜を持たせてもよい。
ここで、Tk−i,kは時刻k−iから時刻kのフレーム間経過時間を表す。特に、i=0の場合はTk,k=0とする。
また、式(11)および式(12)では、移動物体の運動モデルとして等速直進運動を仮定したが、移動物体の種類に応じて、例えば等加速度直進運動など別の運動モデルを仮定し外挿位置を算出してもよい。
移動方向仮説設定部18は、時刻k−iの画素速度データから算出した外挿位置(xe,ye)と、時刻kの物体位置データにおける移動物体の重心位置(xd,yd)との残差Δrを、以下の式(13)により算出する。
ここで、行列右上のtは行列の転置を表し、行列右上の「−1」は逆行列を表す。
また、σx 2、σy 2、σxy 2は、外挿位置と移動物体の重心位置との残差に関する揺らぎの大きさを表すパラメタとし、σx 2はx軸成分の分散、σy 2はy軸成分の分散、σxy 2はx成分とy成分の共分散を表す。例えば、画素速度データのy軸方向成分が、x軸方向成分に比べ誤差が大きい場合、σy 2をσx 2よりも大きな値に設定することで、成分ごとの揺らぎの違いを考慮した残差を算出できる。
または、外挿位置と移動物体の重心位置との残差に関して揺らぎの数値化が困難な場合等では、各成分の揺らぎは独立かつ一様と仮定して、より簡単な、以下の式(14)によって残差Δrを求めてもよい。
なお、以上の図11の処理では、時刻k−iの画素速度データ内のすべての画素に対して平均速度、外挿位置、移動物体の重心位置との残差を算出し、速度仮説を設定したが、例えば、移動物体の想定最大速度から選択する画素を制限することで処理負荷を軽減させてもよい。
またここでは、画素移動方向データ作成部14は、物体の移動方向を表す物理量の一例としてx軸およびy軸方向の速度を算出することとしたが、各移動物体の移動方向のみを推定する目的においては、必ずしも速度を算出する必要はない。例えば、移動方向のみを表す大きさ一定のベクトルや、移動方向を表す方位角を算出することとしてもよい。この場合、移動方向仮説設定部18が設定する物体の速度仮説は移動方向仮説ともいうこととする。
移動物体検出装置100aの制御部(図示省略)は、変数iがパラメタN以上か否かを判定する(ステップST905)。
パラメタNは、速度仮説を設定する際に参照する過去の時刻フレームの個数を表す。パラメタNは、例えば、時刻k−Nから時刻kの間で目標の運動を等速直進とする仮定が妥当となる時刻フレーム数の最大値を設定する。
なお、各速度仮説の尤度は、ステップST908〜ステップST911の変数jに関するループ処理の中で逐次更新する。例えば、ある速度仮説viに関して、時刻k+jの画素速度データによって更新された尤度Li,k+jは、1つ前の変数jのループ処理で算出された尤度Li,k+j−1をもとに算出される。
移動方向決定部19は、時刻kの移動物体の重心位置61に対して、各速度仮説をもとに時刻k+1の物体位置推定値66a〜66c、時刻k+2の物体位置推定値68a〜68cを算出する。また、移動方向決定部19は、各物体位置推定値を中心とする物体サイズ63内の時刻k+1および時刻k+2の画素速度67a〜67c、69a〜69cを時刻k+1および時刻k+2の画素速度データから抽出する。
そして、移動方向決定部19は、各時刻フレームにおいて、速度仮説と物体サイズ63内の画素速度との差異から、速度仮説の尤度を算出する。当該尤度は、時刻k以前の画素速度から設定した速度仮説と、時刻k+1以降の画素速度との整合の度合いを表し、時刻k+1以降の各時刻フレームを通して、速度仮説と物体サイズ63内の画素速度との差異が小さいほど高い値となる。
図12の例では、速度仮説v1と、物体位置推定値66a周辺の画素速度67aと、物体位置推定値68a周辺の画素速度69aとの差異が、残りの速度仮説v0、v2に比べて小さいため、速度仮説v1の尤度が速度仮説v0、v2の尤度に比べ大きな値となる。
図13は、図9のステップST909の詳細な動作について説明するフローチャートである。
ここでは、対象とする、ある移動物体の重心位置を(xd,yd)とし、速度仮説をvu=(vu,x,vu,y)とする。xdは移動物体の重心位置のx軸位置、ydは移動物体の重心位置のy軸位置とし、vu,x及びvu,yは推定速度のx軸方向成分、y軸方向成分とする。なお、測距センサ200の観測範囲54はx軸方向に狭いため、xdは測距センサ200の観測範囲54の中心としてもよい。
また、時刻k+jの画素速度データをVk+j,x(xq,yq)およびVk+j,y(xq,yq)と表す。ここで、xqおよびyqはq番目の画素のx軸中心位置、y軸中心位置を表し、Vk+j,x(xq,yq)は画素速度のx軸方向成分、Vk+j,y(xq,yq)は画素速度のy軸方向成分を表すとする。なお画素の総数はNpとする。
移動方向決定部19は、物体位置推定値(xe,k+j,ye、k+j)を、移動物体が時刻kから時刻k+jの間に等速直進すると仮定し、以下の式(15)および式(16)から算出する。
ここで、Tk,k+jは時刻kから時刻k+jまでのフレーム間経過時刻を表す。
また、式(15)および(16)では、移動物体の運動モデルとして等速直進運動を仮定したが、移動方向決定部19は、移動物体の種類に応じて、例えば、等加速度直進運動など別の運動モデルを仮定し外挿位置を算出してもよい。
移動方向決定部19は、平均速度vm,k+j=(vm,k+j,x,vm,k+j,y)を、例えば図11のステップST1102と同様に、以下の式(17)および(18)より算出する。
ここで、W(xq,yq;xe、k+j,ye,k+j)は、物体サイズ63を表す関数であり、任意の(xe,k+j,ye,k+j)に対して、以下の式(19)を満たす関数である。
例えば、(xe、k+j,ye、k+j)を中心に円形の物体サイズ63を定義する場合、以下の式(20)のように定義する。
ここで、Rは物体サイズ63の半径を表すパラメタとし、n(R)は、以下の式(21)を満たす画素(xq’,yq’)の個数とする。
また、想定する移動物体の種類や、映像取得センサ300における画素速度データの誤差及び測距センサ200の物体位置データの誤差に応じて、物体サイズ63の大きさを変えたり、形状を楕円や長方形等にしてもよい。本実施の形態のように、歩行者を検出対象としている場合、物体サイズ63は、上方から見下ろした歩行者の平均的な大きさを表すものとすればよい。
また、上記のように物体サイズ63内部の画像速度データを一様に加算平均する他に、物体サイズ63内で重み付け平均するように関数W(xq,yq;xe,k+j,ye,k+j)の値に傾斜を持たせてもよい。
速度仮説vuの時刻k+jにおける尤度Lu,k+jは、以下の式(22)より算出する。
ここで、速度仮説vu,vm、k+jは以下の式(23)(24)で表される縦ベクトルとする。
Sk+jはvu−vm,k+jの残差共分散行列を表す2行2列のパラメタである。また、時刻k+j−1の尤度Lu,k+j−1に関しては、特にj=1の場合
とする。
なお、以上の尤度Lu,k+jは、平均速度vm,k+jが移動物体の真の速度に白色ガウス雑音が加算されたとするモデルに基づく値であり、平均速度の誤差分布が有色非ガウス雑音とするモデルを用いてもよい。
ステップST1304において、すべての速度仮説について時刻k+1における仮説尤度が更新されていないと判定した場合(ステップST1304の“NO”の場合)、ステップST1301に戻り、以降の処理を繰り返す。
制御部は、変数jがパラメタM以上か否かを判定する(ステップST910)。パラメタMは、速度仮説の尤度算出に用いる時刻フレームの個数を表す。パラメタMには、例えば、時刻kから時刻k+Mの間で目標の運動を等速直進とする仮定が妥当となる時刻フレーム数の最大値が、予め設定される。
具体的には、移動方向決定部19は、時刻k+1〜時刻k+Mの画素速度データで更新された各々の速度仮説の尤度Lu、k+M(u=1,2,・・・,NH、NHは速度仮説の個数)に対して、以下の式(26)より事後確率P(Hu|Vk:k+M)を算出する。
ここで、P(Hu)は速度仮説vuの事前確率を表し、速度仮説vuごとに設定するパラメタである。
P(Hu)の設定方法としては、例えば速度仮説vuを設定する際の式(14)に関する残差Δrや、v1の値の大きさ、画素速度データを取得した映像における光源や背景色等によって設定する。または、すべての速度仮説は設定時点では等しく尤もらしいと見なし、P(Hu)を定数としてもよい。
ステップST914において、すべての移動物体に対して推定速度が決定されていない場合(ステップST914の“NO”の場合)、ステップST902に戻る。
ステップST914において、すべての移動物体に対して推定速度が決定された場合(ステップST914の“YES”の場合)、移動方向決定部19は、ステップST913で決定した移動物体の移動速度と、重心位置を表した融合データを、表示部16および記録部17に出力する(ステップST915)。
当該効果は、例えば、夜間において移動物体の個数、位置、および、移動方向を含む移動速度を推定する場合に有効である。カメラ等の映像取得センサ300は夜間や暗所等の光源照度が低い環境ほど、センサ内部の雑音によって、各画素の輝度が揺らぎやすい特性を持つ。このような場合、移動物体の輝度が雑音によって揺らぐために、画素速度データは移動物体の真の速度から外れた値を持ちやすい。しかし、この実施の形態2の構成によれば、複数時刻フレームの画素速度データを基に物体の移動速度の候補値を設定し、各候補値を比較することで、尤もらしい移動速度を推定するため、誤った移動速度が推定される確率を減らすことができる。
実施の形態1,2では、測距センサ200の測距情報に基づく移動物体の重心位置と、映像取得センサ300の映像に基づく画素速度から、移動物体の個数、位置、および、移動方向を含む移動速度を推定するようにしていた。
この実施の形態3では、測距センサ200の測距情報に基づき、さらに、移動物体の地表面からの高さ、および、移動物体の幅に関するデータを、移動物体の属性データとして作成する実施の形態について説明する。
また、測距センサ200と映像取得センサ300の設置状況、および、測距センサ200と映像取得センサ300の観測条件についても、例えば、実施の形態1において、図2,図3を用いて説明したとおりであるので、重複した説明を省略する。
図14において、図4を用いて説明した実施の形態1に係る移動物体検出装置100と同様の構成については、同じ符号を付して重複した説明を省略する。
この発明の実施の形態3に係る移動物体検出装置100bは、実施の形態1に係る移動物体検出装置100とは、測距センサ処理部101が、物体高さデータ作成部20と物体幅データ作成部21をさらに備える点と、融合処理部103が、物体属性判定部22をさらに備える点が異なるのみである。
物体高さデータ作成部20は、作成した物体高さデータを物体属性判定部22に出力する。
なお、物体高さデータにおける移動物体は、物体位置データ作成部12で作成される物体位置データの移動物体と対応付けられており、対応関係は物体高さデータから参照できるものとする。
物体幅データ作成部21は、作成した物体幅データを物体属性判定部22に出力する。
なお、物体幅データにおける移動物体は、物体位置データ作成部12で作成される物体位置データの移動物体と対応付けられており、対応関係は物体幅データから参照できるものとする。
物体属性判定部22は、移動物体の位置、移動速度、属性を表したデータを、表示部16および記録部17へ出力する。ここでは、物体属性判定部22が出力する、移動物体の位置、移動速度、属性を表したデータを、属性付き融合データという。
図15は、この発明の実施の形態3に係る移動物体検出装置100bの動作を説明するフローチャートである。
なお、以下の説明では、時刻kにおいて重心位置が測距センサ200の観測範囲54を通過した移動物体に対して、移動速度および属性を推定するものとする。
物体高さデータ作成部20は、各時刻フレームの測距情報から移動物体の高さを算出する方法として、例えば、前述の、特開2011−108223号公報に開示されている方法を用いる。当該方法では、観測範囲54内の各移動物体の測距情報を高さ方向に分割し、各高さにおいて物体が検出された範囲を算出する方法であり、例えば、歩行者の高さを算出する場合には、歩行者が検出された高さの最大値を歩行者の高さとして算出することができる。
物体高さデータ作成部20は、作成した物体高さデータを物体属性判定部22に出力する。
物体幅データ作成部21は、各時刻フレームの測距情報から移動物体の幅を算出する方法として、例えば、前述の、特開2011−108223号公報に開示されている方法を用いる。当該方法は、観測範囲54内の各移動物体の測距情報を距離方向に分割し、各距離方向において移動物体が検出される距離方向の最大値と最小値から歩行者の体の幅を算出することができる。また、距離方向に対して垂直な方向の幅に関しては、移動物体が連続して検出された時間から算出することができる。
物体幅データ作成部21は、作成した物体幅データを物体属性判定部22に出力する。
位置移動方向相関部15は、作成した融合データを物体属性判定部22に出力する。
なお、上記では、歩行者を対象とした例を挙げたが、これに限らず、車両を対象とした車種の判定、航空機を対象とした機種の判定、船舶を対象とした船種の判定、動物を対象とした種の判定等に用いてもよい。
ステップST1507において、時刻kの物体位置データによって特定されている1または複数の移動物体のすべてに対して、推定速度および形状属性が推定されていない場合(ステップST1507の“NO”の場合)、ステップST1505に戻る。
なお、上記では、歩行者を対象とした例を挙げたが、これに限らず、車両を対象とした渋滞の判定、航空機を対象とした編隊の判定、船舶を対象とした船団の判定、動物を対象とした群れの判定等に用いてもよい。
このような構成は、例えば、歩行者における子どもの割合や、団体行動する歩行者の割合を推定する場合に有効である。歩行者の年齢構成あるいは混雑の原因となる団体歩行者の有無は、警備システムやイベント運営、市場分析等において、有用な情報であるが、可視光カメラ等の映像取得センサのみによって各歩行者の属性を判定するためには、歩行者の体の部位を映像上の輪郭から抽出する必要があり、低解像度の映像取得センサでは判定の精度が劣化する。例えば、子どもの歩行者を映像から抽出するためには、歩行者の頭部位置等を映像から抽出する必要があり、低解像度の映像からは困難である。
Claims (5)
- 測距センサで測定された測距情報に基づき、移動物体の位置座標を算出する物体位置データ作成部と、
映像取得センサで撮影された映像情報に基づき、映像上の領域それぞれの推定移動方向を算出する画素移動方向データ作成部と、
前記位置座標および前記推定移動方向に基づき、前記移動物体の個数および移動方向を推定する位置移動方向相関部
とを備えた移動物体検出装置。 - 測距センサで測定された測距情報に基づき、移動物体の位置座標を算出する物体位置データ作成部と、
映像取得センサで撮影された映像情報に基づき、映像上の領域それぞれの推定移動方向を算出する画素移動方向データ作成部と、
前記位置座標および前記推定移動方向に基づき、移動物体について、複数の移動方向仮説を設定する移動方向仮説設定部と、
前記複数の移動方向仮説に基づき、前記移動物体の個数および移動方向を決定する移動方向決定部
とを備えた移動物体検出装置。 - 前記移動方向決定部は、
前記複数の移動方向仮説の尤度をそれぞれ算出し、前記尤度に基づき前記移動物体の移動方向を決定する
ことを特徴とする請求項2記載の移動物体検出装置。 - 前記測距情報に基づき、前記移動物体の高さを算出する物体高さデータ作成部と、
前記測距情報に基づき、前記移動物体の幅を算出する物体幅データ作成部と、
前記移動物体の高さおよび幅と、前記移動物体が複数存在する場合は前記移動物体間の相対的な位置関係と、前記移動物体間の相対的な移動方向とに基づき、前記移動物体の属性を判定する物体属性判定部とをさらに備えた
ことを特徴とする請求項1記載の移動物体検出装置。 - 前記測距情報に基づき、前記移動物体の高さを算出する物体高さデータ作成部と、
前記測距情報に基づき、前記移動物体の幅を算出する物体幅データ作成部と、
前記移動物体の高さおよび幅と、前記移動物体が複数存在する場合は前記移動物体間の相対的な位置関係と、前記移動物体間の相対的な移動方向とに基づき、前記移動物体の属性を判定する物体属性判定部とをさらに備えた
ことを特徴とする請求項2記載の移動物体検出装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/070943 WO2018011964A1 (ja) | 2016-07-15 | 2016-07-15 | 移動物体検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6351917B2 JP6351917B2 (ja) | 2018-07-04 |
JPWO2018011964A1 true JPWO2018011964A1 (ja) | 2018-08-16 |
Family
ID=60951985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018515317A Active JP6351917B2 (ja) | 2016-07-15 | 2016-07-15 | 移動物体検出装置 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6351917B2 (ja) |
TW (1) | TW201804445A (ja) |
WO (1) | WO2018011964A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3620969A1 (en) * | 2018-09-07 | 2020-03-11 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and device for detecting obstacle speed, computer device, and storage medium |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11911918B2 (en) * | 2018-06-11 | 2024-02-27 | Panasonic Intellectual Property Management Co., Ltd. | Distance-measuring system and distance-measuring method |
WO2022074800A1 (ja) * | 2020-10-08 | 2022-04-14 | 三菱電機株式会社 | 空調制御装置及び空調制御方法 |
CN113163110B (zh) * | 2021-03-05 | 2022-04-08 | 北京宙心科技有限公司 | 一种人流密度分析系统及分析方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1062546A (ja) * | 1996-08-26 | 1998-03-06 | Matsushita Electric Works Ltd | 複合型赤外線人体検知装置 |
JPH1079012A (ja) * | 1996-09-04 | 1998-03-24 | Matsushita Electric Ind Co Ltd | 通過人数検知装置 |
JP2005025590A (ja) * | 2003-07-04 | 2005-01-27 | Minolta Co Ltd | 計数システム |
JP2013175049A (ja) * | 2012-02-24 | 2013-09-05 | Toshiba Elevator Co Ltd | エレベータの人数計測装置、これを備えるエレベータ、および複数のエレベータがそれぞれ人数計測装置を備えるエレベータシステム |
US20150221094A1 (en) * | 2011-09-23 | 2015-08-06 | Shoppertrak Rct Corporation | System and method for detecting, tracking and counting human objects of interest using a counting system and a data capture device |
JP2015203912A (ja) * | 2014-04-11 | 2015-11-16 | パナソニックIpマネジメント株式会社 | 人数計測装置、人数計測システムおよび人数計測方法 |
-
2016
- 2016-07-15 JP JP2018515317A patent/JP6351917B2/ja active Active
- 2016-07-15 WO PCT/JP2016/070943 patent/WO2018011964A1/ja active Application Filing
- 2016-10-12 TW TW105132825A patent/TW201804445A/zh unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1062546A (ja) * | 1996-08-26 | 1998-03-06 | Matsushita Electric Works Ltd | 複合型赤外線人体検知装置 |
JPH1079012A (ja) * | 1996-09-04 | 1998-03-24 | Matsushita Electric Ind Co Ltd | 通過人数検知装置 |
JP2005025590A (ja) * | 2003-07-04 | 2005-01-27 | Minolta Co Ltd | 計数システム |
US20150221094A1 (en) * | 2011-09-23 | 2015-08-06 | Shoppertrak Rct Corporation | System and method for detecting, tracking and counting human objects of interest using a counting system and a data capture device |
JP2013175049A (ja) * | 2012-02-24 | 2013-09-05 | Toshiba Elevator Co Ltd | エレベータの人数計測装置、これを備えるエレベータ、および複数のエレベータがそれぞれ人数計測装置を備えるエレベータシステム |
JP2015203912A (ja) * | 2014-04-11 | 2015-11-16 | パナソニックIpマネジメント株式会社 | 人数計測装置、人数計測システムおよび人数計測方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3620969A1 (en) * | 2018-09-07 | 2020-03-11 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and device for detecting obstacle speed, computer device, and storage medium |
US11226350B2 (en) | 2018-09-07 | 2022-01-18 | Apollo Intelligent Driving Technology (Beijing) Co., Ltd. | Method and device for detecting obstacle speed, computer device, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
TW201804445A (zh) | 2018-02-01 |
WO2018011964A1 (ja) | 2018-01-18 |
JP6351917B2 (ja) | 2018-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | A novel real-time moving target tracking and path planning system for a quadrotor UAV in unknown unstructured outdoor scenes | |
Zhu et al. | The multivehicle stereo event camera dataset: An event camera dataset for 3D perception | |
US11461912B2 (en) | Gaussian mixture models for temporal depth fusion | |
Zhou et al. | Automated evaluation of semantic segmentation robustness for autonomous driving | |
Yin et al. | Dynam-SLAM: An accurate, robust stereo visual-inertial SLAM method in dynamic environments | |
Berrio et al. | Camera-LIDAR integration: Probabilistic sensor fusion for semantic mapping | |
EP3159125A1 (en) | Device for recognizing position of mobile robot by using direct tracking, and method therefor | |
US8712096B2 (en) | Method and apparatus for detecting and tracking vehicles | |
JP6351917B2 (ja) | 移動物体検出装置 | |
EP3159121A1 (en) | Device for updating map of mobile robot and method therefor | |
EP3159126A1 (en) | Device and method for recognizing location of mobile robot by means of edge-based readjustment | |
US20150356357A1 (en) | A method of detecting structural parts of a scene | |
US20120155744A1 (en) | Image generation method | |
Zhu et al. | Reliable detection of overtaking vehicles using robust information fusion | |
EP3159122A1 (en) | Device and method for recognizing location of mobile robot by means of search-based correlation matching | |
JP2006252473A (ja) | 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム | |
KR20200071960A (ko) | 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치 | |
Cvišić et al. | Recalibrating the KITTI dataset camera setup for improved odometry accuracy | |
McManus et al. | Distraction suppression for vision-based pose estimation at city scales | |
CN111274862A (zh) | 用于产生车辆的周围环境的标签对象的设备和方法 | |
Phillips et al. | Real-time prediction of automotive collision risk from monocular video | |
Huch et al. | Quantifying the lidar sim-to-real domain shift: A detailed investigation using object detectors and analyzing point clouds at target-level | |
JP2005217883A (ja) | ステレオ画像を用いた道路平面領域並びに障害物検出方法 | |
JP2017182564A (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
JP2020076714A (ja) | 位置姿勢推定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180322 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180322 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180508 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180605 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6351917 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |