JP6932971B2 - 動体追跡方法、動体追跡プログラム、および動体追跡システム - Google Patents

動体追跡方法、動体追跡プログラム、および動体追跡システム Download PDF

Info

Publication number
JP6932971B2
JP6932971B2 JP2017077058A JP2017077058A JP6932971B2 JP 6932971 B2 JP6932971 B2 JP 6932971B2 JP 2017077058 A JP2017077058 A JP 2017077058A JP 2017077058 A JP2017077058 A JP 2017077058A JP 6932971 B2 JP6932971 B2 JP 6932971B2
Authority
JP
Japan
Prior art keywords
moving body
moving
candidate
moving object
movement prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017077058A
Other languages
English (en)
Other versions
JP2018180788A (ja
Inventor
俊介 ▲高▼村
俊介 ▲高▼村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017077058A priority Critical patent/JP6932971B2/ja
Publication of JP2018180788A publication Critical patent/JP2018180788A/ja
Application granted granted Critical
Publication of JP6932971B2 publication Critical patent/JP6932971B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、動体追跡方法、動体追跡プログラム、および動体追跡システムに関する。
動体追跡は、時系列に並んだ複数の画像(フレーム)内から、それら複数の画像内で移動する物体、すなわち動体を識別して追跡する技術である。
従来の動体追跡技術としては、複数の撮影手段より撮影された画像から動体(物体)の距離を求めて、画像中の所定の位置を通過する動体の数や移動速度、大きさを計測する技術がある。この技術によれば、物体検出手段では、この投影像から物体の先頭位置または後端位置を抽出し、その投影像を用いて移動位置算出手段が物体の移動位置を算出し、物体情報算出手段がそれらの情報から画像中の所定の位置を通過する物体の数や移動速度、大きさを計測する。そして、現在の物体位置のうち、物体が存在する可能性のある範囲内の物体と相関を計算し、物体位置を特定する。このとき「可能性のある範囲内」とは、たとえば対象が車両である場合、その最高速度から、現在画像での車両が存在しうる位置を特定し、その範囲内で相関を計算し、もっとも相関の高い位置を車両の位置として特定する(特許文献1)。
また、前フレームと次フレームの関連性を見る技術としては、たとえば、前フレームで見つけた対象の次フレームでの位置を予測する手段を持ち、それと空間の3次元情報からシミュレーションした画像と、今フレームで取得したシルエット画像との一致度を評価し、その結果から動体を追跡する技術がある(特許文献2)。
特開平10−187974号公報 特開2007−249885号公報
しかしながら、これらの技術は、追跡対象とする動体の情報のみから次の位置を予測しており、他の動体の存在は考慮されていない。また、3次元空間において対象位置を予測する従来技術においても、具体的な予測方法は記載されていない。
そこで、本発明の目的は、1つのフレーム内に動体が存在する場合に、過去フレームの動体を現在フレーム内の動体として追跡することのできる動体追跡方法を提供することである。また、本発明の他の目的は、コンピューターにより動体追跡させる動体追跡プログラムを提供することである。さらに、本発明の他の目的は、動画を取得してその画像の中から動体追跡することができる動体追跡システムを提供することである。
上記の目的は、以下の手段により達成される。
(1)時系列に沿って複数のフレームが並んでいる動画の、現在フレームより前の過去フレームで識別されている1または複数の動体が前記現在フレームでどこまで移動するかを予測した移動予測範囲を前記動体ごとに求める段階(a)と、
前記現在フレームで前記動体となる可能性のある動体候補を検出する段階(b)と、
前記移動予測範囲と前記動体候補とを検索して、前記移動予測範囲が複数あり、かつ、複数の前記移動予測範囲の一部が重複する重複領域がある場合に、当該重複領域よりも先に、前記移動予測範囲が重複しない領域から前記動体候補を検索して、前記移動予測範囲に対応している前記動体と前記動体候補を関連付ける段階(c)と、
関連付けされた前記動体候補および前記動体、ならびに関連付けされた前記動体と対応している前記移動予測範囲を検索対象から除外する段階(d)と、
を有する、動体追跡方法。
(2)前記段階(c)は、さらに、前記移動予測範囲が重複しない領域に1つの前記動体候補のみが存在する場合は、前記移動予測範囲が重複しない領域の元になった前記移動予測範囲に対応している前記動体と前記動体候補を関連付ける段階(c2)を有する、上記(1)に記載の動体追跡方法。
(3)前記段階(c)は、さらに前記移動予測範囲が重複しない領域内にある前記動体候補と前記動体との関連度をあらかじめ定められた第1の指標により調べる段階(c1)を有し、
前記第1の指標により調べた関連度が所定以上の場合に前記動体候補と前記動体とを関連付ける、上記(1)または(2)に記載の動体追跡方法。
(4)前記第1の指標は、前記動体と前記動体候補との間の距離、前記動体および前記動体候補の移動速度、画像を取得している画像取得センサーから前記動体までと前記動体候補までのそれぞれの方向および距離、前記動体および前記動体候補のサイズ、前記動体および前記動体候補が占める画素数、前記動体および前記動体候補の色、から選択された1つまたは2つ以上の組み合わせである、上記(3)に記載の動体追跡方法。
(5)前記移動予測範囲が複数ある場合に前記移動予測範囲が重複する1つの領域に前記動体候補がある場合は、前記動体候補とそれぞれの前記動体との関連度をあらかじめ定められた第2の指標により調べ、前記第2の指標により調べた関連度がもっとも高い前記動体候補と前記動体とを関連付ける段階(e)を有する、上記(1)〜(4)のいずれか1つに記載の動体追跡方法。
(6)前記移動予測範囲が重複しない1つの領域に複数の前記動体候補がある場合は、前記複数の前記動体候補のそれぞれと、前記動体との関連度をあらかじめ定められた第2の指標により調べ、前記第2の指標により調べた関連度がもっとも高い前記動体候補と前記動体とを関連付ける段階(f)を有する、上記(1)〜(5)のいずれか1つに記載の動体追跡方法。
(7)前記第2の指標は、前記動体と前記動体候補との間の距離、前記動体および前記動体候補の移動速度、画像を取得している画像取得センサーから前記動体までと前記動体候補までのそれぞれの方向および距離、前記動体および前記動体候補のサイズ、前記動体および前記動体候補が占める画素数、前記動体および前記動体候補の色、から選択された1つまたは2つ以上の組み合わせであり、
前記動体と前記動体候補との間の距離は、短いものほど前記関連度が高いと判断し、
前記動体の移動速度は、前記動体が前記動体候補へ移動したと仮定した場合の前記動体候補の仮定の移動速度を算出し、当該仮定の移動速度が、複数の過去フレームから算出される前記動体の移動速度に近いものほど前記関連度が高いと判断し、
前記画像取得センサーから前記動体までと前記動体候補までのそれぞれの方向および距離は、前記画像取得センサーから前記動体までの方向および距離と、前記画像取得センサーから前記動体候補までの方向および距離のそれぞれの値が近いものほど前記関連度が高いと判断し、
前記動体と前記動体候補のサイズは、近いほど前記関連度が高いと判断し、
前記動体および前記動体候補が占める画素数は、近いほど前記関連度が高いと判断し、
前記動体および前記動体候補の色は、近いほど前記関連度が高いと判断する、上記(5)または(6)に記載の動体追跡方法。
(8)時系列に沿って複数のフレームが並んでいる動画の、現在フレームより前の過去フレームで識別されている1または複数の動体が前記現在フレームでどこまで移動するかを予測した移動予測範囲を前記動体ごとに求める段階(a)と、
前記現在フレームで前記動体となる可能性のある動体候補を検出する段階(b)と、
前記移動予測範囲と前記動体候補とを検索して、前記移動予測範囲が複数ある場合に、前記移動予測範囲が重複しない領域に1つの前記動体候補のみが存在する場合は、前記移動予測範囲が重複しない領域の元になった前記移動予測範囲に対応している前記動体と前記動体候補を関連付ける段階(c)と、
関連付けされた前記動体候補および前記動体、ならびに関連付けされた前記動体と対応している前記移動予測範囲を検索対象から除外する段階(d)と、
前記移動予測範囲が複数ある場合に前記移動予測範囲が重複する1つの領域に前記動体候補がある場合は、前記動体候補とそれぞれの前記動体との関連度をあらかじめ定められた第2の指標により調べ、前記第2の指標により調べた関連度がもっとも高い前記動体候補と前記動体とを関連付ける段階(e)を有する、動体追跡方法。
)前記段階(c)は、さらに前記移動予測範囲が重複しない領域内にある前記動体候補と前記動体との関連度をあらかじめ定められた第1の指標により調べる段階(c1)を有し、
前記第1の指標により調べた関連度が所定以上の場合に前記動体候補と前記動体とを関連付ける、上記(8)に記載の動体追跡方法。
10)前記第1の指標は、前記動体と前記動体候補との間の距離、前記動体および前記動体候補の移動速度、画像を取得している画像取得センサーから前記動体までと前記動体候補までのそれぞれの方向および距離、前記動体および前記動体候補のサイズ、前記動体および前記動体候補が占める画素数、前記動体および前記動体候補の色、から選択された1つまたは2つ以上の組み合わせである、上記()に記載の動体追跡方法。
11)前記移動予測範囲が重複しない1つの領域に複数の前記動体候補がある場合は、前記複数の前記動体候補のそれぞれと、前記動体との関連度をあらかじめ定められた第2の指標により調べ、前記第2の指標により調べた関連度がもっとも高い前記動体候補と前記動体とを関連付ける段階(f)を有する、上記()〜(10)のいずれか1つに記載の動体追跡方法。
12)前記第2の指標は、前記動体と前記動体候補との間の距離、前記動体および前記動体候補の移動速度、画像を取得している画像取得センサーから前記動体までと前記動体候補までのそれぞれの方向および距離、前記動体および前記動体候補のサイズ、前記動体および前記動体候補が占める画素数、前記動体および前記動体候補の色、から選択された1つまたは2つ以上の組み合わせであり、
前記動体と前記動体候補との間の距離は、短いものほど前記関連度が高いと判断し、
前記動体の移動速度は、前記動体が前記動体候補へ移動したと仮定した場合の前記動体候補の仮定の移動速度を算出し、当該仮定の移動速度が、複数の過去フレームから算出される前記動体の移動速度に近いものほど前記関連度が高いと判断し、
前記画像取得センサーから前記動体までと前記動体候補までのそれぞれの方向および距離は、前記画像取得センサーから前記動体までの方向および距離と、前記画像取得センサーから前記動体候補までの方向および距離のそれぞれの値が近いものほど前記関連度が高いと判断し、
前記動体と前記動体候補のサイズは、近いほど前記関連度が高いと判断し、
前記動体および前記動体候補が占める画素数は、近いほど前記関連度が高いと判断し、
前記動体および前記動体候補の色は、近いほど前記関連度が高いと判断する、上記(8)〜(11)のいずれか一つに記載の動体追跡方法。
13)前記動体と前記動体候補との間の距離は、前記距離が近いもののうち、前記距離が閾値以上である場合に関連付ける、上記(または(12)に記載の動体追跡方法。
14)前記移動予測範囲は、
前記動体を中心として、あらかじめ定められた一定速度とフレーム間時間から求めた距離を半径とする円または球、
前記動体を中心として、動画を取得する画像取得センサーの設置環境に応じてあらかじめ決められた速度とフレーム間時間から求めた距離を半径とする円または球、
前記動体を中心として、前記動体の種類に応じてあらかじめ決められた速度とフレーム間時間から求めた距離を半径とする円または球、
前記動体を中心として、複数の過去フレームから求めた前記動体の速度とフレーム間時間から求めた距離を半径とする円または球、
前記あらかじめ決められた一定速度、前記画像取得センサーの設置環境に応じてあらかじめ決められた速度、前記動体の種類に応じてあらかじめ決められた速度、前記複数の過去フレームから求めた前記動体の速度のいずれかを基にした前記動体の現在フレームにおける到達予想点を中心とし、
あらかじめ決められた一定の加速度、前記画像取得センサーの設置環境に応じてあらかじめ決められた加速度、動体の種類に応じてあらかじめ決められた加速度、および複数の過去フレームから求めた前記動体の加速度のいずれかにフレーム間時間の2乗を掛けた求めた距離を半径とする円または球、ならびに、
複数の過去フレームから求めた前記動体の移動方向と速度のベクトルを長軸方向として、所定の大きさの楕円または回転楕円体、
のうちいずれかの範囲である、上記(1)〜(13)のいずれか1つに記載の動体追跡方法。
15)前記動画を取得する画像取得センサーの検知範囲内に境界がある場合、当該境界の外側に前記動体が存在するものとして、前記移動予測範囲として設定する上記(1)〜(14)のいずれか1つに記載の動体追跡方法。
16)前記境界は、前記検知範囲内にある静止物の境界であって、前記静止物の影に前記動体が存在するものとして前記移動予測範囲を設定する、上記(15)に記載の動体追跡方法。
17)前記フレームは、3次元計測可能なレーザーレーダーで取得した距離画像である、上記(1)〜(16)のいずれか1つに記載の動体追跡方法。
18)前記動体、前記移動予測範囲、前記動体候補を画面に表示する段階を有する、上記(1)〜(17)のいずれか1つに記載の動体追跡方法。
19)上記(1)〜(18)のいずれか1つに記載の動体追跡方法をコンピューターに実行させる動体追跡プログラム。
20)時系列に沿って画像を取得する画像取得センサーと、
上記(19)に記載のプログラムを実行するコンピューターと、
を有する、動体追跡システム。
本発明によれば、前フレームの動体に基づいて設定した移動予測範囲と、現在フレームで検出した動体候補とを関連付けし、関連付けが終われば、それらを検索対象から除外することとした。これにより、時系列に並んだフレームの中から少ない計算量で動体を追跡することができる。
動体追跡システムの全体構成を説明するための説明図である。 動体追跡装置の構成を説明するためのブロック図である。 動体追跡方法の処理手順を説明するためのフローチャートである。 動体追跡方法の処理手順を説明するためのサブルーチンフローチャートである。 前フレームにおける動体の例を説明する説明図である。 速度による移動予測範囲の例を説明する説明図である。 加速度による移動予測範囲の例を説明する説明図である。 ベクトルを使用した移動予測範囲の例を説明する説明図である。 移動予測範囲の境界で分割した領域の例を説明する説明図である。 現在フレームで検出した動体候補の例を説明する説明図である。 動体、領域、および動体候補を重ね合わせた例を説明する説明図である。 関連付けした動体候補、動体、および動体の移動予測範囲を除外した例を説明する説明図である。 関連度による関連付けの例を説明する説明図である。 関連付けが無い状態の例を説明する説明図である。 関連度を調べる際に距離に閾値を設定した場合の例を説明する説明図である。 管理方法を説明するための例を説明する説明図である。 管理方法としてのテーブルデータの例を示すテーブル図である。 図16から動体候補C1、動体1、移動予測範囲A1を除外後の状態を説明する説明図である。 動体候補C1、動体1、移動予測範囲A1を除外後のテーブルデータを示すテーブル図である。 検知範囲に境界がある場合の例を説明する説明図である。 検知範囲に境界がある場合のテーブルデータの例を示すテーブル図である。 変形例の処理手順を説明するためのフローチャートである。 レーザーレーダーにより得られる3次元の距離画像の例を示す図である。 レーザーレーダーの構成を説明する断面図である。 ミラーユニットMUの回転に応じて、出射するレーザースポット光SBで、監視装置MDの監視空間内を走査する状態を説明する説明図である。
以下、添付した図面を参照しながら、本発明の実施形態を説明する。本発明は、以下の実施形態に限定されない。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。また、以下の説明において、時系列に並んだフレームで、現在のフレームを現在フレームと称し、現在フレームより過去のフレームを過去フレームと称し、中でも1つ前のフレームを前フレームと称する。
図1は動体追跡システムの全体構成を説明するための説明図である。図2は動体追跡装置の構成を説明するためのブロック図である。
動体追跡システムは、時系列に並んだフレームを取得するレーザーレーダー101と、時系列に並んだフレームの中にある動体を時系列に沿って追跡する動体追跡装置102を有する。時系列に並んだフレームに時系列に再生(表示)されることで動画となる。
レーザーレーダー101は画像取得センサーである。このレーザーレーダー101の詳細は後述するが、レーザーを走査してその反射光から物体までの距離をリアルタイム計測する。このため、レーザーレーダー101の設置位置から対象物までの距離および大きさ(高さや幅など)が得られる。またこれにより距離画像といわれる画像を得ることができる。この距離画像を1走査1フレームとして時系列に沿って並べる(連続して表示する)ことで動画となる。計測値(距離画像)は動体追跡装置102に送信される。レーザーレーダー101は、ライダー(LiDAR(Light Detection And Ranging))とも称されている。
動体追跡装置102は、コンピューターであり、一般的なパソコンでもよいし、専用のコンピューターでもよい。動体追跡装置102の構成は、図2に示すように、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、HDD(Hard Disk Drive)14を備える。
ROM12は、動体追跡装置102の起動やコンピューターとしての基本動作に必要な基本プログラムを記憶している。
CPU11は処理内容に応じたプログラムをHDD14から読み出してRAM13に展開し、展開したプログラムを実行する。ここでは主に、レーザーレーダーから得られる距離画像(詳細後述)をもとに動画を構成し、動画内の動体追跡を行う。
HDD14は各処理に必要なプログラムや、データを記憶している。HDDに代えて不揮発性の半導体メモリ(たとえばフラッシュメモリ)でもよい。
また、動体追跡装置102は、マウスやキーボードなどの入力装置15、画像(動画)を表示するディスプレイ16、さらに外部機器を接続するためのネットワークインターフェース17を備える。
ネットワークインターフェース17は、たとえば、イーサネット(登録商標)などであり、レーザーレーダー101との通信に使用される。また、ネットワークインターフェース17は、LAN(Local Area Network)などとも接続され、サーバー(後述)との通信にも使用される。
動体追跡装置102は、このようなコンピューターが後述する動体追跡方法の処理手順を実行することで達成されている。なお、動体追跡装置102はレーザーレーダー101からの計測値だけを取得して、距離画像およびその動画を構成するようにしてもよい。
動体追跡装置102は、また、たとえばサーバー103がネットワークにより接続されている。サーバー103は、距離画像からなる動画を動体追跡装置102から受け取って記憶する。また、サーバー103はその他の動画を記憶していて、動体追跡装置102からの読み出しに応じて提供する。その他の動画は、レーザーレーダー101によって取得した動画に限らず、通常のムービーカメラの動画などを含む。
本実施形態の動体追跡方法について説明する。
図3は、本実施形態の動体追跡方法の処理手順を説明するためのフローチャートである。図4は、動体追跡方法の処理手順を説明するためのサブルーチンフローチャートである。この処理手順は動体追跡装置102によって実施される。
まず、前フレームにおいて識別されている動体が、現在フレームのときに移動する可能性のある範囲である移動予測範囲を設定する(S1)。このとき前フレームに動体が複数ある場合は、それぞれの動体について移動予測範囲を設定する。
図5は前フレームにおける動体の例を説明する説明図である。
図5のように前フレームにおいて動体1および2があるとする。これらの動体1および2が次のフレーム、すなわち現在フレームで到達する可能性のある範囲を移動予測範囲として設定する。
移動予測範囲の求め方は色々ある。たとえば、(1)あらかじめ決めた速度で設定する。(2)加速度により移動予測範囲を設定する。(3)複数の過去フレームから得られる速度と方向からベクトルを求めて、このベクトルを基に設定する。以下これらの例について説明する。
(1)あらかじめ決めた速度で設定する場合を説明する。図6は速度による移動予測範囲の例を説明する説明図である。
速度を用いて移動予測範囲を設定する場合、速度掛けるフレーム間時間が、動体1および2の移動予測距離となる。したがって、移動予測範囲は、図6に示すように、動体1および2を中心として、動体1および2のそれぞれの移動予測距離を半径r1およびr2とした円で表した移動予測範囲A1およびA2となる。
なお、ここでは平面図として示したが、本実施形態は、3次元計測して距離画像が得られている。このため、移動予測範囲は3次元空間における動体1および2を中心とした球(3次元)の範囲になる(以下他の図においても同様である)。ムービーカメラにより撮影するなどにより距離画像では無く2次元画像を取得している場合には、移動予測範囲は2次元平面における円の範囲となる。
この速度を用いた移動予測範囲の設定においては、速度の決め方により、さらに複数の形態がある。
(1a)その1つは、たとえば、動体の種類やレーザーレーダー101の設置環境などに因らず一定速度に設定する方法である。この場合、複数の動体があっても移動予測範囲は全て同じ大きさになる。設定する一定速度は、たとえば、一般的にあり得る動体の最大速度を用いる。レーザーレーダー101による監視対象の中では、たとえば自動車が最大速度であると考えられるので、100km/時間など(もちろんこれより速くてもよい)に決めればよい。これを図6にあてはめると、動体1および2共に最大速度にフレーム間時間を掛けた値が移動予測範囲A1およびA2の半径r1=r2となる。
ここで、監視対象となる様々な動体の中の最大速度により移動予測範囲を設定する理由は、前フレームから現在フレームに至るときに動体が動き得る最大の範囲を設定しておけば、動体の種類に因らず移動予測範囲外に動体が至る可能性は極めて低いからである。
(1b)また、他の形態としては、レーザーレーダー101の設置環境により速度を変える方法である。これは基本的には、上記の一定速度による設定とほとんど同じであるが、レーザーレーダー101の設置環境により設定する速度を変えるのである。たとえば自動車が通行する環境(人も通行する場合も含めてもよい)では、自動車の最大速度(たとえば100km/時間)に決める。またさらに細かく分けて、たとえば、繁華街や住宅街など自動車が、高速で走らない環境ではたとえば60km/時間、高速で走る環境ではたとえば100km/時間などと決めてもよい。さらに人しか通行しないような環境では、人の最大速度は25km/時間程度であるので、このような速度に決めればよい。この場合も、図6にあてはめると、移動予測範囲A1およびA2の半径が設置環境によって変わるものの、基本的に動体1および2共に設定した速度にフレーム間時間を掛けた値が移動予測範囲A1およびA2の半径r1=r2となる。
これら一定速度や環境ごとの速度とすることで移動予測範囲を設定するための処理が簡略化される。また、レーザーレーダー101の設置環境に応じて設定する速度を変えることで、後述する移動予測範囲が重複する可能性が減るため、計算時間が短くなる。
(1c)さらに他の形態としては、動体の種類に応じてあらかじめ決められた速度を設定し、それに基づいて動体ごとに移動予測範囲を設定してもよい。レーザーレーダー101を用いた場合は、動体の大きさや形状が判明する。このため、フレーム(画像)内の物体(動体)が、その大きさや形状から、どのような種類か判明する。そこで、この機能を利用して、動体ごとに速度を設定する。
たとえば、人と自動車はその大きさや形状から判別できる。人の最大速度は25km/時間程度である。自動車の最大速度は100km/時間などである。これらの種類ごとに最大速度を動体追跡装置102内に記憶しておく。たとえば元データはHDDに記憶しておき、処理が行われている間はRAMに呼び出して使用する。そして、レーザーレーダー101で認識された動体ごとに、それらの速度を割り当てる。割り当てた速度により動体ごとに移動予測範囲を設定する。これを図6にあてはめると、移動予測範囲A1およびA2の半径が動体の種類のよって変化することになる。つまり、動体1および2が同じ種類であると認識されると、移動予測範囲A1の半径r1と移動予測範囲A2の半径r2は同じとなり、動体1および2が異なる種類であると認識されると、半径r1と半径r2は異なる。
これにより、後述する移動予測範囲が重複する領域となる可能性がいっそう減るため、計算時間が短くなる。
(1d)さらに他の形態として、複数の過去フレームから得られる速度を用いることもできる。複数の過去フレームから得られる速度は、数枚の過去フレームにおけるそれぞれの動体の位置とフレーム間時間から求めることができる。たとえば、動画のフレーム数を1秒当たり10フレームとすると、フレーム間時間は1/10秒となる。一方、過去フレームの動体位置はいずれも判明している。したがって、少なくとも2枚の過去フレームから速度が得られる。たとえば、前フレームをf(−1)、さらに1つ前の過去フレームをf(−2)とする。この場合、速度は、f(−2)の動体位置とf(−1)の動体位置の差分を求め、その差分をフレーム間時間で割れば、速度V(f(−2)−f(−1))が得られる。他の過去フレームを用いた場合も同様である。何枚の過去フレームを用いて速度を求めるかは任意である。たとえば1つの動体についてその動体が出現してから前フレームまでのすべてのフレーム間ごとの速度を求めたり、3分前や1分前から前フレームまでなど時間指定した分の過去フレームから速度を求めたりするとよい。そして移動予測範囲を設定する際の速度は、たとえば、前フレームを含む過去フレームから求めた速度としてもよいし、複数の過去フレームを2枚ごと使用して求めた複数の速度の中の最大速度としてもよい。前フレームを含むフレームから求めた速度を用いれば、前フレームから現在フレームに至るまでの間で大きく速度が変更されることはまれであるため、このような速度であれば、その動体が移動予測範囲から外れることは少ない。また、複数の過去フレームから求めた最大速度とすれば、その動体の過去の速度の内、最大速度を超えることはまれであるため、このような速度であれば、その動体が移動予測範囲から外れることは少ない。
これを図6にあてはめると、動体1および2のそれぞれについて求めた速度掛けるフレーム間時間が、動体1および2の移動予測距離となる。このため動体1および2の速度が同じであれば、移動予測範囲A1の半径r1と移動予測範囲A2の半径r2は同じとなり、動体1および2の速度が違うと半径r1と半径r2は異なる。
なお、以上説明した、動体の種類や環境、また、それらに対応した速度などは、いずれも一例であり、ユーザーが任意に設定可能である。
(2)次に、加速度により移動予測範囲を設定する場合について説明する。図7は、加速度による移動予測範囲の例を説明する説明図である。
加速度を用いる場合、まず、速度によって動体が移動する位置を推定する。これは図7に示された矢印であり、ベクトルである。このときの速度は、上述した(1a)〜(1d)のいずれであってもよい。加速度にフレーム間時間の2乗を掛けると距離になる。そこで、加速度による移動予測範囲A1およびA2は、(1a)〜(1d)のいずれかの速度を基にした動体の現在フレームにおける到達予想点(すなわち矢印の先端)を中心として加速度から得た距離を半径r3とする円(または球)とする。
ここで使用する加速度は、たとえば、一般的な監視対象として可能性のある最大の加速度をすべての動体に対して一定の加速度を使用したり、レーザーレーダー101の設置環境に応じた加速度を使用したり、また種類に応じて変えたり、さらには複数の過去フレームから求めたりするなどである。図7の例は、一定速度に対して、動体1および2の種類やセンサーの設置環境などにかかわらず、一定の加速度にした場合である。このため移動予測範囲A1およびA2の半径r3は同じである。
(3)複数の過去フレームから得られる速度と方向からベクトルを求めて、このベクトルを中心とする範囲は、複数の過去フレームから動体の速度と移動方向も求めてベクトルを作成する。
速度については、上記(1d)と同様に過去フレームから求める。移動方向は、たとえば、速度V(f(−2)−f(−1))を求めたなら、f(−2)の動体位置からf(−1)の動体位置へ移動した方向を求める。
図8は、ベクトルを使用した場合の移動予測範囲の例を説明する説明図である。ここでも説明のために平面で示したが、実際は3次元空間におけるベクトルおよび移動予測範囲となる。
ベクトルを用いる場合、移動予測範囲A1およびA2は、ベクトル方向へ移動することだけでなく、ベクトル以外の方向へ移動することも考慮する。このため移動予測範囲A1およびA2は、ベクトルの方向へは広く、ベクトル以外の方向へは狭い範囲、所定の大きさにする。たとえば、図8に示すように、ベクトルを長軸とする楕円形(3次元では回転楕円体)とする。このような楕円形(回転楕円体)となる移動予測範囲A1およびA2の大きさは、たとえば、ベクトルの中心に対して、その長さを2倍に広げたものとする。この場合、ベクトルの元と先端が楕円形(回転楕円体)の焦点になる。また、ベクトルの長さaとすると、楕円の長径=2a、短径=2b=aとなる。
このような大きさであれば、動体が速度や方法を変えたとしても、移動予測範囲に入る可能性が高い。もちろん、楕円形(回転楕円体)の大きさは、任意に決めればよい。たとえば、これまでの蓄積からベクトル方向以外への移動が多い場合には、楕円の範囲を広げる(上記楕円の長径を3a、4aなどと大きくする)。逆にベクトル方向以外への移動が少ない場合は楕円の範囲を狭くする(上記楕円の長径を1/2a、1/3aなどと小さくする)。このようにベクトルを用いることで、移動予測範囲が重複する可能性が少なくなる。
フローチャートに戻り説明を続ける。
次に、S1で設定した移動予測範囲の境界で分割した領域を設定する(S2)。
図9は、移動予測範囲の境界で分割した領域の例を説明する説明図である。
この処理は、図9に示すように、移動予測範囲A1およびA2の境界で領域を分割する。この分割により、図9では、移動予測範囲A1のみで他の移動予測範囲と重複しない領域(重複無し領域という)A01、移動予測範囲A2のみの重複無し領域A02、そして移動予測範囲A1およびA2が重複する領域(重複領域という)A12となる。各領域は、移動予測範囲を設定したとき(S1)の動体とそのまま対応付けられている。したがって、重複無し領域A01は動体1に、重複無し領域A02は動体2に、重複領域A12は動体1と2の両方に、それぞれ対応付けられる。
次に、現在フレームから動体候補を検出する(S3)。動体候補の検出は、たとえば、あらかじめ決められた1枚の過去フレームと現在フレームとの差分を取り、現在フレームにのみ存在する物体を動体候補とする。あらかじめ決められた1枚の過去フレームは、たとえば、前フレームの画像でもよいし、動体の無い背景のみのフレームをユーザーが目視で見つけ出した過去フレームでもよい。
図10は、現在フレームで検出した動体候補の例を説明する説明図である。ここでは、動体候補C1およびC2がそれぞれ検出されている。
次に、分割した領域の内、検索対象として重複無し領域の1つを選び、その領域内に動体候補があるか否かを検索する(S4)。これにはS4に入った段階で検索対象となり得る、動体1および2と、領域A01、A02、A12と、動体候補C1およびC2とを1枚のフレームに重ね合わせる。図11は動体、領域、および動体候補を重ね合わせた例を説明する説明図である。
この処理で得られる重ね合わせ画像(図11参照)は、たとえば動体追跡装置102のディスプレイに表示するようにしてもよい。図においては、各領域を異なるハッチングで示した(ただし他の図においては、領域内の要素(動体や動体候補など)が見づらくなるのでハッチングしていない)。このような表示によってユーザーが動体追跡の過程を見ることができる。実際の表示は、通常、動画は最新のフレームである現在フレームが表示されているので、現在フレームに動体および領域を重ね合わせて表示するとよい。また、その際は、たとえば、ハッチングの代わりに領域を色分けしたり、動体と動体候補を異なる色で表示するなどとして、わかりやすくすることが好ましい。
次に、S4の検索の結果、1つの重複無し領域において動体候補がいくつあるかにより処理を分ける(S5)。
S5の判断の結果、動体候補が0個の場合(すなわちその領域に動体候補が無い場合)はそのままS8へ進む。
またS5の判断の結果、動体候補が1個の場合はS6へ進む。S6では、その重複無し領域にある動体候補を、その重複無し領域に対応した動体と関連度により調べて関連するか否かを判断する(S6)。図11を参照すると重複無し領域A01にある動体候補は、動体候補C1の1つだけである。したがって、動体候補C1は、その重複無し領域A01に対応している動体1と関連付けられる可能性がある。
そこで、これら動体候補C1と動体1との関連度を調べる(S61(図4参照、以下同様))。
この関連度を調べるための指標(第1の指標)としては、たとえば、距離、移動速度、センサーからの距離、サイズ、画素数、色である。
距離は、レーザーレーダー101の場合は測定された前フレームの動体から現在フレームの動体候補の間の距離であり、ムービーカメラの場合は前フレームに映っている動体と現在フレームに映っている動体候補のフレーム内における距離である。
移動速度は、前フレームの動体の移動速度と現在フレームの動体候補の移動速度とを比較して関連度を評価する。前フレームの動体の移動速度は前々フレームにおける動体の位置と前フレームにおける動体の位置との差を時間で割って求め、現在フレームにおける動体候補の移動速度は前フレームにおける動体の位置と現在フレームにおける動体候補の位置との差を時間で割って求める。
センサーからの距離は、レーザーレーダー101から動体までの距離およびレーザーレーダー101から動体候補までの距離である。
サイズはレーザーレーダー101で計測される動体と動体候補の大きさである。
画素数はムービーカメラで撮影された前フレーム内の動体と現在フレーム内の動体候補がそれぞれ占める画素数である。
色はムービーカメラで撮影された前フレームの動体の色と現在フレームの動体候補の色である。
これら第1の指標を使用した関連度は、以下のように調べる。
まず、第1の指標のいずれかを単独で用いる場合である。サイズ、画素数、色は、それぞれ単独で用いることができる。
動体のサイズと動体候補のサイズを比較してサイズが近いほど関連度が高いと判断する。
動体の画素数と動体候補の画素数を比較して画素数が近いほど関連度が高いと判断する。
動体の色と動体候補の色を比較して色差が少ないほど関連度が高いと判断する。色はLab値などの色情報による色差として比較してもよいし、単純にRGBの階調値を比較してもよい。
ここで関連度が高いは否かの基準は、それぞれの指標ごとに経験値や実験などにより、あらかじめ決めておく。そして、その値以上であれば関連度が所定以上であるとして、関連付けする。
なお、この段階で、既に動体候補は、動体に対応した移動予測範囲内に1つ存在する。したがって、距離、移動速度、センサーからの距離については、概念的には移動予測範囲内にあるということで、既に、関連度があることになる。このため、距離、移動速度、センサーからの距離を単独で用いて関連度を調べる必要はない。
次に、第1の指標のそれぞれを複数組み合わせて用いる場合である。
たとえば、カラームービーカメラ(2次元画像)の場合、距離と色を用いて関連度を調べる。この場合、距離と色それぞれに重み付けをして関連度を調べる。たとえば、「距離×0.6+色差×0.4」を関連度とする。ここで用いた重み付け定数は経験値や実験などで求めた値である。そのほか、ムービーカメラの用いている場合は、距離と画素数、移動速度と色、画素数と色など、様々に組み合わせて、それぞれに経験値や実験値などにより重み付けをして関連度を調べる。
また、レーザーレーダー101の場合は、たとえば、距離とサイズを用いて関連度を調べる。また、レーザーレーダー101の場合は、センサーからの距離とサイズなどでも関連度を調べられる。さらに、移動速度とサイズなどでもよい。これらの場合も、それぞれに経験値や実験による重み付けをして関連度を調べる。
このように、複数の第1の指標を用いて関連度を調べることで、より精度の高い関連度を得られる。
そして関連度が所定以上であれば(S62:YES)、それらの動体候補と動体を関連付ける(S63)。関連度が所定以上か否かは、上記のように第1の指標を用いた関連度が経験値や実験により関連していると判断できる閾値をあらかじめ決めておいて判断する。この閾値は動体追跡装置102内に記憶しておく。動体候補と動体を関連付けた後、処理はS7へ戻る。
一方、関連度が所定以上でなければ(S62:NO)、その動体候補は動体と関連付けせずに、現在フレームで出現したものとして、検索対象から除外する(S64)。
その後、S8へ進む(この場合はサブルーチンからのリターンではなく、接続子「1」で示されているとおりS8へ移行する)。したがって、検索した移動予測範囲とそれに対応する動体は残ることになる。このため以降の処理により重複領域であれば、検索が行われることになる。一方の残った移動予測範囲に重複領域が無ければ、もともとその移動予測範囲に重複領域はなかったので、検索が終了した検索無し領域ということになる。
このように、重複無し領域にある1つの動体候補と動体との関連度を調べることで、前フレームの動体が現在フレームの動体候補として移動したものであると精度よく確定できる。すなわち追跡精度を向上させることができる。
なお、このS6へ入った後のS61〜64の処理は行わないようにしてもよい。この場合、S6へ入った段階で、その重複無し領域の元になっている動体と動体候補を関連付けして、S7へ進めばよい。
S6へ入った段階で、重複無し領域の元になっている動体の移動予測範囲内に動体候補が1つだけ存在しているということである。これは、すなわち、前フレームの動体が移動し得る範囲内に動体候補が存在することを意味している。このため、その動体候補は、前フレームの動体が移動したものと推定しても、追跡ミスの発生は少ないからである。もちろん追跡精度をより高くしたければ、既に説明した関連度による関連付けを行うことが好ましい。
その後、関連付けした動体候補、動体、および動体の移動予測範囲は、検索対象から除外する(S7)。図12は、関連付けした動体候補、動体、および動体の移動予測範囲を除外した例を説明する説明図である。
図12に示した例では、動体候補C1と動体1が関連度ありとされている。そうすると図11にあった動体候補C1、動体1、および動体1の移動予測範囲A1が検索対象から除外される(図12ではこれらが削除されている)。これにより、次の検索の際、それらを検索する必要が無くなるので、その分、計算量が減り、また検索時間が短くなる。また、これによって、図12に示したように重複領域(図11中に存在したA12)が消失する。このため次の検索に係る計算量がいっそう減ることになる。
S5の判断の結果、動体候補が2個以上の場合はS21へ進む。S21では、その重複無し領域にある動体候補が2個以上あるので、それらについて動体との関連度を調べて、関連性があれば関連付けを行う。このS21の処理については後述する。その後、S7へ進み、関連付けした動体候補、動体、および動体の移動予測範囲を検索対象から除外する。
次に、未検索の重複無し領域があるか否かを判断する(S8)。この段階で、重複無し領域がまだ存在すれば、S4へ戻り処理を継続する。図12に示した状態では、この段階では重複無し領域A01(図11参照)が無くなっているので、S4からの処理により、動体候補C2と動体2が関連度を調べて、関連付けられた場合は、動体候補C2、動体2、および動体2の移動予測範囲A2が除外されることになる。
S8で、重複無し領域がすべて存在しなくなっていれば、次に、分割した領域の内、未検索の重複領域があるか否かを判断する(S9)。未検索の重複領域が無ければ、この段階で既にS8により未検索の重複無し領域もないので、S13へ進むことになる。
一方、S9において、未検索の重複領域があれば、続いて、1つの重複領域に動体候補があるか否かを判断する(S10)。この段階で検索した1つの重複領域に動体候補が無ければ別の未検索の重複領域があるか否かを判断するためにS9へ戻ることになる。
一方、S10において検索した1つの重複領域に動体候補があれば、その重複領域にある動体候補と動体の関連度を調べて、関連性があれば動体候補と動体を関連付ける(S11)。この処理は、S21と同様の処理であるのでまとめて後述する。
次に、関連付けした動体候補、動体、動体の移動予測範囲を検索対象から除外する(S12)。このS12の処理はS7の処理と同様であり、これにより検索対象から動体候補、動体、動体の移動予測範囲が減ることになる。
S12の後は、S8へ戻る。この処理について説明する。
S11において、重複領域にある1つの動体候補に対して1つの動体が関連付けられた場合、その動体に対応した移動予測範囲がS12により除外される。そうすると、重複領域を作っていた1つの移動予測範囲が無くなり、他の移動予測範囲は残った状態になる。この状態では、さらに重複領域が残る場合もあるが、重複領域が無くなる場合もある。重複領域がなくなる場合、その領域は新たな重複無し領域となり、しかもその領域は重複無し領域としては未検索となる。
このためS12の後は、S8へ戻ることで、新たに生じた未検索の重複無し領域があれば(S8:YESとなる)、S4へ行ってその重複無し領域を検索することになる。一方、新たな重複無し領域が生じていなければ(S8:NOとなる)、次にS9で未検索の重複領域が残っているか否かが判断される。この段階で未検索の重複領域もなければ、そのままS13へ進む。
このように、S12からS8へ戻ることで、未検索の重複無し領域が発生していれば、先にその重複無し領域を検索することになる。それにより関連付けが行われたなら、重複領域が解消される可能性もあり、いっそう計算量が減って処理が高速化してゆく。
フローチャートへ戻り説明を続ける。
S9でNOであれば、次に、関連付けられていない動体があるか否かを判断する(S13)。ここで、関連付けられていない動体があれば、その動体は現在フレームにおいて、消失したものとする(S31)。ここで動体の消失とは、たとえば、フレーム外(検知範囲外)に動体が移動して映らなくなったことを意味する。なお、動体が停止した場合は、停止した動体候補が存在するので、上記までの処理において関連付けられる。
S13において、関連付けられていない動体が無ければ、次に、関連付けられていない動体候補があるか否かを判断する(S14)。ここで、関連付けられていない動体候補があれば、その動体候補は現在フレームにおいて、出現したものとする(S32)。ここで動体候補の出現とは、たとえば、フレーム内(撮影範囲内)に動体が移動して映るようになった場合や、停止した動体が動き出したような場合を含む。
S14で関連付けられていない動体候補が無い場合、またはS32の後、処理は終了する。その後は次のフレームが現在フレームとなるので、S1から引き続き上述した処理を行うことで、次々に時系列に並んだフレームにおける動体が関連付けられて、動体の追跡が行われることになる。
S21およびS11の処理を説明する。図13は、関連度による関連付けの例を説明する説明図である。
図13に示した例は、動体1〜3の3つある場合である。これら動体1〜3は前フレームで判明している動体である。したがって、移動予測範囲もA1〜3の3つある。分割した領域は、重複無し領域A01、A02、およびA03、重複領域A12、A23、A13、およびA123である。また、現在フレームで検出された3つの動体候補C1〜C3がある。
この例では、重複無し領域A01において複数の動体候補C1およびC3があるので、S21に進むことになる。また、重複領域A123に動体候補C2があるのでS11に進むことになる。なお、図示していないが重複領域において動体候補が複数となる場合もある。
これらの場合、動体候補と動体とが1対1で対応していないため、それらの関連性を調べる必要がある。たとえば、S21では動体候補C1およびC3のいずれか一方と動体1が関連する可能性がある。S11では動体候補C2に対して動体1〜3のいずれか1つが関連する可能性がある。このような場合にS21およびS11では動体候補と動体との関連性を調べる処理として同様の処理とすることができる。
これには、領域ごとに、その中の各動体候補と、関連付けられる可能性のあるそれぞれの動体との関連度を調べる(重複領域において動体候補が複数となる場合は、それら複数の動体候補のそれぞれについて関連度を調べる)。そして、関連度のもっとも高い動体候補と動体の組み合わせを関連付けする。
この段階における関連度を調べるための指標(第2の指標)としては、たとえば、動体と動体候補との間の距離、動体および動体候補それぞれの位置、動体の移動速度、動画を取得している取得センサーから動体までおよび動体候補までのそれぞれの方向および距離、動体および動体候補のサイズ、動体および動体候補の画素数、動体および動体候補の色、から選択された1つまたは2つ以上の組み合わせである。したがって、第2の指標の種類は第1の指標と同じであるが、実際に使用する指標は、第1の指標と第2の指標を同じにしてもよし、異なるようにしてもよい。
動体と動体候補との間の距離は、動体と動体候補の間の距離を比較するもので、動体および動体候補が複数ある場合はそれぞれについて距離を求めて比較することになる。そして、距離の短い方を関連度が高いとする。
なお、3次元座標系(または2次元座標系)を用いる場合は、動体および動体候補のそれぞれの位置の差を取ることで、それらの間の距離が出るので、この距離を比較すればよい。
動体の移動速度は、それぞれの動体が動体候補へ移動したと仮定した場合の速度を算出して、その速度がそれぞれ動体の過去フレームから得られる速度と近いものほど関連度が高いとする。
画像取得センサーからの方向および距離は、レーザーレーダー101から動体までの方向および距離と、レーザーレーダー101から動体候補までの方向および距離とを比較して、まず、これらの方向の値が近い方が関連度が高いものとし、方向が同じ場合、距離の値が近い方を関連度が高いものとする。なお、レーザーレーダー101から動体までの方向とは、レーザーレーダー101が動体を検知したときのレーザー照射方向のことである。動体候補も同じである。
サイズ(物理的な大きさ(特に3次元の場合))は、レーザーレーダー101を用いた場合の指標である。レーザーレーダー101を用いた場合、対象物の大きさがわかるので、動体と動体候補のサイズを比較して、サイズが近いものほど関連度が高いとする。
画素数(画像上の大きさ(特に2次元カメラの場合))は、ムービーカメラを用いた場合の指標である。ムービーカメラでは、フレームに映っている物体の大きさと画素数が比例している。そこで、前フレームで映っている動体が占める画素数と現在フレームで映っている動体候補が占める画素数を比較して、画素数が近いものほど関連度が高いとする。
色は、カラームービーカメラによる撮影の場合に、前フレームで映っている動体の色と現在フレームで映っている動体候補の色を比較して、色が近いものほど関連度が高いとする。色はLab値などの色情報による色差として比較してもよいし、RGBの階調値を比較してもよい。
また、ベクトルにより移動予測範囲を設定した場合は、関連度の指標としてこのベクトルを利用してもよい。たとえば関連度を調べる動体から動体候補までベクトルを引いて(動体または動体候補のいずれかが複数あす場合、ベクトルも複数引くことになる)、そのベクトルと、移動予測範囲を設定したベクトルとの角度がより近い方を関連度が高いとする。
これらの指標はいずれか1つだけで関連度を調べてもよいが、2つ以上を組み合わせてもよい。2つ以上の指標を組み合わせることで関連性の精度が上がる。
図13の例で、たとえば距離により関連度を判断すると、S21においては動体候補C1と動体1の距離、動体候補C3と動体1の距離をそれぞれ調べて比較することになる。動体候補C1と動体1の距離が動体候補C3と動体1の距離より短いので、動体候補C1と動体1を関連付ける。
関連度により1つの動体候補と1つの動体を関連付けしたなら、次の処理へ(S21からはS7へ、S11からはS12へ)進むことになる。これにより関連付けが終わった動体候補、動体、その動体の移動予測範囲は検索対象から除外される(S7またはS12)。
図13の例では先にS21の処理が行われるため、移動予測範囲A1が検索対象から除外される。このため、図13の重複領域A123は、移動予測範囲A2およびA3の重複領域A23となって、そこに動体候補C2がある。そうするとS11で動体候補C2と動体2の距離、動体候補C2と動体3の距離をそれぞれ調べる。動体候補C2と動体2の距離が動体候補C2と動体3の距離より短いので、動体候補C2と動体2を関連付ける。
ここまでで、動体候補C2、動体2、および移動予測範囲A2も、検索対象から除外される。
そうすると、検索対象として残るのは、動体候補C3、動体3、および移動予測範囲A3となる。図14は関連付けが無い状態の例を説明する説明図である。この状態になると、図14に示すように、移動予測範囲A3=重複無し領域A03となり、この重複無し領域A03の中に動体候補は無いから、動体3は現在フレームで消失したことになる。一方、動体候補C3は、重複無し領域A03から外れている。このため動体候補C3は、関連付けする動体が無いことになる。したがって、動体候補C3は現在フレームで出現した動体となる。
このような関連付けは、所定の閾値を超えた場合にのみ関連付けることとしてもよい。たとえば距離に閾値を設け、距離が近いもののうち、閾値以上の場合に関連付ける。
図15は、関連度を調べる際に距離に閾値を設定した場合の例を説明する説明図である。
図15に示す例では、1つの動体1とそれに対応した移動予測範囲A1が、動体1の種類に対応した最大速度により設定されている。ここでは、移動予測範囲は1つであるので、移動予測範囲A1がそのまま重複無し領域A01となる。そして、この重複無し領域A01内に動体候補C1およびC2が検出されている。
この状態で距離を指標として関連度を調べると、動体候補C1の方がC2より動体1に近い。しかも動体候補C1と動体1の距離は、極めて近く、動体1の最大速度で設定した移動予測範囲A1の半径の約1/10程度となっている。このような場合、動体1が1フレーム間時間(ここでは1/10秒)で最大速度から1/10の速度に減速したと考えることは不自然である。そこで、距離に対して閾値を設けておいて、閾値以上の場合に関連度ありとする。たとえば、閾値としては、動体1が最大速度で移動する距離の半分に設定する。そうすると、動体候補C1は動体1に近いものの、閾値を超えていないため、動体1と関連付けない。一方、動体候補C2は、動体1との間の距離がこの閾値を超えている。このため、動体候補C2は動体1と関連付けられることになる。図15に示した例では、動体1の他に動体が存在しないので、動体候補C1は新たに出現した動体ということになる。
動体が2つあって重複領域があるような場合も同様であり、閾値は、たとえば、2つの動体それぞれの移動予測範囲の半径の半分の距離などと設定する。
もちろん閾値は、任意の値でよく、上の例に限らず、移動予測範囲の半径の1/3、1/5、また前フレームを含む過去フレームから得られる速度の半分、1/3、1/5などとしてもよい。さらには動体の種類に応じて固定値としてもよい。
このように閾値を設定してそれ以上の場合に、より近い方を関連度ありとすることで、新規の動体が出現した場合(たとえば観測エリア外や、建物の影、車の影から人が出てきた場合)に対応できる。また、不自然な追跡となってしまうことを防止することができる。位置を指標にした場合も同様であり、座標上に閾値を設けて、位置が近いもののうち、閾値を超えた位置にある組み合わせを関連付けする。
ただし、距離および位置以外の指標の場合、たとえば、画像取得センサーからの距離、サイズ、画素数、色、ベクトルの角度などはより近い方が関連度が高くなる。
次にデータ管理方法について説明する。
図16は、管理方法を説明するための例を説明する説明図であり、図17は管理方法としてのテーブルデータの例を示すテーブル図である。
この例では、図16に示すように、動体1〜3の3つある場合を説明する。これら動体1〜3は前フレームで判明している動体である。したがって、移動予測範囲もA1〜3の3つある。分割した領域は、重複無し領域A01、A02、およびA03、重複領域A12、A23、A13、およびA123である。これに現在フレームで検出された動体候補C1〜C3の3つがある。
テーブルデータは、図17に示すように、動体番号に対して各領域を対応させている。また、領域を共有する動体番号も対応させている。したがって、共有されていない領域(重複無し領域)には領域を共有する動体番号の項目に動体番号が無い。
このような状態(上記手順のS3までの処理である。以下括弧内は同様)で、重複無し領域A01を検索すると(S4)、動体候補C1が存在している。そうすると、テーブルデータから、重複無し領域A01には動体1が対応していることがわかる。これにより動体候補C1が存在しているのは、重複無し領域A01であり、それは動体1に対応していることがわかる。その後の処理(S5〜7)により、動体候補C1、動体1、移動予測範囲A1を検索対象から除外する。
図18は、図16から動体候補C1、動体1、移動予測範囲A1を除外後の状態を説明する説明図である。図18に示すように、図16から動体候補C1、動体1、移動予測範囲A1が除外されて、動体候補C2およびC3、動体2および3、移動予測範囲A2およびA3が残っている。また、図19は、動体候補C1、動体1、移動予測範囲A1を除外後のテーブルデータを示すテーブル図である。ここでは、除外した部分に網掛けして、除外した部分がわかるようにしている。図19に示すように、動体1、移動予測範囲A1に関連する部分が除外(網掛け)されている。もちろん実際の処理に当たってはこのような網掛けは不要で、それらのデータを削除すればよい。
その後は、同様にして重複無し領域A02、A03について順に検索して行けばよい。このように、テーブルデータを用いて管理することで、各動体および領域、そしてそれらの共有関係をわかりやすく管理することができる。
次に、レーザーレーダー101の検知範囲に境界がある場合、その境界の外側から新しい動体が現れるケースも考慮する必要がある。検知範囲にある境界とは、たとえば、画像取得センサーによる検知範囲(動画取得範囲)内に境界があって、その境界外側や、建物などの静止物があって向こう側(静止物の影)などの見えていない部分の境界などである。
このような場合は、境界の外側や静止物の向こう側から新しい動体が現れる可能性がある。このような場合、それら外側や静止物の向こう側にも、動体があるものとして移動予測範囲を設定する。図20は、検知範囲に境界がある場合の例を説明する説明図である。
図20に示すように、フレーム内の左に境界線に隠れた範囲(ハッチングで示した部分)がある。この範囲を境界の外側または静止物の影として移動予測範囲Axとする。この例では、移動予測範囲A1と重複しているので、重複している部分は重複領域A1xとなる。
図21は、検知範囲に境界がある場合のテーブルデータの例を示すテーブル図である。
図21に示すように、動体番号1に対応して、共有する動体番号の項に、重複領域A1x、新規な動体Xがあるものとしてデータテーブルを作成する。
このような重複領域A1xがある場合は、そこに識別できていない新規な動体Xがあるものとして扱う。このため、たとえば、重複無し領域A01に動体候補が無く、かつ、動体2に他の動体候補が関連付けられるか、または、動体1から境界で隠れた移動予測範囲Axまでの方が他の動体候補より近ければ、動体1が移動予測範囲Axへ移動したものとする。逆に、動体1および2は関連付けが終わって、さらに動体候補が残り、残った動体候補が移動予測範囲Axと近ければ、境界から現れた動体Xであるとする。
これによりレーザーレーダー101の検知範囲内に境界(静止物を含む)があっても、境界から出入りした動体として追跡可能となる。
(変形例)
上述した処理手順では、移動予測範囲をその境界で分割した領域に着目して検索した。これに限らず、たとえば、動体候補に着目して検索してもよい。
図22は、変形例の処理手順を説明するためのフローチャートである。
まず、フレームの動体の移動予測範囲を設定する(S1)。続いて、移動予測範囲の境界ごとに領域を分割する(S2)。現在フレームの動体候補を検出する(S3)。ここまでは、上述の処理手順と同じである。
その後、変形例では、動体候補1つに着目して、その動体候補が存在する領域を検索する(S204)。
S204において、着目した動体候補がどの領域にも属さない場合(領域外)は、その動体候補はで出現したものとして、その動体候補を検索対象から除外する(S211)。その後S209へ進む。
S204において、着目した動体候補が重複無し領域に存在する場合は、続いて、その重複無し領域に他の動体候補があるか否かを判断する(S206)。そして他の動体候補が無ければ、着目した動体候補と、その動体候補が存在する重複無し領域に対応している動体との関連度を調べて、関連するか判断する(S207)。このS207の処理は、既に説明したS61〜S66の処理と同じである。したがって、S63で動体候補と動体が関連付けられたなら、S208へリターンする。一方、関連付けられなければ、S209へ進むことになる(接続子「1」へ進む)。
S206において同じ領域内に他の動体候補がある場合はS212へ進む。
S204において、着目した動体候補が重複領域に存在する場合はS212へ進む。
S212では、動体候補と動体との関連度から動体候補と動体を関連付ける。このS212では、S205から入った場合は、上述したS11と同様であり、1つの動体候補に対して複数の動体との関連度を調べる。一方、S206から入った場合は複数の動体候補と動体との関連度を調べる。これは、既に説明したS11およびS21と同じ処理であるので説明は省略する。
続いて、関連付けした動体候補、動体、動体の移動予測範囲を除外する(S208)。
続いて、未検索の動体候補があるか否かを判断し(S209)、未検索の動体候補があればS204へ戻り処理を継続する。一方、未検索の動体候補が無ければ、続いて関連付けられていない動体があるか否かを判断して(S210)、関連付けられていない動体があれば、その動体は現在フレームで消失したものとする(S213)。
なお、この変形例においても、上述したS6の場合と同様に、S207へ入った後に、S61〜64の処理は行わないようにしてもよい。その場合、S207へ入った段階で、その重複無し領域の元になっている動体と動体候補を関連付けして、S208へ進めばよい。
(レーザーレーダー)
次に、レーザーレーダーについて説明する。
レーザーレーダー101は、レーザーを打ち出し、それが物体に反射して戻ってくるまでの時間を計測(TOF(Time of Flight))し、距離を求める。それを一定範囲内を走査しながら行うことで3次元の画像が得られる。図23は、レーザーレーダーにより得られる3次元の距離画像の例を示す図である。図示するように、レーザーレーダーの設置位置からの距離が判明した3次元画像が得られる。
図24は、レーザーレーダー101の構成を説明する断面図である。
図24に示したレーザーレーダー101は、監視装置MDとして用いられている例である。監視装置MDは、傾いた壁面WLに取り付けられた状態で示しているが、構成要素の形状や長さ等、実際と異なる場合がある。また、図24では監視装置MDが天地を逆にした状態で設置されているものとする。
監視装置MDは、たとえば、レーザー光束を出射するパルス式の半導体レーザーLDと、半導体レーザーLDからの発散光を平行光に変換するコリメートレンズCLと、コリメートレンズCLで平行とされたレーザー光を、回転するミラー面により監視空間に向かって走査投光すると共に、対象物からの反射光を反射させるミラーユニットMUと、ミラーユニットMUで反射された対象物からの反射光を集光するレンズLSと、レンズLSにより集光された光を受光するフォトダイオードPDと、半導体レーザーLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める処理回路(処理部)PROCと、ミラーユニットMUを回転駆動するモータMTと、これらを収容する筐体CSとを有する。フォトダイオードPDは、Y方向に並んだ複数の画素を有する。
半導体レーザーLDとコリメートレンズCLとで出射部LPSを構成し、レンズLSとフォトダイオードPDとで受光部RPSを構成し、ミラーユニットMUが走査部を構成し、さらにこれらで投受光ユニットを構成する。
出射部LPS、受光部RPSの光軸は、ミラーユニットMUの回転軸ROに対して直交していると好ましい。
壁面WL等に固定されたボックス状の筐体CSは、上壁CSaと、これに対向する下壁CSbと、上壁CSaと下壁CSbとを連結する側壁CScとを有する。側壁CScの一部に開口CSdが形成され、開口CSdには透明板TRが取り付けられている。
ミラーユニットMUは、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面M1、M2を4対(ただし4対に限られない)有している。ミラー面M1、M2は、ミラーユニットの形状をした樹脂素材(たとえばPC)の表面に、反射膜を蒸着することにより形成されていると好ましい。
ミラーユニットMUは、筐体CSに固定されたモータMTの軸MTaに連結され、回転駆動されるようになっている。ここでは、軸MTaの軸線(回転軸線)が鉛直方向に対して傾いたY方向に延在しており、またY方向に直交するZ方向およびX方向によりなすZX平面が水平面に対して傾いているが、軸MTaの軸線を鉛直方向に一致させてもよい。
監視装置MDの対象物検出原理について説明する。図24において、半導体レーザーLDからパルス状に間欠的に出射された発散光は、コリメートレンズCLで平行光束に変換され、回転するミラーユニットMUの第1ミラー面M1に入射し、ここで反射され、さらに第2ミラー面M2で反射した後、透明板TRを透過して外部の監視空間に向けて、たとえば縦長の矩形断面を持つレーザースポット光として走査投光される。なお、出射されたレーザースポット光が対象物で反射し、反射光として戻ってくる方向を投受光方向という。同一投受光方向に進行するレーザースポット光束は、同一の画素で検出される。
図25は、ミラーユニットMUの回転に応じて、出射するレーザースポット光SB(ハッチングで示す)で、監視装置MDの監視空間内を走査する状態を説明する説明図である。
ここで、ミラーユニットMUの第1ミラー面M1と第2ミラー面M2の組み合わせにおいて、それぞれ交差角が異なっている。
レーザー光は、回転する第1ミラー面M1と第2ミラー面M2にて、順次反射される。まず1番対の第1ミラー面M1と第2ミラー面M2にて反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間の一番上の領域Ln1を水平方向に左から右へと走査される。
次に、2番対の第1ミラー面M1と第2ミラー面M2で反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間の上から2番目の領域Ln2を水平方向に左から右へと走査される。
次に、3番対の第1ミラー面M1と第2ミラー面M2で反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間の上から3番目の領域Ln3を水平方向に左から右へと走査される。
次に、4番対の第1ミラー面M1と第2ミラー面で反射したレーザー光は、ミラーユニットMUの回転に応じて、監視空間のもっとも下の領域Ln4を水平方向に左から右へと走査される。
これにより監視装置MDが監視可能な監視空間全体の1回の走査が完了する。このようにレーザースポット光束が2次元的に隙間無く走査される(走査されたレーザースポット光束の軌跡が隣接する場合(たとえば領域Ln1と領域Ln2)において、隣接する軌跡が隙間無く接することをいうが、一部重なり合う場合を含む)と、監視装置MDの設定時に、ユーザーが直感的に空間把握しやすい距離画像が得られることになり、好ましい。
この領域Ln1〜Ln4の走査により得られた画像を組み合わせて、1つのフレームFLが得られる。そして、ミラーユニットMUが1回転した後、1番対の第1ミラー面M1と第2ミラー面M2が戻ってくれば、再び監視空間の一番上の領域Ln1からもっとも下の領域Ln4までの走査を繰り返し、次のフレームFLが得られる。
図24において、走査投光された光束のうち対象物に当たって反射したレーザー光の一部は、再び透明板TRを透過して筐体CS内のミラーユニットMUの第2ミラー面M2に入射し、ここで反射され、さらに第1ミラー面M1で反射されて、レンズLSにより集光され、それぞれフォトダイオードPDの受光面で画素ごとに検知されることとなる。
さらに、処理回路(不図示)が、半導体レーザーLDの出射タイミングとフォトダイオードPDの受光タイミングとの時間差に応じて距離情報を求める。これにより監視空間内の全領域で対象物の検出を行って、画素(測定点)ごとに距離情報(3次元の計測値)を持つ距離画像(測定点マーカー群ともいわれている)としてのフレームFL(図25参照)を得ることができる。距離画像の形状は、実際に走査されるスポット光束SBの形状と同じである。距離画像は処理回路から、動体追跡装置102(コンピューター)に送られて、動体追跡が行われる、また必要に応じてやサーバー103に送られて記憶される。
以上説明した実施形態によれば、以下のような効果を奏する。
(1)本実施形態は、前フレームの動体に設定した移動予測範囲と、現在フレームで検出した動体候補とを検索して、移動予測範囲が重複しない重複無し領域に1つの動体候補が存在する場合は、その重複無し領域の元になった移動予測範囲に対応している動体と動体候補を関連付ける。そして、関連付けされた動体候補および動体、ならびに関連付けられた動体の移動予測範囲を検索対象から除外することとした。このように、動体追跡は、移動予測範囲の中に動体候補があるか否かという計算であるので、少ない計算量で動体の追跡を行うことができる。特に、複数の動体および動体候補がある場合、それらが1つひとつ関連付けられるごとに減って行くので、計算量もどんどん減って行くことになる。
(2)重複無し領域にある1つの動体候補と動体とを関連付ける際に、それらの関連度を調べることで、追跡精度を向上させることができる。
(3)関連度を調べるための第1の指標として、動体と動体候補との距離、動体の移動速度、画像取得センサーから動体および動体候補までの距離、動体と動体候補のサイズ、動体と動体候補がそれぞれ占める画素数、動体と動体候補のそれぞれの色から選択された少なくとも1つとした。このように多様な指標を用いて関連度を調べることで、確実に動体と動体候補を関連付けることができる。しかも、画像取得センサーの形態や種類に応じて適した指標を選択することができる。
(4)複数の移動予測範囲が重複する領域に動体候補がある場合は、動体候補と、動体との関連度をあらかじめ定められた指標により求め、関連度が高い動体候補と動体とを関連付けることとした。これにより確実に動体と動体候補を関連付けることができる。また、このような重複する領域に動体候補がある場合の計算量は、重複無し領域に1つの動体候補だけの場合より増加することになるが、動体候補が動体と関連付けられるごとに重複する領域も減って行くので計算量も減ることになる。
(5)複数の移動予測範囲が重複しない重複無し領域に複数の動体候補がある場合は、複数の動体候補のそれぞれと動体との関連度をあらかじめ定められた指標により求めて関連度が高い動体候補と動体とを関連付けることとした。これにより確実に動体と動体候補を関連付けることができる。また、このような重複無し領域に複数の動体候補がある場合の計算量は、重複無し領域に1つの動体候補だけの場合より増加することになるが、1つの動体候補が動体と関連付けられるごとに減って行くので、計算量も減ることになる。
(6)関連度を調べるための第2の指標として、動体と動体候補との距離、動体の移動速度、画像取得センサーから動体および動体候補までの距離、動体と動体候補のサイズ、動体と動体候補がそれぞれ占める画素数、動体と動体候補のそれぞれの色から選択された少なくとも1つとした。このように多様な指標を用いて関連度を調べることで、確実に動体と動体候補を関連付けることができる。しかも、画像取得センサー(レーザーレーダー)の形態や種類に応じて適した指標を選択することができる。
(7)関連度として距離を用いる場合は閾値を設け、閾値以上で、より近い方の動体と動体候補と関連付けることとした。これにより、不自然な動体の動きとならないようにできる。また、新規の動体が出現した場合にも対応することができる。
(8)移動予測範囲は様々な形態とすることができる。たとえば、動体を中心として、あらかじめ決められた一定速度とフレーム間時間から求めた距離を半径とする円(2次元画像の場合)または球(3次元画像の場合)とする。これにより、広い範囲でもれなく動体の移動する可能性のある範囲を設定することができるとともに、移動予測範囲を設定するための処理を簡略化することができる。
また、移動予測範囲として、たとえば、動体を中心として、動画を取得する画像取得センサー(レーザーレーダー)の設置環境に応じてあらかじめ決められた速度とフレーム間時間から求めた距離を半径とする円(2次元画像の場合)または球(3次元画像の場合)とする。これにより、移動予測範囲が重複する可能性が少なくなり、全体の処理が少なくなる。
また、移動予測範囲として、たとえば、動体を中心として、動体の種類に応じてあらかじめ決められた速度とフレーム間時間から求めた距離を半径とする円(2次元画像の場合)または球(3次元画像の場合)とする。種類に応じて適切な移動予測範囲を設定することができるようになる。このため、移動予測範囲が重複する可能性が少なくなり、全体の処理が少なくなる。
また、移動予測範囲として、たとえば、動体を中心として、複数の過去フレームから求めた前記動体の速度とフレーム間時間から求めた距離を半径とする円(2次元画像の場合)または球(3次元画像の場合)とする。直前の動体の動きに合わせて、移動予測範囲を設定できる。
また、移動予測範囲として、たとえば、上記いずれかの各速度による到達予想点を中心とし、あらかじめ決められた一定の加速度、画像取得センサーの設置環境に応じてあらかじめ決められた加速度、動体の種類に応じてあらかじめ決められた加速度、複数の過去フレームから求めた前記動体の加速度のいずれかにフレーム間時間の2乗を掛けた求めた距離を半径とする円(2次元画像の場合)または球(3次元画像の場合)とする。これにより、動体の速度変化に合わせて、移動予測範囲を設定できる。
複数の過去フレームから求めた前記動体の移動方向と速度のベクトルを長軸方向として、所定の大きさの楕円(2次元画像の場合)または回転楕円体(3次元画像の場合)とする。これにより、動体の動きの方向に合わせて移動予測範囲を狭くすることができ、移動予測範囲が重複する可能性をいっそう減らすことができる。
(9)画像取得センサーの検知範囲の外側に動体が存在するものとして移動予測範囲を設定することとした。これにより新たに入ってくる動体に対応することができる。
(10)画像取得センサーの検知範囲内に静止物がある場合、静止物の向こう側に動体が存在するものとして移動予測範囲を設定することとした。これにより静止物の向こう側(静止物の影)から出てくる動体に対応することができる。
(11)画像取得センサーとして3次元計測できるレーザーレーダーを用いることとした。これにより画面上の位置で計算するより、正確に動体の位置を計算することができる。
(12)動体、移動予測範囲、動体候補を画面に表示することとした。これによりユーザーにもわかりやすく動体追跡することができる。
以上本発明を適用した実施形態を説明したが、本発明はこれら実施形態に限定されるものでは無い。
たとえば、レーザーレーダー101では無く、普通のムービーカメラを画像取得センサーとして用いることもできる。ムービーカメラを用いた場合、3次元の実際の距離情報を得られないが、フレーム内における動体の位置は識別可能である。同様に移動予測範囲も設定可能である。また動体候補も過去フレームとの比較で検出できる。したがって、ムービーカメラを用いた動画(時系列に並んだフレーム)から上述した実施形態同様に(3次元計測することを除いて)、動体追跡を行うことができる。
そのほか本発明は特許請求の範囲に記載された構成に基づき様々な改変が可能であり、それらについても本発明の範疇である。
101 レーザーレーダー、
102 動体追跡装置、
103 サーバー。

Claims (20)

  1. 時系列に沿って複数のフレームが並んでいる動画の、現在フレームより前の過去フレームで識別されている1または複数の動体が前記現在フレームでどこまで移動するかを予測した移動予測範囲を前記動体ごとに求める段階(a)と、
    前記現在フレームで前記動体となる可能性のある動体候補を検出する段階(b)と、
    前記移動予測範囲と前記動体候補とを検索して、前記移動予測範囲が複数あり、かつ、複数の前記移動予測範囲の一部が重複する重複領域がある場合に、当該重複領域よりも先に、前記移動予測範囲が重複しない領域から前記動体候補を検索して、前記移動予測範囲に対応している前記動体と前記動体候補を関連付ける段階(c)と、
    関連付けされた前記動体候補および前記動体、ならびに関連付けされた前記動体と対応している前記移動予測範囲を検索対象から除外する段階(d)と、
    を有する、動体追跡方法。
  2. 前記段階(c)は、さらに、前記移動予測範囲が重複しない領域に1つの前記動体候補のみが存在する場合は、前記移動予測範囲が重複しない領域の元になった前記移動予測範囲に対応している前記動体と前記動体候補を関連付ける段階(c2)を有する、請求項1に記載の動体追跡方法。
  3. 前記段階(c)は、さらに前記移動予測範囲が重複しない領域内にある前記動体候補と前記動体との関連度をあらかじめ定められた第1の指標により調べる段階(c1)を有し、
    前記第1の指標により調べた関連度が所定以上の場合に前記動体候補と前記動体とを関連付ける、請求項1または2に記載の動体追跡方法。
  4. 前記第1の指標は、前記動体と前記動体候補との間の距離、前記動体および前記動体候補の移動速度、画像を取得している画像取得センサーから前記動体までと前記動体候補までのそれぞれの方向および距離、前記動体および前記動体候補のサイズ、前記動体および前記動体候補が占める画素数、前記動体および前記動体候補の色、から選択された1つまたは2つ以上の組み合わせである、請求項3に記載の動体追跡方法。
  5. 前記移動予測範囲が複数ある場合に前記移動予測範囲が重複する1つの領域に前記動体候補がある場合は、前記動体候補とそれぞれの前記動体との関連度をあらかじめ定められた第2の指標により調べ、前記第2の指標により調べた関連度がもっとも高い前記動体候補と前記動体とを関連付ける段階(e)を有する、請求項1〜4のいずれか1つに記載の動体追跡方法。
  6. 前記移動予測範囲が重複しない1つの領域に複数の前記動体候補がある場合は、前記複数の前記動体候補のそれぞれと、前記動体との関連度をあらかじめ定められた第2の指標により調べ、前記第2の指標により調べた関連度がもっとも高い前記動体候補と前記動体とを関連付ける段階(f)を有する、請求項1〜5のいずれか1つに記載の動体追跡方法。
  7. 前記第2の指標は、前記動体と前記動体候補との間の距離、前記動体および前記動体候補の移動速度、画像を取得している画像取得センサーから前記動体までと前記動体候補までのそれぞれの方向および距離、前記動体および前記動体候補のサイズ、前記動体および前記動体候補が占める画素数、前記動体および前記動体候補の色、から選択された1つまたは2つ以上の組み合わせであり、
    前記動体と前記動体候補との間の距離は、短いものほど前記関連度が高いと判断し、
    前記動体の移動速度は、前記動体が前記動体候補へ移動したと仮定した場合の前記動体候補の仮定の移動速度を算出し、当該仮定の移動速度が、複数の過去フレームから算出される前記動体の移動速度に近いものほど前記関連度が高いと判断し、
    前記画像取得センサーから前記動体までと前記動体候補までのそれぞれの方向および距離は、前記画像取得センサーから前記動体までの方向および距離と、前記画像取得センサーから前記動体候補までの方向および距離のそれぞれの値が近いものほど前記関連度が高いと判断し、
    前記動体と前記動体候補のサイズは、近いほど前記関連度が高いと判断し、
    前記動体および前記動体候補が占める画素数は、近いほど前記関連度が高いと判断し、
    前記動体および前記動体候補の色は、近いほど前記関連度が高いと判断する、請求項5または6に記載の動体追跡方法。
  8. 時系列に沿って複数のフレームが並んでいる動画の、現在フレームより前の過去フレームで識別されている1または複数の動体が前記現在フレームでどこまで移動するかを予測した移動予測範囲を前記動体ごとに求める段階(a)と、
    前記現在フレームで前記動体となる可能性のある動体候補を検出する段階(b)と、
    前記移動予測範囲と前記動体候補とを検索して、前記移動予測範囲が複数ある場合に、前記移動予測範囲が重複しない領域に1つの前記動体候補のみが存在する場合は、前記移動予測範囲が重複しない領域の元になった前記移動予測範囲に対応している前記動体と前記動体候補を関連付ける段階(c)と、
    関連付けされた前記動体候補および前記動体、ならびに関連付けされた前記動体と対応している前記移動予測範囲を検索対象から除外する段階(d)と、
    前記移動予測範囲が複数ある場合に前記移動予測範囲が重複する1つの領域に前記動体候補がある場合は、前記動体候補とそれぞれの前記動体との関連度をあらかじめ定められた第2の指標により調べ、前記第2の指標により調べた関連度がもっとも高い前記動体候補と前記動体とを関連付ける段階(e)を有する、動体追跡方法。
  9. 前記段階(c)は、さらに前記移動予測範囲が重複しない領域内にある前記動体候補と前記動体との関連度をあらかじめ定められた第1の指標により調べる段階(c1)を有し、
    前記第1の指標により調べた関連度が所定以上の場合に前記動体候補と前記動体とを関連付ける、請求項に記載の動体追跡方法。
  10. 前記第1の指標は、前記動体と前記動体候補との間の距離、前記動体および前記動体候補の移動速度、画像を取得している画像取得センサーから前記動体までと前記動体候補までのそれぞれの方向および距離、前記動体および前記動体候補のサイズ、前記動体および前記動体候補が占める画素数、前記動体および前記動体候補の色、から選択された1つまたは2つ以上の組み合わせである、請求項に記載の動体追跡方法。
  11. 前記移動予測範囲が重複しない1つの領域に複数の前記動体候補がある場合は、前記複数の前記動体候補のそれぞれと、前記動体との関連度をあらかじめ定められた第2の指標により調べ、前記第2の指標により調べた関連度がもっとも高い前記動体候補と前記動体とを関連付ける段階(f)を有する、請求項8〜10のいずれか1つに記載の動体追跡方法。
  12. 前記第2の指標は、前記動体と前記動体候補との間の距離、前記動体および前記動体候補の移動速度、画像を取得している画像取得センサーから前記動体までと前記動体候補までのそれぞれの方向および距離、前記動体および前記動体候補のサイズ、前記動体および前記動体候補が占める画素数、前記動体および前記動体候補の色、から選択された1つまたは2つ以上の組み合わせであり、
    前記動体と前記動体候補との間の距離は、短いものほど前記関連度が高いと判断し、
    前記動体の移動速度は、前記動体が前記動体候補へ移動したと仮定した場合の前記動体候補の仮定の移動速度を算出し、当該仮定の移動速度が、複数の過去フレームから算出される前記動体の移動速度に近いものほど前記関連度が高いと判断し、
    前記画像取得センサーから前記動体までと前記動体候補までのそれぞれの方向および距離は、前記画像取得センサーから前記動体までの方向および距離と、前記画像取得センサーから前記動体候補までの方向および距離のそれぞれの値が近いものほど前記関連度が高いと判断し、
    前記動体と前記動体候補のサイズは、近いほど前記関連度が高いと判断し、
    前記動体および前記動体候補が占める画素数は、近いほど前記関連度が高いと判断し、
    前記動体および前記動体候補の色は、近いほど前記関連度が高いと判断する、請求項8〜11のいずれか一つに記載の動体追跡方法。
  13. 前記動体と前記動体候補との間の距離は、前記距離が近いもののうち、前記距離が閾値以上である場合に関連付ける、請求項7または12に記載の動体追跡方法。
  14. 前記移動予測範囲は、
    前記動体を中心として、あらかじめ定められた一定速度とフレーム間時間から求めた距離を半径とする円または球、
    前記動体を中心として、動画を取得する画像取得センサーの設置環境に応じてあらかじめ決められた速度とフレーム間時間から求めた距離を半径とする円または球、
    前記動体を中心として、前記動体の種類に応じてあらかじめ決められた速度とフレーム間時間から求めた距離を半径とする円または球、
    前記動体を中心として、複数の過去フレームから求めた前記動体の速度とフレーム間時間から求めた距離を半径とする円または球、
    前記あらかじめ決められた一定速度、前記画像取得センサーの設置環境に応じてあらかじめ決められた速度、前記動体の種類に応じてあらかじめ決められた速度、前記複数の過去フレームから求めた前記動体の速度のいずれかを基にした前記動体の現在フレームにおける到達予想点を中心とし、
    あらかじめ決められた一定の加速度、前記画像取得センサーの設置環境に応じてあらかじめ決められた加速度、動体の種類に応じてあらかじめ決められた加速度、および複数の過去フレームから求めた前記動体の加速度のいずれかにフレーム間時間の2乗を掛けた求めた距離を半径とする円または球、ならびに、
    複数の過去フレームから求めた前記動体の移動方向と速度のベクトルを長軸方向として、所定の大きさの楕円または回転楕円体、
    のうちいずれかの範囲である、請求項1〜13のいずれか1つに記載の動体追跡方法。
  15. 前記動画を取得する画像取得センサーの検知範囲内に境界がある場合、当該境界の外側に前記動体が存在するものとして、前記移動予測範囲として設定する請求項1〜14のいずれか1つに記載の動体追跡方法。
  16. 前記境界は、前記検知範囲内にある静止物の境界であって、前記静止物の影に前記動体が存在するものとして前記移動予測範囲を設定する、請求項15に記載の動体追跡方法。
  17. 前記フレームは、3次元計測可能なレーザーレーダーで取得した距離画像である、請求項1〜16のいずれか1つに記載の動体追跡方法。
  18. 前記動体、前記移動予測範囲、前記動体候補を画面に表示する段階を有する、請求項1〜17のいずれか1つに記載の動体追跡方法。
  19. 請求項1〜18のいずれか1つに記載の動体追跡方法をコンピューターに実行させる動体追跡プログラム。
  20. 時系列に沿って画像を取得する画像取得センサーと、
    請求項19に記載のプログラムを実行するコンピューターと、
    を有する、動体追跡システム。
JP2017077058A 2017-04-07 2017-04-07 動体追跡方法、動体追跡プログラム、および動体追跡システム Active JP6932971B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017077058A JP6932971B2 (ja) 2017-04-07 2017-04-07 動体追跡方法、動体追跡プログラム、および動体追跡システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017077058A JP6932971B2 (ja) 2017-04-07 2017-04-07 動体追跡方法、動体追跡プログラム、および動体追跡システム

Publications (2)

Publication Number Publication Date
JP2018180788A JP2018180788A (ja) 2018-11-15
JP6932971B2 true JP6932971B2 (ja) 2021-09-08

Family

ID=64276710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017077058A Active JP6932971B2 (ja) 2017-04-07 2017-04-07 動体追跡方法、動体追跡プログラム、および動体追跡システム

Country Status (1)

Country Link
JP (1) JP6932971B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114929919B (zh) 2020-01-09 2023-05-05 日铁不锈钢株式会社 奥氏体系不锈钢钢材
KR102279754B1 (ko) * 2020-02-10 2021-07-20 주식회사 서울로보틱스 충돌 사고 방지 방법, 장치, 서버, 및 컴퓨터 프로그램
JP7333546B2 (ja) * 2020-07-06 2023-08-25 株式会社ハイシンク創研 物体認識装置及びこれを用いた物体搬送システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863602A (ja) * 1994-08-19 1996-03-08 Fuji Electric Co Ltd 物体追跡装置
JP3732757B2 (ja) * 2001-06-08 2006-01-11 株式会社東芝 画像認識方法および画像認識装置
JP2004046647A (ja) * 2002-07-12 2004-02-12 Univ Waseda 動画像データに基づく移動物体追跡方法及び装置
JP4802112B2 (ja) * 2007-02-08 2011-10-26 株式会社東芝 トラッキング方法及びトラッキング装置
JP5349367B2 (ja) * 2010-02-26 2013-11-20 セコム株式会社 移動物体追跡装置
JP5754990B2 (ja) * 2011-03-09 2015-07-29 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP2018180788A (ja) 2018-11-15

Similar Documents

Publication Publication Date Title
Martin-Martin et al. Jrdb: A dataset and benchmark of egocentric robot visual perception of humans in built environments
US11821987B2 (en) Multiple resolution, simultaneous localization and mapping based on 3-D LIDAR measurements
EP3283843B1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
WO2021253430A1 (zh) 绝对位姿确定方法、电子设备及可移动平台
KR101829556B1 (ko) 객체 움직임의 라이더 기반 분류 기법
EP3252657B1 (en) Information processing device and information processing method
WO2021072710A1 (zh) 移动物体的点云融合方法、系统及计算机存储介质
US20160328860A1 (en) Occlusion-Robust Visual Object Fingerprinting using Fusion of Multiple Sub-Region Signatures
JP6932971B2 (ja) 動体追跡方法、動体追跡プログラム、および動体追跡システム
JP2008523371A (ja) 携帯型測量装置および測量方法
EP3358366A1 (en) Light detection and ranging device
CN112384891A (zh) 用于点云着色的方法和系统
JP2019101000A (ja) 測距点群データ測定システム、および制御プログラム
WO2022198637A1 (zh) 点云滤噪方法、系统和可移动平台
US9062969B1 (en) Surface distance determination using reflected light
CN113768419B (zh) 确定扫地机清扫方向的方法、装置及扫地机
RU2679923C1 (ru) Способ получения пространственной модели окружающей обстановки в режиме реального времени на основе данных лазерной локации и устройство для его осуществления
KR20220039623A (ko) 레이더 고도각 측정
US20230215019A1 (en) Systems and methods for detecting movement of at least one non-line-of-sight object
JP2018181114A (ja) 侵入監視方法、侵入監視プログラム、および侵入監視装置
JP6898587B2 (ja) 物体追跡方法、物体追跡プログラム、および物体追跡システム
Godil et al. 3D ground-truth systems for object/human recognition and tracking
CN111007521B (zh) 一种激光主动探测系统及目标识别方法
KR102050756B1 (ko) 초소형 표적 탐지기
Hutchinson et al. Simulation-based analysis of range and cross-range resolution requirements for the identification of vehicles in ladar imagery

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210802

R150 Certificate of patent or registration of utility model

Ref document number: 6932971

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150