JP6265370B2 - 対象物追跡方法及び対象物追跡システム - Google Patents

対象物追跡方法及び対象物追跡システム Download PDF

Info

Publication number
JP6265370B2
JP6265370B2 JP2013170871A JP2013170871A JP6265370B2 JP 6265370 B2 JP6265370 B2 JP 6265370B2 JP 2013170871 A JP2013170871 A JP 2013170871A JP 2013170871 A JP2013170871 A JP 2013170871A JP 6265370 B2 JP6265370 B2 JP 6265370B2
Authority
JP
Japan
Prior art keywords
pixel
cluster number
distance information
scanning
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013170871A
Other languages
English (en)
Other versions
JP2015041166A (ja
Inventor
戸田 英樹
英樹 戸田
貴大 内山
貴大 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyama University
Original Assignee
Toyama University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyama University filed Critical Toyama University
Priority to JP2013170871A priority Critical patent/JP6265370B2/ja
Publication of JP2015041166A publication Critical patent/JP2015041166A/ja
Application granted granted Critical
Publication of JP6265370B2 publication Critical patent/JP6265370B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、対象物追跡方法及び対象物追跡システムに関する。
コンピュータを用いた画像処理技術の発達によって、対象物を認識し追跡する技術がいくつか提案されている。
特許文献1には、画像特徴量抽出システムに関し、例示画像に含まれるオブジェクト領域を抽出するオブジェクト領域抽出部と、該オブジェクト領域抽出部によって抽出された前記オブジェクト領域を構成している代表色を求め、該求めた代表色の色特徴量を抽出する色特徴量抽出部と、該色特徴量抽出部によって抽出された前記色特徴量のクラスタリングを行ったのち、各クラスタの色特徴量を抽出する色特徴量クラスタリング部と、前記オブジェクト領域抽出部によって抽出された前記オブジェクト領域の大まかな形状特徴量および詳細な形状特徴量を抽出する形状特徴量抽出部と、該形状特徴量抽出部によって抽出された前記詳細な形状特徴量のクラスタリングを行ったのち、各クラスタの詳細な形状特徴量を抽出する形状特徴量クラスタリング部とを備え、前記オブジェクト領域抽出部が、前記抽出したオブジェクト領域内の画像を表すオブジェクト画像データを前記色特徴量抽出部に出力し、前記色特徴量抽出部が、前記オブジェクト画像データによって表される前記オブジェクト領域内の画像を構成している代表色を求め、該求めた代表色の色相,彩度および輝度の値の範囲を色特徴量として抽出する、ことが記載されている。特許文献1では、k-means法によりクラスタリングを行った、との記述がある。
特許文献2には、移動型電子機器に利用される人間追跡装置に関し、第1カメラにより撮影された上体映像から人間の少なくとも1つの上体位置情報を検出する上体位置情報検出モジュールと、第2カメラにより撮影された足映像から前記人間の少なくとも1つの足位置情報を検出する足位置情報検出モジュールと、前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報とを基に、追跡対象を選択する追跡対象選択モジュールと、前記追跡対象選択モジュールで選択された追跡対象を追跡するための、前記移動型電子機器の追跡速度及び方向を計算する追跡速度及び方向計算部と、前記移動型電子機器を駆動するモータと、前記追跡速度及び方向計算部で計算された結果を基に、前記モータを制御するモータ制御部と、を備え、前記追跡対象選択モジュールは、前記少なくとも1つの上体位置情報と前記少なくとも1つの足位置情報のうちから、所定の探索範囲に含まれる上体位置情報と足位置情報とを追跡候補情報として検出する追跡候補検出部と、前記追跡候補検出部で検出された追跡候補情報に含まれている足位置情報が複数個ならば、前記追跡候補情報に含まれている上体位置情報に近接した足位置情報を追跡対象情報として選択する追跡対象選択部とを備え、前記追跡候補検出部は、前記所定の探索範囲を、以前フレームで追跡対象として選択された足候補の位置を中心座標とし、成人男女の前に歩く場合と横に歩く場合の平均歩幅、平均速度、及び前記移動型電子機器の反応速度を基に決定すること、前記足位置情報検出モジュールは、レーザを発振させるレーザ発振部と、前記レーザ発振部から発生したレーザラインを撮像する前記第2カメラと、前記第2カメラを介して撮像されたレーザライン映像を足映像として取得する足映像取得部と、前記足映像取得部で取得された足映像から、前記少なくとも1つの足位置情報を足候補として検出する足候補検出部とを備えること、が開示されている。
特許文献3には、撮像手段で撮影された画像の各フレーム画像の差分画像から周辺画素に対して動きベクトルの大きさおよび方向の異なる画素を検出し、前記各フレーム画像を分割した小領域のうち前記画素を含む小領域を検出し、該小領域の座標位置を記憶する動き抑制手段と、前記各フレーム画像を分割して前記小領域より大きい大領域及び該大領域より小さい領域である中領域を作成し、前記検出された前記小領域の前記動きベクトルの絶対値の加算値が大きい順番に前記大領域を順位付けし、該順位付けがされた前記大領域に対して前記順位付けに従って優先的に、前記大領域内の前記中領域とその周辺の複数の中領域との画素の色の値若しくは色相若しくは彩度若しくは明度若しくはこれらの組み合わせのヒストグラムの差のうち最小値を色差とすると共に該色差の大きい順に予め設定された数の前記大領域を検出し、該大領域の座標位置を記録する色抑制手段と、前記大領域に予め記憶装置に記憶された移動体が撮影されているか否かをパターン認識により判定する移動体判定手段としてコンピュータを機能させることが開示されている。
特開2006−221520号公報 特開2006−221610号公報 特開2007−188294号公報
特許文献1の手法では、統計処理の性質上、複雑環境下では対象物の特定ができないという欠点がある。
特許文献2では、特定人の追跡手法であり、「人間としての特徴」例えば足の形や足パターンを特徴量として画像などから取り出し追跡するという手法である。しかしながらこの手法では画面内に特定人の足以外の物体や他の人が入ってきた場合、コンピュータは特定人とそれ以外の物体や他の人の違いが判断し難く、追跡対象を見失うという問題がある。
特許文献3では、常に動いている物体に特化することで、画像全体での追跡対象を探す困難な画像処理の問題を回避している。しかし,追跡対象が常に動いているとは限らず、画面内で止まってしまった場合、結局は認識出来なくなってしまうという不具合がある。この不具合は思いの外頻繁に発生する。加えて、対象物以外の人や自動車の移動や、風などにより木や箱などが移動する場合も誤認識してしまうため、対象物以外の物体が移動する空間においては対処できない。
そこで、本願発明の目的は、対象物が画面内で動いたり止まったりしても対象物と他の物体との判別が可能な対象物追跡方法、並びに対象物を自動追跡可能な対象物追跡システムを提供することにある。
本発明の対象物追跡方法は、距離情報を有する動画像を撮像手段にて撮影してコンピュータに取り込み、前記動画像を構成する各フレームに対して所定のクラスタリング処理を行い、前記クラスタリング処理されたフレームを記憶テンプレートとして記憶手段に逐次蓄積するとともに、逐次蓄積されたフレームのうち直近のフレームと前記クラスタリング処理対象のフレームとをパターンマッチングさせて対象物を特定し、特定された対象物を追跡手段にて追跡することを特徴とする。
本発明の対象物追跡システムは、距離情報を有する動画像を撮影する撮像手段と、前記動画像を取り込んでデータ処理するコンピュータと、対象物を追跡する追跡手段を備え、前記コンピュータによって、前記動画像を構成する各フレームに対して所定のクラスタリング処理がなされ、前記クラスタリング処理されたフレームが記憶テンプレートとして記憶手段に逐次蓄積されるとともに、逐次蓄積されたフレームのうち直近のフレームと前記クラスタリング処理対象のフレームとがパターンマッチングされて対象物が特定され、特定された対象物が追跡手段にて追跡されることを特徴とする。
本発明によれば、距離情報を用いて前記動画像を構成する各フレームに対して所定のクラスタリング処理を行い、記憶テンプレートとして逐次蓄積されたフレームのうち直近のフレームと前記クラスタリング処理対象のフレームとをパターンマッチングさせることで、対象物が画面内で動いたり止まったりしても対象物と他の物体との判別が可能となる。
本発明は、前記クラスタリング処理は、前記動画像を構成するフレームを走査しながら前記距離情報に基づいて各画素毎にクラスタ番号を付与するステップと、クラスタ番号が付与されたフレームを再度走査しながら走査画素における距離情報と、当該走査画素に隣接している隣接画素における距離情報とを比較し、両者の距離情報の差の絶対値が所定の閾値よりも小さい場合には前記隣接画素のクラスタ番号と同じクラスタ番号を前記走査画素のクラスタ番号とするステップを有し、前記対象物を領域分けすることを特徴とする。
本発明によれば、クラスタリング結果が安定し、より正確に対象物を特定することができる。
本発明の対象物追跡方法、又は本発明の対象物追跡システムによれば、対象物を特定するための領域分けを高速処理することができ、さらに、記憶テンプレートとして逐次蓄積されたフレームのうち直近のフレームと前記クラスタリング処理対象のフレームとをパターンマッチングさせることで、対象物が画面内で動いたり止まったりしても対象物と他の物体との判別が可能となる。
本発明の実施形態の対象物追跡手順を説明するフローチャート図である。 本発明に係るクラスタリング手順を説明する遷移図である。 既知の電子カメラを用いて人物が歩く様子をコマ送りで撮影した図である。 本発明に係るクラスタリングを行って人物のみを抽出した結果を例示する図である。 本発明に係るモーフィングパターンマッチング法により対象物を追跡する手順を説明するための状態遷移図である。 既知の電子カメラを用いて人物が椅子とくっついたり離れたりする様子をコマ送りで撮影した図である。 本発明の対象物追跡方法によって得られたデータと、比較例としてクラスタリングのみ行って得られたデータとを示すグラフ図である。 本発明の対象物追跡システムを示す構成図である。 本発明の対象物追跡システムによって人物のみを追跡させた場合の追跡結果を示す図である。 本発明の対象物追跡システムが人物を見ている図である。 本発明の対象物追跡システムが人物を見ている際のクラスタリング結果を示す図である。 原画像を示す図である。 前記原画像を距離画像として示す図である。 k-means法によりクラスタリングを行った場合の実行結果を例示する図である。 スキャンラインクラスタリング法によりクラスタリングを行った場合の実行結果を例示する図である。
(クラスタリング)
図12は、距離計測可能な機能を有する既知の電子カメラを用いて撮影した原画像である。図13は、前記原画像を距離画像としたものである。図12の原画像では、二人の人物201と202が写っている。向かって右側の人物201が電子カメラから近い距離(画面の手前側)に写っており、向かって左側の人物202が電子カメラから遠い距離(画面の奥側)に写っている(図12、図13)。図13の距離画像では、距離の度合いに応じて色分け表示しており、電子カメラから遠い距離(画面の奥側)が赤色に近い色で着色されており、電子カメラから近い距離(画面の手前側)が青色に近い色で着色されている。
図14(a)(b)(c)は、k-means法によりクラスタリングを行った場合の実行結果を例示する画像である。図14(a)では、人物201と人物202とが接合されてしまい、個々の人物を特定できていない。図14(b)では、人物201と人物202を特定できている。図14(c)では、人物201と人物202の下半分とが接合されてしまい、個々の人物を特定できていない。k-means法によりクラスタリングを行った場合は、実行結果が不安定になり易いという課題がある。
上記課題に鑑みて、図15(a)(b)(c)は、スキャンラインクラスタリング法によりクラスタリングを行った場合の実行結果を例示する図である。図15(a)、図15(b)、及び図15(c)のいずれの場合においても、人物201と人物202を特定できている。スキャンラインクラスタリング法によりクラスタリングを行った場合は、実行結果が安定しており、個々の人物を特定できている。
(本発明の対象物追跡方法)
図1は、本発明の実施形態の対象物追跡手順を説明するフローチャート図である。図2(a)(b)(c)(d)(e)(f)は、スキャンラインクラスタリング法によりクラスタリングを行う手順を説明するための状態遷移図である。説明し易くするために、図2では、画素数が4×4ドットの距離画像を四角マスの集合として例示している。前記距離画像において、行方向は座標xであり、列方向は座標yである。図1に示すフローチャートに沿って、本発明の手順を以下に説明する。
まず、カメラ座標(x,y)において、レーザレンジファインダー等の距離画像センサによって、距離情報L(x,y)を得て、距離画像を作成し、初期化する(符号S1、図2(a))。ここでは、距離が変化するとそれに対応して各座標の画素(マス目)の色が変化するとして説明する。各画素(マス目)のクラスタ番号を符号cとする。まず、走査前の距離画像に対して、各マス目のクラスタ番号cをc=1として初期化する(符号S1、図2(a))。
次に、カメラ座標(x,y)の左上から右に向かって第1回目の走査を行う(符号S2、図2(b))。走査方向を符号a1で示す。このとき、次の数式(1)の条件が満たされないときにクラスタ番号cをひとつ増加させる。尚且つ、画像右端に到着してひとつ下の行に移るときにクラスタ番号cをひとつ増加させる。この手続きを画素左上から右下まで実行すると図2(c)の状態となる。
Figure 0006265370
上記数式(1)において、符号βは所定の閾値であり、図2の例では一定以上の色の差異レベルを閾値としている。つまり、前記閾値内であれば、距離が同じであるとみなしている。
次に、画素左上から右下に向かって、第2回目の走査を行う(符号S3、図2(d))。走査方向を符号a2で示す。このとき、走査している画素(x,y)の上下左右(図2(d)にて符号b2で示す緑色の枠)を見て、上記数式(1)を満たす場合、緑色枠b2のクラスタ番号を、現在走査中の画素(x,y)のクラスタ番号に入れ替える。図2(d)では、緑色枠b2の中心の注目している画素(2,1)から見て、画素(2,2)はクラスタ番号4を持っているが、上記式(1)を満たしているので画素(2,1)のクラスタ番号1に置き換えている。
図2(e)は、符号S3で示す第2回目の走査を行った直後の状態である。画素左上から右下まで第2回目の走査が終了した時点では、右上の白色の枠内のクラスタ番号が2のままになっていることがわかる。このクラスタ番号は3であるべきなので、この状態では偏りがある。そこで、画素左下から右上に向かって、第3回目の走査を行う(符号S4、図2(f))。走査方向を符号a3で示す。このとき、走査している画素(x,y)の上下左右(図2(f)にて符号b3で示す緑色の枠)を見て、上記数式(1)を満たす場合、緑色枠b3のクラスタ番号を、現在走査中の画素(x,y)のクラスタ番号に入れ替える。この作業により、白色の枠内のクラスタ番号をすべて3に置き替えている(図2(f))。
図3(a)(b)(c)(d)(e)は、距離計測可能な機能を有する既知の電子カメラを用いて人物201が歩く様子をコマ送りで撮影した原画像である。図4(a)(b)(c)(d)(e)は、本発明に係るスキャンラインクラスタリング法によりクラスタリングを行って人物201のみを抽出した場合の実行結果を例示する画像である。図4(a)(b)(c)(d)(e)に示すように、短い時間間隔で見ると、対象物の形状はあまり変化しないとみなせる。本発明が提案する手法は、時刻の変遷にしたがって、追跡対象としている対象物のパターン形状を逐次コンピュータ内部で更新し続けることで、追跡対象としている対象物のパターン形状が徐々に変化していっても対象物を追跡し続けるという手法である。記憶パターンが逐次更新されることから、以下これをモーフィングパターンマッチング法と称する。
図5(a)(b)(c)は、本発明に係るモーフィングパターンマッチング法により対象物を追跡する手順を説明するための状態遷移図である。説明し易くするために、図5では、人物201と机301を追跡対象物としている。本発明に係るモーフィングパターンマッチング法では、次の数式(2)、数式(3)を用いる。
Figure 0006265370
上記数式(2)において、Tn,t(w,h)を、画素(x+w,y+h)における時刻t、クラスタ番号nの記憶テンプレートとして、S(x,y)をスキャンラインクラスタリング法によりクラスタリングを行って得られたクラスタ結果とする。ここでは、クラスタ番号nに対して画素(x,y)がそのクラスタに所属していれば1、それ以外では−1となる変数とする。
Figure 0006265370
上記数式(3)において、M(x,y,n,t)はコスト関数であり、w(n)をクラスタ番号nの記憶テンプレートの横幅とし、h(n)をクラスタ番号nのテンプレートの縦幅とする。このコスト関数M(x,y,n,t)を使って、画像S(x,y)上に記憶テンプレートTn,t(w,h)が存在するか否かを調べる。基本的には、コスト関数M(x,y,n,t)の値が小さいほど、記憶テンプレートTn,t(w,h)がその場所に存在している可能性が高くなる。
記憶テンプレートTn,t(w,h)の検索方法としては、直前のフレームに存在していた記憶テンプレートの座標を中心にして、その周辺を検索するという手法を利用している。これは、記憶テンプレートが突然別の場所に瞬間移動することはないと判断していることによる。通常は、図5(a)の状況(T=1)となり、記憶しているテンプレート205と305をクラスタリング領域の変形に対応して逐次更新し、対象物201と301の追跡を行う。
次に、図5(b)の状況(T=2)となり、人物201が机301に接触して、クラスタリングした結果、同一の物体として認識された場合について検討する。この場合、人物201と机301とが接続された新しいパターン209は、それまでの記憶パターンには該当しないので、まずは現時点まで追跡を続けている追跡対象パターン205と305を使用して、直前のフレームで追跡していた人物201と机305との接合として検索を開始する。評価関数は上記の数式(3)を用いる。
次に、図5(c)の状況(T=3)となり、人物201が机301から離れた場合には、T=1の時点まで戻ってクラスタの追跡を行う。検索が失敗したパターンに関しては、新たなパターンとして登録し、追跡を開始することにする。このとき、どれくらいの時刻までさかのぼってマッチングを行うかによって計算時間が増大するため、ここでは、100フレーム程度の情報を保持することにした。
図6(a)(b)(c)(d)は、距離計測可能な機能を有する既知の電子カメラを用いて人物201が椅子301とくっついたり離れたりする様子をコマ送りで撮影した原画像である。図7は、本発明の対象物追跡方法によって得られたデータと、比較例としてクラスタリングのみ行って得られたデータとを示すグラフ図である。図7のグラフ図は、横軸が時刻t[sec]を表しており、縦軸が画像の横軸におけるクラスタの重心座標値x[dot]である。ここでは、青色の線が単にクラスタリングされた結果だけの重心座標をプロットした比較例であり,椅子と接合された時座標値が動き,時折切断されるため重心座標が戻ってきたりしている。ここでは、赤色の線は、本発明に係るモーフィングパターンマッチングを利用した結果であり、クラスタが接合されたり切断されたりしても安定して人物の重心座標を捉えていることが分かる。
(本発明の対象物追跡システム)
図8は、本発明に係るアルゴリズムを実装した対象物追跡システム1(自律移動ロボット)を示す構成図である。本実施形態で使用する画像編集用コンピュータ3の構成は、いわゆる個人向けのパーソナルコンピュータで足りる。ここでは、画像編集用コンピュータ3には、データ入力を受け付ける入力手段81と、入力されたデータに演算処理を行うCPU4と、演算処理後のデータを蓄積保存するデータベース5とデータ処理前後のデータを画面表示するディスプレイ82が備わっており、画像編集用コンピュータ3上で画像編集プログラム2が動作する。入力手段81は、キーボード、マウス、タッチパネル等である。符号700は、距離計測可能な機能を有する既知の電子カメラ(ビデオカメラ)である。符号350は、搬送車体や歩行ロボットなどの既知の移動手段である。図9(a)(b)(c)(d)は、本発明の対象物追跡システム1によって人物のみを追跡させた場合の追跡結果を示す画像である。ここでは、人物201は、歩行の後、椅子301に座り,その後、椅子301から立ち上がって離れる動作をしている。図10(a)(b)(c)(d)(e)(f)は、本発明の対象物追跡システム1が人物201を見ている画面である。図11(a)(b)(c)(d)(e)(f)は、本発明の対象物追跡システム1が人物201を見ている際のクラスタリング結果を示す画像である。本実施形態によれば、追跡対象の人物201が椅子301に座ってから立ち上がって去るという動作を追従していることが分る。このことは、従来提案されているアルゴリズムでは不可能であった実験である。
本発明は、上述した実施の形態に限定されるものではない。前記対象物は人物に限定されず、車両、生産ロボット、ラインによって生産される生産物など各種移動体に適用することができる。また、前記距離情報を用いて各フレームに対して領域を分けるクラスタリングであれば、上述のスキャンラインクラスタリング法には限定されない。このように、本発明は、その趣旨を逸脱しない範囲で適宜変更が可能であることは言うまでもない。
上述の本発明は、高齢者の見守りシステムや、子供などの安全管理、混雑環境下での物体の認識、車などへの安全機構、生産ラインへの応用、警備システムへの適用など、広く適用することができる。
1 本発明に係るアルゴリズムを実装した対象物追跡システム、
201、202 人物、
301 椅子、
700 既知の電子カメラ

Claims (3)

  1. 距離情報を有する動画像を撮像手段にて撮影してコンピュータに取り込み、前記動画像を構成する各フレームに対してクラスタリング処理を行い、前記クラスタリング処理されたフレームを記憶テンプレートとして記憶手段に逐次蓄積するとともに、逐次蓄積されたフレームのうち直近のフレームと前記クラスタリング処理対象のフレームとをパターンマッチングさせて対象物を特定し、特定された対象物を追跡手段にて追跡する対象物追跡方法であって、前記クラスタリング処理は、前記動画像を構成するフレームを画素左上から右に向かって走査しながら前記距離情報に基づいて走査画素における距離情報と、当該走査画素に隣接している隣接画素における距離情報とを比較し、両者の距離情報の差の絶対値が所定の閾値以上の場合にはクラスタ番号をひとつ増加させるとともに、画像右端に到着してひとつ下の行に移るときにクラスタ番号をひとつ増加させて、画素左上から右下まで実行することで、各画素毎にクラスタ番号を付与するステップと、クラスタ番号が付与されたフレームを画素左上から右下に向かって再度走査しながら走査画素における距離情報と、当該走査画素の上下左右に隣接している隣接画素における距離情報とを比較し、両者の距離情報の差の絶対値が所定の閾値よりも小さい場合には前記隣接画素のクラスタ番号と同じクラスタ番号を前記走査画素のクラスタ番号とするステップと、画素左下から右上に向かって再度走査しながら走査画素における距離情報と、当該走査画素の上下左右に隣接している隣接画素における距離情報とを比較し、両者の距離情報の差の絶対値が所定の閾値よりも小さい場合には前記隣接画素のクラスタ番号と同じクラスタ番号を前記走査画素のクラスタ番号とするステップとを有し、前記対象物を領域分けするクラスタリング法により処理することを特徴とする対象物追跡方法。
  2. 前記記憶テンプレートの検索は、直前のフレームに存在していた記憶テンプレートの座標を中心にして、その周辺を検索することで行い、複数の記憶テンプレートが接触して、クラスタリングした結果、同一の物体として認識された場合は、その時点まで追跡を続けていた前記複数の記憶テンプレートを使用して、直前のフレームで追跡していた複数の記憶テンプレートとの接合として検索を開始し、複数の記憶テンプレートが離れた場合には、T=1の時点まで戻ってクラスタの追跡を行い、検索が失敗したパターンに関しては、新たなパターンとして登録し、追跡を開始することを特徴とする請求項1に記載の対象物追跡方法。
  3. 距離情報を有する動画像を撮影する撮像手段と、前記動画像を取り込んでデータ処理するコンピュータと、対象物を追跡する追跡手段を備え、前記コンピュータによって、前記動画像を構成する各フレームに対して所定のクラスタリング処理がなされ、前記クラスタリング処理されたフレームが記憶テンプレートとして記憶手段に逐次蓄積されるとともに、逐次蓄積されたフレームのうち直近のフレームと前記クラスタリング処理対象のフレームとがパターンマッチングされて対象物が特定され、特定された対象物が追跡手段にて追跡される対象物追跡システムであって、前記クラスタリング処理は、前記動画像を構成するフレームを画素左上から右に向かって走査しながら前記距離情報に基づいて各画素毎にクラスタ番号を付与し、クラスタ番号が付与されたフレームを画素左上から右下に向かって再度走査しながら走査画素における距離情報と、当該走査画素の上下左右に隣接している隣接画素における距離情報とを比較し、両者の距離情報の差の絶対値が所定の閾値よりも小さい場合には前記隣接画素のクラスタ番号と同じクラスタ番号を前記走査画素のクラスタ番号とし、画素左下から右上に向かって再度走査しながら走査画素における距離情報と、当該走査画素の上下左右に隣接している隣接画素における距離情報とを比較し、両者の距離情報の差の絶対値が所定の閾値よりも小さい場合には前記隣接画素のクラスタ番号と同じクラスタ番号を前記走査画素のクラスタ番号とすることで前記対象物を領域分けすることを特徴とする対象物追跡システム。
JP2013170871A 2013-08-21 2013-08-21 対象物追跡方法及び対象物追跡システム Active JP6265370B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013170871A JP6265370B2 (ja) 2013-08-21 2013-08-21 対象物追跡方法及び対象物追跡システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013170871A JP6265370B2 (ja) 2013-08-21 2013-08-21 対象物追跡方法及び対象物追跡システム

Publications (2)

Publication Number Publication Date
JP2015041166A JP2015041166A (ja) 2015-03-02
JP6265370B2 true JP6265370B2 (ja) 2018-01-24

Family

ID=52695313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013170871A Active JP6265370B2 (ja) 2013-08-21 2013-08-21 対象物追跡方法及び対象物追跡システム

Country Status (1)

Country Link
JP (1) JP6265370B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107272744A (zh) * 2017-05-27 2017-10-20 芜湖星途机器人科技有限公司 与取号机相配合的机器人主动跟随系统
CN112655018A (zh) * 2018-10-18 2021-04-13 国立研究开发法人科学技术振兴机构 对象追踪方法、对象追踪系统以及对象追踪程序

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3840025B2 (ja) * 1999-03-19 2006-11-01 日本無線株式会社 画像処理方法
JP5396192B2 (ja) * 2009-08-11 2014-01-22 株式会社日立国際電気 人数カウンタ
JP6102930B2 (ja) * 2011-10-14 2017-03-29 オムロン株式会社 射影空間監視のための方法および装置

Also Published As

Publication number Publication date
JP2015041166A (ja) 2015-03-02

Similar Documents

Publication Publication Date Title
US11360571B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP5726125B2 (ja) 奥行き画像内の物体を検出する方法およびシステム
Zhang et al. Real-time multiple human perception with color-depth cameras on a mobile robot
US8705861B2 (en) Context processor for video analysis system
KR101355974B1 (ko) 복수의 객체를 추적하는 객체 추적 방법 및 장치
US7308112B2 (en) Sign based human-machine interaction
US8577151B2 (en) Method, apparatus, and program for detecting object
JP4874150B2 (ja) 移動物体追跡装置
EP2544149A1 (en) Moving-body detection device, moving-body detection method, moving-body detection program, moving-body tracking device, moving-body tracking method, and moving-body tracking program
JP5251987B2 (ja) 人判定装置、方法およびプログラム
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
KR101279561B1 (ko) 깊이정보 기반 고속 고정밀 얼굴 검출 및 추적 방법
JP4969291B2 (ja) 移動物体追跡装置
JP2021503139A (ja) 画像処理装置、画像処理方法および画像処理プログラム
Lin et al. Pedestrian detection by fusing 3D points and color images
JP2008035301A (ja) 移動体追跡装置
JP6265370B2 (ja) 対象物追跡方法及び対象物追跡システム
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
US11983242B2 (en) Learning data generation device, learning data generation method, and learning data generation program
Mudjirahardjo et al. Head detection and tracking for an intelligent room
JP7302741B2 (ja) 画像選択装置、画像選択方法、およびプログラム
US20230177716A1 (en) Information processing device, non-transitory computer-readable storage medium, and information processing method
Choi et al. Disparity weighted histogram-based object tracking for mobile robot systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171213

R150 Certificate of patent or registration of utility model

Ref document number: 6265370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250