JP2012191354A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2012191354A
JP2012191354A JP2011052016A JP2011052016A JP2012191354A JP 2012191354 A JP2012191354 A JP 2012191354A JP 2011052016 A JP2011052016 A JP 2011052016A JP 2011052016 A JP2011052016 A JP 2011052016A JP 2012191354 A JP2012191354 A JP 2012191354A
Authority
JP
Japan
Prior art keywords
tracking
tracking target
information processing
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011052016A
Other languages
English (en)
Other versions
JP5754990B2 (ja
Inventor
Kenji Tsukamoto
健二 塚本
Yasuo Katano
康生 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011052016A priority Critical patent/JP5754990B2/ja
Publication of JP2012191354A publication Critical patent/JP2012191354A/ja
Application granted granted Critical
Publication of JP5754990B2 publication Critical patent/JP5754990B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】複数の遮蔽物が重なり合って見える環境であっても、安定した物体追跡を可能にすることを目的とする。
【解決手段】画像から追跡対象を検出し、追跡する情報処理装置であって、追跡対象を検出できなかった場合に追跡対象が物体によって遮蔽されたか否かを判定する判定手段と、判定手段で追跡対象が物体によって遮蔽されたと判定された場合、画像より物体の領域と、物体と重複する物体の領域と、を抽出する抽出手段と、抽出手段で抽出された領域を関連付け、関連付けた領域に基づいて、次に追跡対象が現れる領域を設定する設定手段と、を有することによって課題を解決する。
【選択図】図2

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
従来、画像における移動物体の追跡において、追跡における精度の高度化や追跡失敗時の回復方法において環境のモデルを用いる方法がある。
例えば、特許文献1によれば追跡対象が特定領域と重なった場合、特定領域の周囲を監視し、移動物体が再出現するのを待つ方法が開示されている。
特開2006−311099号公報
しかしながら、特許文献1に開示される技術では、複数の物体が重なりあって見えるような屋内環境では一つの特定領域を特定しただけでは、その特定領域から移動物体が再度出現する可能性を限定することはできないという問題があった。
本発明はこのような問題点に鑑みなされたもので、複数の遮蔽物が重なり合って見える環境であっても、安定した物体追跡を可能にすることを目的とする。
そこで、本発明は、画像から追跡対象を検出し、追跡する情報処理装置であって、追跡対象を検出できなかった場合に追跡対象が物体によって遮蔽されたか否かを判定する判定手段と、判定手段で追跡対象が物体によって遮蔽されたと判定された場合、画像より物体の領域と、物体と重複する物体の領域と、を抽出する抽出手段と、抽出手段で抽出された領域を関連付け、関連付けた領域に基づいて、次に追跡対象が現れる領域を設定する設定手段と、を有する。
本発明によれば、複数の遮蔽物が重なり合って見える環境であっても、安定した物体追跡を可能にすることができる。
追跡装置のハードウェア構成の一例を示す図である。 実施形態1の追跡装置のソフトウェア構成の一例を示す図である。 画像の一例を示す図である。 追跡装置による処理過程の一例を示す図(その1)である。 追跡装置による処理過程の一例を示す図(その2)である。 追跡装置による処理過程の一例を示す図(その3)である。 追跡装置による処理過程の一例を示す図(その4)である。 リストの一例を示す図である。 追跡装置による処理過程の一例を示す図(その5)である。 追跡処理の一例を示すフローチャートである。 実施形態2の追跡装置のソフトウェア構成の一例を示す図である。 追跡装置による処理過程の一例を示す図(その6)である。 実施形態3の追跡装置のソフトウェア構成の一例を示す図である。 物体情報を説明するための図である。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
本実施形態に係る追跡装置は、映像監視・モニタリングに用いられるものであり、撮像手段は一般的なネットワークカメラでもよいし、追尾機能付きカメラ等も利用できる。以下に図を用いて本実施形態を示す。なお、追跡装置は、情報処理装置の一例である。
本実施形態では、複数の物体がある環境において画像を撮影し、得られた動画像から追跡対象となる人物を追跡する場合について説明する。本実施形態に係る環境を屋内とし追跡対象は人物としているが、これに限定するものではなく、他の環境における移動する物体ならば、これを用いることができる。
図1は、追跡装置のハードウェア構成の一例を示す図である。
制御装置10は、CPU等であって、追跡装置100の全体を制御する。記憶装置11は、RAM及び/又はROM及び/又はHDD等の記憶装置であって、例えば、画像やプログラム等を記憶する。通信装置12は、追跡装置をネットワーク等に接続する装置である。以下で示す本実施形態では、追跡装置100は、通信装置12を介してネットワークカメラ等に接続されているものとする。
制御装置10が、記憶装置11に記憶されているプログラムに基づき処理を実行することによって、後述する追跡装置100の機能及びフローチャートに係る処理が実現される。
後述する図3は、本実施形態が対象とする画像の一例である。追跡対象210は、移動方向250に移動していると仮定する。画像200では、追跡対象がいる環境には、物体220、230、240が存在し、それぞれ異なる形状・位置にあり、それらのうちいくつかが重なって見える様子が表されている。追跡装置100は、初期検出により追跡対象210を検出し、追跡対象210の追跡を行う。探索領域260は、追跡装置100が、次の時刻における追跡対象210が矩形領域内の位置に移動すると予測した領域を表す。追跡装置100は、この追跡対象210の予測には移動物体のダイナミクスによる予測やパーティクルフィルタ等の追跡の枠組みにおける予測を利用してもよい。
図2は、実施形態1の追跡装置100のソフトウェア構成の一例を示す図である。
図2に示すように、追跡装置100は、初期検出部101と、予測部102と、対象検出部103と、奥行き情報取得部104と、遮蔽判定部105と、遮蔽物体領域抽出部106と、遮蔽物体重複領域識別部107と、領域設定部108と、を含む。
初期検出部101は、画像から追跡対象210を検出するものであって、テンプレートマッチングといった一般的な物体検出手法を用いることができる。初期検出部101は、追跡対象210を検出し、追跡対象210の検出位置270を予測部102に出力する。
図3は、画像200の一例を示す図である。
図3に示すように、予測部102は、初期検出部101より追跡対象210の検出位置270を受取り、次の時刻に追跡対象210が移動する方向(移動方向)250を基に移動する位置を予測し、予測位置280と探索領域260を設定する。予測部102は、この予測位置280を対象検出部103へ出力する。
対象検出部103は、予測部102から出力された予測位置280を基に、次の時刻の画像を取得し、追跡対象210が予測位置280及び探索領域260にあるか検出を行う。探索領域260内に追跡対象210を検出できれば、予測部102に処理を戻し、予測部102が、次々刻の追跡対象210の位置を予測する。検出できなければ、対象検出部103は、遮蔽判定部105に予測位置280を出力する。
奥行き情報取得部104は、画像中の各画素の奥行き情報等を取得する。奥行き情報取得部104は、ステレオカメラによるスパースな特徴点の奥行きを取得する方法を使って距離計測を用いてもよいし、TOFカメラといった赤外線による距離計測カメラによって、全画素ピクセルの奥行き情報を取得してもよい。本実施形態ではTOFを用いた場合を例に説明する。奥行き情報取得部104は、遮蔽判定部105、遮蔽物体領域抽出部106、遮蔽物体重複領域識別部107に奥行き情報を出力することができる。
図4に示すように遮蔽判定部105は、対象検出部103の結果と、予測部102の結果とより、予測位置280に対して追跡対象210が遮蔽物体220によって遮蔽されているかどうかを判定する。本実施形態では、遮蔽判定部105は、奥行き情報取得部104の結果を基に行う例を示すが、これに限定するものではなく、特開2006−311099号公報等に開示された奥行きを用いない方法で遮蔽判定を行ってもよい。遮蔽判定部105は、奥行き情報取得部104から予測位置280の画素における奥行き情報380を取得し、時刻tにおける追跡対象210の検出位置270の画素における奥行き情報370と比較する。
この2つの位置について、後述する式(1)に示すように検出位置270の画素の奥行き情報370が予測位置280の画素の奥行き情報380より遠い場合、遮蔽判定部105は、追跡対象210は遮蔽されていると判定する。そして、遮蔽判定部105は、遮蔽物体領域抽出部106へ予測位置280、及びその奥行き情報380を出力する。遮蔽によるものではないと判定した場合は、本実施形態では対象としないが、初期検出部101若しくは予測部102へと処理を戻し、引き続き処理を行う。
depthposition > depthpredict ・・・式(1)
図5に示すように、遮蔽物体領域抽出部106は、遮蔽判定部105の結果を基に、予測位置280の奥行き情報380にある遮蔽物体220の領域420を抽出する。遮蔽物体領域抽出部106は奥行き情報取得部104から予測位置280の画素の奥行き情報380を取得し、予測位置280の奥行き情報380の奥行き情報に対して閾値判別によって近隣ピクセルで同様の奥行きを持つ画素を抽出して物体領域420を生成する。同様に、遮蔽物体領域抽出部106は、奥行き情報を基に、画像中の他の遮蔽物体230、及び240の領域430、及び440も抽出する。本実施形態では遮蔽物体領域抽出部106は、奥行き情報に基づいて物体領域抽出をした例を示した。しかしながら、本実施形態はこれに限定するものではなく、遮蔽物体領域抽出部106は、奥行き情報を用いず、予測位置280の画素の輝度値・色情報や画像特徴に対して、Graph−Cutやwatershed法、mean−shift法等のセグメンテーションアルゴリズムを適用する等して抽出してもよい。遮蔽物体領域抽出部106は、予測位置280を遮蔽する物体領域420及び他の物体領域430、440を遮蔽物体重複領域識別部107へ出力する。
図6に示すように、遮蔽物体重複領域識別部107は、追跡対象210を遮蔽している物体領域420と重なっている他の物体領域430、またその領域と重なる領域を識別する。遮蔽物体重複領域識別部107は、各遮蔽物体220、230、240の領域420、430、440が画像中で後述する式(2)のように領域及び境界に重なりがあり、かつ、物体領域の奥行きが後述する式(3)のようにある程度離れている場合、2つの遮蔽物体領域は重複関係にあるとする。遮蔽物体重複領域識別部107は、この処理を繰り返し行い、重複した遮蔽物体領域のリストを作成する。遮蔽物体の重複関係はリストに限定せず、重複関係を記述するものであればよい。例として、図7に示す環境に対して遮蔽物体を623とした場合、遮蔽物体重複領域識別部107による遮蔽物体の重複関係のリストを記述した場合、図8のようになる。遮蔽物体重複領域識別部107は、この重複関係リストを領域設定部108に出力する。
Robj1 AND Robj2=1・・・式(2)
|dobject_area−darea| > threshold ・・・式(3)
領域設定部108は、遮蔽物体重複領域識別部107の出力結果を基に、追跡対象210が再出現する領域792を設定する。図9の例では領域の設定を矩形に設定しているが、本実施形態はこれに限定するものではなく、矩形には限定せず円形でも楕円でもよい。領域設定部108は、設定した領域792を初期検出部101若しくは予測部102に出力する。このことで追跡対象210が遮蔽物体220に隠蔽されたことによって、追跡ループが中断されたあと、遮蔽物体220や、重複遮蔽物体230から出現した際にも検出することが可能となる追跡装置100を実現することができる。
以上が、本実施形態に係る追跡装置100に関する構成部分である。これにより物体が複数あり、重なり合って見える環境でも追跡の安定化を図ることができる。
続いて、本実施形態における情報処理方法について説明する。
図10は、追跡処理の一例を示すフローチャートである。
ステップ1において、初期検出部101は、撮像手段より得られた画像中に追跡対象がないか初期検出を行う。初期検出部101は、初期検出で追跡対象を検出できた場合、画像から追跡対象のテンプレートを作成する。初期検出部101は、テンプレートとして、画像情報をそのまま抽出してもよいし、追跡対象の画像特徴を使って生成してもよい。
ステップ2において、予測部102は、追跡対象が次のフレームにおいて出現する可能性の高い位置の予測を行う。予測方法においてはパーティクルフィルタ等の一般的な予測手法を用いることができるが、それのみには限定しない。
ステップ3において、対象検出部103は、ステップ2で予測された位置に対してステップ1で取得された追跡対象のテンプレートを用いて次フレームにおいて追跡対象の検出を行う。
ステップ4において、対象検出部103は、追跡対象を検出できたか判定を行う。対象検出部103は、テンプレートと画像との相関値を計算して、任意の閾値以上であれば検出と判定してもよいし、それ以外の方法で判定してもよい。対象検出部103は、追跡対象を検出できれば、ステップ3に戻って再度予測を行う。検出できなかった場合はステップ7に進む。
上記ステップ1から4までが追跡の枠組みになる。以下のステップ5から8までは遮蔽に対応した追跡方法について説明する。
ステップ5において、遮蔽判定部105は、ステップ3で予測した追跡対象の位置においてステップ4での検出に失敗した場合、検出失敗の原因が環境中にある物体によって遮蔽されたか否かを判定する。遮蔽判定部105は、デプスカメラ等より取得した奥行き情報を使い、検出位置の奥行きと予測位置の奥行きとが離れている場合に遮蔽と判定する。遮蔽判定部105は、遮蔽によるものではなく追跡対象を消失したと判定した場合は、ステップ1若しくはステップ3に戻る。遮蔽判定部105は、遮蔽によるものと判定した場合は、ステップ6へ進む。なお、デプスカメラにはステレオカメラの他、TOFカメラを使ってもよい。
ステップ6において、遮蔽物体領域抽出部106は、ステップ3で予測された位置に遮蔽物があると判定されたので、画像中での遮蔽物体の領域を抽出する。遮蔽物体領域抽出部106は、予測位置の奥行きの情報を使って、奥行きが近いものの画素を抜き出して領域とする。その他の方法として、遮蔽物体領域抽出部106は、予測位置の画像特徴を抽出してセグメンテーションをして領域を抽出してもよい。ステップ6では、遮蔽物体領域抽出部106は、画像中にある別の物体領域も同時に抽出する。
ステップ7において、遮蔽物体重複領域識別部107は、抽出された遮蔽物体の領域において、その遮蔽物体領域と重なる領域、また前記領域と重なる領域を識別し、上述したように、重複した遮蔽物体領域のリストを作成する。
ステップ8において、領域設定部108は、前記リストを基に追跡対象が再度出現する位置を設定する。
このように、実施形態1の処理によれば、追跡対象が遮蔽物によって隠れた場合に対して遮蔽物体の領域と重なって見える別の遮蔽物体の領域が連結され、それに応じて探索領域が設定される。これにより、追跡対象が見えないときにこれまでとは異なる移動をして、検出した遮蔽物体とは別の場所から再出現しても追跡が可能となる。
<実施形態2>
続いて、実施形態2について説明する。図11は、実施形態2の追跡装置100のソフトウェア構成の一例を示す図である。実施形態2の追跡装置100の構成は、実施形態1の構成に加えて、時間情報記録部109が更に加えられている。
時間情報記録部109は、追跡対象が遮蔽判定されたときの時間を記録し、その記録した時間を領域設定部108に出力する。
領域設定部108は、予測位置と遮蔽物体領域と重複する遮蔽物体領域と時間情報とを基に、図12に示すように設定領域に対して重みをつける。例えば、遮蔽判定直後の時間では、追跡対象1010は物体1021によって遮蔽されていると考えられる。そのため、追跡対象1010が極端な移動をしないと仮定した場合、物体931の裏に回り込んで出てくる場合は少し時間が必要である。そのため、領域設定部108は、追跡対象が遮蔽されて間が無いときは物体1021の周囲領域1093の重みを強くし、物体1031の周囲領域1092の重みを弱く設定する。
しかし、遮蔽された状態のまま時間が経過するにつれ、追跡対象1010は物体993の領域に移動することも考えられるため、追跡対象1010は、領域1093と領域1094とのどちらからでも出現する可能性が高くなる。そのため領域設定部108は、物体1021と物体1031との周囲領域に一定の重みをつけた領域1095を設定する。
<実施形態3>
続いて、実施形態3について説明する。図13は、実施形態3の追跡装置100のソフトウェア構成の一例を示す図である。実施形態3の追跡装置100の構成は、実施形態1の構成に加えて、物体情報記録部110と物体認識部111とが更に加えられている。
物体情報記録部110は、環境中にある物体情報(例えば、図14に示されるようなベッド1202、棚1203、テーブル1204、いす1205等の3次元形状等)が記録されている。物体認識部111は、奥行き情報取得部104と物体情報記録部110の情報とを基に環境中にある遮蔽物体を認識する。物体認識部111は、認識結果から物体情報記録部110に保存されている物体に関連付けられた追跡対象の行動情報を領域設定部108に出力する。
領域設定部108は、遮蔽物体重複領域識別部107の出力と物体認識部111の出力とを基に、重み付き領域を設定する。例えば、領域設定部108は、ベッドではその頭側の領域には重みを弱くし、側面側の領域の重みを強くする。
実施形態3の処理によれば、追跡の安定化を図ることができる。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
上述した各実施形態の処理によれば、画像中の複数の物体が乱雑にある環境においても移動物体の追跡を安定して行うことができる。遮蔽によって追跡が中断されても、遮蔽物体の周囲から再出現した際に高速で追跡を再開することができる。例えば、複数の物体が重なって見える環境においての人の移動を安定して追跡できる。
つまり、複数の遮蔽物が重なり合って見える環境であっても、安定した物体追跡を可能にすることができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
10 制御装置
100 追跡装置

Claims (5)

  1. 画像から追跡対象を検出し、追跡する情報処理装置であって、
    前記追跡対象を検出できなかった場合に前記追跡対象が物体によって遮蔽されたか否かを判定する判定手段と、
    前記判定手段で前記追跡対象が物体によって遮蔽されたと判定された場合、前記画像より前記物体の領域と、前記物体と重複する物体の領域と、を抽出する抽出手段と、
    前記抽出手段で抽出された前記領域を関連付け、関連付けた領域に基づいて、次に追跡対象が現れる領域を設定する設定手段と、
    を有する情報処理装置。
  2. 前記判定手段は、前記追跡対象の検出に失敗する前の前記追跡対象の検出位置の奥行き情報と、前記追跡対象の検出に失敗した後の前記追跡対象の予測位置の奥行き情報と、を比較し、前記追跡対象の検出位置の奥行きの方が長い場合、前記追跡対象が物体によって遮蔽されたと判定する請求項1記載の情報処理装置。
  3. 前記追跡対象の検出に失敗する前の前記追跡対象の検出位置の奥行き情報と、前記追跡対象の検出に失敗した後の前記追跡対象の予測位置の奥行き情報と、を取得する奥行き情報取得手段を更に有し、
    前記判定手段は、前記奥行き情報取得手段で取得された、前記検出位置の奥行き情報と、前記予測位置の奥行き情報と、を比較する請求項2記載の情報処理装置。
  4. 画像から追跡対象を検出し、追跡する情報処理装置が実行する情報処理方法であって、
    前記追跡対象を検出できなかった場合に前記追跡対象が物体によって遮蔽されたか否かを判定する判定ステップと、
    前記判定ステップで前記追跡対象が物体によって遮蔽されたと判定された場合、前記画像より前記物体の領域と、前記物体と重複する物体の領域と、を抽出する抽出ステップと、
    前記抽出ステップで抽出された前記領域を関連付け、関連付けた領域に基づいて、次に追跡対象が現れる領域を設定する設定ステップと、
    を含む情報処理方法。
  5. 画像から追跡対象を検出し、追跡するコンピュータに、
    前記追跡対象を検出できなかった場合に前記追跡対象が物体によって遮蔽されたか否かを判定する判定ステップと、
    前記判定ステップで前記追跡対象が物体によって遮蔽されたと判定された場合、前記画像より前記物体の領域と、前記物体と重複する物体の領域と、を抽出する抽出ステップと、
    前記抽出ステップで抽出された前記領域を関連付け、関連付けた領域に基づいて、次に追跡対象が現れる領域を設定する設定ステップと、
    を実行させるプログラム。
JP2011052016A 2011-03-09 2011-03-09 情報処理装置、情報処理方法及びプログラム Active JP5754990B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011052016A JP5754990B2 (ja) 2011-03-09 2011-03-09 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011052016A JP5754990B2 (ja) 2011-03-09 2011-03-09 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2012191354A true JP2012191354A (ja) 2012-10-04
JP5754990B2 JP5754990B2 (ja) 2015-07-29

Family

ID=47084054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011052016A Active JP5754990B2 (ja) 2011-03-09 2011-03-09 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5754990B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015002303A1 (ja) * 2013-07-04 2015-01-08 オリンパス株式会社 追尾装置、追尾方法及び追尾プログラムを記憶した非一時的記憶媒体
KR101505557B1 (ko) 2013-08-30 2015-03-25 고려대학교 산학협력단 축사 내 각각의 객체 간의 겹침 처리장치 및 방법
JP2015120573A (ja) * 2013-12-24 2015-07-02 株式会社日立製作所 画像認識機能を備えたエレベータ
WO2017069038A1 (ja) * 2015-10-22 2017-04-27 日本精機株式会社 車載表示システム
WO2017216856A1 (ja) * 2016-06-14 2017-12-21 日産自動車株式会社 車間距離推定方法及び車間距離推定装置
JP2018180788A (ja) * 2017-04-07 2018-11-15 コニカミノルタ株式会社 動体追跡方法、動体追跡プログラム、および動体追跡システム
JP2018205870A (ja) * 2017-05-31 2018-12-27 Kddi株式会社 オブジェクト追跡方法および装置
JP2021026685A (ja) * 2019-08-08 2021-02-22 セコム株式会社 対象物認識装置、対象物認識方法、及び対象物認識プログラム
JP2021110708A (ja) * 2020-01-15 2021-08-02 パイオニア株式会社 移動体検出装置、移動体検出方法、およびプログラム
JP2022523282A (ja) * 2019-12-24 2022-04-22 商▲湯▼国▲際▼私人有限公司 画像選別方法、装置、及び電子デバイス
WO2024042705A1 (ja) * 2022-08-26 2024-02-29 日本電気株式会社 映像処理システム、映像処理方法、及び映像処理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079659A (ja) * 2005-09-12 2007-03-29 Nec Engineering Ltd 監視装置
JP2007272436A (ja) * 2006-03-30 2007-10-18 Univ Of Electro-Communications 物体追跡装置、異常状態検知装置及び物体追跡方法
JP2010237872A (ja) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム
JP2012080221A (ja) * 2010-09-30 2012-04-19 Jvc Kenwood Corp 目標追跡装置、目標追跡方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079659A (ja) * 2005-09-12 2007-03-29 Nec Engineering Ltd 監視装置
JP2007272436A (ja) * 2006-03-30 2007-10-18 Univ Of Electro-Communications 物体追跡装置、異常状態検知装置及び物体追跡方法
JP2010237872A (ja) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd 人物領域検出装置、人物領域検出方法、及び人物領域検出プログラム
JP2012080221A (ja) * 2010-09-30 2012-04-19 Jvc Kenwood Corp 目標追跡装置、目標追跡方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10061983B2 (en) 2013-07-04 2018-08-28 Olympus Corporation Tracking apparatus, tracking method, and non-transitory storage medium storing tracking program
JP2015015592A (ja) * 2013-07-04 2015-01-22 オリンパス株式会社 追尾装置、追尾方法及び追尾プログラム
WO2015002303A1 (ja) * 2013-07-04 2015-01-08 オリンパス株式会社 追尾装置、追尾方法及び追尾プログラムを記憶した非一時的記憶媒体
KR101505557B1 (ko) 2013-08-30 2015-03-25 고려대학교 산학협력단 축사 내 각각의 객체 간의 겹침 처리장치 및 방법
JP2015120573A (ja) * 2013-12-24 2015-07-02 株式会社日立製作所 画像認識機能を備えたエレベータ
WO2017069038A1 (ja) * 2015-10-22 2017-04-27 日本精機株式会社 車載表示システム
RU2693015C1 (ru) * 2016-06-14 2019-07-01 Ниссан Мотор Ко., Лтд. Способ оценки расстояния между транспортными средствами и устройство оценки расстояния между транспортными средствами
KR20190005189A (ko) * 2016-06-14 2019-01-15 닛산 지도우샤 가부시키가이샤 차간 거리 추정 방법 및 차간 거리 추정 장치
KR101980509B1 (ko) 2016-06-14 2019-05-20 닛산 지도우샤 가부시키가이샤 차간 거리 추정 방법 및 차간 거리 추정 장치
JPWO2017216856A1 (ja) * 2016-06-14 2019-06-13 日産自動車株式会社 車間距離推定方法及び車間距離推定装置
WO2017216856A1 (ja) * 2016-06-14 2017-12-21 日産自動車株式会社 車間距離推定方法及び車間距離推定装置
US10501077B2 (en) 2016-06-14 2019-12-10 Nissan Motor Co., Ltd. Inter-vehicle distance estimation method and inter-vehicle distance estimation device
JP2018180788A (ja) * 2017-04-07 2018-11-15 コニカミノルタ株式会社 動体追跡方法、動体追跡プログラム、および動体追跡システム
JP2018205870A (ja) * 2017-05-31 2018-12-27 Kddi株式会社 オブジェクト追跡方法および装置
JP2021026685A (ja) * 2019-08-08 2021-02-22 セコム株式会社 対象物認識装置、対象物認識方法、及び対象物認識プログラム
JP7349288B2 (ja) 2019-08-08 2023-09-22 セコム株式会社 対象物認識装置、対象物認識方法、及び対象物認識プログラム
JP2022523282A (ja) * 2019-12-24 2022-04-22 商▲湯▼国▲際▼私人有限公司 画像選別方法、装置、及び電子デバイス
JP2021110708A (ja) * 2020-01-15 2021-08-02 パイオニア株式会社 移動体検出装置、移動体検出方法、およびプログラム
WO2024042705A1 (ja) * 2022-08-26 2024-02-29 日本電気株式会社 映像処理システム、映像処理方法、及び映像処理装置

Also Published As

Publication number Publication date
JP5754990B2 (ja) 2015-07-29

Similar Documents

Publication Publication Date Title
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7004017B2 (ja) 物体追跡システム、物体追跡方法、プログラム
Seemanthini et al. Human detection and tracking using HOG for action recognition
US10417773B2 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
JP6561830B2 (ja) 情報処理システム、情報処理方法及びプログラム
Bondi et al. Real-time people counting from depth imagery of crowded environments
KR102595604B1 (ko) 이벤트 기반 센서를 이용한 객체의 검출 방법 및 장치
KR102296088B1 (ko) 보행자 추적 방법 및 전자 디바이스
US9704264B2 (en) Method for tracking a target in an image sequence, taking the dynamics of the target into consideration
WO2017129020A1 (zh) 视频中人体行为识别的方法、装置和计算机存储介质
JP6731097B2 (ja) 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体
EP2450832A1 (en) Image processing apparatus and image processing method
JP5381569B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6868061B2 (ja) 人物追跡方法、装置、機器及び記憶媒体
TW201246089A (en) Method for setting dynamic environmental image borders and method for instantly determining the content of staff member activities
US9256945B2 (en) System for tracking a moving object, and a method and a non-transitory computer readable medium thereof
KR101492059B1 (ko) 평균이동 알고리즘을 적용한 실시간 객체 추적방법 및 시스템
JP2016207185A (ja) 動き判定装置、動き判定方法、および動き判定プログラム
KR101595334B1 (ko) 농장에서의 움직임 개체의 이동 궤적 트래킹 방법 및 장치
KR20150071920A (ko) 얼굴 식별을 이용한 사람 수 카운팅 장치 및 방법
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
KR20140123399A (ko) 사용자 영상의 신체 부위를 검출하는 장치 및 방법
KR101646580B1 (ko) 하체 검출/추적 장치 및 방법
JP2017151582A (ja) カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150526

R151 Written notification of patent or utility model registration

Ref document number: 5754990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151