JP5754990B2 - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP5754990B2 JP5754990B2 JP2011052016A JP2011052016A JP5754990B2 JP 5754990 B2 JP5754990 B2 JP 5754990B2 JP 2011052016 A JP2011052016 A JP 2011052016A JP 2011052016 A JP2011052016 A JP 2011052016A JP 5754990 B2 JP5754990 B2 JP 5754990B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- region
- tracking target
- depth
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
従来、画像における移動物体の追跡において、追跡における精度の高度化や追跡失敗時の回復方法において環境のモデルを用いる方法がある。
例えば、特許文献1によれば追跡対象が特定領域と重なった場合、特定領域の周囲を監視し、移動物体が再出現するのを待つ方法が開示されている。
Conventionally, in tracking a moving object in an image, there is a method of using an environment model in a method of improving accuracy in tracking and a recovery method when tracking fails.
For example, Patent Document 1 discloses a method of monitoring the periphery of a specific area and waiting for a moving object to reappear when the tracking target overlaps with the specific area.
しかしながら、特許文献1に開示される技術では、複数の物体が重なりあって見えるような屋内環境では一つの特定領域を特定しただけでは、その特定領域から移動物体が再度出現する可能性を限定することはできないという問題があった。 However, in the technology disclosed in Patent Document 1, in an indoor environment where a plurality of objects appear to overlap each other, if only one specific area is specified, the possibility that a moving object will appear again from the specific area is limited. There was a problem that we couldn't.
本発明はこのような問題点に鑑みなされたもので、複数の遮蔽物が重なり合って見える環境であっても、安定した物体追跡を可能にすることを目的とする。 The present invention has been made in view of such problems, and an object thereof is to enable stable object tracking even in an environment where a plurality of shielding objects appear to overlap each other.
そこで、本発明は、画像から追跡対象を検出し、追跡する情報処理装置であって、前記追跡対象を検出できなかった場合に前記追跡対象が物体によって遮蔽されたか否かを判定する判定手段と、前記判定手段で前記追跡対象が物体によって遮蔽されたと判定された場合、前記画像より前記物体の領域と、前記物体と重複する物体の領域と、を抽出する抽出手段と、前記抽出手段で抽出された前記物体の領域と、前記物体と重複する物体の領域と、を関連付け、関連付けた領域の近傍に、次に追跡対象が現れる領域を設定する設定手段と、を有し、前記判定手段は、前記追跡対象の検出に失敗する前の前記追跡対象の検出位置の奥行きと、前記追跡対象の検出に失敗した後の前記追跡対象の予測位置の奥行きと、を比較し、前記追跡対象の検出位置の奥行きの方が長い場合、前記追跡対象が物体によって遮蔽されたと判定する。 Therefore, the present invention is an information processing apparatus that detects and tracks a tracking target from an image, and determines whether the tracking target is shielded by an object when the tracking target cannot be detected. When the determination unit determines that the tracking target is shielded by an object, the extraction unit extracts the object region and the object region overlapping the object from the image, and the extraction unit extracts the region. and the object region that is associate, and the object of the area overlapping with the object, in the vicinity of the associated region, then a setting means for setting a region in which the tracking target appears, wherein the determining means The depth of the detection position of the tracking object before the detection of the tracking object fails is compared with the depth of the predicted position of the tracking object after the detection of the tracking object fails, and the detection of the tracking object is performed. If towards the depth of the location is long, it is determined that the tracking target is shielded by the object.
本発明によれば、複数の遮蔽物が重なり合って見える環境であっても、安定した物体追跡を可能にすることができる。 According to the present invention, it is possible to enable stable object tracking even in an environment where a plurality of shielding objects appear to overlap each other.
以下、本発明の実施形態について図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<実施形態1>
本実施形態に係る追跡装置は、映像監視・モニタリングに用いられるものであり、撮像手段は一般的なネットワークカメラでもよいし、追尾機能付きカメラ等も利用できる。以下に図を用いて本実施形態を示す。なお、追跡装置は、情報処理装置の一例である。
本実施形態では、複数の物体がある環境において画像を撮影し、得られた動画像から追跡対象となる人物を追跡する場合について説明する。本実施形態に係る環境を屋内とし追跡対象は人物としているが、これに限定するものではなく、他の環境における移動する物体ならば、これを用いることができる。
図1は、追跡装置のハードウェア構成の一例を示す図である。
制御装置10は、CPU等であって、追跡装置100の全体を制御する。記憶装置11は、RAM及び/又はROM及び/又はHDD等の記憶装置であって、例えば、画像やプログラム等を記憶する。通信装置12は、追跡装置をネットワーク等に接続する装置である。以下で示す本実施形態では、追跡装置100は、通信装置12を介してネットワークカメラ等に接続されているものとする。
制御装置10が、記憶装置11に記憶されているプログラムに基づき処理を実行することによって、後述する追跡装置100の機能及びフローチャートに係る処理が実現される。
<Embodiment 1>
The tracking device according to the present embodiment is used for video monitoring / monitoring, and the imaging means may be a general network camera, or a camera with a tracking function. This embodiment will be described below with reference to the drawings. The tracking device is an example of an information processing device.
In the present embodiment, a case will be described in which an image is taken in an environment with a plurality of objects, and a person to be tracked is tracked from the obtained moving image. Although the environment according to the present embodiment is indoors and the tracking target is a person, the present invention is not limited to this, and any object that moves in another environment can be used.
FIG. 1 is a diagram illustrating an example of a hardware configuration of the tracking device.
The
When the
後述する図3は、本実施形態が対象とする画像の一例である。追跡対象210は、移動方向250に移動していると仮定する。画像200では、追跡対象がいる環境には、物体220、230、240が存在し、それぞれ異なる形状・位置にあり、それらのうちいくつかが重なって見える様子が表されている。追跡装置100は、初期検出により追跡対象210を検出し、追跡対象210の追跡を行う。探索領域260は、追跡装置100が、次の時刻における追跡対象210が矩形領域内の位置に移動すると予測した領域を表す。追跡装置100は、この追跡対象210の予測には移動物体のダイナミクスによる予測やパーティクルフィルタ等の追跡の枠組みにおける予測を利用してもよい。
図2は、実施形態1の追跡装置100のソフトウェア構成の一例を示す図である。
図2に示すように、追跡装置100は、初期検出部101と、予測部102と、対象検出部103と、奥行き情報取得部104と、遮蔽判定部105と、遮蔽物体領域抽出部106と、遮蔽物体重複領域識別部107と、領域設定部108と、を含む。
初期検出部101は、画像から追跡対象210を検出するものであって、テンプレートマッチングといった一般的な物体検出手法を用いることができる。初期検出部101は、追跡対象210を検出し、追跡対象210の検出位置270を予測部102に出力する。
FIG. 3 described later is an example of an image targeted by this embodiment. It is assumed that the
FIG. 2 is a diagram illustrating an example of a software configuration of the
As shown in FIG. 2, the
The
図3は、画像200の一例を示す図である。
図3に示すように、予測部102は、初期検出部101より追跡対象210の検出位置270を受取り、次の時刻に追跡対象210が移動する方向(移動方向)250を基に移動する位置を予測し、予測位置280と探索領域260を設定する。予測部102は、この予測位置280を対象検出部103へ出力する。
対象検出部103は、予測部102から出力された予測位置280を基に、次の時刻の画像を取得し、追跡対象210が予測位置280及び探索領域260にあるか検出を行う。探索領域260内に追跡対象210を検出できれば、予測部102に処理を戻し、予測部102が、次々刻の追跡対象210の位置を予測する。検出できなければ、対象検出部103は、遮蔽判定部105に予測位置280を出力する。
奥行き情報取得部104は、画像中の各画素の奥行き情報等を取得する。奥行き情報取得部104は、ステレオカメラによるスパースな特徴点の奥行きを取得する方法を使って距離計測を用いてもよいし、TOFカメラといった赤外線による距離計測カメラによって、全画素ピクセルの奥行き情報を取得してもよい。本実施形態ではTOFを用いた場合を例に説明する。奥行き情報取得部104は、遮蔽判定部105、遮蔽物体領域抽出部106、遮蔽物体重複領域識別部107に奥行き情報を出力することができる。
FIG. 3 is a diagram illustrating an example of the
As shown in FIG. 3, the
The
The depth
図4に示すように遮蔽判定部105は、対象検出部103の結果と、予測部102の結果とより、予測位置280に対して追跡対象210が遮蔽物体220によって遮蔽されているかどうかを判定する。本実施形態では、遮蔽判定部105は、奥行き情報取得部104の結果を基に行う例を示すが、これに限定するものではなく、特開2006−311099号公報等に開示された奥行きを用いない方法で遮蔽判定を行ってもよい。遮蔽判定部105は、奥行き情報取得部104から予測位置280の画素における奥行き情報380を取得し、時刻tにおける追跡対象210の検出位置270の画素における奥行き情報370と比較する。
この2つの位置について、後述する式(1)に示すように検出位置270の画素の奥行き情報370が予測位置280の画素の奥行き情報380より遠い場合、遮蔽判定部105は、追跡対象210は遮蔽されていると判定する。そして、遮蔽判定部105は、遮蔽物体領域抽出部106へ予測位置280、及びその奥行き情報380を出力する。遮蔽によるものではないと判定した場合は、本実施形態では対象としないが、初期検出部101若しくは予測部102へと処理を戻し、引き続き処理を行う。
depthposition > depthpredict ・・・式(1)
As illustrated in FIG. 4, the
For these two positions, when the
depthposition> depthpredict (1)
図5に示すように、遮蔽物体領域抽出部106は、遮蔽判定部105の結果を基に、予測位置280の奥行き情報380にある遮蔽物体220の領域420を抽出する。遮蔽物体領域抽出部106は奥行き情報取得部104から予測位置280の画素の奥行き情報380を取得し、予測位置280の奥行き情報380の奥行き情報に対して閾値判別によって近隣ピクセルで同様の奥行きを持つ画素を抽出して物体領域420を生成する。同様に、遮蔽物体領域抽出部106は、奥行き情報を基に、画像中の他の遮蔽物体230、及び240の領域430、及び440も抽出する。本実施形態では遮蔽物体領域抽出部106は、奥行き情報に基づいて物体領域抽出をした例を示した。しかしながら、本実施形態はこれに限定するものではなく、遮蔽物体領域抽出部106は、奥行き情報を用いず、予測位置280の画素の輝度値・色情報や画像特徴に対して、Graph−Cutやwatershed法、mean−shift法等のセグメンテーションアルゴリズムを適用する等して抽出してもよい。遮蔽物体領域抽出部106は、予測位置280を遮蔽する物体領域420及び他の物体領域430、440を遮蔽物体重複領域識別部107へ出力する。
As illustrated in FIG. 5, the occluded object
図6に示すように、遮蔽物体重複領域識別部107は、追跡対象210を遮蔽している物体領域420と重なっている他の物体領域430、またその領域と重なる領域を識別する。遮蔽物体重複領域識別部107は、各遮蔽物体220、230、240の領域420、430、440が画像中で後述する式(2)のように領域及び境界に重なりがあり、かつ、物体領域の奥行きが後述する式(3)のようにある程度離れている場合、2つの遮蔽物体領域は重複関係にあるとする。遮蔽物体重複領域識別部107は、この処理を繰り返し行い、重複した遮蔽物体領域のリストを作成する。遮蔽物体の重複関係はリストに限定せず、重複関係を記述するものであればよい。例として、図7に示す環境に対して遮蔽物体を623とした場合、遮蔽物体重複領域識別部107による遮蔽物体の重複関係のリストを記述した場合、図8のようになる。遮蔽物体重複領域識別部107は、この重複関係リストを領域設定部108に出力する。
Robj1 AND Robj2=1・・・式(2)
|dobject_area−darea| > threshold ・・・式(3)
As illustrated in FIG. 6, the occluded object overlap
Robj1 AND Robj2 = 1 (2)
| Object_area-area |> threshold (Formula (3))
領域設定部108は、遮蔽物体重複領域識別部107の出力結果を基に、追跡対象210が再出現する領域792を設定する。図9の例では領域の設定を矩形に設定しているが、本実施形態はこれに限定するものではなく、矩形には限定せず円形でも楕円でもよい。領域設定部108は、設定した領域792を初期検出部101若しくは予測部102に出力する。このことで追跡対象210が遮蔽物体220に隠蔽されたことによって、追跡ループが中断されたあと、遮蔽物体220や、重複遮蔽物体230から出現した際にも検出することが可能となる追跡装置100を実現することができる。
以上が、本実施形態に係る追跡装置100に関する構成部分である。これにより物体が複数あり、重なり合って見える環境でも追跡の安定化を図ることができる。
The
The above is the components related to the
続いて、本実施形態における情報処理方法について説明する。
図10は、追跡処理の一例を示すフローチャートである。
ステップ1において、初期検出部101は、撮像手段より得られた画像中に追跡対象がないか初期検出を行う。初期検出部101は、初期検出で追跡対象を検出できた場合、画像から追跡対象のテンプレートを作成する。初期検出部101は、テンプレートとして、画像情報をそのまま抽出してもよいし、追跡対象の画像特徴を使って生成してもよい。
ステップ2において、予測部102は、追跡対象が次のフレームにおいて出現する可能性の高い位置の予測を行う。予測方法においてはパーティクルフィルタ等の一般的な予測手法を用いることができるが、それのみには限定しない。
ステップ3において、対象検出部103は、ステップ2で予測された位置に対してステップ1で取得された追跡対象のテンプレートを用いて次フレームにおいて追跡対象の検出を行う。
ステップ4において、対象検出部103は、追跡対象を検出できたか判定を行う。対象検出部103は、テンプレートと画像との相関値を計算して、任意の閾値以上であれば検出と判定してもよいし、それ以外の方法で判定してもよい。対象検出部103は、追跡対象を検出できれば、ステップ3に戻って再度予測を行う。検出できなかった場合はステップ7に進む。
上記ステップ1から4までが追跡の枠組みになる。以下のステップ5から8までは遮蔽に対応した追跡方法について説明する。
Subsequently, an information processing method in the present embodiment will be described.
FIG. 10 is a flowchart illustrating an example of the tracking process.
In step 1, the
In step 2, the
In step 3, the
In step 4, the
Steps 1 to 4 are the tracking framework. In the following steps 5 to 8, a tracking method corresponding to shielding will be described.
ステップ5において、遮蔽判定部105は、ステップ3で予測した追跡対象の位置においてステップ4での検出に失敗した場合、検出失敗の原因が環境中にある物体によって遮蔽されたか否かを判定する。遮蔽判定部105は、デプスカメラ等より取得した奥行き情報を使い、検出位置の奥行きと予測位置の奥行きとが離れている場合に遮蔽と判定する。遮蔽判定部105は、遮蔽によるものではなく追跡対象を消失したと判定した場合は、ステップ1若しくはステップ3に戻る。遮蔽判定部105は、遮蔽によるものと判定した場合は、ステップ6へ進む。なお、デプスカメラにはステレオカメラの他、TOFカメラを使ってもよい。
ステップ6において、遮蔽物体領域抽出部106は、ステップ3で予測された位置に遮蔽物があると判定されたので、画像中での遮蔽物体の領域を抽出する。遮蔽物体領域抽出部106は、予測位置の奥行きの情報を使って、奥行きが近いものの画素を抜き出して領域とする。その他の方法として、遮蔽物体領域抽出部106は、予測位置の画像特徴を抽出してセグメンテーションをして領域を抽出してもよい。ステップ6では、遮蔽物体領域抽出部106は、画像中にある別の物体領域も同時に抽出する。
ステップ7において、遮蔽物体重複領域識別部107は、抽出された遮蔽物体の領域において、その遮蔽物体領域と重なる領域、また前記領域と重なる領域を識別し、上述したように、重複した遮蔽物体領域のリストを作成する。
ステップ8において、領域設定部108は、前記リストを基に追跡対象が再度出現する位置を設定する。
In Step 5, when the detection in Step 4 fails in the tracking target position predicted in Step 3, the shielding
In Step 6, since it is determined that there is a shielding object at the position predicted in Step 3, the shielding object
In step 7, the occluded object overlapping
In
このように、実施形態1の処理によれば、追跡対象が遮蔽物によって隠れた場合に対して遮蔽物体の領域と重なって見える別の遮蔽物体の領域が連結され、それに応じて探索領域が設定される。これにより、追跡対象が見えないときにこれまでとは異なる移動をして、検出した遮蔽物体とは別の場所から再出現しても追跡が可能となる。 As described above, according to the processing of the first embodiment, when the tracking target is hidden by the shielding object, the area of another shielding object that appears to overlap the area of the shielding object is connected, and the search area is set accordingly. Is done. Thereby, when the tracking target cannot be seen, the movement is different from the previous one, and the tracking can be performed even if it reappears from a different location from the detected occluding object.
<実施形態2>
続いて、実施形態2について説明する。図11は、実施形態2の追跡装置100のソフトウェア構成の一例を示す図である。実施形態2の追跡装置100の構成は、実施形態1の構成に加えて、時間情報記録部109が更に加えられている。
時間情報記録部109は、追跡対象が遮蔽判定されたときの時間を記録し、その記録した時間を領域設定部108に出力する。
領域設定部108は、予測位置と遮蔽物体領域と重複する遮蔽物体領域と時間情報とを基に、図12に示すように設定領域に対して重みをつける。例えば、遮蔽判定直後の時間では、追跡対象1010は物体1021によって遮蔽されていると考えられる。そのため、追跡対象1010が極端な移動をしないと仮定した場合、物体931の裏に回り込んで出てくる場合は少し時間が必要である。そのため、領域設定部108は、追跡対象が遮蔽されて間が無いときは物体1021の周囲領域1093の重みを強くし、物体1031の周囲領域1092の重みを弱く設定する。
しかし、遮蔽された状態のまま時間が経過するにつれ、追跡対象1010は物体993の領域に移動することも考えられるため、追跡対象1010は、領域1093と領域1094とのどちらからでも出現する可能性が高くなる。そのため領域設定部108は、物体1021と物体1031との周囲領域に一定の重みをつけた領域1095を設定する。
<Embodiment 2>
Next, Embodiment 2 will be described. FIG. 11 is a diagram illustrating an example of a software configuration of the
The time
The
However, since the
<実施形態3>
続いて、実施形態3について説明する。図13は、実施形態3の追跡装置100のソフトウェア構成の一例を示す図である。実施形態3の追跡装置100の構成は、実施形態1の構成に加えて、物体情報記録部110と物体認識部111とが更に加えられている。
物体情報記録部110は、環境中にある物体情報(例えば、図14に示されるようなベッド1202、棚1203、テーブル1204、いす1205等の3次元形状等)が記録されている。物体認識部111は、奥行き情報取得部104と物体情報記録部110の情報とを基に環境中にある遮蔽物体を認識する。物体認識部111は、認識結果から物体情報記録部110に保存されている物体に関連付けられた追跡対象の行動情報を領域設定部108に出力する。
領域設定部108は、遮蔽物体重複領域識別部107の出力と物体認識部111の出力とを基に、重み付き領域を設定する。例えば、領域設定部108は、ベッドではその頭側の領域には重みを弱くし、側面側の領域の重みを強くする。
実施形態3の処理によれば、追跡の安定化を図ることができる。
<Embodiment 3>
Subsequently, Embodiment 3 will be described. FIG. 13 is a diagram illustrating an example of a software configuration of the
The object
The
According to the processing of the third embodiment, the tracking can be stabilized.
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.
上述した各実施形態の処理によれば、画像中の複数の物体が乱雑にある環境においても移動物体の追跡を安定して行うことができる。遮蔽によって追跡が中断されても、遮蔽物体の周囲から再出現した際に高速で追跡を再開することができる。例えば、複数の物体が重なって見える環境においての人の移動を安定して追跡できる。
つまり、複数の遮蔽物が重なり合って見える環境であっても、安定した物体追跡を可能にすることができる。
According to the processing of each embodiment described above, it is possible to stably track a moving object even in an environment where a plurality of objects in an image are cluttered. Even if tracking is interrupted by occlusion, tracking can be resumed at high speed when it reappears from around the occluded object. For example, it is possible to stably track the movement of a person in an environment where a plurality of objects appear to overlap.
That is, stable object tracking can be achieved even in an environment where a plurality of shielding objects appear to overlap each other.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
10 制御装置
100 追跡装置
10
Claims (4)
前記追跡対象を検出できなかった場合に前記追跡対象が物体によって遮蔽されたか否かを判定する判定手段と、
前記判定手段で前記追跡対象が物体によって遮蔽されたと判定された場合、前記画像より前記物体の領域と、前記物体と重複する物体の領域と、を抽出する抽出手段と、
前記抽出手段で抽出された前記物体の領域と、前記物体と重複する物体の領域と、を関連付け、関連付けた領域の近傍に、次に追跡対象が現れる領域を設定する設定手段と、
を有し、
前記判定手段は、前記追跡対象の検出に失敗する前の前記追跡対象の検出位置の奥行きと、前記追跡対象の検出に失敗した後の前記追跡対象の予測位置の奥行きと、を比較し、前記追跡対象の検出位置の奥行きの方が長い場合、前記追跡対象が物体によって遮蔽されたと判定する情報処理装置。 An information processing apparatus for detecting and tracking a tracking target from an image,
Determining means for determining whether or not the tracking target is occluded by an object when the tracking target cannot be detected;
An extraction unit that extracts the region of the object and the region of the object that overlaps the object from the image when the determination unit determines that the tracking target is blocked by the object;
A setting unit that associates the region of the object extracted by the extraction unit with the region of the object that overlaps the object, and sets a region in which a tracking target appears next to the vicinity of the associated region;
Have
The determination means compares the depth of the detection position of the tracking object before the detection of the tracking object fails with the depth of the predicted position of the tracking object after the detection of the tracking object fails, An information processing apparatus that determines that the tracking target is shielded by an object when the depth of the detection position of the tracking target is longer .
前記判定手段は、前記奥行き情報取得手段で取得された、前記検出位置の奥行き情報と、前記予測位置の奥行き情報と、を比較する請求項1記載の情報処理装置。 Depth information acquisition means for acquiring depth information of the detection position of the tracking object before the detection of the tracking object fails and depth information of the predicted position of the tracking object after the detection of the tracking object fails. In addition,
The information processing apparatus according to claim 1 , wherein the determination unit compares the depth information of the detection position acquired by the depth information acquisition unit with the depth information of the predicted position .
前記追跡対象を検出できなかった場合に前記追跡対象が物体によって遮蔽されたか否かを判定する判定ステップと、
前記判定ステップで前記追跡対象が物体によって遮蔽されたと判定された場合、前記画像より前記物体の領域と、前記物体と重複する物体の領域と、を抽出する抽出ステップと、
前記抽出ステップで抽出された前記物体の領域と、前記物体と重複する物体の領域と、を関連付け、関連付けた領域の近傍に、次に追跡対象が現れる領域を設定する設定ステップと、
を含み、
前記判定ステップでは、前記追跡対象の検出に失敗する前の前記追跡対象の検出位置の奥行きと、前記追跡対象の検出に失敗した後の前記追跡対象の予測位置の奥行きと、を比較し、前記追跡対象の検出位置の奥行きの方が長い場合、前記追跡対象が物体によって遮蔽されたと判定する情報処理方法。 An information processing method executed by an information processing apparatus that detects and tracks a tracking target from an image,
A determination step of determining whether or not the tracking target is shielded by an object when the tracking target cannot be detected;
An extraction step of extracting the region of the object and the region of the object overlapping the object from the image when it is determined in the determination step that the tracking target is blocked by the object;
A step of associating the region of the object extracted in the extraction step with the region of the object that overlaps the object, and setting a region in which a tracking target appears next in the vicinity of the associated region;
Including
In the determination step, the depth of the detection position of the tracking object before the detection of the tracking object fails is compared with the depth of the predicted position of the tracking object after the detection of the tracking object fails, An information processing method for determining that the tracking target is shielded by an object when the depth of the detection position of the tracking target is longer .
前記追跡対象を検出できなかった場合に前記追跡対象が物体によって遮蔽されたか否かを判定する判定ステップと、
前記判定ステップで前記追跡対象が物体によって遮蔽されたと判定された場合、前記画像より前記物体の領域と、前記物体と重複する物体の領域と、を抽出する抽出ステップと、
前記抽出ステップで抽出された前記物体の領域と、前記物体と重複する物体の領域と、を関連付け、関連付けた領域の近傍に、次に追跡対象が現れる領域を設定する設定ステップと、
を実行させ、
前記判定ステップでは、前記追跡対象の検出に失敗する前の前記追跡対象の検出位置の奥行きと、前記追跡対象の検出に失敗した後の前記追跡対象の予測位置の奥行きと、を比較し、前記追跡対象の検出位置の奥行きの方が長い場合、前記追跡対象が物体によって遮蔽されたと判定するプログラム。 A computer that detects and tracks the tracking target from the image ,
A determination step of determining whether or not the tracking target is shielded by an object when the tracking target cannot be detected;
An extraction step of extracting the region of the object and the region of the object overlapping the object from the image when it is determined in the determination step that the tracking target is blocked by the object;
A step of associating the region of the object extracted in the extraction step with the region of the object that overlaps the object, and setting a region in which a tracking target appears next in the vicinity of the associated region;
Was executed,
In the determination step, the depth of the detection position of the tracking object before the detection of the tracking object fails is compared with the depth of the predicted position of the tracking object after the detection of the tracking object fails, A program for determining that the tracking target is shielded by an object when the depth of the detection position of the tracking target is longer .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011052016A JP5754990B2 (en) | 2011-03-09 | 2011-03-09 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011052016A JP5754990B2 (en) | 2011-03-09 | 2011-03-09 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012191354A JP2012191354A (en) | 2012-10-04 |
JP5754990B2 true JP5754990B2 (en) | 2015-07-29 |
Family
ID=47084054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011052016A Active JP5754990B2 (en) | 2011-03-09 | 2011-03-09 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5754990B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5810136B2 (en) * | 2013-07-04 | 2015-11-11 | オリンパス株式会社 | TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM |
KR101505557B1 (en) | 2013-08-30 | 2015-03-25 | 고려대학교 산학협력단 | Device and method for processing occlusion of each object in pen |
JP6134641B2 (en) * | 2013-12-24 | 2017-05-24 | 株式会社日立製作所 | Elevator with image recognition function |
WO2017069038A1 (en) * | 2015-10-22 | 2017-04-27 | 日本精機株式会社 | Onboard display system |
CA3027328A1 (en) * | 2016-06-14 | 2017-12-21 | Nissan Motor Co., Ltd. | Inter-vehicle distance estimation method and inter-vehicle distance estimation device |
JP6932971B2 (en) * | 2017-04-07 | 2021-09-08 | コニカミノルタ株式会社 | Motion tracking methods, motion tracking programs, and motion tracking systems |
JP6865110B2 (en) * | 2017-05-31 | 2021-04-28 | Kddi株式会社 | Object tracking method and device |
JP7349288B2 (en) * | 2019-08-08 | 2023-09-22 | セコム株式会社 | Object recognition device, object recognition method, and object recognition program |
SG10201913146VA (en) * | 2019-12-24 | 2020-11-27 | Sensetime Int Pte Ltd | Method and apparatus for filtrating images and electronic device |
WO2024042705A1 (en) * | 2022-08-26 | 2024-02-29 | 日本電気株式会社 | Video processing system, video processing method, and video processing device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4472603B2 (en) * | 2005-09-12 | 2010-06-02 | Necエンジニアリング株式会社 | Monitoring method and monitoring program |
JP4769943B2 (en) * | 2006-03-30 | 2011-09-07 | 国立大学法人電気通信大学 | Object tracking device, abnormal state detection device, and object tracking method |
JP2010237872A (en) * | 2009-03-30 | 2010-10-21 | Sogo Keibi Hosho Co Ltd | Device, method and program for detecting person area |
JP5218861B2 (en) * | 2010-09-30 | 2013-06-26 | 株式会社Jvcケンウッド | Target tracking device and target tracking method |
-
2011
- 2011-03-09 JP JP2011052016A patent/JP5754990B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012191354A (en) | 2012-10-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5754990B2 (en) | Information processing apparatus, information processing method, and program | |
US10417773B2 (en) | Method and apparatus for detecting object in moving image and storage medium storing program thereof | |
JP6561830B2 (en) | Information processing system, information processing method, and program | |
JP6525545B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM | |
EP2372654B1 (en) | Object tracking apparatus, object tracking method, and control program | |
KR102595604B1 (en) | Method and apparatus of detecting object using event-based sensor | |
JP6007682B2 (en) | Image processing apparatus, image processing method, and program | |
US9704264B2 (en) | Method for tracking a target in an image sequence, taking the dynamics of the target into consideration | |
JP6731097B2 (en) | Human behavior analysis method, human behavior analysis device, device and computer-readable storage medium | |
JP5381569B2 (en) | Gesture recognition device, gesture recognition method, and gesture recognition program | |
Sun et al. | Moving foreground object detection via robust SIFT trajectories | |
JP2010244089A (en) | Person detection device, person detection method, and person detection program | |
JP2009199363A (en) | Tracking system using particle filtering | |
JP6868061B2 (en) | Person tracking methods, devices, equipment and storage media | |
JP6551226B2 (en) | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP6292540B2 (en) | Information processing system, information processing method, and program | |
TW201246089A (en) | Method for setting dynamic environmental image borders and method for instantly determining the content of staff member activities | |
US9256945B2 (en) | System for tracking a moving object, and a method and a non-transitory computer readable medium thereof | |
KR101648786B1 (en) | Method of object recognition | |
JP2010199865A (en) | Abnormality detection system, abnormality detection method, and abnormality detection program | |
KR101595334B1 (en) | Method and apparatus for movement trajectory tracking of moving object on animal farm | |
KR20140123399A (en) | Apparatus and Method of Body Parts Detection | |
KR101646580B1 (en) | Device and method for detecting/tracking low-body part | |
JP2017151582A (en) | Image analyzer, program, and method for tracking person shown in photographed camera image | |
JP2011043863A (en) | Apparatus, method, program for determining/tracking object region, and apparatus for determining object region |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150526 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5754990 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |