JP5754990B2 - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP5754990B2
JP5754990B2 JP2011052016A JP2011052016A JP5754990B2 JP 5754990 B2 JP5754990 B2 JP 5754990B2 JP 2011052016 A JP2011052016 A JP 2011052016A JP 2011052016 A JP2011052016 A JP 2011052016A JP 5754990 B2 JP5754990 B2 JP 5754990B2
Authority
JP
Japan
Prior art keywords
tracking
region
tracking target
depth
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011052016A
Other languages
Japanese (ja)
Other versions
JP2012191354A (en
Inventor
健二 塚本
健二 塚本
康生 片野
康生 片野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011052016A priority Critical patent/JP5754990B2/en
Publication of JP2012191354A publication Critical patent/JP2012191354A/en
Application granted granted Critical
Publication of JP5754990B2 publication Critical patent/JP5754990B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

従来、画像における移動物体の追跡において、追跡における精度の高度化や追跡失敗時の回復方法において環境のモデルを用いる方法がある。
例えば、特許文献1によれば追跡対象が特定領域と重なった場合、特定領域の周囲を監視し、移動物体が再出現するのを待つ方法が開示されている。
Conventionally, in tracking a moving object in an image, there is a method of using an environment model in a method of improving accuracy in tracking and a recovery method when tracking fails.
For example, Patent Document 1 discloses a method of monitoring the periphery of a specific area and waiting for a moving object to reappear when the tracking target overlaps with the specific area.

特開2006−311099号公報JP 2006-311099 A

しかしながら、特許文献1に開示される技術では、複数の物体が重なりあって見えるような屋内環境では一つの特定領域を特定しただけでは、その特定領域から移動物体が再度出現する可能性を限定することはできないという問題があった。   However, in the technology disclosed in Patent Document 1, in an indoor environment where a plurality of objects appear to overlap each other, if only one specific area is specified, the possibility that a moving object will appear again from the specific area is limited. There was a problem that we couldn't.

本発明はこのような問題点に鑑みなされたもので、複数の遮蔽物が重なり合って見える環境であっても、安定した物体追跡を可能にすることを目的とする。   The present invention has been made in view of such problems, and an object thereof is to enable stable object tracking even in an environment where a plurality of shielding objects appear to overlap each other.

そこで、本発明は、画像から追跡対象を検出し、追跡する情報処理装置であって、前記追跡対象を検出できなかった場合に前記追跡対象が物体によって遮蔽されたか否かを判定する判定手段と、前記判定手段で前記追跡対象が物体によって遮蔽されたと判定された場合、前記画像より前記物体の領域と、前記物体と重複する物体の領域と、を抽出する抽出手段と、前記抽出手段で抽出された前記物体の領域と、前記物体と重複する物体の領域と、を関連付け、関連付けた領域の近傍に、次に追跡対象が現れる領域を設定する設定手段と、を有し、前記判定手段は、前記追跡対象の検出に失敗する前の前記追跡対象の検出位置の奥行きと、前記追跡対象の検出に失敗した後の前記追跡対象の予測位置の奥行きと、を比較し、前記追跡対象の検出位置の奥行きの方が長い場合、前記追跡対象が物体によって遮蔽されたと判定するTherefore, the present invention is an information processing apparatus that detects and tracks a tracking target from an image, and determines whether the tracking target is shielded by an object when the tracking target cannot be detected. When the determination unit determines that the tracking target is shielded by an object, the extraction unit extracts the object region and the object region overlapping the object from the image, and the extraction unit extracts the region. and the object region that is associate, and the object of the area overlapping with the object, in the vicinity of the associated region, then a setting means for setting a region in which the tracking target appears, wherein the determining means The depth of the detection position of the tracking object before the detection of the tracking object fails is compared with the depth of the predicted position of the tracking object after the detection of the tracking object fails, and the detection of the tracking object is performed. If towards the depth of the location is long, it is determined that the tracking target is shielded by the object.

本発明によれば、複数の遮蔽物が重なり合って見える環境であっても、安定した物体追跡を可能にすることができる。   According to the present invention, it is possible to enable stable object tracking even in an environment where a plurality of shielding objects appear to overlap each other.

追跡装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a tracking apparatus. 実施形態1の追跡装置のソフトウェア構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a software configuration of the tracking device according to the first embodiment. 画像の一例を示す図である。It is a figure which shows an example of an image. 追跡装置による処理過程の一例を示す図(その1)である。It is FIG. (1) which shows an example of the process in a tracking apparatus. 追跡装置による処理過程の一例を示す図(その2)である。It is FIG. (2) which shows an example of the process of a tracking apparatus. 追跡装置による処理過程の一例を示す図(その3)である。It is FIG. (3) which shows an example of the process of a tracking apparatus. 追跡装置による処理過程の一例を示す図(その4)である。It is FIG. (4) which shows an example of the process of a tracking apparatus. リストの一例を示す図である。It is a figure which shows an example of a list. 追跡装置による処理過程の一例を示す図(その5)である。It is FIG. (5) which shows an example of the process of a tracking apparatus. 追跡処理の一例を示すフローチャートである。It is a flowchart which shows an example of a tracking process. 実施形態2の追跡装置のソフトウェア構成の一例を示す図である。It is a figure which shows an example of the software configuration of the tracking apparatus of Embodiment 2. 追跡装置による処理過程の一例を示す図(その6)である。It is FIG. (6) which shows an example of the process of a tracking apparatus. 実施形態3の追跡装置のソフトウェア構成の一例を示す図である。It is a figure which shows an example of the software configuration of the tracking apparatus of Embodiment 3. 物体情報を説明するための図である。It is a figure for demonstrating object information.

以下、本発明の実施形態について図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態1>
本実施形態に係る追跡装置は、映像監視・モニタリングに用いられるものであり、撮像手段は一般的なネットワークカメラでもよいし、追尾機能付きカメラ等も利用できる。以下に図を用いて本実施形態を示す。なお、追跡装置は、情報処理装置の一例である。
本実施形態では、複数の物体がある環境において画像を撮影し、得られた動画像から追跡対象となる人物を追跡する場合について説明する。本実施形態に係る環境を屋内とし追跡対象は人物としているが、これに限定するものではなく、他の環境における移動する物体ならば、これを用いることができる。
図1は、追跡装置のハードウェア構成の一例を示す図である。
制御装置10は、CPU等であって、追跡装置100の全体を制御する。記憶装置11は、RAM及び/又はROM及び/又はHDD等の記憶装置であって、例えば、画像やプログラム等を記憶する。通信装置12は、追跡装置をネットワーク等に接続する装置である。以下で示す本実施形態では、追跡装置100は、通信装置12を介してネットワークカメラ等に接続されているものとする。
制御装置10が、記憶装置11に記憶されているプログラムに基づき処理を実行することによって、後述する追跡装置100の機能及びフローチャートに係る処理が実現される。
<Embodiment 1>
The tracking device according to the present embodiment is used for video monitoring / monitoring, and the imaging means may be a general network camera, or a camera with a tracking function. This embodiment will be described below with reference to the drawings. The tracking device is an example of an information processing device.
In the present embodiment, a case will be described in which an image is taken in an environment with a plurality of objects, and a person to be tracked is tracked from the obtained moving image. Although the environment according to the present embodiment is indoors and the tracking target is a person, the present invention is not limited to this, and any object that moves in another environment can be used.
FIG. 1 is a diagram illustrating an example of a hardware configuration of the tracking device.
The control device 10 is a CPU or the like, and controls the entire tracking device 100. The storage device 11 is a storage device such as a RAM and / or a ROM and / or an HDD, and stores, for example, an image or a program. The communication device 12 is a device that connects the tracking device to a network or the like. In the present embodiment described below, it is assumed that the tracking device 100 is connected to a network camera or the like via the communication device 12.
When the control device 10 executes a process based on a program stored in the storage device 11, the function of the tracking device 100 and a process related to a flowchart described later are realized.

後述する図3は、本実施形態が対象とする画像の一例である。追跡対象210は、移動方向250に移動していると仮定する。画像200では、追跡対象がいる環境には、物体220、230、240が存在し、それぞれ異なる形状・位置にあり、それらのうちいくつかが重なって見える様子が表されている。追跡装置100は、初期検出により追跡対象210を検出し、追跡対象210の追跡を行う。探索領域260は、追跡装置100が、次の時刻における追跡対象210が矩形領域内の位置に移動すると予測した領域を表す。追跡装置100は、この追跡対象210の予測には移動物体のダイナミクスによる予測やパーティクルフィルタ等の追跡の枠組みにおける予測を利用してもよい。
図2は、実施形態1の追跡装置100のソフトウェア構成の一例を示す図である。
図2に示すように、追跡装置100は、初期検出部101と、予測部102と、対象検出部103と、奥行き情報取得部104と、遮蔽判定部105と、遮蔽物体領域抽出部106と、遮蔽物体重複領域識別部107と、領域設定部108と、を含む。
初期検出部101は、画像から追跡対象210を検出するものであって、テンプレートマッチングといった一般的な物体検出手法を用いることができる。初期検出部101は、追跡対象210を検出し、追跡対象210の検出位置270を予測部102に出力する。
FIG. 3 described later is an example of an image targeted by this embodiment. It is assumed that the tracking target 210 is moving in the moving direction 250. In the image 200, the objects 220, 230, and 240 exist in the environment where the tracking target is present, which are in different shapes and positions, and some of them appear to overlap each other. The tracking device 100 detects the tracking object 210 by the initial detection and tracks the tracking object 210. The search area 260 represents an area where the tracking device 100 has predicted that the tracking target 210 at the next time will move to a position in the rectangular area. The tracking device 100 may use prediction based on dynamics of a moving object or prediction in a tracking framework such as a particle filter for the prediction of the tracking target 210.
FIG. 2 is a diagram illustrating an example of a software configuration of the tracking device 100 according to the first embodiment.
As shown in FIG. 2, the tracking device 100 includes an initial detection unit 101, a prediction unit 102, a target detection unit 103, a depth information acquisition unit 104, an occlusion determination unit 105, an occlusion object region extraction unit 106, A shielded object overlapping region identifying unit 107 and a region setting unit 108 are included.
The initial detection unit 101 detects the tracking target 210 from the image, and a general object detection method such as template matching can be used. The initial detection unit 101 detects the tracking target 210 and outputs the detection position 270 of the tracking target 210 to the prediction unit 102.

図3は、画像200の一例を示す図である。
図3に示すように、予測部102は、初期検出部101より追跡対象210の検出位置270を受取り、次の時刻に追跡対象210が移動する方向(移動方向)250を基に移動する位置を予測し、予測位置280と探索領域260を設定する。予測部102は、この予測位置280を対象検出部103へ出力する。
対象検出部103は、予測部102から出力された予測位置280を基に、次の時刻の画像を取得し、追跡対象210が予測位置280及び探索領域260にあるか検出を行う。探索領域260内に追跡対象210を検出できれば、予測部102に処理を戻し、予測部102が、次々刻の追跡対象210の位置を予測する。検出できなければ、対象検出部103は、遮蔽判定部105に予測位置280を出力する。
奥行き情報取得部104は、画像中の各画素の奥行き情報等を取得する。奥行き情報取得部104は、ステレオカメラによるスパースな特徴点の奥行きを取得する方法を使って距離計測を用いてもよいし、TOFカメラといった赤外線による距離計測カメラによって、全画素ピクセルの奥行き情報を取得してもよい。本実施形態ではTOFを用いた場合を例に説明する。奥行き情報取得部104は、遮蔽判定部105、遮蔽物体領域抽出部106、遮蔽物体重複領域識別部107に奥行き情報を出力することができる。
FIG. 3 is a diagram illustrating an example of the image 200.
As shown in FIG. 3, the prediction unit 102 receives the detection position 270 of the tracking target 210 from the initial detection unit 101, and determines the position to move based on the direction (movement direction) 250 in which the tracking target 210 moves at the next time. Prediction is performed, and a predicted position 280 and a search area 260 are set. The prediction unit 102 outputs the predicted position 280 to the target detection unit 103.
The target detection unit 103 acquires an image at the next time based on the predicted position 280 output from the prediction unit 102 and detects whether the tracking target 210 is in the predicted position 280 and the search region 260. If the tracking target 210 can be detected in the search area 260, the process returns to the prediction unit 102, and the prediction unit 102 predicts the position of the tracking target 210 one after another. If not detected, the target detection unit 103 outputs the predicted position 280 to the shielding determination unit 105.
The depth information acquisition unit 104 acquires depth information and the like of each pixel in the image. The depth information acquisition unit 104 may use distance measurement using a method of acquiring the depth of a sparse feature point by a stereo camera, or acquire depth information of all pixel pixels by an infrared distance measurement camera such as a TOF camera. May be. In this embodiment, a case where TOF is used will be described as an example. The depth information acquisition unit 104 can output depth information to the occlusion determination unit 105, the occluded object region extraction unit 106, and the occluded object overlap region identification unit 107.

図4に示すように遮蔽判定部105は、対象検出部103の結果と、予測部102の結果とより、予測位置280に対して追跡対象210が遮蔽物体220によって遮蔽されているかどうかを判定する。本実施形態では、遮蔽判定部105は、奥行き情報取得部104の結果を基に行う例を示すが、これに限定するものではなく、特開2006−311099号公報等に開示された奥行きを用いない方法で遮蔽判定を行ってもよい。遮蔽判定部105は、奥行き情報取得部104から予測位置280の画素における奥行き情報380を取得し、時刻tにおける追跡対象210の検出位置270の画素における奥行き情報370と比較する。
この2つの位置について、後述する式(1)に示すように検出位置270の画素の奥行き情報370が予測位置280の画素の奥行き情報380より遠い場合、遮蔽判定部105は、追跡対象210は遮蔽されていると判定する。そして、遮蔽判定部105は、遮蔽物体領域抽出部106へ予測位置280、及びその奥行き情報380を出力する。遮蔽によるものではないと判定した場合は、本実施形態では対象としないが、初期検出部101若しくは予測部102へと処理を戻し、引き続き処理を行う。
depthposition > depthpredict ・・・式(1)
As illustrated in FIG. 4, the occlusion determination unit 105 determines whether the tracking target 210 is occluded by the occluded object 220 with respect to the predicted position 280 based on the result of the target detection unit 103 and the result of the prediction unit 102. . In the present embodiment, the shielding determination unit 105 shows an example based on the result of the depth information acquisition unit 104. However, the present invention is not limited to this, and the depth disclosed in Japanese Patent Application Laid-Open No. 2006-311099 is used. The shielding determination may be performed by a method that does not. The occlusion determination unit 105 acquires the depth information 380 at the pixel at the predicted position 280 from the depth information acquisition unit 104 and compares it with the depth information 370 at the pixel at the detection position 270 of the tracking target 210 at time t.
For these two positions, when the depth information 370 of the pixel at the detection position 270 is farther than the depth information 380 of the pixel at the predicted position 280 as shown in Equation (1) described later, the shielding determination unit 105 determines that the tracking target 210 is shielded. It is determined that Then, the shielding determination unit 105 outputs the predicted position 280 and its depth information 380 to the shielding object region extraction unit 106. If it is determined that it is not due to shielding, the processing is not performed in the present embodiment, but the processing is returned to the initial detection unit 101 or the prediction unit 102, and the processing is continued.
depthposition> depthpredict (1)

図5に示すように、遮蔽物体領域抽出部106は、遮蔽判定部105の結果を基に、予測位置280の奥行き情報380にある遮蔽物体220の領域420を抽出する。遮蔽物体領域抽出部106は奥行き情報取得部104から予測位置280の画素の奥行き情報380を取得し、予測位置280の奥行き情報380の奥行き情報に対して閾値判別によって近隣ピクセルで同様の奥行きを持つ画素を抽出して物体領域420を生成する。同様に、遮蔽物体領域抽出部106は、奥行き情報を基に、画像中の他の遮蔽物体230、及び240の領域430、及び440も抽出する。本実施形態では遮蔽物体領域抽出部106は、奥行き情報に基づいて物体領域抽出をした例を示した。しかしながら、本実施形態はこれに限定するものではなく、遮蔽物体領域抽出部106は、奥行き情報を用いず、予測位置280の画素の輝度値・色情報や画像特徴に対して、Graph−Cutやwatershed法、mean−shift法等のセグメンテーションアルゴリズムを適用する等して抽出してもよい。遮蔽物体領域抽出部106は、予測位置280を遮蔽する物体領域420及び他の物体領域430、440を遮蔽物体重複領域識別部107へ出力する。   As illustrated in FIG. 5, the occluded object region extraction unit 106 extracts an area 420 of the occluded object 220 in the depth information 380 of the predicted position 280 based on the result of the occlusion determination unit 105. The occluded object region extraction unit 106 acquires the depth information 380 of the pixel at the predicted position 280 from the depth information acquisition unit 104, and has a similar depth at neighboring pixels by threshold discrimination for the depth information of the depth information 380 at the predicted position 280. Pixels are extracted to generate an object region 420. Similarly, the shielding object region extraction unit 106 extracts regions 430 and 440 of other shielding objects 230 and 240 in the image based on the depth information. In the present embodiment, an example in which the shielding object region extraction unit 106 performs object region extraction based on the depth information is shown. However, the present embodiment is not limited to this, and the occluded object region extraction unit 106 does not use depth information, and does not use Graph-Cut or You may extract by applying segmentation algorithms, such as a watershed method and a mean-shift method. The occluded object area extraction unit 106 outputs the object area 420 and the other object areas 430 and 440 that occlude the predicted position 280 to the occluded object overlapping area identification unit 107.

図6に示すように、遮蔽物体重複領域識別部107は、追跡対象210を遮蔽している物体領域420と重なっている他の物体領域430、またその領域と重なる領域を識別する。遮蔽物体重複領域識別部107は、各遮蔽物体220、230、240の領域420、430、440が画像中で後述する式(2)のように領域及び境界に重なりがあり、かつ、物体領域の奥行きが後述する式(3)のようにある程度離れている場合、2つの遮蔽物体領域は重複関係にあるとする。遮蔽物体重複領域識別部107は、この処理を繰り返し行い、重複した遮蔽物体領域のリストを作成する。遮蔽物体の重複関係はリストに限定せず、重複関係を記述するものであればよい。例として、図7に示す環境に対して遮蔽物体を623とした場合、遮蔽物体重複領域識別部107による遮蔽物体の重複関係のリストを記述した場合、図8のようになる。遮蔽物体重複領域識別部107は、この重複関係リストを領域設定部108に出力する。
Robj1 AND Robj2=1・・・式(2)
|dobject_area−darea| > threshold ・・・式(3)
As illustrated in FIG. 6, the occluded object overlap area identifying unit 107 identifies another object area 430 that overlaps the object area 420 that occludes the tracking target 210, and an area that overlaps the area. The occluded object overlapping area identification unit 107 includes areas 420, 430, and 440 of the occluded objects 220, 230, and 240 that overlap in areas and boundaries as shown in Expression (2) described later in the image. It is assumed that the two occluded object regions are in an overlapping relationship when the depth is separated to some extent as shown in Equation (3) described later. The occluded object overlapping area identifying unit 107 repeats this process to create a list of overlapping occluded object areas. The overlapping relationship of the shielding objects is not limited to the list, and any overlapping relationship may be used. As an example, when the shielding object is set to 623 with respect to the environment shown in FIG. 7, a list of overlapping relations of the shielding objects by the shielding object overlapping area identification unit 107 is described as shown in FIG. The occluded object overlapping area identifying unit 107 outputs this overlapping relationship list to the area setting unit 108.
Robj1 AND Robj2 = 1 (2)
| Object_area-area |> threshold (Formula (3))

領域設定部108は、遮蔽物体重複領域識別部107の出力結果を基に、追跡対象210が再出現する領域792を設定する。図9の例では領域の設定を矩形に設定しているが、本実施形態はこれに限定するものではなく、矩形には限定せず円形でも楕円でもよい。領域設定部108は、設定した領域792を初期検出部101若しくは予測部102に出力する。このことで追跡対象210が遮蔽物体220に隠蔽されたことによって、追跡ループが中断されたあと、遮蔽物体220や、重複遮蔽物体230から出現した際にも検出することが可能となる追跡装置100を実現することができる。
以上が、本実施形態に係る追跡装置100に関する構成部分である。これにより物体が複数あり、重なり合って見える環境でも追跡の安定化を図ることができる。
The area setting unit 108 sets an area 792 where the tracking target 210 reappears based on the output result of the occluded object overlapping area identification unit 107. In the example of FIG. 9, the area setting is set to a rectangle, but the present embodiment is not limited to this, and is not limited to a rectangle, and may be a circle or an ellipse. The region setting unit 108 outputs the set region 792 to the initial detection unit 101 or the prediction unit 102. Thus, the tracking device 100 that can detect when the tracking object 210 appears from the shielding object 220 or the overlapping shielding object 230 after the tracking loop is interrupted by being concealed by the shielding object 220. Can be realized.
The above is the components related to the tracking device 100 according to the present embodiment. As a result, the tracking can be stabilized even in an environment where there are a plurality of objects and they appear to overlap each other.

続いて、本実施形態における情報処理方法について説明する。
図10は、追跡処理の一例を示すフローチャートである。
ステップ1において、初期検出部101は、撮像手段より得られた画像中に追跡対象がないか初期検出を行う。初期検出部101は、初期検出で追跡対象を検出できた場合、画像から追跡対象のテンプレートを作成する。初期検出部101は、テンプレートとして、画像情報をそのまま抽出してもよいし、追跡対象の画像特徴を使って生成してもよい。
ステップ2において、予測部102は、追跡対象が次のフレームにおいて出現する可能性の高い位置の予測を行う。予測方法においてはパーティクルフィルタ等の一般的な予測手法を用いることができるが、それのみには限定しない。
ステップ3において、対象検出部103は、ステップ2で予測された位置に対してステップ1で取得された追跡対象のテンプレートを用いて次フレームにおいて追跡対象の検出を行う。
ステップ4において、対象検出部103は、追跡対象を検出できたか判定を行う。対象検出部103は、テンプレートと画像との相関値を計算して、任意の閾値以上であれば検出と判定してもよいし、それ以外の方法で判定してもよい。対象検出部103は、追跡対象を検出できれば、ステップ3に戻って再度予測を行う。検出できなかった場合はステップ7に進む。
上記ステップ1から4までが追跡の枠組みになる。以下のステップ5から8までは遮蔽に対応した追跡方法について説明する。
Subsequently, an information processing method in the present embodiment will be described.
FIG. 10 is a flowchart illustrating an example of the tracking process.
In step 1, the initial detection unit 101 performs initial detection to determine whether there is a tracking target in the image obtained from the imaging unit. The initial detection unit 101 creates a tracking target template from an image when the tracking target can be detected by the initial detection. The initial detection unit 101 may extract the image information as a template as it is, or may generate it using image characteristics to be tracked.
In step 2, the prediction unit 102 predicts a position where the tracking target is likely to appear in the next frame. In the prediction method, a general prediction method such as a particle filter can be used, but it is not limited thereto.
In step 3, the target detection unit 103 detects the tracking target in the next frame using the tracking target template acquired in step 1 for the position predicted in step 2.
In step 4, the target detection unit 103 determines whether the tracking target has been detected. The target detection unit 103 may calculate a correlation value between the template and the image, and may determine that the value is equal to or greater than an arbitrary threshold value, or may determine using a method other than that. If the target detection unit 103 can detect the tracking target, the target detection unit 103 returns to step 3 and performs prediction again. If not detected, go to step 7.
Steps 1 to 4 are the tracking framework. In the following steps 5 to 8, a tracking method corresponding to shielding will be described.

ステップ5において、遮蔽判定部105は、ステップ3で予測した追跡対象の位置においてステップ4での検出に失敗した場合、検出失敗の原因が環境中にある物体によって遮蔽されたか否かを判定する。遮蔽判定部105は、デプスカメラ等より取得した奥行き情報を使い、検出位置の奥行きと予測位置の奥行きとが離れている場合に遮蔽と判定する。遮蔽判定部105は、遮蔽によるものではなく追跡対象を消失したと判定した場合は、ステップ1若しくはステップ3に戻る。遮蔽判定部105は、遮蔽によるものと判定した場合は、ステップ6へ進む。なお、デプスカメラにはステレオカメラの他、TOFカメラを使ってもよい。
ステップ6において、遮蔽物体領域抽出部106は、ステップ3で予測された位置に遮蔽物があると判定されたので、画像中での遮蔽物体の領域を抽出する。遮蔽物体領域抽出部106は、予測位置の奥行きの情報を使って、奥行きが近いものの画素を抜き出して領域とする。その他の方法として、遮蔽物体領域抽出部106は、予測位置の画像特徴を抽出してセグメンテーションをして領域を抽出してもよい。ステップ6では、遮蔽物体領域抽出部106は、画像中にある別の物体領域も同時に抽出する。
ステップ7において、遮蔽物体重複領域識別部107は、抽出された遮蔽物体の領域において、その遮蔽物体領域と重なる領域、また前記領域と重なる領域を識別し、上述したように、重複した遮蔽物体領域のリストを作成する。
ステップ8において、領域設定部108は、前記リストを基に追跡対象が再度出現する位置を設定する。
In Step 5, when the detection in Step 4 fails in the tracking target position predicted in Step 3, the shielding determination unit 105 determines whether or not the cause of the detection failure is shielded by an object in the environment. The occlusion determination unit 105 uses depth information acquired from a depth camera or the like, and determines that the occlusion is occluded when the depth of the detected position is far from the depth of the predicted position. When the shielding determination unit 105 determines that the tracking target is not lost due to the shielding, the process returns to Step 1 or Step 3. If the shielding determination unit 105 determines that it is due to shielding, the process proceeds to step 6. In addition to the stereo camera, a TOF camera may be used as the depth camera.
In Step 6, since it is determined that there is a shielding object at the position predicted in Step 3, the shielding object area extraction unit 106 extracts a shielding object area in the image. The occluded object region extraction unit 106 uses the information on the depth of the predicted position to extract pixels with close depths as regions. As another method, the occluded object region extraction unit 106 may extract the region by extracting the image feature of the predicted position and performing segmentation. In step 6, the occluded object area extraction unit 106 simultaneously extracts another object area in the image.
In step 7, the occluded object overlapping area identifying unit 107 identifies an area that overlaps the occluded object area in the extracted area of the occluded object, and an area that overlaps the area. Create a list of
In step 8, the region setting unit 108 sets a position where the tracking target appears again based on the list.

このように、実施形態1の処理によれば、追跡対象が遮蔽物によって隠れた場合に対して遮蔽物体の領域と重なって見える別の遮蔽物体の領域が連結され、それに応じて探索領域が設定される。これにより、追跡対象が見えないときにこれまでとは異なる移動をして、検出した遮蔽物体とは別の場所から再出現しても追跡が可能となる。   As described above, according to the processing of the first embodiment, when the tracking target is hidden by the shielding object, the area of another shielding object that appears to overlap the area of the shielding object is connected, and the search area is set accordingly. Is done. Thereby, when the tracking target cannot be seen, the movement is different from the previous one, and the tracking can be performed even if it reappears from a different location from the detected occluding object.

<実施形態2>
続いて、実施形態2について説明する。図11は、実施形態2の追跡装置100のソフトウェア構成の一例を示す図である。実施形態2の追跡装置100の構成は、実施形態1の構成に加えて、時間情報記録部109が更に加えられている。
時間情報記録部109は、追跡対象が遮蔽判定されたときの時間を記録し、その記録した時間を領域設定部108に出力する。
領域設定部108は、予測位置と遮蔽物体領域と重複する遮蔽物体領域と時間情報とを基に、図12に示すように設定領域に対して重みをつける。例えば、遮蔽判定直後の時間では、追跡対象1010は物体1021によって遮蔽されていると考えられる。そのため、追跡対象1010が極端な移動をしないと仮定した場合、物体931の裏に回り込んで出てくる場合は少し時間が必要である。そのため、領域設定部108は、追跡対象が遮蔽されて間が無いときは物体1021の周囲領域1093の重みを強くし、物体1031の周囲領域1092の重みを弱く設定する。
しかし、遮蔽された状態のまま時間が経過するにつれ、追跡対象1010は物体993の領域に移動することも考えられるため、追跡対象1010は、領域1093と領域1094とのどちらからでも出現する可能性が高くなる。そのため領域設定部108は、物体1021と物体1031との周囲領域に一定の重みをつけた領域1095を設定する。
<Embodiment 2>
Next, Embodiment 2 will be described. FIG. 11 is a diagram illustrating an example of a software configuration of the tracking device 100 according to the second embodiment. In the configuration of the tracking device 100 of the second embodiment, a time information recording unit 109 is further added to the configuration of the first embodiment.
The time information recording unit 109 records the time when the tracking target is determined to be shielded, and outputs the recorded time to the region setting unit 108.
The area setting unit 108 weights the setting area as shown in FIG. 12 based on the predicted position, the occluded object area overlapping the occluded object area, and the time information. For example, it is considered that the tracking target 1010 is shielded by the object 1021 in the time immediately after the shielding determination. Therefore, when it is assumed that the tracking target 1010 does not move extremely, a little time is required when the object to be tracked 1091 comes out behind the object 931. Therefore, the area setting unit 108 increases the weight of the surrounding area 1093 around the object 1021 and weakens the weight of the surrounding area 1092 around the object 1031 when the tracking target is blocked.
However, since the tracking target 1010 may move to the region of the object 993 as time elapses while being shielded, the tracking target 1010 may appear from either the region 1093 or the region 1094. Becomes higher. Therefore, the area setting unit 108 sets an area 1095 in which a certain weight is applied to the surrounding area between the object 1021 and the object 1031.

<実施形態3>
続いて、実施形態3について説明する。図13は、実施形態3の追跡装置100のソフトウェア構成の一例を示す図である。実施形態3の追跡装置100の構成は、実施形態1の構成に加えて、物体情報記録部110と物体認識部111とが更に加えられている。
物体情報記録部110は、環境中にある物体情報(例えば、図14に示されるようなベッド1202、棚1203、テーブル1204、いす1205等の3次元形状等)が記録されている。物体認識部111は、奥行き情報取得部104と物体情報記録部110の情報とを基に環境中にある遮蔽物体を認識する。物体認識部111は、認識結果から物体情報記録部110に保存されている物体に関連付けられた追跡対象の行動情報を領域設定部108に出力する。
領域設定部108は、遮蔽物体重複領域識別部107の出力と物体認識部111の出力とを基に、重み付き領域を設定する。例えば、領域設定部108は、ベッドではその頭側の領域には重みを弱くし、側面側の領域の重みを強くする。
実施形態3の処理によれば、追跡の安定化を図ることができる。
<Embodiment 3>
Subsequently, Embodiment 3 will be described. FIG. 13 is a diagram illustrating an example of a software configuration of the tracking device 100 according to the third embodiment. In the configuration of the tracking device 100 of the third embodiment, in addition to the configuration of the first embodiment, an object information recording unit 110 and an object recognition unit 111 are further added.
The object information recording unit 110 records object information in the environment (for example, a three-dimensional shape such as a bed 1202, a shelf 1203, a table 1204, and a chair 1205 as shown in FIG. 14). The object recognition unit 111 recognizes a shielded object in the environment based on information from the depth information acquisition unit 104 and the object information recording unit 110. The object recognizing unit 111 outputs the behavior information of the tracking target associated with the object stored in the object information recording unit 110 from the recognition result to the region setting unit 108.
The area setting unit 108 sets a weighted area based on the output of the occluded object overlapping area identification unit 107 and the output of the object recognition unit 111. For example, in the bed, the area setting unit 108 weakens the weight on the head side area and increases the weight on the side area.
According to the processing of the third embodiment, the tracking can be stabilized.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

上述した各実施形態の処理によれば、画像中の複数の物体が乱雑にある環境においても移動物体の追跡を安定して行うことができる。遮蔽によって追跡が中断されても、遮蔽物体の周囲から再出現した際に高速で追跡を再開することができる。例えば、複数の物体が重なって見える環境においての人の移動を安定して追跡できる。
つまり、複数の遮蔽物が重なり合って見える環境であっても、安定した物体追跡を可能にすることができる。
According to the processing of each embodiment described above, it is possible to stably track a moving object even in an environment where a plurality of objects in an image are cluttered. Even if tracking is interrupted by occlusion, tracking can be resumed at high speed when it reappears from around the occluded object. For example, it is possible to stably track the movement of a person in an environment where a plurality of objects appear to overlap.
That is, stable object tracking can be achieved even in an environment where a plurality of shielding objects appear to overlap each other.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

10 制御装置
100 追跡装置
10 Control device 100 Tracking device

Claims (4)

画像から追跡対象を検出し、追跡する情報処理装置であって、
前記追跡対象を検出できなかった場合に前記追跡対象が物体によって遮蔽されたか否かを判定する判定手段と、
前記判定手段で前記追跡対象が物体によって遮蔽されたと判定された場合、前記画像より前記物体の領域と、前記物体と重複する物体の領域と、を抽出する抽出手段と、
前記抽出手段で抽出された前記物体の領域と、前記物体と重複する物体の領域と、を関連付け、関連付けた領域の近傍に、次に追跡対象が現れる領域を設定する設定手段と、
を有し、
前記判定手段は、前記追跡対象の検出に失敗する前の前記追跡対象の検出位置の奥行きと、前記追跡対象の検出に失敗した後の前記追跡対象の予測位置の奥行きと、を比較し、前記追跡対象の検出位置の奥行きの方が長い場合、前記追跡対象が物体によって遮蔽されたと判定する情報処理装置。
An information processing apparatus for detecting and tracking a tracking target from an image,
Determining means for determining whether or not the tracking target is occluded by an object when the tracking target cannot be detected;
An extraction unit that extracts the region of the object and the region of the object that overlaps the object from the image when the determination unit determines that the tracking target is blocked by the object;
A setting unit that associates the region of the object extracted by the extraction unit with the region of the object that overlaps the object, and sets a region in which a tracking target appears next to the vicinity of the associated region;
Have
The determination means compares the depth of the detection position of the tracking object before the detection of the tracking object fails with the depth of the predicted position of the tracking object after the detection of the tracking object fails, An information processing apparatus that determines that the tracking target is shielded by an object when the depth of the detection position of the tracking target is longer .
前記追跡対象の検出に失敗する前の前記追跡対象の検出位置の奥行き情報と、前記追跡対象の検出に失敗した後の前記追跡対象の予測位置の奥行き情報と、を取得する奥行き情報取得手段を更に有し、
前記判定手段は、前記奥行き情報取得手段で取得された、前記検出位置の奥行き情報と、前記予測位置の奥行き情報と、を比較する請求項1記載の情報処理装置。
Depth information acquisition means for acquiring depth information of the detection position of the tracking object before the detection of the tracking object fails and depth information of the predicted position of the tracking object after the detection of the tracking object fails. In addition,
The information processing apparatus according to claim 1 , wherein the determination unit compares the depth information of the detection position acquired by the depth information acquisition unit with the depth information of the predicted position .
画像から追跡対象を検出し、追跡する情報処理装置が実行する情報処理方法であって、
前記追跡対象を検出できなかった場合に前記追跡対象が物体によって遮蔽されたか否かを判定する判定ステップと、
前記判定ステップで前記追跡対象が物体によって遮蔽されたと判定された場合、前記画像より前記物体の領域と、前記物体と重複する物体の領域と、を抽出する抽出ステップと、
前記抽出ステップで抽出された前記物体の領域と、前記物体と重複する物体の領域と、を関連付け、関連付けた領域の近傍に、次に追跡対象が現れる領域を設定する設定ステップと、
を含み、
前記判定ステップでは、前記追跡対象の検出に失敗する前の前記追跡対象の検出位置の奥行きと、前記追跡対象の検出に失敗した後の前記追跡対象の予測位置の奥行きと、を比較し、前記追跡対象の検出位置の奥行きの方が長い場合、前記追跡対象が物体によって遮蔽されたと判定する情報処理方法。
An information processing method executed by an information processing apparatus that detects and tracks a tracking target from an image,
A determination step of determining whether or not the tracking target is shielded by an object when the tracking target cannot be detected;
An extraction step of extracting the region of the object and the region of the object overlapping the object from the image when it is determined in the determination step that the tracking target is blocked by the object;
A step of associating the region of the object extracted in the extraction step with the region of the object that overlaps the object, and setting a region in which a tracking target appears next in the vicinity of the associated region;
Including
In the determination step, the depth of the detection position of the tracking object before the detection of the tracking object fails is compared with the depth of the predicted position of the tracking object after the detection of the tracking object fails, An information processing method for determining that the tracking target is shielded by an object when the depth of the detection position of the tracking target is longer .
画像から追跡対象を検出し、追跡するコンピュータに、
前記追跡対象を検出できなかった場合に前記追跡対象が物体によって遮蔽されたか否かを判定する判定ステップと、
前記判定ステップで前記追跡対象が物体によって遮蔽されたと判定された場合、前記画像より前記物体の領域と、前記物体と重複する物体の領域と、を抽出する抽出ステップと、
前記抽出ステップで抽出された前記物体の領域と、前記物体と重複する物体の領域と、を関連付け、関連付けた領域の近傍に、次に追跡対象が現れる領域を設定する設定ステップと、
を実行させ
前記判定ステップでは、前記追跡対象の検出に失敗する前の前記追跡対象の検出位置の奥行きと、前記追跡対象の検出に失敗した後の前記追跡対象の予測位置の奥行きと、を比較し、前記追跡対象の検出位置の奥行きの方が長い場合、前記追跡対象が物体によって遮蔽されたと判定するプログラム
A computer that detects and tracks the tracking target from the image ,
A determination step of determining whether or not the tracking target is shielded by an object when the tracking target cannot be detected;
An extraction step of extracting the region of the object and the region of the object overlapping the object from the image when it is determined in the determination step that the tracking target is blocked by the object;
A step of associating the region of the object extracted in the extraction step with the region of the object that overlaps the object, and setting a region in which a tracking target appears next in the vicinity of the associated region;
Was executed,
In the determination step, the depth of the detection position of the tracking object before the detection of the tracking object fails is compared with the depth of the predicted position of the tracking object after the detection of the tracking object fails, A program for determining that the tracking target is shielded by an object when the depth of the detection position of the tracking target is longer .
JP2011052016A 2011-03-09 2011-03-09 Information processing apparatus, information processing method, and program Active JP5754990B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011052016A JP5754990B2 (en) 2011-03-09 2011-03-09 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011052016A JP5754990B2 (en) 2011-03-09 2011-03-09 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2012191354A JP2012191354A (en) 2012-10-04
JP5754990B2 true JP5754990B2 (en) 2015-07-29

Family

ID=47084054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011052016A Active JP5754990B2 (en) 2011-03-09 2011-03-09 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5754990B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5810136B2 (en) * 2013-07-04 2015-11-11 オリンパス株式会社 TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
KR101505557B1 (en) 2013-08-30 2015-03-25 고려대학교 산학협력단 Device and method for processing occlusion of each object in pen
JP6134641B2 (en) * 2013-12-24 2017-05-24 株式会社日立製作所 Elevator with image recognition function
WO2017069038A1 (en) * 2015-10-22 2017-04-27 日本精機株式会社 Onboard display system
CA3027328A1 (en) * 2016-06-14 2017-12-21 Nissan Motor Co., Ltd. Inter-vehicle distance estimation method and inter-vehicle distance estimation device
JP6932971B2 (en) * 2017-04-07 2021-09-08 コニカミノルタ株式会社 Motion tracking methods, motion tracking programs, and motion tracking systems
JP6865110B2 (en) * 2017-05-31 2021-04-28 Kddi株式会社 Object tracking method and device
JP7349288B2 (en) * 2019-08-08 2023-09-22 セコム株式会社 Object recognition device, object recognition method, and object recognition program
SG10201913146VA (en) * 2019-12-24 2020-11-27 Sensetime Int Pte Ltd Method and apparatus for filtrating images and electronic device
WO2024042705A1 (en) * 2022-08-26 2024-02-29 日本電気株式会社 Video processing system, video processing method, and video processing device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4472603B2 (en) * 2005-09-12 2010-06-02 Necエンジニアリング株式会社 Monitoring method and monitoring program
JP4769943B2 (en) * 2006-03-30 2011-09-07 国立大学法人電気通信大学 Object tracking device, abnormal state detection device, and object tracking method
JP2010237872A (en) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd Device, method and program for detecting person area
JP5218861B2 (en) * 2010-09-30 2013-06-26 株式会社Jvcケンウッド Target tracking device and target tracking method

Also Published As

Publication number Publication date
JP2012191354A (en) 2012-10-04

Similar Documents

Publication Publication Date Title
JP5754990B2 (en) Information processing apparatus, information processing method, and program
US10417773B2 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
JP6561830B2 (en) Information processing system, information processing method, and program
JP6525545B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND COMPUTER PROGRAM
EP2372654B1 (en) Object tracking apparatus, object tracking method, and control program
KR102595604B1 (en) Method and apparatus of detecting object using event-based sensor
JP6007682B2 (en) Image processing apparatus, image processing method, and program
US9704264B2 (en) Method for tracking a target in an image sequence, taking the dynamics of the target into consideration
JP6731097B2 (en) Human behavior analysis method, human behavior analysis device, device and computer-readable storage medium
JP5381569B2 (en) Gesture recognition device, gesture recognition method, and gesture recognition program
Sun et al. Moving foreground object detection via robust SIFT trajectories
JP2010244089A (en) Person detection device, person detection method, and person detection program
JP2009199363A (en) Tracking system using particle filtering
JP6868061B2 (en) Person tracking methods, devices, equipment and storage media
JP6551226B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6292540B2 (en) Information processing system, information processing method, and program
TW201246089A (en) Method for setting dynamic environmental image borders and method for instantly determining the content of staff member activities
US9256945B2 (en) System for tracking a moving object, and a method and a non-transitory computer readable medium thereof
KR101648786B1 (en) Method of object recognition
JP2010199865A (en) Abnormality detection system, abnormality detection method, and abnormality detection program
KR101595334B1 (en) Method and apparatus for movement trajectory tracking of moving object on animal farm
KR20140123399A (en) Apparatus and Method of Body Parts Detection
KR101646580B1 (en) Device and method for detecting/tracking low-body part
JP2017151582A (en) Image analyzer, program, and method for tracking person shown in photographed camera image
JP2011043863A (en) Apparatus, method, program for determining/tracking object region, and apparatus for determining object region

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150526

R151 Written notification of patent or utility model registration

Ref document number: 5754990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151