JP5106302B2 - Moving object tracking device - Google Patents
Moving object tracking device Download PDFInfo
- Publication number
- JP5106302B2 JP5106302B2 JP2008198913A JP2008198913A JP5106302B2 JP 5106302 B2 JP5106302 B2 JP 5106302B2 JP 2008198913 A JP2008198913 A JP 2008198913A JP 2008198913 A JP2008198913 A JP 2008198913A JP 5106302 B2 JP5106302 B2 JP 5106302B2
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- image
- information
- unit
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、画像処理において順次撮影される画像中の移動物体を追跡する移動物体追跡装置に関する。特に、カメラ付きインターホンなどのように、撮影される画像の中で複数の移動物体が頻繁に交差するためこれらの交差した複数の移動物体が一体化した一つの変化領域として抽出され、個々の移動物体として追跡し続けることが困難になると想定される状況における移動物体追跡装置に好適である。 The present invention relates to a moving object tracking device that tracks moving objects in images that are sequentially captured in image processing. In particular, since multiple moving objects frequently intersect in the captured image, such as an interphone with a camera, these intersecting moving objects are extracted as a single change area, and individual movements are extracted. This is suitable for a moving object tracking apparatus in a situation where it is difficult to keep tracking as an object.
例えば、移動物体追跡装置を実装したカメラ付きインターホンは、玄関のドアの横に設置され、移動物体追跡装置に接続されたカメラによって玄関前の監視領域を一定の時間間隔で連続的に撮影する。こうして撮影された画像中の移動物体を移動物体追跡装置が画像追跡することによって、玄関前にストーカーなどの不審人物がいないかを監視することができる。しかし、玄関前が道路や駐車場などの公共の場所に面している場合など、多数の人や車、自転車などが行き交い、撮影された画像中で複数の移動物体が頻繁に交差する場合がある。これらの交差した複数の移動物体は、画像の中で一体化した一つの変化領域として検出されてしまうため、個々の移動物体の位置が不明瞭になり、その後、個々の移動物体として正確に追跡し続けることが困難になるという問題がある。 For example, a camera-equipped interphone equipped with a moving object tracking device is installed next to a door of an entrance, and continuously captures a monitoring area in front of the entrance by a camera connected to the moving object tracking device at regular time intervals. When the moving object tracking device tracks the moving object in the image thus captured, it is possible to monitor whether there is a suspicious person such as a stalker in front of the entrance. However, many people, cars, bicycles, etc. come and go, such as when the entrance faces a public place such as a road or parking lot, and multiple moving objects frequently intersect in the captured image. is there. Since these intersecting moving objects are detected as a single change area integrated in the image, the position of each moving object becomes unclear, and then accurately tracked as each moving object There is a problem that it is difficult to continue.
このような問題に対し、特許文献1では、撮影された画像中の移動物体を画像追跡している際に複数の移動物体が交差した場合、各移動物体のテンプレート画像を用いてテンプレートマッチングを行うことによって、交差した複数の移動物体の個々の位置を求めている。これによって、一体化した一つの変化領域を移動物体毎の領域に分割し、分割した個々の領域について個々の移動物体のテンプレートを更新することによって、複数の移動物体が画面の中で交差している間も追跡を継続する手法が示されている。 With respect to such a problem, in Patent Document 1, when a plurality of moving objects intersect while tracking a moving object in a captured image, template matching is performed using a template image of each moving object. Thus, individual positions of a plurality of intersecting moving objects are obtained. In this way, a single integrated change area is divided into areas for each moving object, and by updating the template of each moving object for each divided area, a plurality of moving objects intersect in the screen. It shows how to keep tracking while you are.
しかしながら、特許文献1に開示された発明では、複数の移動物体が交差する場合、テンプレートマッチングによって分割した領域をそのまま用いてテンプレートを更新するため、後ろ側に存在する移動物体の一部が前側に存在する移動物体によって隠れ、当該部分が欠けたテンプレートが生成されてしまう。したがって、更新されたテンプレートは、次フレームにおいて移動物体を追跡するためのテンプレートとしての質が劣化し、画像追跡の精度が著しく低下する。また、複数の移動物体が交差する場合、後ろ側に存在する移動物体の一部が前側に存在する移動物体によって隠れていることを考慮して正確なテンプレートの更新を実行しようとすると、非常に複雑な画像処理が必要となり、特にハードウェア資源が限られている動作環境において実現することは困難になる。 However, in the invention disclosed in Patent Document 1, when a plurality of moving objects intersect, the template is updated by using the region divided by template matching as it is, so that a part of the moving objects existing on the back side is on the front side. A template that is hidden by an existing moving object and lacks the relevant part is generated. Therefore, the quality of the updated template is deteriorated as a template for tracking a moving object in the next frame, and the accuracy of image tracking is significantly reduced. In addition, when multiple moving objects intersect, if you try to perform an accurate template update considering that some of the moving objects that exist on the back side are hidden by the moving objects that exist on the front side, Complicated image processing is required, and it becomes difficult to implement in an operating environment where hardware resources are limited.
例えば、侵入者検知を目的とする画像監視装置よりも簡易なハードウェア構成での実現が求められるカメラ付インターホンなどにおいて、フレームレートを高くすることは現実的に困難である。例えば、1秒2フレーム程度しか画像を取得し処理することができない場合、車などの移動速度が速い物体に関して、前時刻でのフレームにおいては画面内に一部または全部が映っていなかったが、現時刻のフレームにおいて他の移動物体と交差することも頻繁に起きる。このような場合、特許文献1に開示された発明は、前時刻のフレームにおける移動物体の全体像に基づいてテンプレートを分割するため、適切な追跡は不可能となる。 For example, it is practically difficult to increase the frame rate in an interphone with a camera that is required to be realized with a simpler hardware configuration than an image monitoring device for intruder detection. For example, if an image can only be acquired and processed for about 2 frames per second, some or all of the frame at the previous time was not shown in the screen for an object with a high moving speed such as a car, Crossing with other moving objects frequently occurs in the frame at the current time. In such a case, since the invention disclosed in Patent Document 1 divides the template based on the entire image of the moving object in the frame at the previous time, appropriate tracking is impossible.
したがって、本発明の一つの目的は、上記問題点を解決することを課題とし、複数の移動物体が交差した場合にも正確に画像追跡できる移動物体追跡装置を提供することである。また、本発明の他の目的は、画像処理の負担が少ない移動物体追跡装置を提供することである。 Accordingly, an object of the present invention is to provide a moving object tracking device capable of accurately tracking an image even when a plurality of moving objects intersect, with the object of solving the above problems. Another object of the present invention is to provide a moving object tracking apparatus with less image processing load.
上記課題を解決するため、本発明に係る移動物体追跡装置は、画像を順次取得する画像入力部と、移動物体ごとに追跡に使用する画像依存情報及び非画像依存情報を含む移動物体情報と、移動物体が含まれていない基準画像とを記憶する記憶部と、入力画像を順次画像処理して移動物体を画像上にて追跡する追跡処理部を具備する移動物体追跡装置であって、追跡処理部は、基準画像と入力画像とを差分処理して変化領域を抽出する変化領域抽出手段と、入力画像における変化領域から特徴情報を抽出する特徴抽出手段と、変化領域の特徴情報と移動物体情報とを用いて変化領域と移動物体情報との対応付けを行う対応付け手段と、対応付け手段にて一つの変化領域に対し複数の移動物体情報が対応付く交差の有無を判定する交差判定手段と、移動物体ごとに、入力画像における変化領域から画像に依存した画像依存情報と画像に依存しない非画像依存情報とを抽出する移動物体情報抽出手段と、交差判定手段にて交差ありと判定した変化領域に対応する移動物体情報については、少なくとも移動物体情報抽出手段にて抽出した非画像依存情報を用いて記憶部に記憶している非画像依存情報を更新し、交差判定手段にて交差なしと判定した変化領域に対応する移動物体情報については、移動物体情報抽出手段にて抽出した画像依存情報及び非画像依存情報の両方を用いて記憶部に記憶している画像依存情報及び非画像依存情報の両方を更新する移動物体情報更新手段と、を具備することを特徴とする。 In order to solve the above problems, a moving object tracking device according to the present invention includes an image input unit that sequentially acquires images, moving object information that includes image-dependent information and non-image-dependent information used for tracking for each moving object, A tracking unit that includes a storage unit that stores a reference image that does not include a moving object, and a tracking processing unit that sequentially processes an input image and tracks a moving object on the image. The unit includes a change area extraction unit that extracts a change area by performing a difference process between the reference image and the input image, a feature extraction unit that extracts feature information from the change area in the input image, and the feature information and moving object information of the change area An association means for associating the change area with the moving object information using a cross-section, and an intersection determination means for determining whether or not there is an intersection where a plurality of moving object information is associated with one change area by the association means. For each moving object, a moving object information extracting unit that extracts image-dependent image-dependent information and non-image-dependent non-image-dependent information from a changing region in the input image, and a changing region that is determined to have an intersection by an intersection determining unit For the moving object information corresponding to, the non-image dependent information stored in the storage unit is updated using at least the non-image dependent information extracted by the moving object information extracting means, and the intersection determining means determines that there is no intersection. For the moving object information corresponding to the changed area, the image dependent information and the non-image dependent information stored in the storage unit using both the image-dependent information and the non-image-dependent information extracted by the moving object information extraction unit. And moving object information updating means for updating both.
本発明に係る移動物体追跡装置において、記憶部の画像依存情報には、移動物体情報のうち過去の移動物体情報が対応付いた領域の画像をテンプレートとして含んでおり、更に、追跡処理部は、交差判定手段にて交差ありと判定した変化領域に対して、対応付いた移動物体情報のテンプレートを用いてテンプレートマッチング処理を行うテンプレートマッチング処理手段と、テンプレートマッチング処理手段にてマッチングが取れた領域のうち最下位置ある領域を最前景であると判定する最前景判定手段と、を具備し、移動物体情報更新手段は、交差ありと判定した変化領域のうち、最前景であると判定された領域に対応する移動物体情報については、抽出した画像依存情報及び非画像依存情報の両方を用いて記憶部に記憶している画像依存情報及び非画像依存情報の両方を更新し、最前景でないと判定された領域に対応する移動物体情報については、抽出した非画像依存情報を用いて記憶部に記憶している非画像依存情報のみを更新してもよい。 In the moving object tracking device according to the present invention, the image dependence information in the storage unit includes an image of a region associated with past moving object information in the moving object information as a template. A template matching processing unit that performs a template matching process using a template of the corresponding moving object information with respect to a change area that is determined to have an intersection by the intersection determination unit, and a region that has been matched by the template matching processing unit An area determined to be the foreground among the change areas determined to have intersections, the foreground determination means determining the area at the lowest position as the foreground. For moving object information corresponding to, the image dependence stored in the storage unit using both the extracted image dependence information and non-image dependence information For the moving object information corresponding to the area determined to be not the foreground by updating both the information and the non-image dependent information, only the non-image dependent information stored in the storage unit using the extracted non-image dependent information May be updated.
本発明に係る移動物体追跡装置において、記憶部に記憶されている非画像依存情報には、移動物体情報のうち過去に移動物体情報が対応付いた領域を含み、移動物体情報抽出手段は、テンプレートマッチング処理にてマッチングが取れた領域であって、一時刻前における当該移動物体に対応する領域が画像端に接している領域について、マッチングが取れた領域を移動方向と平行に当該変化領域の範囲内で拡張してもよい。 In the moving object tracking device according to the present invention, the non-image-dependent information stored in the storage unit includes a region in the moving object information corresponding to the moving object information in the past. The region that has been matched in the matching process, and the region corresponding to the moving object one hour before is in contact with the edge of the image. You may extend within.
本発明に係る移動物体追跡装置において、対応付け手段は、記憶部に記憶している移動物体情報及び特徴情報から一時刻前の移動物体と現時刻の変化領域との類似度を示した対応表を生成し、当該対応表における類似度の総和が最大になるように変化領域と移動物体情報とを対応付けてもよい。 In the moving object tracking device according to the present invention, the associating means is a correspondence table showing the similarity between the moving object one time ago from the moving object information and feature information stored in the storage unit and the change area of the current time. And the change area and the moving object information may be associated with each other so that the sum of the similarities in the correspondence table is maximized.
本発明に依れば、順次撮影される画像において同時に複数の移動物体を追跡する際、他の移動物体の背後に位置すると判定された移動物体については、移動物体に関する情報の一部についてのみ更新を行う。これによって、他の移動物体の背後に位置する移動物体に関して、手前に位置する移動物体に隠れて画像に映らない部分があるため精度が劣化する情報まで強制的に更新されることはない。したがって、移動物体に関する情報の質の劣化による画像追跡の精度の低下を防ぐことができる。このため、複数の移動物体が交差する状況下においても、各移動物体を精度良く追跡することができる。 According to the present invention, when tracking a plurality of moving objects at the same time in sequentially captured images, only a part of the information about the moving object is updated with respect to the moving object determined to be located behind the other moving objects. I do. As a result, regarding a moving object located behind another moving object, there is a portion that is hidden behind the moving object located in front and is not reflected in the image, so that information that degrades accuracy is not forcibly updated. Therefore, it is possible to prevent a decrease in the accuracy of image tracking due to a deterioration in the quality of information regarding the moving object. For this reason, each moving object can be accurately tracked even in a situation where a plurality of moving objects intersect.
本発明の好適な実施形態として、本発明に係る移動物体追跡装置を、カメラ付インターホンに実装した場合の一実施例に基づいて説明する。 As a preferred embodiment of the present invention, a moving object tracking device according to the present invention will be described based on an example when mounted on a camera-equipped interphone.
図1(a)は、本発明の一実施形態である移動物体追跡装置が実装されたカメラ付インターホンの設置例を示す図である。図1(a)の例で示すように、カメラ付インターホン2は、玄関ドア6の脇等の壁面7に設置されている。図1(b)に示すように、このカメラ付インターホン2に内蔵されたカメラは、光軸31を概略水平方向に向けて設置されており、玄関前の監視領域を連続的に撮影する。このカメラに接続された移動物体追跡装置は、カメラが連続的に撮影する画像を順次受け取りながら画像中の移動物体を追跡することによって、カメラの画角内に長時間滞留する不審人物などを検知する。
FIG. 1A is a diagram showing an installation example of an interphone with a camera on which a moving object tracking device according to an embodiment of the present invention is mounted. As shown in the example of FIG. 1A, the intercom with camera 2 is installed on a wall surface 7 such as the side of the entrance door 6. As shown in FIG. 1B, the camera built in the interphone with camera 2 is installed with the
図2は、本発明の一実施形態である移動物体追跡装置10が実装されたカメラ付インターホンの構成を示すブロック図である。図2に示すように、本発明の一実施形態に係る移動物体追跡装置10は、画像取得部110と、追跡処理部130と、記憶部140と、滞留判定部150と、人判定部160と、警報部170と、を有し、撮像装置20に接続されている。
FIG. 2 is a block diagram illustrating a configuration of an interphone with a camera in which the moving
カメラ付インターホンに搭載されたカメラなどの撮像装置20は、所定の監視領域を所定の時間間隔で撮影し、撮影された画像を順次追跡処理部130に送る。以下、この所定時間で刻まれる時間の単位を時刻と称する。撮像装置20としては、例えば、CCD素子又はC−MOS素子等の撮像素子、光学系部品、A/D変換器等を含んで構成される内蔵カメラまたは外部カメラなどの公知のものを用いることができる。また、撮像装置20の解像度は、追跡対象などの具体的な用途に応じて、その解像度を選ぶことができ、例えばNTSC規格、SDTV規格またはHDTV規格を用いることができる。また、画像の撮像に用いる波長帯としては、可視光波長または赤外線波長などを、追跡対象などの具体的な用途に応じて選択されることが好ましい。
The
画像取得部110は、撮像装置20から順次送られる画像信号を受け取るためのインターフェースであり、撮像装置20からSCSI、USB、LAN、専用ケーブル、配線などの有線又は無線を介して画像を受信する。画像取得部110は、撮像装置20から受信した画像を移動物体追跡装置10の各部へ送る。
The
記憶部140は、各種プログラム及び各種データを記憶することができ、例えばRAMまたはROM、EPROMなどの半導体メモリ、ハードディスクなどの磁気記録媒体、CD−ROM、DVD−R/Wなどの光記録媒体などを用いて構成することができる。記憶部140は、画像取得部110、追跡処理部130、滞留判定部150、人判定部160及び警報部170と接続されており、各部からの要求に応じて各種プログラムや各種データなどを読み書きする。記憶部140は、移動物体情報141と、基準画像144と、不審者検知画像145と、を記憶する。
The
移動物体情報141は、追跡中の移動物体ごとに記憶される単位時刻毎に取得された過去の移動物体に関する情報であり、移動物体の画像に依存する画像依存情報142と、移動物体の画像に依存しない非画像依存情報143と、を含む。
The
画像依存情報142は、例えば、移動物体の特徴情報やテンプレートを含み、移動物体の領域の入力画像に基づいて抽出される情報である。特徴情報とは、移動物体の特徴を表す情報であり、本実施例では、例えば、移動物体の画像の色ヒストグラムや面積などが含まれるが、画素値の平均や標準偏差、エッジ情報、テクスチャ情報などの他の特徴情報を含んでもよい。色ヒストグラムは、物体像内の色分布を表す特徴情報であり、例えば、変化領域内の各ピクセルの輝度値などの画素値を所定幅のビンごとに累積し、各累積値を全ピクセル数で割って正規化することによって計算される。本実施例において使用されるテンプレートは、一時刻前の入力画像において検出された移動物体のテンプレート画像であり、追跡中の移動物体が現時刻の入力画像のどこに位置するかを特定するためのテンプレートマッチングにおいて使用される。したがって、このテンプレートマッチングのためのテンプレートとして使用できるものであれば、多様な特徴ベクトル、固有ベクトルなどのいかなる形式のテンプレートでもよい。 The image dependency information 142 is information extracted based on an input image of a moving object region, for example, including feature information and a template of the moving object. The feature information is information representing the feature of the moving object. In this embodiment, for example, the color histogram or area of the image of the moving object is included, but the average or standard deviation of pixel values, edge information, texture information, and the like are included. Other feature information may be included. The color histogram is feature information representing the color distribution in the object image. For example, the pixel value such as the luminance value of each pixel in the change region is accumulated for each bin of a predetermined width, and each accumulated value is represented by the total number of pixels. Calculated by dividing and normalizing. The template used in the present embodiment is a template image of a moving object detected in the input image one time before, and a template for specifying where the moving object being tracked is located in the input image at the current time. Used in matching. Therefore, any type of template such as various feature vectors and eigenvectors may be used as long as it can be used as a template for template matching.
非画像依存情報143は、例えば、一時刻前の入力画像における移動物体の領域、過去の予め定めた数(例えば5時刻分)の移動量、移動物体が画面中に現れてから経過した時間(以後存在時間と呼称する)などの移動物体の領域の入力画像に依存しない情報である。ここで、移動物体の領域とは、移動物体が入力画像において占める範囲であり、一般に、その形状と大きさと位置とによって表すことができる。本実施例では、領域として外接矩形を用いており、外接矩形の大きさ及び位置によって領域を特定することができるが、例えば、重心位置等を利用してもよい。 The non-image-dependent information 143 includes, for example, the area of the moving object in the input image one hour before, the movement amount of a predetermined number in the past (for example, five times), and the time elapsed since the moving object appeared on the screen ( This is information that does not depend on the input image of the area of the moving object, such as the “existing time”. Here, the area of the moving object is a range that the moving object occupies in the input image, and can generally be represented by its shape, size, and position. In this embodiment, a circumscribed rectangle is used as the area, and the area can be specified by the size and position of the circumscribed rectangle. For example, the position of the center of gravity may be used.
基準画像144は、変化領域を抽出するとき比較対象の基準となる画像であり、例えば、監視領域に移動物体が存在しないときの背景画像を前以って撮影しておき、記憶部140に記憶しておく。
The
不審者検知画像145は、画像における移動物体を追跡した結果、画面内に一定の時間以上居続ける移動物体を検知した際、この不審者と思われる移動物体の画像を記憶したものである。
The suspicious
追跡処理部130は、画像取得部110から順次受け取った画像を処理して画像中の移動物体を追跡する。追跡処理部130は、滞留判定部150、人判定部160及び警報部170と同様に、記憶部140に記憶された処理手順を記述したプログラムを読み出して、CPU、DSP、MCU、ASIC、ASSP等の処理装置で実行する。追跡処理部130は、画像取得部110、記憶部140、滞留判定部150、人判定部160及び警報部170と接続されている。
The
図2に示すように、追跡処理部130は、変化領域抽出手段131と、特徴抽出手段132と、対応付け手段133と、交差判定手段134と、階層型テンプレートマッチング手段135と、最前景判定手段136と、移動物体情報抽出手段137と、移動物体情報更新手段138と、を備える。
As shown in FIG. 2, the
変化領域抽出手段131は、予め記憶部140に記憶しておいた移動物体が存在しない基準画像144と、撮像装置20が撮影し画像取得部110を介して受け取った画像(以下、入力画像という)と、の差分処理を行い、入力画像中の変化領域を抽出する。
The change area extraction unit 131 includes a
特徴抽出手段132は、変化領域抽出手段131で抽出されたそれぞれの変化領域について、変化領域の入力画像から特徴情報を抽出し、対応付け手段133に渡す。
The
対応付け手段133は、特徴抽出手段132が抽出した各変化領域の特徴情報と記憶部140に記憶された各移動物体の移動物体情報141とに基づいて、変化領域抽出手段131が抽出した各変化領域と当該変化領域に存在する最も可能性の高い移動物体とを対応付ける。
The associating
交差判定手段134は、対応付け手段133によっていずれの変化領域にも対応付けられなかった移動物体を、既に他の移動物体が対応付けられた変化領域に重ねて対応付くかを調べることで、変化領域において複数の移動物体が交差しているか否かを判定する。
The
階層型テンプレートマッチング手段135は、交差判定手段134による判定の結果、複数の交差する移動物体が対応付けられた変化領域において、テンプレート画像を用いたテンプレートマッチングによって、各移動物体の領域を検出する。階層型テンプレートマッチング手段135の詳細に関しては、後述する。
As a result of the determination by the
最前景判定手段136は、階層型テンプレートマッチング手段135にて検出された移動物体の領域の位置に基づいて、各変化領域において交差する複数の移動物体のうち最前景に位置する移動物体であるか、又は他の移動物体の背後に位置する移動物体であるかを判定する。
Whether the
移動物体情報抽出手段137は、階層型テンプレートマッチング手段135にて検出された移動物体の領域に関する情報から画像に依存しない非画像依存情報143を抽出し、移動物体の領域の入力画像から画像に依存する画像依存情報142を抽出する。
The moving object
移動物体情報更新手段138は、移動物体が他の移動物体と交差しているか否かに応じて、移動物体情報抽出手段137が抽出した画像依存情報142及び非画像依存情報143を用いて、記憶部140に記憶された移動物体の移動物体情報141を更新する。交差判定手段134によって変化領域に移動物体が一つしか存在しないと判定された場合、移動物体情報更新手段138は、移動物体情報141を全て更新する。また、交差判定手段134によって複数の移動物体が交差していると判定された場合、移動物体が最前景判定手段136によって最前景に位置すると判定されれば、移動物体情報141を全て更新する。しかし、移動物体が他の移動物体の背後にあると判定された場合は、移動物体情報141のうち非画像依存情報143のみを更新する。
The moving object
滞留判定部150は、移動物体毎に記憶部140に記憶されている存在時間を調べ、予め定めた時間(例えば1分間)より長く画像中に存在していれば、それが人間か否かを調べるために当該移動物体の領域の情報を人判定部160に送る。
The
人判定部160は、滞留判定部150から送られた予め定めた時間より長く画面内に存在している移動物体が人間であるか否かを判定し、人間であると判定した揚合は警報部170にその結果を送る。また、その時の画像を不審者検知画像145として記憶部140に記憶してもよい。
The
警報部170は、人判定部160から結果を受け取ると、LEDなどの警報ランプや警報ブザーなどによって、不審者を検知したことを利用者に知らせる。予め記憶されたメッセージをスピーカーなどを介して音声として流したりディスプレイ上に表示したりしてもよい。また、記憶部140に記憶された不審者検知画像145は、ディスプレイやプリンタなどの出力装置(図示せず)を介して出力することもできる。
When the
[発明の動作]
図7は、本発明の一実施形態である移動物体追跡装置10の動作フローを示すフローチャートである。図7を参照しながら、移動物体追跡装置10の各部の動作の詳細に関して説明する。
[Operation of the Invention]
FIG. 7 is a flowchart showing an operation flow of the moving
ステップS100において、移動物体追跡装置10は、撮像装置20によって監視領域を撮像装置20の画角内に移動物体が存在しない状況で予め撮影した背景画像を基準画像144として記憶部140に記憶したり、追跡対象の移動物体に関する移動物体情報141を初期状態にしたりするなどの移動物体の追跡処理のための初期化を行う。
In step S <b> 100, the moving
ステップS200において、移動物体追跡装置10は、予め規定された時間間隔で撮像装置20が撮影した画像を画像取得部110を介して受け取り、追跡処理部130へ渡す。こうして、移動物体追跡装置10は、撮像装置20から一定時間間隔で順次入力画像が送られる毎に、追跡処理部130によるステップS300〜S1400の処理を繰り返す。
In step S <b> 200, the moving
ステップS300において、追跡処理部130は、変化領域抽出手段131によって、撮像装置20から新たに受け取った入力画像と記憶部140に記憶されている基準画像144との差分処理を行い、入力画像中の変化領域を抽出する。
In step S300, the
変化領域抽出手段131は、撮像装置20が撮像し画像取得部110を介して受け取った入力画像と予め取得して記憶部140に記憶しておいた基準画像144とを比較し、差異のある領域を変化領域として抽出し、その結果を特徴抽出手段132に渡す。例えば、変化領域抽出手段131は、入力画像と基準画像144との対応する画素の画素値について差分処理を行い、一定以上の差分値がある画素群について2値化、ラベリングなどの方法を実行する。こうして、入力画像において基準画像144と異なる変化領域、すなわち、移動物体が存在すると推定される領域が抽出される。尚、画素値間の差分を求める方法については、公知の様々な方法を用いることができるため詳細についての説明は省略する。
The change area extraction unit 131 compares the input image captured by the
ステップS400において、追跡処理部130は、特徴抽出手段132によって、抽出された変化領域の入力画像において画像処理を行い、特徴情報を算出する。
In step S400, the
特徴抽出手段132は、変化領域抽出手段131で抽出された変化領域について塊毎にグループ分けを行い、各グループにラベル(以後グループをラベルと呼称する)を付け、ラベル毎にその領域の入力画像から特徴情報を抽出する。
The
ステップS500において、追跡処理部130は、対応付け手段133によって、記憶部140に記憶されている移動物体の移動物体情報141と特徴抽出手段132にて抽出された変化領域の特徴情報とに基づいて、移動物体と変化領域との対応付けを行う。
In step S <b> 500, the
対応付け手段133は、記憶部140に記憶されている一時刻前の入力画像で検出された追跡対象の移動物体に関する移動物体情報141と特徴抽出手段132が現時刻の入力画像の各変化領域から抽出した特徴情報とから算出した類似度に基づいて、一時刻前に検出された移動物体のそれぞれが現時刻の入力画像のどの変化領域に存在する可能性が最も高いかを対応付ける。
The associating
図3は、一時刻前の入力画像における移動物体と現時刻の入力画像における変化領域との1対1対応付けの例を示す図である。図を参照しながら、本実施例における対応付け手段133による対応付けの例について説明する。
FIG. 3 is a diagram illustrating an example of a one-to-one correspondence between a moving object in the input image one hour before and a change area in the input image at the current time. An example of association by the
図3は、図3(a)の一時刻前の入力画像において離れていた車両801と人間802とが図3(b)の現時刻の入力画像において交差する例を示す。図3(c)に示すように、前時刻の入力画像では、変化領域805、806、807が抽出され、図3(e)に示すように、それぞれの変化領域に識別子ID1、ID2、ID3を付与する。これに対して、図3(d)に示されるように、現時刻の入力画像では、車両801と人間802が交差して一体化した一つの変化領域808として抽出され、人間803は、単独の変化領域809として、車両804は単独の変化領域810として抽出される。図3(f)に示すように、これらの抽出された変化領域に、それぞれ、識別子IDA、IDB、IDCを付与する。本実施例では、画像の左上端を原点として横方向にX軸を縦方向にY軸を設定して領域を特定する。図3の例において、対応付け手段133は、個々の変化領域IDA、IDB及びIDCに対して、それぞれ、最も「対応度」の高い一時刻前の移動物体802、803及び新規移動物体804を対応付け、当該変化領域に存在する移動物体とする。どの変化領域にも対応付けられなかった一時刻前の移動物体801は、一時的にロスト状態(追跡不能状態)と判定する。
FIG. 3 shows an example in which the
ここで「対応度」とは一時刻前の移動物体と現時刻の変化領域とがどのくらい特徴が一致しているかを表す指標であり、一時刻前の移動物体の移動物体情報141と現時刻の変化領域の領域及び特徴情報との類似度に基づいて求められる。本実施例では、対応度の算出に当たって、移動物体の予測位置と現時刻の変化領域との重なり具合(位置類似度)、前時刻の移動物体の色ヒストグラムと現時刻の変化領域の色ヒストグラムとの類似度(色ヒストグラム類似度)、及び前時刻の移動物体の面積と現時刻の変化領域の面積との比(面積類似度)を、それぞれ、全く同じである場合は1.0、何らかの共通点がある場合は1.0以下の正数、全く共通点がない場合は0となるように正規化して求め、次のように計算しているが、これに制限されず、多様な周知の方法を用いることができる。
移動物体の予測位置は、記憶部140に記憶されている非画像依存情報143である一時刻前の移動物体の領域と、同じく非画像依存情報143である過去の移動量から予測した予測移動速度とに基づいて計算される。本実施例では、前時刻と現時刻との間は各移動測物体が等速運動を行っていると仮定し、前時刻の移動物体の領域の位置に予測移動速度を加算した位置を現時刻における移動物体の予測位置として採用している。予測移動速度は、記憶部140に記憶されている過去の移動量を1次ARモデルによる予測法やカルマンフィルタ等の多様な予測方法を使って予測することができる。
The predicted position of the moving object is the predicted moving speed predicted from the area of the moving object one time before that is the non-image dependent information 143 stored in the
本実施例では、移動物体の予測位置及び現時刻の変化領域の位置、色ヒストグラム及び面積を使用して対応度を算出する方法を例示したが、他の特徴情報を使って対応度を定義してもよい。また、合成の際に相加平均、相乗平均など様々な方法で計算することができる。 In the present embodiment, the method of calculating the correspondence using the predicted position of the moving object, the position of the change area of the current time, the color histogram, and the area is illustrated, but the correspondence is defined using other feature information. May be. In addition, it can be calculated by various methods such as arithmetic mean and geometric mean during synthesis.
対応付け手段133は、前時刻の移動物体と現時刻の変化領域との間の対応度が求まったら新規出現の度合いとロストの度合いとを以下の手順で決定する。
(i)前時刻の各移動物体の識別子を各行に対応させ、現時刻の各変化領域の識別子を各列に対応させて対応度を行列状に並べた対応度表を作成する。
(ii)現時刻の各変化領域に対応する対応度表の列毎に対応度の最大値を求め、その最大値を1.0から減じた値をその変化領域に移動物体が新規出現した度合いとし、各変化領域に対する新規出現の度合いを示す一行を対応度表に追加する。
(iii)前時刻の各移動物体に対応する対応度表の行毎に対応度の最大値を求め、その最大値を1.0から減じた値をその移動物体が現時刻の入力画像中から消えたロストの度合いとし、各移動物体に対するロストの度合いを示す一列を対応度表に追加する。
The associating
(I) A correspondence table in which correspondences are arranged in a matrix with the identifier of each moving object at the previous time associated with each row and the identifier of each change region at the current time associated with each column is created.
(Ii) A maximum value of correspondence is obtained for each column of the correspondence table corresponding to each change area at the current time, and a value obtained by subtracting the maximum value from 1.0 is set as the degree of new appearance of the moving object in the change area, A line indicating the degree of new appearance for each change area is added to the correspondence table.
(Iii) The maximum value of the correspondence is obtained for each row of the correspondence table corresponding to each moving object at the previous time, and the moving object disappears from the input image at the current time by subtracting the maximum value from 1.0. As the degree of lost, a column indicating the degree of lost for each moving object is added to the correspondence table.
図3(h)は、このようにして作成された対応度表の一例を示す。対応付け手段133は、この対応度表から、ロストを表す列を例外として必ず一列につき一つのみ、新規出現を表す行を例外として必ず一行につき一つのみの対応度を選びながら、それらの対応度の総和が最大となるように前時刻の移動物体と現時刻の変化領域との対応付けを行う。この際、新規出現を表す一行及びロストを表す一列からは、複数の対応度を選んでもよい。すなわち、追跡対象の移動物体のうちのいくつかを変化領域のうちのいくつかに1対1で対応付け、変化領域に対応付けられなかった移動物体はロスト状態であり、移動物体に対応付けられなかった変化領域には、移動物体が新規出現したと判定する。対応度表に基づいて対応度の和が最大になる対応付けの組み合わせを求めるのに、例えば、ハンガリー法などの最適化手法を利用することができる。尚、ハンガリー法の詳細については、例えば、定道宏著、「経営科学」、オーム社、1989年に記載されている。 FIG. 3 (h) shows an example of the correspondence table created in this way. Correspondence means 133 always selects only one correspondence level per column with exception of the column representing lost, and one correspondence per row with exception of the row representing new appearance, from the correspondence table. The moving object at the previous time is associated with the change area at the current time so that the sum of the degrees becomes the maximum. At this time, a plurality of correspondence levels may be selected from one row representing a new appearance and one column representing a lost. That is, some of the tracking target moving objects are associated with some of the change areas on a one-to-one basis, and the moving objects that are not associated with the change areas are in a lost state and are associated with the moving objects. It is determined that a new moving object has appeared in the change area that did not exist. For example, an optimization method such as the Hungarian method can be used to obtain a combination of associations that maximizes the sum of correspondences based on the correspondence table. Details of the Hungarian law are described in, for example, Hiroshi Sadamichi, “Management Science”, Ohmsha, 1989.
図3(h)の対応度表においては、円で囲まれた対応度が選択される。したがって、図3の例では、変化領域IDAとID2(人間)、変化領域IDBとID3(人間)が対応付き、ID1(車両)は一旦ロストと判定される(但し後述の交差判定手段134でその判定は修正される)。変化領域IDCは、新規移動物体が出現したと判定される。 In the correspondence degree table of FIG. 3H, correspondence degrees surrounded by circles are selected. Therefore, in the example of FIG. 3, the change areas IDA and ID2 (human), the change areas IDB and ID3 (human) are associated, and ID1 (vehicle) is once determined to be lost (however, the intersection determination means 134 described later determines that). Judgment is corrected). In the change area IDC, it is determined that a new moving object has appeared.
ステップS600において、追跡処理部130は、交差判定手段134によって、対応付け手段133によってロストと判定された移動物体のうち、他の移動物体と交差して一体化した変化領域に存在する可能性のある移動物体を当該変化領域に対応付ける。
In step S <b> 600, the
交差判定手段134は、対応付け手段133によってロストと判定された各移動物体の予測位置の外接矩形が、現時刻の各変化領域の外接矩形と重なっているか否かを調べる。交差判定手段134は、一旦ロストと判定された移動物体の外接矩形と重なっている変化領域の外接矩形が存在した場合は、移動物体が他の移動物体と交差した状態で一体化した変化領域として抽出されていると判定する。そして、移動物体を当該変化領域に存在する移動物体として対応付ける。こうして、交差判定手段134は、ロストと判定された移動物体と変化領域との対応関係を構築する。尚、一つの移動物体が複数の変化領域と重なっている場合、交差判定手段134は、最も重なりが大きい変化領域にこの移動物体を対応付ける。
The
図3を参照しながら、交差判定手段134の処理を説明する。図3(f)中の破線で示した外接矩形の領域は、前時刻の移動物体ID1、ID2及びID3の現時刻における予測位置を表す。分かりやすくするため、図3(f)の矩形情報のみを取り出したものを図3(g)に示す。ここで、実線で示した矩形RA、RB及びRCは、それぞれ、現時刻の変化領域の外接矩形IDA、IDB及びIDCを表し、破線で示した矩形R1、R2及びR3は、それぞれ、移動物体ID1、ID2及びID3の現時刻における予測位置の外接矩形を表す。図3の例において、交差判定手段134は、移動物体ID1が一旦ロストと判定されたが、その予測位置の外接矩形R1が、既に移動物体ID2と対応付けられている変化領域IDAの外接矩形RAと重なっているため、移動物体ID1も移動物体ID2と共にIDAに対応付ける。
The processing of the
ステップS700において、追跡処理部130は、交差判定手段134によって複数の交差する移動物体が存在すると判定された各変化領域に関して(ステップS750のYes)、階層型テンプレートマッチング手段135によってその変化領域に存在する移動物体の領域を特定する。
In step S <b> 700, the
ステップS800において、階層型テンプレートマッチング手段135は、交差判定手段134が各変化領域に存在すると判定した複数の交差する移動物体の領域を、移動物体毎にテンプレートマッチングによって抽出し、抽出した領域を現時刻の入力画像における移動物体の領域とし、必要があれば抽出した領域の修正を行う。尚、階層型テンプレートマッチング手段135の詳細に関しては、後述する。
In step S800, the hierarchical
ステップS900において、追跡処理部130は、移動物体情報抽出手段137によって、階層型テンプレートマッチング手段135が特定した移動物体の領域とその領域の入力画像に基づいて、移動物体情報を抽出する。
In step S900, the
移動物体情報抽出手段137は、階層型テンプレートマッチング手段135が特定した移動物体の領域に基づいて、移動物体の領域や移動量などの非画像依存情報を抽出する。また、移動物体情報抽出手段137は、移動物体の領域の入力画像から、移動物体の画像の色ヒストグラム、面積などの特徴情報を含む画像依存情報を抽出する。尚、移動物体が変化領域において他の交差する移動物体の背後に位置する場合は、画像依存情報の精度が劣化する可能性があるので、画像依存情報は抽出しなくてもよい。
The moving object
ステップS1000において、追跡処理部130は、移動物体情報更新手段138によって、移動物体情報抽出手段137が抽出した移動物体情報に基づいて移動物体情報141を更新する。
In step S <b> 1000, the
移動物体情報更新手段138は、交差判定手段134の処理結果に基づいて移動物体が他の移動物体と交差しているか否かを判定し、他の移動物体が交差している場合は、最前景判定手段136によって当該移動物体が最前景に位置するか否かを判定し、その結果に従って記憶部140に記憶されている移動物体の移動物体情報141の全て又は一部を更新する。
The moving object
最前景判定手段136は、変化領域において複数の移動物体が交差している場合、階層型テンプレートマッチング手段135によって抽出された各移動物体の領域の下端が最も下に位置する移動物体を最前景に位置すると判定する。
When the plurality of moving objects intersect in the change area, the
図1及び図5を参照しながら、本実施形態における移動物体の前後関係の判定方法について説明する。図1(a)に示すように、本実施例では、本発明に係る移動物体追跡装置を玄関脇のカメラ付インターホンに適用した場合を想定している。カメラ付インターホンは、通常、人間の手が届く範囲の高さに設置され、搭載されるカメラは、地面とほぼ平行な方向すなわち概略水平方向に向けられる。 With reference to FIG. 1 and FIG. 5, a method for determining the front-rear relationship of a moving object in the present embodiment will be described. As shown in FIG. 1A, in this embodiment, it is assumed that the moving object tracking device according to the present invention is applied to an interphone with a camera beside the entrance. The intercom with camera is usually installed at a height that can be reached by a human hand, and the mounted camera is oriented in a direction substantially parallel to the ground, that is, in a substantially horizontal direction.
図1(b)に示す例では、移動物体である人間3と車両4が、カメラが撮影する光軸方向31とほぼ平行な概略水平平面の地面上30にカメラからみて前後に並んでおり、人間3の方が車両4よりカメラに近い位置にいる。したがって、カメラが撮影した画像の中では、人間3が手前に、車両4が人間3の背後に映る。車両4の一部は、人間3と交差してその背後に映るため、人間3の陰に隠れて見えない。この場合、カメラ側から見て手前に位置する人間の下端と撮影可能な範囲の下端との間の距離36の撮影可能な範囲全体34に対する比の方が、後側に位置する車両の下端と撮影可能な範囲の下端との間の距離37の撮影可能な範囲全体35に対する比より小さいため、撮影された画像において手前にいる人間の下端の方が後側にある車両の下端より下に位置する。したがって、本実施例だけでなく多くの場合において、撮影された物体の前後関係を判定するのにこの方法を適用することができる。
In the example shown in FIG. 1B, the
図5は、本発明の一実施形態である移動物体追跡装置10における前後関係判定処理を示す図である。ここでは、図3(b)の場合に前後判定を行った場合の例が示されている。図5(a)は変化領域抽出手段131によって抽出された変化領域1001を表し、図5(b)は、図4(a)のテンプレート画像T1及びT2を用いてテンプレートマッチングを行った結果抽出された領域の外接矩形1002及び1003を表す。人間のマッチング位置の矩形1003の下端の方が車両のマッチング位置の矩形1002の下端より下に位置するため、人間の方が車両よりも前面に位置すると判定する。こうして、このマッチング位置に配置されるテンプレート画像T2と変化領域とが重なる部分を現時刻での人間の領域として抽出する。残る車両の位置は、5(a)の元々の変化領域図1001から人間の領域を取り除いた領域1004(図5(c))に対して再度テンプレートマッチングを実施して決定する。
FIG. 5 is a diagram illustrating the context determination process in the moving
移動物体情報更新手段138は、移動物体が変化領域に一つしか存在しない場合、移動物体情報141の全てを更新する。また、移動物体が変化領域において他の移動物体と交差している場合、移動物体が最前景に位置すれば、移動物体情報141の全てを更新する。しかし、移動物体が他の移動物体の背後に位置する場合は、移動物体情報141のうちの非画像依存情報143のみを更新し、画像依存情報142は更新しない。
The moving object
このように、移動物体情報更新手段138は、変化領域において他の移動物体と交差し他の移動物体の背後に位置する移動物体に対して、例えば、色ヒストグラム及び面積などの特徴情報やテンプレート画像などの画像データに依存する画像依存情報142を敢えて更新しない。これらの画像依存情報142に関しては、前時刻の値をそのまま引き継いで次時刻の入力画像における移動物体の追跡処理で使用する。こうすることによって、背後の移動物体の画像の一部が前の移動物体によって隠れてしまうため、背後の移動物体の領域全体の画像に基づいて画像依存情報142を更新するとかえって精度が劣化してしまうのを防止する。こうして、このような情報の更新の精度を上げるため前面の移動物体によって隠れた領域を解析したりフレームレートを高くしたりするなどの複雑で高度な処理をしなくとも、移動物体の画像追跡に十分な精度の情報を維持することができる。
As described above, the moving object
しかし、移動物体情報更新手段138は、例えば、移動物体の領域や移動量などの画像データに依存しない非画像依存情報143に関しては、背後の移動物体についても更新を行う。移動物体の一部が前面の移動物体に隠れた場合、背後の移動物体の領域全体に基づいてこれらの情報を更新しても情報の精度にあまり影響を与えないからである。このような非画像依存情報143は、次時刻の入力画像における移動物体の追跡処理における判定基準として有用である。
However, the moving object
一方、移動物体情報更新手段138は、移動物体が変化領域に一つしか存在しない場合、又は他の移動物体と交差するが最前景に位置する場合、非画像依存情報143だけでなく、色ヒストグラム及び面積などの特徴情報やテンプレート画像などを含む画像依存情報142も更新する。この場合、移動物体はその一部が他の移動物体の陰に隠れることがなく移動物体の領域全体の画像が全て得られるため、正しい画像依存情報142が抽出されるからである。
On the other hand, when there is only one moving object in the change region, or when the moving object
図4は、本発明の一実施形態である移動物体追跡装置10におけるテンプレート画像の更新の例を示す図である。図3及び図4を参照しながら、移動物体が交差している場合のテンプレート画像142の更新について説明する。
FIG. 4 is a diagram illustrating an example of updating a template image in the moving
図3(a)に示すように、車両801及び人問802が離れて画像に映っている場合、それぞれのテンプレート画像は、図4(a)のT1及びT2となる。次時刻において、図3(b)に示すように、車両801及び人間802は、画像中で交差している。この場合、移動物体情報更新手段138は、人間802が他の移動物体の車両801と交差しているが最前景に位置するため、人間802のテンプレート画像を図4(b)のT2’で示すように更新する。一方、車両801は、その一部が人間802の背面に隠れて全体が見えないため、移動物体情報更新手段138は、車両801のテンプレート画像の更新は行わず、前時刻のテンプレート画像T1をそのまま用いる。したがって、車両801のテンプレート画像の精度の劣化を防ぐことができる。
As shown in FIG. 3A, when the
ステップS1005において、追跡処理部130は、追跡が成功した移動物体に対して記憶部140に記憶されている追跡成功回数を1回増やす。逆に追跡に失敗して見失った場合は、追跡成功回数を0にリセットする。移動物体が画面外に出たと判定された場合、追跡処理部130は、この移動物体に関する移動物体情報141を記憶部140から消去する。
In step S1005, the
ステップS1100において、移動物体追跡装置10は、追跡処理部130が追跡に成功した移動物体について、滞留判定部150によって、予め定めた時間より長く画像中に存在しているか否かを判定する。
In step S1100, the moving
滞留判定部150は、例えば、移動物体の追跡成功回数が予め定めた回数よりも多いか否かを判定することによって、当該移動物体が予め定めた時間より長く画像中に存在し続けているか否かを判定する。また、滞留判定部150は、現時刻に取得された入力画像中に存在する移動物体について存在時間を更新し、この存在時間を記憶部140に記憶しておき、移動物体が長時間存在しているか否かの判定に使用してもよい。
For example, the
移動物体が予め定めた時間より長く画像中に存在している場合(ステップS1100でYesの場合)、ステップS1200において、移動物体追跡装置10は、人判定部160によってこの移動物体が人であるか否かを判定する。
If the moving object is present in the image longer than a predetermined time (Yes in step S1100), in step S1200, the moving
人判定部160は、滞留判定部150によって予め定めた時間より長く画面内に存在すると判定された移動物体が人間であるか否かを判定し、人間であると判定した揚合は警報部170にその結果を出力する(S1300)。そして、その移動物体の画像を不審者検知画像145として記憶部140に記憶する。また、例えば、不審者が滞留した時間帯など他の情報も一緒に記憶部140に記憶してもよい。さらに、例えば、室内に設置されたインターホンの親機において利用者がスイッチボタンやタッチパネルなどの入力装置を介してこれらの情報の表示を要求したとき、ディスプレイなどの出力装置を介して記憶部140に記憶された情報を表示してもよい。
The
人判定部160において移動物体が人間であるか否かを判定する方法には、周知の様々な方法を使用することが可能である。例えば、P. Viola、M. Jones & D. Snow、「動作パターン及び外観パターンによる歩行者の検出(Detecting Pedestrians Using Patterns of Motion and Appearance)」、IEEE International Conference on Computer Vision, pp.734, 0ct, 2003に記載されているように、予め撮影した様々な外観の人間の画像を使用してAdaBoostによって学習したHaar-Like特徴に基づくカスケード型識別器によって実現できる。
Various known methods can be used as a method for determining whether or not the moving object is a human in the
移動物体が人間であると判定されたる場合(ステップS1200でYesの場合)、ステップS1300において、移動物体追跡装置10は、警報部170によって、ユーザーに光や音等で警告し、記憶部140に記憶されている不審者検知画像145を外部の機器、例えば室内に設置されるインターホン親機のモニターなどに表示する。
When it is determined that the moving object is a human (in the case of Yes in step S1200), in step S1300, the moving
図8は、本発明の一実施形態である移動物体追跡装置10における階層型テンプレートマッチング手段135の動作フローを示すフローチャートである。図8を参照しながら、階層型テンプレートマッチング手段135の動作の詳細について説明する。
FIG. 8 is a flowchart showing an operation flow of the hierarchical
階層型テンプレートマッチング手段135は、処理対象の変化領域に存在すると対応付けられた各移動物体について、ステップS801〜806の処理を繰り返す。
The hierarchical
ステップS801において、階層型テンプレートマッチング手段135は、交差判定手段134によって処理対象の変化領域に対応付けられた各移動物体について、それぞれのテンプレート画像を用いてテンプレートマッチングを行い、変化領域中で最も一致する位置を抽出する。テンプレートマッチングの指標としては、変化領域とテンプレート画像の対応する画素間の画素値に対する正規化相関、差分絶対値和及び差分二乗和などの様々な指標を利用することができる。
In step S <b> 801, the hierarchical
ステップS803において、階層型テンプレートマッチング手段135は、テンプレートマッチングによって抽出された各移動物体の位置に基づいて前後関係を判定し、最前景に位置する移動物体を特定する。本実施例では、前述の最前景判定手段136と同様に、移動物体の領域の下端が下の方に位置する移動物体を前側に位置すると判定する。ここで、ステップS801〜806の初回のループにおいて最前景と判定された移動物体を記憶部140に記憶しておき、最前景判定手段136の判定に利用してもよい。
In step S803, the hierarchical
ステップS805において、階層型テンプレートマッチング手段135は、マッチング位置に配置した最前景に位置する移動物体のテンプレート画像と変化領域とが重なる部分を移動物体の現時刻の入力画像における新たな領域とし、当該領域を変化領域から取り除く。
In step S805, the hierarchical
階層型テンプレートマッチング手段135は、最前景に位置しない残りの移動物体について、ステップS801からステップS806までの一連の処理を繰り返し、最前景の移動物体から順に変化領域に存在する移動物体の個数分繰り返すことによって、各移動物体の領域が抽出される。
The hierarchical
ステップS807において、階層型テンプレートマッチング手段135は、変化領域に存在する全ての移動物体の領域を特定した後、どの移動物体にも対応付かなかった残りの変化領域の割合が予め定めた割合以上か否かを判定する。予め定めた割合以下であった場合(ステップS807でNoの場合)、残りの領域は、距離的に最も近い移動物体に対応付けられる。
In step S807, the hierarchical
逆に予め定めた割合以上の変化領域が残った場合(ステップS807でYesの場合)、階層型テンプレートマッチング手段135は、前時刻の移動物体の中で画面端に接しているものが存在するか否かを検証する(ステップS808)。前時刻で画面端に接する移動物体が存在しない場合(ステップS808でNoの場合)、階層型テンプレートマッチング手段135は、残りの変化領域を全て新規出現の移動物体として対応付ける(ステップS811)。
On the other hand, if a change area of a predetermined ratio or more remains (Yes in step S807), does the hierarchical
ステップS808において、階層型テンプレートマッチング手段135は、変化領域の中から時刻の経過によって形状が変化する可能性のある移動物体を特定し、その特定された移動物体の領域を修正する。例えば、階層型テンプレートマッチング手段135は、変化領域に対応する移動物体のうちで前時刻の取得画像において画面端に接しているものが存在するか否かを判定する。画面端に接しているものが存在する場合(ステップS808でYesの場合)、階層型テンプレートマッチング手段135は、当該移動物体のマッチング結果を移動方向に平行な方向に変化領域内で拡張する(ステップS809)。尚、前時刻で複数の移動物体が画面端に接している場合は、前面の物体から順に領域を拡張する。こうして、階層型テンプレートマッチング手段135は、前時刻において移動物体全体が画面内に映っていなかったために対応付かなかったと思われる移動物体の領域を残った変化領域から対応付けることができる。
In step S808, the hierarchical
このように、前時刻で画面端に接している移動物体が画面内に進入してくる方向に移動している場合、現時刻では前時刻で画面外にあった部分まで撮影されていると考えられるため、前時刻で見えなかった部分は見えていた部分に対して移動方向と逆の方向に続いていると考える。こうして、階層型テンプレートマッチング手段135は、当該移動物体のテンプレートマッチング後の領域を移動方向の逆の方向に拡張して領域の修正を行う。尚、本実施例では、カメラ付インターホンのように撮像装置20は略水平方向に向くように設置されていると想定している。したがって、移動方向を水平方向と限定してもさほど問題はない。
In this way, if a moving object that touches the screen edge at the previous time is moving in the direction of entering the screen, it is considered that the current time has taken the part that was off the screen at the previous time. Therefore, it is considered that the portion that was not visible at the previous time continues in the direction opposite to the moving direction with respect to the portion that was visible. In this way, the hierarchical
図6は、前時刻の入力画像において画面端に接する移動物体が存在する場合の領域修正の例を示す図である。図6を参照しながら、前時刻において画面端に接している移動物体が現時刻で他の移動物体と交差する場合の移動物体領域の修正処理について説明する。 FIG. 6 is a diagram illustrating an example of region correction when there is a moving object in contact with the screen edge in the input image at the previous time. With reference to FIG. 6, a description will be given of correction processing of a moving object region when a moving object that is in contact with the screen edge at the previous time intersects with another moving object at the current time.
図6(a)に示すように、前時刻において車両901の画像は画面左端に接しており一部分しか見えず、人間902は全身が見えており、図6(c)に示すように、現時刻において車両901と人間902とが交差して重なっている例について考える。前時刻における変化領域は、図6(b)に示す通りであり、それぞれID4、ID5という識別子が与えられている。また、図6(d)に示すように、現時刻では、交差によって車両901と人間902が一体化されて一つの変化領域ID6として抽出される。したがって、テンプレートマッチングによって各移動物体の領域を特定し、特定された領域を変化領域から抽出する必要がある。しかしながら、前時刻において移動物体は交差状態ではないため、図6(a)の車両901及び人間902のテンプレート画像は、それぞれ、図6(e)のT4及び図6(f)のT5に示す通りである。このように、前時刻の入力画像において車両901は一部しか映っておらず、車両901のテンプレート画像として、図6(e)のT4が記憶されている。したがって、このテンプレート画像T4を用いたテンプレートマッチングの結果、図6(g)に示すように、人間902はID5’に、車両901はID4’に対応付けられ、ID6’が残ってしまう。しかしながら、車両が前時刻で画面左端に接しており、画面右方向に移動しているため、車両の領域ID4’を左右方向に拡張することによって最終的にはID6’が車両の領域に含まれる。
As shown in FIG. 6A, at the previous time, the image of the
以上の処理を行った後、まだ変化領域が予め定めた閾値以上残っている場合(ステップS810でYesの場合)、階層型テンプレートマッチング手段135は、ステップS811において残った領域を新規出現の移動物体の領域として対応付ける。
After the above processing, if the change area still remains more than a predetermined threshold (Yes in step S810), the hierarchical
この新規出現の移動物体に関して、階層型テンプレートマッチング手段135は、特定された領域やその領域の入力画像に基づいて新規移動物体の移動物体情報を抽出して記憶部140に記憶する。尚、変化領域の残りが予め定めた割合以下であった場合、階層型テンプレートマッチング手段135は、距離(例えばマハラノビス距離等)的に最も近い移動物体にこの変化領域の残りを対応付ける。
With respect to the newly appearing moving object, the hierarchical
本発明によれば、画像中の複数の移動物体を追跡する際、交差する複数の移動物体を撮影するカメラに対する前後位置を判断して、後ろ側に位置する移動物体については、テンプレート画像のように画像に依存する情報の更新を敢えて行わない。したがって、複数の移動物体が画像中で交差する際、後ろ側に位置する移動物体のテンプレート画像が、前側に位置する移動物体に隠れて見えない部分があるにもかかわらず強制的に更新されるため、テンプレートとしての質が劣化してしまうことに起因する画像追跡の精度の低下を防ぐことができる。このため、複数の移動物体が頻繁に交差する状況においても、各移動物体を精度良く追跡することができる。したがって、例えば、カメラ付きインターホンなどのハードウェア資源が限られた動作環境に適用した場合でも、インターホンの前に長時間居続ける不審者(ストーカーなど)を的確に検出することができる。 According to the present invention, when tracking a plurality of moving objects in an image, the front-rear position with respect to a camera that captures a plurality of intersecting moving objects is determined. Don't dare to update image-dependent information. Therefore, when a plurality of moving objects intersect in the image, the template image of the moving object located on the rear side is forcibly updated even though there is a portion that is hidden behind the moving object located on the front side. Therefore, it is possible to prevent a decrease in image tracking accuracy due to the deterioration of the quality as a template. For this reason, each moving object can be accurately tracked even in a situation where a plurality of moving objects frequently intersect. Therefore, for example, even when applied to an operating environment in which hardware resources such as an interphone with a camera are limited, it is possible to accurately detect a suspicious person (such as a stalker) who stays in front of the interphone for a long time.
また、入力画像における位置関係に基づいて、すなわち、入力画像において移動物体の下端が下に位置する方が前に位置すると判定することによって、移動物体の前後関係の判定が簡単に行われる。特に、カメラを概略水平方向に向けざるを得ないカメラ付きインターホンに本発明を適用することで、玄関前に長時間居続ける不審者(ストーカー)を精度良く検出できる。さらに、前時刻に取得されたフレームにおいては画面端に映ったため画面内に一部または全部が映っていなかった移動物体が現時刻のフレームにおいて他の移動物体と交差する場合についても、その領域を更新することによって、より正確な画像追跡が行われる。また、現入力画像における各変化領域に対して最前景に位置する可能性の最も高い移動物体を対応付けることによって、交差判定などの処理が容易になる。 Also, based on the positional relationship in the input image, that is, by determining that the lower end of the moving object is positioned lower in the input image, the determination of the front-rear relationship of the moving object is easily performed. In particular, by applying the present invention to an interphone with a camera that has to point the camera in a substantially horizontal direction, it is possible to accurately detect a suspicious person (stalker) who stays in front of the entrance for a long time. Furthermore, even if a moving object that was not partially or wholly displayed on the screen in the frame acquired at the previous time intersects with another moving object in the current time frame, the area is By updating, more accurate image tracking is performed. Further, by associating a moving object most likely to be located in the foreground with each change area in the current input image, processing such as intersection determination is facilitated.
上記のように、すべての移動物体に対して更新する非画像依存情報と他の移動物体の背後に位置する移動物体に対して更新を行わない画像依存情報とに関しては、本実施例に制限される必要はない。追跡対象の移動物体の特性、撮影する撮像装置の性能、撮影場所の状況、画像処理の動作環境などに応じて更新の精度を考慮し、他の移動物体の背後に位置する移動物体に対して更新を行わない情報を適切に選定することができる。他の移動物体の背後に位置する移動物体に関する情報について全く更新を行わない場合もある。 As described above, non-image-dependent information that is updated for all moving objects and image-dependent information that is not updated for moving objects located behind other moving objects are limited to this embodiment. There is no need to For moving objects located behind other moving objects, considering the update accuracy according to the characteristics of the moving object to be tracked, the performance of the imaging device to shoot, the situation of the shooting location, the operating environment of image processing, etc. Information that will not be updated can be selected appropriately. There is a case where information about a moving object located behind another moving object is not updated at all.
本実施例では、本発明のカメラ付きインターホンなどのハードウェア資源が制限された環境においても交差する各移動物体を精度良く追跡することができるという利点を説明するため、カメラ付きインターホンにおける例について説明したが、本発明は本実施例に限定されない。他の限られたハードウェア資源を有する環境においても有効である。また、追跡する移動物体の特性、画像の撮影条件、その他の状況に応じて、豊富なハードウェア資源を有する高性能の画像処理環境においても、本発明が同様の効果をもたらす場合がある。 In this embodiment, in order to explain the advantage that each moving object that intersects can be accurately tracked even in an environment where hardware resources such as an interphone with a camera of the present invention are limited, an example of an interphone with a camera will be described. However, the present invention is not limited to this example. It is also effective in an environment having other limited hardware resources. Further, the present invention may provide the same effect even in a high-performance image processing environment having abundant hardware resources depending on the characteristics of the moving object to be tracked, the image capturing conditions, and other situations.
10 移動物体追跡装置
20 撮像装置
110 画像取得部
130 追跡処理部
131 変化領域抽出手段
132 特徴抽出手段
133 対応付け手段
134 交差判定手段
135 階層型テンプレートマッチング手段
136 最前景判定手段
137 移動物体情報抽出手段
138 移動物体情報更新手段
140 記憶部
141 移動物体情報
142 画像依存情報
143 非画像依存情報
144 基準画像
145 不審者検知画像
150 滞留判定部
160 人判定部
170 警報部
DESCRIPTION OF
Claims (4)
前記追跡処理部は、
前記基準画像と前記入力画像とを差分処理して変化領域を抽出する変化領域抽出手段と、
前記入力画像における前記変化領域から特徴情報を抽出する特徴抽出手段と、
前記変化領域の特徴情報と前記移動物体情報とを用いて前記変化領域と移動物体情報との対応付けを行う対応付け手段と、
前記対応付け手段にて一つの変化領域に対し複数の移動物体情報が対応付く交差の有無を判定する交差判定手段と、
移動物体ごとに、前記入力画像における変化領域から画像に依存した画像依存情報と画像に依存しない非画像依存情報とを抽出する移動物体情報抽出手段と、
前記交差判定手段にて交差ありと判定した前記変化領域に対応する複数の移動物体情報のうち、最前景に位置すると判定した移動物体情報については前記移動物体情報抽出手段にて抽出した前記画像依存情報及び非画像依存情報の両方を更新し、前記最前景に位置しないと判定された移動物体情報については前記移動物体情報抽出手段にて抽出した前記非画像依存情報のみを更新し、
前記交差判定手段にて交差なしと判定した前記変化領域に対応する移動物体情報については、前記移動物体情報抽出手段にて抽出した前記画像依存情報及び前記非画像依存情報の両方を更新する移動物体情報更新手段と、
を具備することを特徴とした移動物体追跡装置。 An image input unit that sequentially acquires images; a moving unit information that includes image-dependent information and non-image-dependent information used for tracking for each moving object; and a storage unit that stores a reference image that does not include the moving object; A moving object tracking device comprising a tracking processing unit that sequentially processes the input image and tracks a moving object on the image,
The tracking processing unit
A change area extraction means for extracting a change area by performing a difference process between the reference image and the input image;
Feature extraction means for extracting feature information from the change region in the input image;
Association means for associating the change area with the moving object information using the feature information of the change area and the moving object information;
Crossing determination means for determining the presence or absence of a crossing in which a plurality of moving object information is associated with one change area in the association means;
For each moving object, moving object information extracting means for extracting image-dependent image-dependent information and non-image-dependent non-image-dependent information from a change area in the input image;
Among the plurality of moving object information corresponding to the change area determined to have an intersection by the intersection determination unit, the moving object information determined to be located in the foreground is the image dependency extracted by the moving object information extraction unit. Updating both information and non-image dependent information, and for the moving object information determined not to be located in the foreground, only the non-image dependent information extracted by the moving object information extracting means,
Moving said the moving object information corresponding to the change area where it is determined that no intersect at intersection determining means for updating both the image-dependent information and the non-image-dependent information extracted by the moving object information extraction means Object information updating means;
A moving object tracking device comprising:
更に、
前記追跡処理部は、前記交差判定手段にて交差ありと判定した変化領域に対して、対応付いた移動物体情報の前記テンプレートを用いてテンプレートマッチング処理を行うテンプレートマッチング処理手段と、
前記テンプレートマッチング処理手段にてマッチングがとれた領域のうち最下位置にある領域を最前景に位置すると判定する最前景判定手段と、を具備する請求項1に記載の移動物体追跡装置。 The image-dependent information in the storage unit includes an image of a region associated with past moving object information among the moving object information as a template,
Furthermore,
The tracking processing unit performs template matching processing using the template of the corresponding moving object information for the change area determined to be crossed by the cross determination unit;
Moving object tracking according to regions in the lowest position in the region matching bets were in the template matching process unit in claim 1 that immediately Bei and a top foreground judging means judges that positioned in the outermost foreground apparatus.
前記移動物体情報抽出手段は、前記テンプレートマッチング処理にてマッチングが取れた領域であって、一時刻前における当該移動物体に対応する領域が画像端に接している領域について、前記マッチングが取れた領域を移動方向と平行に当該変化領域の範囲内で拡張する請求項2に記載の移動物体追跡装置。 The non-image-dependent information stored in the storage unit includes a region in the moving object information associated with the moving object information in the past,
The moving object information extraction unit is an area that has been matched in the template matching process, and the area that has been matched with respect to an area in which an area corresponding to the moving object one hour before is in contact with an image end The moving object tracking device according to claim 2, wherein the moving object tracking device is expanded within the range of the change region in parallel with the moving direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008198913A JP5106302B2 (en) | 2008-07-31 | 2008-07-31 | Moving object tracking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008198913A JP5106302B2 (en) | 2008-07-31 | 2008-07-31 | Moving object tracking device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010039580A JP2010039580A (en) | 2010-02-18 |
JP5106302B2 true JP5106302B2 (en) | 2012-12-26 |
Family
ID=42012092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008198913A Expired - Fee Related JP5106302B2 (en) | 2008-07-31 | 2008-07-31 | Moving object tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5106302B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5805511B2 (en) * | 2011-12-01 | 2015-11-04 | セコム株式会社 | Image monitoring device |
BR112015020989A2 (en) * | 2013-03-29 | 2017-07-18 | Nec Corp | target object identification device, target object identification method, and target object identification program |
JP6097150B2 (en) * | 2013-05-24 | 2017-03-15 | ソニーセミコンダクタソリューションズ株式会社 | Image processing apparatus, image processing method, and program |
JP6532317B2 (en) * | 2015-06-19 | 2019-06-19 | キヤノン株式会社 | Object tracking device, object tracking method and program |
JP6607630B2 (en) * | 2015-06-30 | 2019-11-20 | Kddi株式会社 | Moving object extraction apparatus, method and program |
JP6516646B2 (en) * | 2015-09-30 | 2019-05-22 | Kddi株式会社 | Identification apparatus for identifying individual objects from images taken by a plurality of cameras, identification method and program |
JP6641633B2 (en) * | 2016-03-10 | 2020-02-05 | スズキ株式会社 | Moving object detection system and data consistency determination method thereof |
JP2020009382A (en) * | 2018-07-12 | 2020-01-16 | 株式会社チャオ | Traffic line analyzer, traffic line analysis program, and method for analyzing traffic line |
JP7326965B2 (en) * | 2019-07-29 | 2023-08-16 | 富士通株式会社 | Image processing device, image processing program, and image processing method |
WO2022064687A1 (en) * | 2020-09-28 | 2022-03-31 | 日本電気株式会社 | Image-processing method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3257165B2 (en) * | 1993-08-06 | 2002-02-18 | 株式会社日立製作所 | Moving object monitoring device |
JP3505872B2 (en) * | 1995-08-28 | 2004-03-15 | 日本ビクター株式会社 | Moving object tracking device in image |
JP2003044860A (en) * | 2001-08-01 | 2003-02-14 | Nippon Hoso Kyokai <Nhk> | Device for tracing video object |
-
2008
- 2008-07-31 JP JP2008198913A patent/JP5106302B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010039580A (en) | 2010-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5106302B2 (en) | Moving object tracking device | |
JP6494253B2 (en) | Object detection apparatus, object detection method, image recognition apparatus, and computer program | |
JP6655878B2 (en) | Image recognition method and apparatus, program | |
US8249301B2 (en) | Video object classification | |
EP2372654B1 (en) | Object tracking apparatus, object tracking method, and control program | |
JP5567853B2 (en) | Image recognition apparatus and method | |
JP5390322B2 (en) | Image processing apparatus and image processing method | |
JP4874150B2 (en) | Moving object tracking device | |
JP2009027393A (en) | Image searching system and personal searching method | |
JP2002074368A (en) | Moving object recognizing and tracking device | |
JP5271227B2 (en) | Crowd monitoring device, method and program | |
JP4969291B2 (en) | Moving object tracking device | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
JP2010057105A (en) | Three-dimensional object tracking method and system | |
JP4821355B2 (en) | Person tracking device, person tracking method, and person tracking program | |
Sledeviè et al. | FPGA-based selected object tracking using LBP, HOG and motion detection | |
JP5132509B2 (en) | Moving object tracking device | |
JP2002342762A (en) | Object tracing method | |
JP5154461B2 (en) | Moving object tracking device | |
JP6798609B2 (en) | Video analysis device, video analysis method and program | |
Husni et al. | Crowd event detection in computer vision | |
KR20200060868A (en) | multi-view monitoring system using object-oriented auto-tracking function | |
Wang et al. | Efficient visual tracking by probabilistic fusion of multiple cues | |
JP5047115B2 (en) | Moving object tracking device | |
KR100543706B1 (en) | Vision-based humanbeing detection method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110701 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120814 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120904 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121002 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5106302 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151012 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |