JP5106302B2 - Moving object tracking device - Google Patents

Moving object tracking device Download PDF

Info

Publication number
JP5106302B2
JP5106302B2 JP2008198913A JP2008198913A JP5106302B2 JP 5106302 B2 JP5106302 B2 JP 5106302B2 JP 2008198913 A JP2008198913 A JP 2008198913A JP 2008198913 A JP2008198913 A JP 2008198913A JP 5106302 B2 JP5106302 B2 JP 5106302B2
Authority
JP
Japan
Prior art keywords
moving object
image
information
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008198913A
Other languages
Japanese (ja)
Other versions
JP2010039580A (en
Inventor
陽介 森下
賢二 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2008198913A priority Critical patent/JP5106302B2/en
Publication of JP2010039580A publication Critical patent/JP2010039580A/en
Application granted granted Critical
Publication of JP5106302B2 publication Critical patent/JP5106302B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理において順次撮影される画像中の移動物体を追跡する移動物体追跡装置に関する。特に、カメラ付きインターホンなどのように、撮影される画像の中で複数の移動物体が頻繁に交差するためこれらの交差した複数の移動物体が一体化した一つの変化領域として抽出され、個々の移動物体として追跡し続けることが困難になると想定される状況における移動物体追跡装置に好適である。   The present invention relates to a moving object tracking device that tracks moving objects in images that are sequentially captured in image processing. In particular, since multiple moving objects frequently intersect in the captured image, such as an interphone with a camera, these intersecting moving objects are extracted as a single change area, and individual movements are extracted. This is suitable for a moving object tracking apparatus in a situation where it is difficult to keep tracking as an object.

例えば、移動物体追跡装置を実装したカメラ付きインターホンは、玄関のドアの横に設置され、移動物体追跡装置に接続されたカメラによって玄関前の監視領域を一定の時間間隔で連続的に撮影する。こうして撮影された画像中の移動物体を移動物体追跡装置が画像追跡することによって、玄関前にストーカーなどの不審人物がいないかを監視することができる。しかし、玄関前が道路や駐車場などの公共の場所に面している場合など、多数の人や車、自転車などが行き交い、撮影された画像中で複数の移動物体が頻繁に交差する場合がある。これらの交差した複数の移動物体は、画像の中で一体化した一つの変化領域として検出されてしまうため、個々の移動物体の位置が不明瞭になり、その後、個々の移動物体として正確に追跡し続けることが困難になるという問題がある。   For example, a camera-equipped interphone equipped with a moving object tracking device is installed next to a door of an entrance, and continuously captures a monitoring area in front of the entrance by a camera connected to the moving object tracking device at regular time intervals. When the moving object tracking device tracks the moving object in the image thus captured, it is possible to monitor whether there is a suspicious person such as a stalker in front of the entrance. However, many people, cars, bicycles, etc. come and go, such as when the entrance faces a public place such as a road or parking lot, and multiple moving objects frequently intersect in the captured image. is there. Since these intersecting moving objects are detected as a single change area integrated in the image, the position of each moving object becomes unclear, and then accurately tracked as each moving object There is a problem that it is difficult to continue.

このような問題に対し、特許文献1では、撮影された画像中の移動物体を画像追跡している際に複数の移動物体が交差した場合、各移動物体のテンプレート画像を用いてテンプレートマッチングを行うことによって、交差した複数の移動物体の個々の位置を求めている。これによって、一体化した一つの変化領域を移動物体毎の領域に分割し、分割した個々の領域について個々の移動物体のテンプレートを更新することによって、複数の移動物体が画面の中で交差している間も追跡を継続する手法が示されている。   With respect to such a problem, in Patent Document 1, when a plurality of moving objects intersect while tracking a moving object in a captured image, template matching is performed using a template image of each moving object. Thus, individual positions of a plurality of intersecting moving objects are obtained. In this way, a single integrated change area is divided into areas for each moving object, and by updating the template of each moving object for each divided area, a plurality of moving objects intersect in the screen. It shows how to keep tracking while you are.

特開2004−013614号明細書JP 2004-013614 A

しかしながら、特許文献1に開示された発明では、複数の移動物体が交差する場合、テンプレートマッチングによって分割した領域をそのまま用いてテンプレートを更新するため、後ろ側に存在する移動物体の一部が前側に存在する移動物体によって隠れ、当該部分が欠けたテンプレートが生成されてしまう。したがって、更新されたテンプレートは、次フレームにおいて移動物体を追跡するためのテンプレートとしての質が劣化し、画像追跡の精度が著しく低下する。また、複数の移動物体が交差する場合、後ろ側に存在する移動物体の一部が前側に存在する移動物体によって隠れていることを考慮して正確なテンプレートの更新を実行しようとすると、非常に複雑な画像処理が必要となり、特にハードウェア資源が限られている動作環境において実現することは困難になる。   However, in the invention disclosed in Patent Document 1, when a plurality of moving objects intersect, the template is updated by using the region divided by template matching as it is, so that a part of the moving objects existing on the back side is on the front side. A template that is hidden by an existing moving object and lacks the relevant part is generated. Therefore, the quality of the updated template is deteriorated as a template for tracking a moving object in the next frame, and the accuracy of image tracking is significantly reduced. In addition, when multiple moving objects intersect, if you try to perform an accurate template update considering that some of the moving objects that exist on the back side are hidden by the moving objects that exist on the front side, Complicated image processing is required, and it becomes difficult to implement in an operating environment where hardware resources are limited.

例えば、侵入者検知を目的とする画像監視装置よりも簡易なハードウェア構成での実現が求められるカメラ付インターホンなどにおいて、フレームレートを高くすることは現実的に困難である。例えば、1秒2フレーム程度しか画像を取得し処理することができない場合、車などの移動速度が速い物体に関して、前時刻でのフレームにおいては画面内に一部または全部が映っていなかったが、現時刻のフレームにおいて他の移動物体と交差することも頻繁に起きる。このような場合、特許文献1に開示された発明は、前時刻のフレームにおける移動物体の全体像に基づいてテンプレートを分割するため、適切な追跡は不可能となる。   For example, it is practically difficult to increase the frame rate in an interphone with a camera that is required to be realized with a simpler hardware configuration than an image monitoring device for intruder detection. For example, if an image can only be acquired and processed for about 2 frames per second, some or all of the frame at the previous time was not shown in the screen for an object with a high moving speed such as a car, Crossing with other moving objects frequently occurs in the frame at the current time. In such a case, since the invention disclosed in Patent Document 1 divides the template based on the entire image of the moving object in the frame at the previous time, appropriate tracking is impossible.

したがって、本発明の一つの目的は、上記問題点を解決することを課題とし、複数の移動物体が交差した場合にも正確に画像追跡できる移動物体追跡装置を提供することである。また、本発明の他の目的は、画像処理の負担が少ない移動物体追跡装置を提供することである。   Accordingly, an object of the present invention is to provide a moving object tracking device capable of accurately tracking an image even when a plurality of moving objects intersect, with the object of solving the above problems. Another object of the present invention is to provide a moving object tracking apparatus with less image processing load.

上記課題を解決するため、本発明に係る移動物体追跡装置は、画像を順次取得する画像入力部と、移動物体ごとに追跡に使用する画像依存情報及び非画像依存情報を含む移動物体情報と、移動物体が含まれていない基準画像とを記憶する記憶部と、入力画像を順次画像処理して移動物体を画像上にて追跡する追跡処理部を具備する移動物体追跡装置であって、追跡処理部は、基準画像と入力画像とを差分処理して変化領域を抽出する変化領域抽出手段と、入力画像における変化領域から特徴情報を抽出する特徴抽出手段と、変化領域の特徴情報と移動物体情報とを用いて変化領域と移動物体情報との対応付けを行う対応付け手段と、対応付け手段にて一つの変化領域に対し複数の移動物体情報が対応付く交差の有無を判定する交差判定手段と、移動物体ごとに、入力画像における変化領域から画像に依存した画像依存情報と画像に依存しない非画像依存情報とを抽出する移動物体情報抽出手段と、交差判定手段にて交差ありと判定した変化領域に対応する移動物体情報については、少なくとも移動物体情報抽出手段にて抽出した非画像依存情報を用いて記憶部に記憶している非画像依存情報を更新し、交差判定手段にて交差なしと判定した変化領域に対応する移動物体情報については、移動物体情報抽出手段にて抽出した画像依存情報及び非画像依存情報の両方を用いて記憶部に記憶している画像依存情報及び非画像依存情報の両方を更新する移動物体情報更新手段と、を具備することを特徴とする。   In order to solve the above problems, a moving object tracking device according to the present invention includes an image input unit that sequentially acquires images, moving object information that includes image-dependent information and non-image-dependent information used for tracking for each moving object, A tracking unit that includes a storage unit that stores a reference image that does not include a moving object, and a tracking processing unit that sequentially processes an input image and tracks a moving object on the image. The unit includes a change area extraction unit that extracts a change area by performing a difference process between the reference image and the input image, a feature extraction unit that extracts feature information from the change area in the input image, and the feature information and moving object information of the change area An association means for associating the change area with the moving object information using a cross-section, and an intersection determination means for determining whether or not there is an intersection where a plurality of moving object information is associated with one change area by the association means. For each moving object, a moving object information extracting unit that extracts image-dependent image-dependent information and non-image-dependent non-image-dependent information from a changing region in the input image, and a changing region that is determined to have an intersection by an intersection determining unit For the moving object information corresponding to, the non-image dependent information stored in the storage unit is updated using at least the non-image dependent information extracted by the moving object information extracting means, and the intersection determining means determines that there is no intersection. For the moving object information corresponding to the changed area, the image dependent information and the non-image dependent information stored in the storage unit using both the image-dependent information and the non-image-dependent information extracted by the moving object information extraction unit. And moving object information updating means for updating both.

本発明に係る移動物体追跡装置において、記憶部の画像依存情報には、移動物体情報のうち過去の移動物体情報が対応付いた領域の画像をテンプレートとして含んでおり、更に、追跡処理部は、交差判定手段にて交差ありと判定した変化領域に対して、対応付いた移動物体情報のテンプレートを用いてテンプレートマッチング処理を行うテンプレートマッチング処理手段と、テンプレートマッチング処理手段にてマッチングが取れた領域のうち最下位置ある領域を最前景であると判定する最前景判定手段と、を具備し、移動物体情報更新手段は、交差ありと判定した変化領域のうち、最前景であると判定された領域に対応する移動物体情報については、抽出した画像依存情報及び非画像依存情報の両方を用いて記憶部に記憶している画像依存情報及び非画像依存情報の両方を更新し、最前景でないと判定された領域に対応する移動物体情報については、抽出した非画像依存情報を用いて記憶部に記憶している非画像依存情報のみを更新してもよい。   In the moving object tracking device according to the present invention, the image dependence information in the storage unit includes an image of a region associated with past moving object information in the moving object information as a template. A template matching processing unit that performs a template matching process using a template of the corresponding moving object information with respect to a change area that is determined to have an intersection by the intersection determination unit, and a region that has been matched by the template matching processing unit An area determined to be the foreground among the change areas determined to have intersections, the foreground determination means determining the area at the lowest position as the foreground. For moving object information corresponding to, the image dependence stored in the storage unit using both the extracted image dependence information and non-image dependence information For the moving object information corresponding to the area determined to be not the foreground by updating both the information and the non-image dependent information, only the non-image dependent information stored in the storage unit using the extracted non-image dependent information May be updated.

本発明に係る移動物体追跡装置において、記憶部に記憶されている非画像依存情報には、移動物体情報のうち過去に移動物体情報が対応付いた領域を含み、移動物体情報抽出手段は、テンプレートマッチング処理にてマッチングが取れた領域であって、一時刻前における当該移動物体に対応する領域が画像端に接している領域について、マッチングが取れた領域を移動方向と平行に当該変化領域の範囲内で拡張してもよい。   In the moving object tracking device according to the present invention, the non-image-dependent information stored in the storage unit includes a region in the moving object information corresponding to the moving object information in the past. The region that has been matched in the matching process, and the region corresponding to the moving object one hour before is in contact with the edge of the image. You may extend within.

本発明に係る移動物体追跡装置において、対応付け手段は、記憶部に記憶している移動物体情報及び特徴情報から一時刻前の移動物体と現時刻の変化領域との類似度を示した対応表を生成し、当該対応表における類似度の総和が最大になるように変化領域と移動物体情報とを対応付けてもよい。   In the moving object tracking device according to the present invention, the associating means is a correspondence table showing the similarity between the moving object one time ago from the moving object information and feature information stored in the storage unit and the change area of the current time. And the change area and the moving object information may be associated with each other so that the sum of the similarities in the correspondence table is maximized.

本発明に依れば、順次撮影される画像において同時に複数の移動物体を追跡する際、他の移動物体の背後に位置すると判定された移動物体については、移動物体に関する情報の一部についてのみ更新を行う。これによって、他の移動物体の背後に位置する移動物体に関して、手前に位置する移動物体に隠れて画像に映らない部分があるため精度が劣化する情報まで強制的に更新されることはない。したがって、移動物体に関する情報の質の劣化による画像追跡の精度の低下を防ぐことができる。このため、複数の移動物体が交差する状況下においても、各移動物体を精度良く追跡することができる。   According to the present invention, when tracking a plurality of moving objects at the same time in sequentially captured images, only a part of the information about the moving object is updated with respect to the moving object determined to be located behind the other moving objects. I do. As a result, regarding a moving object located behind another moving object, there is a portion that is hidden behind the moving object located in front and is not reflected in the image, so that information that degrades accuracy is not forcibly updated. Therefore, it is possible to prevent a decrease in the accuracy of image tracking due to a deterioration in the quality of information regarding the moving object. For this reason, each moving object can be accurately tracked even in a situation where a plurality of moving objects intersect.

本発明の好適な実施形態として、本発明に係る移動物体追跡装置を、カメラ付インターホンに実装した場合の一実施例に基づいて説明する。   As a preferred embodiment of the present invention, a moving object tracking device according to the present invention will be described based on an example when mounted on a camera-equipped interphone.

図1(a)は、本発明の一実施形態である移動物体追跡装置が実装されたカメラ付インターホンの設置例を示す図である。図1(a)の例で示すように、カメラ付インターホン2は、玄関ドア6の脇等の壁面7に設置されている。図1(b)に示すように、このカメラ付インターホン2に内蔵されたカメラは、光軸31を概略水平方向に向けて設置されており、玄関前の監視領域を連続的に撮影する。このカメラに接続された移動物体追跡装置は、カメラが連続的に撮影する画像を順次受け取りながら画像中の移動物体を追跡することによって、カメラの画角内に長時間滞留する不審人物などを検知する。   FIG. 1A is a diagram showing an installation example of an interphone with a camera on which a moving object tracking device according to an embodiment of the present invention is mounted. As shown in the example of FIG. 1A, the intercom with camera 2 is installed on a wall surface 7 such as the side of the entrance door 6. As shown in FIG. 1B, the camera built in the interphone with camera 2 is installed with the optical axis 31 oriented in a substantially horizontal direction, and continuously images the monitoring area in front of the entrance. The moving object tracking device connected to this camera detects suspicious people who stay in the angle of view of the camera for a long time by tracking moving objects in the image while sequentially receiving images taken continuously by the camera. To do.

図2は、本発明の一実施形態である移動物体追跡装置10が実装されたカメラ付インターホンの構成を示すブロック図である。図2に示すように、本発明の一実施形態に係る移動物体追跡装置10は、画像取得部110と、追跡処理部130と、記憶部140と、滞留判定部150と、人判定部160と、警報部170と、を有し、撮像装置20に接続されている。   FIG. 2 is a block diagram illustrating a configuration of an interphone with a camera in which the moving object tracking device 10 according to the embodiment of the present invention is mounted. As shown in FIG. 2, the moving object tracking device 10 according to an embodiment of the present invention includes an image acquisition unit 110, a tracking processing unit 130, a storage unit 140, a stay determination unit 150, a person determination unit 160, The alarm unit 170 is connected to the imaging device 20.

カメラ付インターホンに搭載されたカメラなどの撮像装置20は、所定の監視領域を所定の時間間隔で撮影し、撮影された画像を順次追跡処理部130に送る。以下、この所定時間で刻まれる時間の単位を時刻と称する。撮像装置20としては、例えば、CCD素子又はC−MOS素子等の撮像素子、光学系部品、A/D変換器等を含んで構成される内蔵カメラまたは外部カメラなどの公知のものを用いることができる。また、撮像装置20の解像度は、追跡対象などの具体的な用途に応じて、その解像度を選ぶことができ、例えばNTSC規格、SDTV規格またはHDTV規格を用いることができる。また、画像の撮像に用いる波長帯としては、可視光波長または赤外線波長などを、追跡対象などの具体的な用途に応じて選択されることが好ましい。   The imaging device 20 such as a camera mounted on the camera interphone captures a predetermined monitoring area at a predetermined time interval, and sequentially sends the captured images to the tracking processing unit 130. Hereinafter, the unit of time recorded in the predetermined time is referred to as time. As the imaging device 20, for example, a known device such as an internal camera or an external camera including an imaging element such as a CCD element or a C-MOS element, an optical system component, an A / D converter, or the like is used. it can. Further, the resolution of the imaging device 20 can be selected according to a specific application such as a tracking target, and for example, the NTSC standard, the SDTV standard, or the HDTV standard can be used. Moreover, as a wavelength band used for image capturing, a visible light wavelength or an infrared wavelength is preferably selected according to a specific application such as a tracking target.

画像取得部110は、撮像装置20から順次送られる画像信号を受け取るためのインターフェースであり、撮像装置20からSCSI、USB、LAN、専用ケーブル、配線などの有線又は無線を介して画像を受信する。画像取得部110は、撮像装置20から受信した画像を移動物体追跡装置10の各部へ送る。   The image acquisition unit 110 is an interface for receiving image signals sequentially sent from the imaging device 20, and receives images from the imaging device 20 via wired or wireless such as SCSI, USB, LAN, dedicated cable, wiring, or the like. The image acquisition unit 110 sends the image received from the imaging device 20 to each unit of the moving object tracking device 10.

記憶部140は、各種プログラム及び各種データを記憶することができ、例えばRAMまたはROM、EPROMなどの半導体メモリ、ハードディスクなどの磁気記録媒体、CD−ROM、DVD−R/Wなどの光記録媒体などを用いて構成することができる。記憶部140は、画像取得部110、追跡処理部130、滞留判定部150、人判定部160及び警報部170と接続されており、各部からの要求に応じて各種プログラムや各種データなどを読み書きする。記憶部140は、移動物体情報141と、基準画像144と、不審者検知画像145と、を記憶する。   The storage unit 140 can store various programs and various data. For example, a semiconductor memory such as a RAM, a ROM, and an EPROM, a magnetic recording medium such as a hard disk, an optical recording medium such as a CD-ROM and a DVD-R / W, etc. Can be used. The storage unit 140 is connected to the image acquisition unit 110, the tracking processing unit 130, the stay determination unit 150, the person determination unit 160, and the alarm unit 170, and reads and writes various programs and various data according to requests from each unit. . The storage unit 140 stores moving object information 141, a reference image 144, and a suspicious person detection image 145.

移動物体情報141は、追跡中の移動物体ごとに記憶される単位時刻毎に取得された過去の移動物体に関する情報であり、移動物体の画像に依存する画像依存情報142と、移動物体の画像に依存しない非画像依存情報143と、を含む。   The moving object information 141 is information regarding a past moving object acquired at each unit time stored for each moving object being tracked, and includes image dependency information 142 that depends on an image of the moving object, and an image of the moving object. Non-image-dependent information 143 that does not depend.

画像依存情報142は、例えば、移動物体の特徴情報やテンプレートを含み、移動物体の領域の入力画像に基づいて抽出される情報である。特徴情報とは、移動物体の特徴を表す情報であり、本実施例では、例えば、移動物体の画像の色ヒストグラムや面積などが含まれるが、画素値の平均や標準偏差、エッジ情報、テクスチャ情報などの他の特徴情報を含んでもよい。色ヒストグラムは、物体像内の色分布を表す特徴情報であり、例えば、変化領域内の各ピクセルの輝度値などの画素値を所定幅のビンごとに累積し、各累積値を全ピクセル数で割って正規化することによって計算される。本実施例において使用されるテンプレートは、一時刻前の入力画像において検出された移動物体のテンプレート画像であり、追跡中の移動物体が現時刻の入力画像のどこに位置するかを特定するためのテンプレートマッチングにおいて使用される。したがって、このテンプレートマッチングのためのテンプレートとして使用できるものであれば、多様な特徴ベクトル、固有ベクトルなどのいかなる形式のテンプレートでもよい。   The image dependency information 142 is information extracted based on an input image of a moving object region, for example, including feature information and a template of the moving object. The feature information is information representing the feature of the moving object. In this embodiment, for example, the color histogram or area of the image of the moving object is included, but the average or standard deviation of pixel values, edge information, texture information, and the like are included. Other feature information may be included. The color histogram is feature information representing the color distribution in the object image. For example, the pixel value such as the luminance value of each pixel in the change region is accumulated for each bin of a predetermined width, and each accumulated value is represented by the total number of pixels. Calculated by dividing and normalizing. The template used in the present embodiment is a template image of a moving object detected in the input image one time before, and a template for specifying where the moving object being tracked is located in the input image at the current time. Used in matching. Therefore, any type of template such as various feature vectors and eigenvectors may be used as long as it can be used as a template for template matching.

非画像依存情報143は、例えば、一時刻前の入力画像における移動物体の領域、過去の予め定めた数(例えば5時刻分)の移動量、移動物体が画面中に現れてから経過した時間(以後存在時間と呼称する)などの移動物体の領域の入力画像に依存しない情報である。ここで、移動物体の領域とは、移動物体が入力画像において占める範囲であり、一般に、その形状と大きさと位置とによって表すことができる。本実施例では、領域として外接矩形を用いており、外接矩形の大きさ及び位置によって領域を特定することができるが、例えば、重心位置等を利用してもよい。   The non-image-dependent information 143 includes, for example, the area of the moving object in the input image one hour before, the movement amount of a predetermined number in the past (for example, five times), and the time elapsed since the moving object appeared on the screen ( This is information that does not depend on the input image of the area of the moving object, such as the “existing time”. Here, the area of the moving object is a range that the moving object occupies in the input image, and can generally be represented by its shape, size, and position. In this embodiment, a circumscribed rectangle is used as the area, and the area can be specified by the size and position of the circumscribed rectangle. For example, the position of the center of gravity may be used.

基準画像144は、変化領域を抽出するとき比較対象の基準となる画像であり、例えば、監視領域に移動物体が存在しないときの背景画像を前以って撮影しておき、記憶部140に記憶しておく。   The reference image 144 is an image that serves as a reference for comparison when extracting the change area. For example, a background image when no moving object is present in the monitoring area is captured in advance and stored in the storage unit 140. Keep it.

不審者検知画像145は、画像における移動物体を追跡した結果、画面内に一定の時間以上居続ける移動物体を検知した際、この不審者と思われる移動物体の画像を記憶したものである。   The suspicious person detection image 145 stores an image of a moving object that seems to be a suspicious person when a moving object that has remained in the screen for a certain period of time is detected as a result of tracking the moving object in the image.

追跡処理部130は、画像取得部110から順次受け取った画像を処理して画像中の移動物体を追跡する。追跡処理部130は、滞留判定部150、人判定部160及び警報部170と同様に、記憶部140に記憶された処理手順を記述したプログラムを読み出して、CPU、DSP、MCU、ASIC、ASSP等の処理装置で実行する。追跡処理部130は、画像取得部110、記憶部140、滞留判定部150、人判定部160及び警報部170と接続されている。   The tracking processing unit 130 processes the images sequentially received from the image acquisition unit 110 to track a moving object in the image. Similar to the stay determination unit 150, the person determination unit 160, and the alarm unit 170, the tracking processing unit 130 reads out a program describing the processing procedure stored in the storage unit 140, and executes a CPU, DSP, MCU, ASIC, ASSP, or the like. It is executed by the processing device. The tracking processing unit 130 is connected to the image acquisition unit 110, the storage unit 140, the stay determination unit 150, the person determination unit 160, and the alarm unit 170.

図2に示すように、追跡処理部130は、変化領域抽出手段131と、特徴抽出手段132と、対応付け手段133と、交差判定手段134と、階層型テンプレートマッチング手段135と、最前景判定手段136と、移動物体情報抽出手段137と、移動物体情報更新手段138と、を備える。   As shown in FIG. 2, the tracking processing unit 130 includes a change area extraction unit 131, a feature extraction unit 132, an association unit 133, an intersection determination unit 134, a hierarchical template matching unit 135, and a foreground foreground determination unit. 136, a moving object information extraction unit 137, and a moving object information update unit 138.

変化領域抽出手段131は、予め記憶部140に記憶しておいた移動物体が存在しない基準画像144と、撮像装置20が撮影し画像取得部110を介して受け取った画像(以下、入力画像という)と、の差分処理を行い、入力画像中の変化領域を抽出する。   The change area extraction unit 131 includes a reference image 144 that is stored in advance in the storage unit 140 and has no moving object, and an image captured by the imaging device 20 and received via the image acquisition unit 110 (hereinafter referred to as an input image). And a change area in the input image is extracted.

特徴抽出手段132は、変化領域抽出手段131で抽出されたそれぞれの変化領域について、変化領域の入力画像から特徴情報を抽出し、対応付け手段133に渡す。   The feature extraction unit 132 extracts feature information from the input image of the change region for each change region extracted by the change region extraction unit 131 and passes the feature information to the association unit 133.

対応付け手段133は、特徴抽出手段132が抽出した各変化領域の特徴情報と記憶部140に記憶された各移動物体の移動物体情報141とに基づいて、変化領域抽出手段131が抽出した各変化領域と当該変化領域に存在する最も可能性の高い移動物体とを対応付ける。   The associating unit 133 extracts each change extracted by the change region extracting unit 131 based on the feature information of each changed region extracted by the feature extracting unit 132 and the moving object information 141 of each moving object stored in the storage unit 140. The area and the most likely moving object existing in the change area are associated with each other.

交差判定手段134は、対応付け手段133によっていずれの変化領域にも対応付けられなかった移動物体を、既に他の移動物体が対応付けられた変化領域に重ねて対応付くかを調べることで、変化領域において複数の移動物体が交差しているか否かを判定する。   The intersection determination unit 134 determines whether or not the moving object that has not been associated with any change area by the association unit 133 is associated with the change area that is already associated with another moving object. It is determined whether or not a plurality of moving objects intersect in the region.

階層型テンプレートマッチング手段135は、交差判定手段134による判定の結果、複数の交差する移動物体が対応付けられた変化領域において、テンプレート画像を用いたテンプレートマッチングによって、各移動物体の領域を検出する。階層型テンプレートマッチング手段135の詳細に関しては、後述する。   As a result of the determination by the intersection determination unit 134, the hierarchical template matching unit 135 detects the region of each moving object by template matching using a template image in a change region associated with a plurality of intersecting moving objects. Details of the hierarchical template matching unit 135 will be described later.

最前景判定手段136は、階層型テンプレートマッチング手段135にて検出された移動物体の領域の位置に基づいて、各変化領域において交差する複数の移動物体のうち最前景に位置する移動物体であるか、又は他の移動物体の背後に位置する移動物体であるかを判定する。   Whether the foreground determination unit 136 is a moving object located in the foreground among a plurality of moving objects intersecting in each change region based on the position of the moving object region detected by the hierarchical template matching unit 135 Or a moving object located behind another moving object.

移動物体情報抽出手段137は、階層型テンプレートマッチング手段135にて検出された移動物体の領域に関する情報から画像に依存しない非画像依存情報143を抽出し、移動物体の領域の入力画像から画像に依存する画像依存情報142を抽出する。   The moving object information extraction unit 137 extracts non-image-dependent information 143 that does not depend on the image from the information about the moving object region detected by the hierarchical template matching unit 135, and depends on the image from the input image of the moving object region. The image dependence information 142 to be extracted is extracted.

移動物体情報更新手段138は、移動物体が他の移動物体と交差しているか否かに応じて、移動物体情報抽出手段137が抽出した画像依存情報142及び非画像依存情報143を用いて、記憶部140に記憶された移動物体の移動物体情報141を更新する。交差判定手段134によって変化領域に移動物体が一つしか存在しないと判定された場合、移動物体情報更新手段138は、移動物体情報141を全て更新する。また、交差判定手段134によって複数の移動物体が交差していると判定された場合、移動物体が最前景判定手段136によって最前景に位置すると判定されれば、移動物体情報141を全て更新する。しかし、移動物体が他の移動物体の背後にあると判定された場合は、移動物体情報141のうち非画像依存情報143のみを更新する。   The moving object information updating unit 138 stores the image dependent information 142 and the non-image dependent information 143 extracted by the moving object information extracting unit 137 according to whether or not the moving object intersects with another moving object. The moving object information 141 of the moving object stored in the unit 140 is updated. When the intersection determination unit 134 determines that there is only one moving object in the change area, the moving object information update unit 138 updates all the moving object information 141. Further, when it is determined by the intersection determination unit 134 that a plurality of moving objects intersect, if the moving object is determined to be located in the foreground by the foreground determination unit 136, all the moving object information 141 is updated. However, if it is determined that the moving object is behind another moving object, only the non-image-dependent information 143 in the moving object information 141 is updated.

滞留判定部150は、移動物体毎に記憶部140に記憶されている存在時間を調べ、予め定めた時間(例えば1分間)より長く画像中に存在していれば、それが人間か否かを調べるために当該移動物体の領域の情報を人判定部160に送る。   The stay determination unit 150 checks the existence time stored in the storage unit 140 for each moving object, and if it exists in the image longer than a predetermined time (for example, one minute), it determines whether it is a human. Information on the area of the moving object is sent to the person determination unit 160 for examination.

人判定部160は、滞留判定部150から送られた予め定めた時間より長く画面内に存在している移動物体が人間であるか否かを判定し、人間であると判定した揚合は警報部170にその結果を送る。また、その時の画像を不審者検知画像145として記憶部140に記憶してもよい。   The person determination unit 160 determines whether or not the moving object that has been present in the screen for a longer time than the predetermined time sent from the stay determination unit 150 is a human, and the determination that the person is a human is an alarm. The result is sent to the unit 170. Further, the image at that time may be stored in the storage unit 140 as the suspicious person detection image 145.

警報部170は、人判定部160から結果を受け取ると、LEDなどの警報ランプや警報ブザーなどによって、不審者を検知したことを利用者に知らせる。予め記憶されたメッセージをスピーカーなどを介して音声として流したりディスプレイ上に表示したりしてもよい。また、記憶部140に記憶された不審者検知画像145は、ディスプレイやプリンタなどの出力装置(図示せず)を介して出力することもできる。   When the alarm unit 170 receives the result from the person determination unit 160, the alarm unit 170 notifies the user that a suspicious person has been detected by an alarm lamp such as an LED or an alarm buzzer. A message stored in advance may be played as a voice through a speaker or displayed on a display. The suspicious person detection image 145 stored in the storage unit 140 can also be output via an output device (not shown) such as a display or a printer.

[発明の動作]
図7は、本発明の一実施形態である移動物体追跡装置10の動作フローを示すフローチャートである。図7を参照しながら、移動物体追跡装置10の各部の動作の詳細に関して説明する。
[Operation of the Invention]
FIG. 7 is a flowchart showing an operation flow of the moving object tracking device 10 according to the embodiment of the present invention. The details of the operation of each part of the moving object tracking device 10 will be described with reference to FIG.

ステップS100において、移動物体追跡装置10は、撮像装置20によって監視領域を撮像装置20の画角内に移動物体が存在しない状況で予め撮影した背景画像を基準画像144として記憶部140に記憶したり、追跡対象の移動物体に関する移動物体情報141を初期状態にしたりするなどの移動物体の追跡処理のための初期化を行う。   In step S <b> 100, the moving object tracking device 10 stores a background image captured in advance in the situation where the moving object does not exist within the angle of view of the imaging device 20 by the imaging device 20 as the reference image 144 in the storage unit 140. , Initialization for moving object tracking processing such as setting the moving object information 141 regarding the moving object to be tracked to an initial state is performed.

ステップS200において、移動物体追跡装置10は、予め規定された時間間隔で撮像装置20が撮影した画像を画像取得部110を介して受け取り、追跡処理部130へ渡す。こうして、移動物体追跡装置10は、撮像装置20から一定時間間隔で順次入力画像が送られる毎に、追跡処理部130によるステップS300〜S1400の処理を繰り返す。   In step S <b> 200, the moving object tracking device 10 receives images captured by the imaging device 20 at predetermined time intervals via the image acquisition unit 110 and passes them to the tracking processing unit 130. In this way, the moving object tracking device 10 repeats the processing of steps S300 to S1400 by the tracking processing unit 130 each time input images are sequentially sent from the imaging device 20 at regular time intervals.

ステップS300において、追跡処理部130は、変化領域抽出手段131によって、撮像装置20から新たに受け取った入力画像と記憶部140に記憶されている基準画像144との差分処理を行い、入力画像中の変化領域を抽出する。   In step S300, the tracking processing unit 130 performs a difference process between the input image newly received from the imaging device 20 and the reference image 144 stored in the storage unit 140 by the change area extraction unit 131, thereby Extract change areas.

変化領域抽出手段131は、撮像装置20が撮像し画像取得部110を介して受け取った入力画像と予め取得して記憶部140に記憶しておいた基準画像144とを比較し、差異のある領域を変化領域として抽出し、その結果を特徴抽出手段132に渡す。例えば、変化領域抽出手段131は、入力画像と基準画像144との対応する画素の画素値について差分処理を行い、一定以上の差分値がある画素群について2値化、ラベリングなどの方法を実行する。こうして、入力画像において基準画像144と異なる変化領域、すなわち、移動物体が存在すると推定される領域が抽出される。尚、画素値間の差分を求める方法については、公知の様々な方法を用いることができるため詳細についての説明は省略する。   The change area extraction unit 131 compares the input image captured by the imaging apparatus 20 and received via the image acquisition unit 110 with the reference image 144 acquired in advance and stored in the storage unit 140, and a region having a difference is detected. Is extracted as a change area, and the result is passed to the feature extraction means 132. For example, the change area extraction unit 131 performs difference processing on the pixel values of the corresponding pixels of the input image and the reference image 144, and executes a method such as binarization and labeling on a pixel group having a certain difference value or more. . In this way, a change area different from the reference image 144 in the input image, that is, an area where a moving object is estimated to exist is extracted. In addition, about the method of calculating | requiring the difference between pixel values, since well-known various methods can be used, description about a detail is abbreviate | omitted.

ステップS400において、追跡処理部130は、特徴抽出手段132によって、抽出された変化領域の入力画像において画像処理を行い、特徴情報を算出する。   In step S400, the tracking processing unit 130 performs image processing on the input image of the change area extracted by the feature extraction unit 132, and calculates feature information.

特徴抽出手段132は、変化領域抽出手段131で抽出された変化領域について塊毎にグループ分けを行い、各グループにラベル(以後グループをラベルと呼称する)を付け、ラベル毎にその領域の入力画像から特徴情報を抽出する。   The feature extraction unit 132 divides the change region extracted by the change region extraction unit 131 into groups for each block, attaches a label to each group (hereinafter referred to as a label), and inputs an input image of the region for each label. Feature information is extracted from.

ステップS500において、追跡処理部130は、対応付け手段133によって、記憶部140に記憶されている移動物体の移動物体情報141と特徴抽出手段132にて抽出された変化領域の特徴情報とに基づいて、移動物体と変化領域との対応付けを行う。   In step S <b> 500, the tracking processing unit 130 is based on the moving object information 141 of the moving object stored in the storage unit 140 and the feature information of the changed area extracted by the feature extracting unit 132 by the association unit 133. The moving object and the change area are associated with each other.

対応付け手段133は、記憶部140に記憶されている一時刻前の入力画像で検出された追跡対象の移動物体に関する移動物体情報141と特徴抽出手段132が現時刻の入力画像の各変化領域から抽出した特徴情報とから算出した類似度に基づいて、一時刻前に検出された移動物体のそれぞれが現時刻の入力画像のどの変化領域に存在する可能性が最も高いかを対応付ける。   The associating unit 133 is configured so that the moving object information 141 regarding the moving object to be tracked detected from the input image one hour before stored in the storage unit 140 and the feature extracting unit 132 from each change area of the input image at the current time. Based on the similarity calculated from the extracted feature information, it is associated with which change area of the input image at the current time each moving object detected one hour ago is most likely to exist.

図3は、一時刻前の入力画像における移動物体と現時刻の入力画像における変化領域との1対1対応付けの例を示す図である。図を参照しながら、本実施例における対応付け手段133による対応付けの例について説明する。   FIG. 3 is a diagram illustrating an example of a one-to-one correspondence between a moving object in the input image one hour before and a change area in the input image at the current time. An example of association by the association unit 133 in this embodiment will be described with reference to the drawings.

図3は、図3(a)の一時刻前の入力画像において離れていた車両801と人間802とが図3(b)の現時刻の入力画像において交差する例を示す。図3(c)に示すように、前時刻の入力画像では、変化領域805、806、807が抽出され、図3(e)に示すように、それぞれの変化領域に識別子ID1、ID2、ID3を付与する。これに対して、図3(d)に示されるように、現時刻の入力画像では、車両801と人間802が交差して一体化した一つの変化領域808として抽出され、人間803は、単独の変化領域809として、車両804は単独の変化領域810として抽出される。図3(f)に示すように、これらの抽出された変化領域に、それぞれ、識別子IDA、IDB、IDCを付与する。本実施例では、画像の左上端を原点として横方向にX軸を縦方向にY軸を設定して領域を特定する。図3の例において、対応付け手段133は、個々の変化領域IDA、IDB及びIDCに対して、それぞれ、最も「対応度」の高い一時刻前の移動物体802、803及び新規移動物体804を対応付け、当該変化領域に存在する移動物体とする。どの変化領域にも対応付けられなかった一時刻前の移動物体801は、一時的にロスト状態(追跡不能状態)と判定する。   FIG. 3 shows an example in which the vehicle 801 and the person 802 that are separated from each other in the input image one time before in FIG. 3A intersect in the input image at the current time in FIG. As shown in FIG. 3C, change areas 805, 806, and 807 are extracted from the input image at the previous time, and identifiers ID1, ID2, and ID3 are assigned to the change areas as shown in FIG. Give. On the other hand, as shown in FIG. 3D, in the input image at the current time, the vehicle 801 and the person 802 are extracted as one change area 808 integrated and intersect, and the person 803 is a single person. As the change area 809, the vehicle 804 is extracted as a single change area 810. As shown in FIG. 3F, identifiers IDA, IDB, and IDC are assigned to these extracted change areas, respectively. In this embodiment, the region is specified by setting the X axis in the horizontal direction and the Y axis in the vertical direction with the upper left corner of the image as the origin. In the example of FIG. 3, the association unit 133 associates the moving objects 802 and 803 and the new moving object 804 with the highest “correspondence” one time ago with respect to the individual change areas IDA, IDB, and IDC, respectively. And a moving object existing in the change area. A moving object 801 one hour before that is not associated with any change region is temporarily determined to be in a lost state (untrackable state).

ここで「対応度」とは一時刻前の移動物体と現時刻の変化領域とがどのくらい特徴が一致しているかを表す指標であり、一時刻前の移動物体の移動物体情報141と現時刻の変化領域の領域及び特徴情報との類似度に基づいて求められる。本実施例では、対応度の算出に当たって、移動物体の予測位置と現時刻の変化領域との重なり具合(位置類似度)、前時刻の移動物体の色ヒストグラムと現時刻の変化領域の色ヒストグラムとの類似度(色ヒストグラム類似度)、及び前時刻の移動物体の面積と現時刻の変化領域の面積との比(面積類似度)を、それぞれ、全く同じである場合は1.0、何らかの共通点がある場合は1.0以下の正数、全く共通点がない場合は0となるように正規化して求め、次のように計算しているが、これに制限されず、多様な周知の方法を用いることができる。

Figure 0005106302
ここで、各類似度の重み付けwp、wh、waは、3種類の類似度の総和が1となるように予め定めた正数である。尚、各類似度の算出方法としては、多様な周知の方法を使用することができるので詳細な説明は省略する。 Here, the “correspondence degree” is an index indicating how much the characteristics of the moving object one hour ago and the change area of the current time match, and the moving object information 141 of the moving object one hour ago and the current time It is obtained based on the similarity between the change area and the feature information. In this embodiment, in calculating the correspondence, the degree of overlap between the predicted position of the moving object and the change area of the current time (position similarity), the color histogram of the moving object at the previous time, and the color histogram of the change area of the current time The similarity (color histogram similarity) and the ratio (area similarity) of the area of the moving object at the previous time and the area of the change area at the current time are 1.0, respectively. In some cases, it is a positive number of 1.0 or less, and when there is no common point, it is obtained by normalization so that it is 0, and it is calculated as follows, but it is not limited to this, and various known methods should be used. Can do.
Figure 0005106302
Here, the weights w p , w h , and w a of the similarities are positive numbers determined in advance so that the sum of the three types of similarities is 1. In addition, since various well-known methods can be used as a calculation method of each similarity, detailed description is abbreviate | omitted.

移動物体の予測位置は、記憶部140に記憶されている非画像依存情報143である一時刻前の移動物体の領域と、同じく非画像依存情報143である過去の移動量から予測した予測移動速度とに基づいて計算される。本実施例では、前時刻と現時刻との間は各移動測物体が等速運動を行っていると仮定し、前時刻の移動物体の領域の位置に予測移動速度を加算した位置を現時刻における移動物体の予測位置として採用している。予測移動速度は、記憶部140に記憶されている過去の移動量を1次ARモデルによる予測法やカルマンフィルタ等の多様な予測方法を使って予測することができる。   The predicted position of the moving object is the predicted moving speed predicted from the area of the moving object one time before that is the non-image dependent information 143 stored in the storage unit 140 and the past movement amount that is also the non-image dependent information 143. And calculated based on In this embodiment, it is assumed that each moving object is moving at a constant speed between the previous time and the current time, and the position obtained by adding the predicted moving speed to the position of the moving object area at the previous time is the current time. Is used as the predicted position of the moving object. The predicted moving speed can be predicted using a variety of prediction methods such as a prediction method using a first-order AR model and a Kalman filter, based on past movement amounts stored in the storage unit 140.

本実施例では、移動物体の予測位置及び現時刻の変化領域の位置、色ヒストグラム及び面積を使用して対応度を算出する方法を例示したが、他の特徴情報を使って対応度を定義してもよい。また、合成の際に相加平均、相乗平均など様々な方法で計算することができる。   In the present embodiment, the method of calculating the correspondence using the predicted position of the moving object, the position of the change area of the current time, the color histogram, and the area is illustrated, but the correspondence is defined using other feature information. May be. In addition, it can be calculated by various methods such as arithmetic mean and geometric mean during synthesis.

対応付け手段133は、前時刻の移動物体と現時刻の変化領域との間の対応度が求まったら新規出現の度合いとロストの度合いとを以下の手順で決定する。
(i)前時刻の各移動物体の識別子を各行に対応させ、現時刻の各変化領域の識別子を各列に対応させて対応度を行列状に並べた対応度表を作成する。
(ii)現時刻の各変化領域に対応する対応度表の列毎に対応度の最大値を求め、その最大値を1.0から減じた値をその変化領域に移動物体が新規出現した度合いとし、各変化領域に対する新規出現の度合いを示す一行を対応度表に追加する。
(iii)前時刻の各移動物体に対応する対応度表の行毎に対応度の最大値を求め、その最大値を1.0から減じた値をその移動物体が現時刻の入力画像中から消えたロストの度合いとし、各移動物体に対するロストの度合いを示す一列を対応度表に追加する。
The associating unit 133 determines the degree of new appearance and the degree of lost according to the following procedure when the degree of correspondence between the moving object at the previous time and the change area at the current time is obtained.
(I) A correspondence table in which correspondences are arranged in a matrix with the identifier of each moving object at the previous time associated with each row and the identifier of each change region at the current time associated with each column is created.
(Ii) A maximum value of correspondence is obtained for each column of the correspondence table corresponding to each change area at the current time, and a value obtained by subtracting the maximum value from 1.0 is set as the degree of new appearance of the moving object in the change area, A line indicating the degree of new appearance for each change area is added to the correspondence table.
(Iii) The maximum value of the correspondence is obtained for each row of the correspondence table corresponding to each moving object at the previous time, and the moving object disappears from the input image at the current time by subtracting the maximum value from 1.0. As the degree of lost, a column indicating the degree of lost for each moving object is added to the correspondence table.

図3(h)は、このようにして作成された対応度表の一例を示す。対応付け手段133は、この対応度表から、ロストを表す列を例外として必ず一列につき一つのみ、新規出現を表す行を例外として必ず一行につき一つのみの対応度を選びながら、それらの対応度の総和が最大となるように前時刻の移動物体と現時刻の変化領域との対応付けを行う。この際、新規出現を表す一行及びロストを表す一列からは、複数の対応度を選んでもよい。すなわち、追跡対象の移動物体のうちのいくつかを変化領域のうちのいくつかに1対1で対応付け、変化領域に対応付けられなかった移動物体はロスト状態であり、移動物体に対応付けられなかった変化領域には、移動物体が新規出現したと判定する。対応度表に基づいて対応度の和が最大になる対応付けの組み合わせを求めるのに、例えば、ハンガリー法などの最適化手法を利用することができる。尚、ハンガリー法の詳細については、例えば、定道宏著、「経営科学」、オーム社、1989年に記載されている。   FIG. 3 (h) shows an example of the correspondence table created in this way. Correspondence means 133 always selects only one correspondence level per column with exception of the column representing lost, and one correspondence per row with exception of the row representing new appearance, from the correspondence table. The moving object at the previous time is associated with the change area at the current time so that the sum of the degrees becomes the maximum. At this time, a plurality of correspondence levels may be selected from one row representing a new appearance and one column representing a lost. That is, some of the tracking target moving objects are associated with some of the change areas on a one-to-one basis, and the moving objects that are not associated with the change areas are in a lost state and are associated with the moving objects. It is determined that a new moving object has appeared in the change area that did not exist. For example, an optimization method such as the Hungarian method can be used to obtain a combination of associations that maximizes the sum of correspondences based on the correspondence table. Details of the Hungarian law are described in, for example, Hiroshi Sadamichi, “Management Science”, Ohmsha, 1989.

図3(h)の対応度表においては、円で囲まれた対応度が選択される。したがって、図3の例では、変化領域IDAとID2(人間)、変化領域IDBとID3(人間)が対応付き、ID1(車両)は一旦ロストと判定される(但し後述の交差判定手段134でその判定は修正される)。変化領域IDCは、新規移動物体が出現したと判定される。   In the correspondence degree table of FIG. 3H, correspondence degrees surrounded by circles are selected. Therefore, in the example of FIG. 3, the change areas IDA and ID2 (human), the change areas IDB and ID3 (human) are associated, and ID1 (vehicle) is once determined to be lost (however, the intersection determination means 134 described later determines that). Judgment is corrected). In the change area IDC, it is determined that a new moving object has appeared.

ステップS600において、追跡処理部130は、交差判定手段134によって、対応付け手段133によってロストと判定された移動物体のうち、他の移動物体と交差して一体化した変化領域に存在する可能性のある移動物体を当該変化領域に対応付ける。   In step S <b> 600, the tracking processing unit 130 may exist in a change area integrated with the other moving objects among the moving objects determined to be lost by the association unit 133 by the intersection determination unit 134. A moving object is associated with the change area.

交差判定手段134は、対応付け手段133によってロストと判定された各移動物体の予測位置の外接矩形が、現時刻の各変化領域の外接矩形と重なっているか否かを調べる。交差判定手段134は、一旦ロストと判定された移動物体の外接矩形と重なっている変化領域の外接矩形が存在した場合は、移動物体が他の移動物体と交差した状態で一体化した変化領域として抽出されていると判定する。そして、移動物体を当該変化領域に存在する移動物体として対応付ける。こうして、交差判定手段134は、ロストと判定された移動物体と変化領域との対応関係を構築する。尚、一つの移動物体が複数の変化領域と重なっている場合、交差判定手段134は、最も重なりが大きい変化領域にこの移動物体を対応付ける。   The intersection determination unit 134 checks whether or not the circumscribed rectangle of the predicted position of each moving object determined to be lost by the association unit 133 overlaps the circumscribed rectangle of each change area at the current time. If there is a circumscribed rectangle of the change area that overlaps the circumscribed rectangle of the moving object that has been determined to be lost, the intersection determination unit 134 determines that the moving object is an integrated change area in a state where it intersects with another moving object. It is determined that it has been extracted. Then, the moving object is associated as a moving object existing in the change area. Thus, the intersection determination unit 134 establishes a correspondence relationship between the moving object determined to be lost and the change area. When one moving object overlaps a plurality of change areas, the intersection determination unit 134 associates the moving object with the change area having the largest overlap.

図3を参照しながら、交差判定手段134の処理を説明する。図3(f)中の破線で示した外接矩形の領域は、前時刻の移動物体ID1、ID2及びID3の現時刻における予測位置を表す。分かりやすくするため、図3(f)の矩形情報のみを取り出したものを図3(g)に示す。ここで、実線で示した矩形RA、RB及びRCは、それぞれ、現時刻の変化領域の外接矩形IDA、IDB及びIDCを表し、破線で示した矩形R1、R2及びR3は、それぞれ、移動物体ID1、ID2及びID3の現時刻における予測位置の外接矩形を表す。図3の例において、交差判定手段134は、移動物体ID1が一旦ロストと判定されたが、その予測位置の外接矩形R1が、既に移動物体ID2と対応付けられている変化領域IDAの外接矩形RAと重なっているため、移動物体ID1も移動物体ID2と共にIDAに対応付ける。   The processing of the intersection determination unit 134 will be described with reference to FIG. A circumscribed rectangular area indicated by a broken line in FIG. 3F represents a predicted position at the current time of the moving objects ID1, ID2, and ID3 at the previous time. For the sake of easy understanding, FIG. 3 (g) shows only the rectangle information of FIG. 3 (f) extracted. Here, rectangles RA, RB, and RC indicated by solid lines represent circumscribed rectangles IDA, IDB, and IDC of the change area at the current time, respectively, and rectangles R1, R2, and R3 indicated by broken lines respectively represent moving object ID1. , The circumscribed rectangle of the predicted position at the current time of ID2 and ID3. In the example of FIG. 3, the intersection determination unit 134 determines that the moving object ID1 is once lost, but the circumscribed rectangle R1 of the predicted position is already circumscribed rectangle RA of the change area IDA associated with the moving object ID2. Therefore, the moving object ID1 is also associated with IDA together with the moving object ID2.

ステップS700において、追跡処理部130は、交差判定手段134によって複数の交差する移動物体が存在すると判定された各変化領域に関して(ステップS750のYes)、階層型テンプレートマッチング手段135によってその変化領域に存在する移動物体の領域を特定する。   In step S <b> 700, the tracking processing unit 130 regards each change region determined to have a plurality of intersecting moving objects by the intersection determination unit 134 (Yes in step S <b> 750), and exists in the change region by the hierarchical template matching unit 135. The area of the moving object to be identified is specified.

ステップS800において、階層型テンプレートマッチング手段135は、交差判定手段134が各変化領域に存在すると判定した複数の交差する移動物体の領域を、移動物体毎にテンプレートマッチングによって抽出し、抽出した領域を現時刻の入力画像における移動物体の領域とし、必要があれば抽出した領域の修正を行う。尚、階層型テンプレートマッチング手段135の詳細に関しては、後述する。   In step S800, the hierarchical template matching unit 135 extracts a plurality of intersecting moving object regions determined by the intersection determining unit 134 to exist in each change region by template matching for each moving object, and displays the extracted regions. The area of the moving object in the input image at the time is corrected, and if necessary, the extracted area is corrected. Details of the hierarchical template matching unit 135 will be described later.

ステップS900において、追跡処理部130は、移動物体情報抽出手段137によって、階層型テンプレートマッチング手段135が特定した移動物体の領域とその領域の入力画像に基づいて、移動物体情報を抽出する。   In step S900, the tracking processing unit 130 causes the moving object information extracting unit 137 to extract moving object information based on the moving object region specified by the hierarchical template matching unit 135 and the input image of the region.

移動物体情報抽出手段137は、階層型テンプレートマッチング手段135が特定した移動物体の領域に基づいて、移動物体の領域や移動量などの非画像依存情報を抽出する。また、移動物体情報抽出手段137は、移動物体の領域の入力画像から、移動物体の画像の色ヒストグラム、面積などの特徴情報を含む画像依存情報を抽出する。尚、移動物体が変化領域において他の交差する移動物体の背後に位置する場合は、画像依存情報の精度が劣化する可能性があるので、画像依存情報は抽出しなくてもよい。   The moving object information extracting unit 137 extracts non-image-dependent information such as the moving object region and the moving amount based on the moving object region specified by the hierarchical template matching unit 135. The moving object information extraction unit 137 extracts image-dependent information including feature information such as a color histogram and an area of the moving object image from the input image of the moving object region. Note that when the moving object is located behind another intersecting moving object in the change region, the accuracy of the image-dependent information may be deteriorated, so the image-dependent information may not be extracted.

ステップS1000において、追跡処理部130は、移動物体情報更新手段138によって、移動物体情報抽出手段137が抽出した移動物体情報に基づいて移動物体情報141を更新する。   In step S <b> 1000, the tracking processing unit 130 updates the moving object information 141 based on the moving object information extracted by the moving object information extracting unit 137 by the moving object information updating unit 138.

移動物体情報更新手段138は、交差判定手段134の処理結果に基づいて移動物体が他の移動物体と交差しているか否かを判定し、他の移動物体が交差している場合は、最前景判定手段136によって当該移動物体が最前景に位置するか否かを判定し、その結果に従って記憶部140に記憶されている移動物体の移動物体情報141の全て又は一部を更新する。   The moving object information update unit 138 determines whether or not the moving object intersects with another moving object based on the processing result of the intersection determination unit 134, and when the other moving object intersects, the foreground The determination unit 136 determines whether or not the moving object is located in the foreground, and updates all or part of the moving object information 141 of the moving object stored in the storage unit 140 according to the result.

最前景判定手段136は、変化領域において複数の移動物体が交差している場合、階層型テンプレートマッチング手段135によって抽出された各移動物体の領域の下端が最も下に位置する移動物体を最前景に位置すると判定する。   When the plurality of moving objects intersect in the change area, the foreground determination unit 136 sets the moving object in which the lower end of the area of each moving object extracted by the hierarchical template matching unit 135 is located at the bottom as the foreground. It is determined that it is located.

図1及び図5を参照しながら、本実施形態における移動物体の前後関係の判定方法について説明する。図1(a)に示すように、本実施例では、本発明に係る移動物体追跡装置を玄関脇のカメラ付インターホンに適用した場合を想定している。カメラ付インターホンは、通常、人間の手が届く範囲の高さに設置され、搭載されるカメラは、地面とほぼ平行な方向すなわち概略水平方向に向けられる。   With reference to FIG. 1 and FIG. 5, a method for determining the front-rear relationship of a moving object in the present embodiment will be described. As shown in FIG. 1A, in this embodiment, it is assumed that the moving object tracking device according to the present invention is applied to an interphone with a camera beside the entrance. The intercom with camera is usually installed at a height that can be reached by a human hand, and the mounted camera is oriented in a direction substantially parallel to the ground, that is, in a substantially horizontal direction.

図1(b)に示す例では、移動物体である人間3と車両4が、カメラが撮影する光軸方向31とほぼ平行な概略水平平面の地面上30にカメラからみて前後に並んでおり、人間3の方が車両4よりカメラに近い位置にいる。したがって、カメラが撮影した画像の中では、人間3が手前に、車両4が人間3の背後に映る。車両4の一部は、人間3と交差してその背後に映るため、人間3の陰に隠れて見えない。この場合、カメラ側から見て手前に位置する人間の下端と撮影可能な範囲の下端との間の距離36の撮影可能な範囲全体34に対する比の方が、後側に位置する車両の下端と撮影可能な範囲の下端との間の距離37の撮影可能な範囲全体35に対する比より小さいため、撮影された画像において手前にいる人間の下端の方が後側にある車両の下端より下に位置する。したがって、本実施例だけでなく多くの場合において、撮影された物体の前後関係を判定するのにこの方法を適用することができる。   In the example shown in FIG. 1B, the human 3 and the vehicle 4 that are moving objects are lined up and down as viewed from the camera on the ground surface 30 that is substantially parallel to the optical axis direction 31 photographed by the camera. The human 3 is closer to the camera than the vehicle 4. Therefore, in the image photographed by the camera, the human 3 appears in the foreground and the vehicle 4 appears in the back of the human 3. A part of the vehicle 4 intersects with the human 3 and is reflected behind it, so that it is hidden behind the human 3 and cannot be seen. In this case, the ratio of the distance 36 between the lower end of the person located in front of the camera and the lower end of the imageable range to the entire imageable range 34 is the lower end of the vehicle located on the rear side. Since the distance 37 between the lower end of the shootable range is smaller than the ratio of the entire shootable range 35, the lower end of the person in front is positioned below the lower end of the vehicle on the rear side in the taken image. To do. Therefore, in many cases as well as in the present embodiment, this method can be applied to determine the context of the photographed object.

図5は、本発明の一実施形態である移動物体追跡装置10における前後関係判定処理を示す図である。ここでは、図3(b)の場合に前後判定を行った場合の例が示されている。図5(a)は変化領域抽出手段131によって抽出された変化領域1001を表し、図5(b)は、図4(a)のテンプレート画像T1及びT2を用いてテンプレートマッチングを行った結果抽出された領域の外接矩形1002及び1003を表す。人間のマッチング位置の矩形1003の下端の方が車両のマッチング位置の矩形1002の下端より下に位置するため、人間の方が車両よりも前面に位置すると判定する。こうして、このマッチング位置に配置されるテンプレート画像T2と変化領域とが重なる部分を現時刻での人間の領域として抽出する。残る車両の位置は、5(a)の元々の変化領域図1001から人間の領域を取り除いた領域1004(図5(c))に対して再度テンプレートマッチングを実施して決定する。   FIG. 5 is a diagram illustrating the context determination process in the moving object tracking device 10 according to the embodiment of the present invention. Here, an example in which the front / rear determination is performed in the case of FIG. 3B is shown. FIG. 5A shows the changed area 1001 extracted by the changed area extracting unit 131, and FIG. 5B is extracted as a result of performing template matching using the template images T1 and T2 of FIG. Represents circumscribed rectangles 1002 and 1003 of the region. Since the lower end of the rectangle 1003 of the human matching position is located below the lower end of the rectangle 1002 of the vehicle matching position, it is determined that the human is positioned in front of the vehicle. In this way, a portion where the template image T2 arranged at the matching position and the change region overlap is extracted as a human region at the current time. The position of the remaining vehicle is determined by performing template matching again on an area 1004 (FIG. 5C) obtained by removing a human area from the original change area diagram 1001 of FIG.

移動物体情報更新手段138は、移動物体が変化領域に一つしか存在しない場合、移動物体情報141の全てを更新する。また、移動物体が変化領域において他の移動物体と交差している場合、移動物体が最前景に位置すれば、移動物体情報141の全てを更新する。しかし、移動物体が他の移動物体の背後に位置する場合は、移動物体情報141のうちの非画像依存情報143のみを更新し、画像依存情報142は更新しない。   The moving object information updating unit 138 updates all the moving object information 141 when there is only one moving object in the change area. When the moving object intersects with another moving object in the change area, if the moving object is positioned in the foreground, all of the moving object information 141 is updated. However, when the moving object is located behind another moving object, only the non-image dependent information 143 in the moving object information 141 is updated, and the image dependent information 142 is not updated.

このように、移動物体情報更新手段138は、変化領域において他の移動物体と交差し他の移動物体の背後に位置する移動物体に対して、例えば、色ヒストグラム及び面積などの特徴情報やテンプレート画像などの画像データに依存する画像依存情報142を敢えて更新しない。これらの画像依存情報142に関しては、前時刻の値をそのまま引き継いで次時刻の入力画像における移動物体の追跡処理で使用する。こうすることによって、背後の移動物体の画像の一部が前の移動物体によって隠れてしまうため、背後の移動物体の領域全体の画像に基づいて画像依存情報142を更新するとかえって精度が劣化してしまうのを防止する。こうして、このような情報の更新の精度を上げるため前面の移動物体によって隠れた領域を解析したりフレームレートを高くしたりするなどの複雑で高度な処理をしなくとも、移動物体の画像追跡に十分な精度の情報を維持することができる。   As described above, the moving object information updating unit 138 performs, for example, feature information such as a color histogram and an area, or a template image for a moving object that intersects with another moving object in the change region and is located behind the other moving object. The image dependence information 142 that depends on the image data such as is not intentionally updated. With respect to the image-dependent information 142, the value of the previous time is directly used and used in the tracking process of the moving object in the input image at the next time. By doing so, a part of the image of the moving object behind is hidden by the previous moving object. Therefore, if the image dependent information 142 is updated based on the image of the entire area of the moving object behind, the accuracy deteriorates. To prevent it. In this way, in order to improve the accuracy of such information update, it is possible to track moving objects without complicated and advanced processing such as analyzing the area hidden by the moving object in front and increasing the frame rate. Information with sufficient accuracy can be maintained.

しかし、移動物体情報更新手段138は、例えば、移動物体の領域や移動量などの画像データに依存しない非画像依存情報143に関しては、背後の移動物体についても更新を行う。移動物体の一部が前面の移動物体に隠れた場合、背後の移動物体の領域全体に基づいてこれらの情報を更新しても情報の精度にあまり影響を与えないからである。このような非画像依存情報143は、次時刻の入力画像における移動物体の追跡処理における判定基準として有用である。   However, the moving object information updating unit 138 updates the moving object behind the non-image dependent information 143 that does not depend on the image data such as the area of the moving object and the moving amount. This is because, when a part of the moving object is hidden behind the moving object in the front, updating the information based on the entire area of the moving object behind does not greatly affect the accuracy of the information. Such non-image-dependent information 143 is useful as a determination criterion in the tracking process of the moving object in the input image at the next time.

一方、移動物体情報更新手段138は、移動物体が変化領域に一つしか存在しない場合、又は他の移動物体と交差するが最前景に位置する場合、非画像依存情報143だけでなく、色ヒストグラム及び面積などの特徴情報やテンプレート画像などを含む画像依存情報142も更新する。この場合、移動物体はその一部が他の移動物体の陰に隠れることがなく移動物体の領域全体の画像が全て得られるため、正しい画像依存情報142が抽出されるからである。   On the other hand, when there is only one moving object in the change region, or when the moving object information updating unit 138 intersects with another moving object but is located in the foreground, not only the non-image-dependent information 143 but also the color histogram In addition, the image dependency information 142 including feature information such as an area and a template image is also updated. In this case, part of the moving object is not hidden behind other moving objects, and the entire image of the entire area of the moving object is obtained, so that the correct image-dependent information 142 is extracted.

図4は、本発明の一実施形態である移動物体追跡装置10におけるテンプレート画像の更新の例を示す図である。図3及び図4を参照しながら、移動物体が交差している場合のテンプレート画像142の更新について説明する。   FIG. 4 is a diagram illustrating an example of updating a template image in the moving object tracking device 10 according to the embodiment of the present invention. The update of the template image 142 when moving objects intersect will be described with reference to FIGS. 3 and 4.

図3(a)に示すように、車両801及び人問802が離れて画像に映っている場合、それぞれのテンプレート画像は、図4(a)のT1及びT2となる。次時刻において、図3(b)に示すように、車両801及び人間802は、画像中で交差している。この場合、移動物体情報更新手段138は、人間802が他の移動物体の車両801と交差しているが最前景に位置するため、人間802のテンプレート画像を図4(b)のT2’で示すように更新する。一方、車両801は、その一部が人間802の背面に隠れて全体が見えないため、移動物体情報更新手段138は、車両801のテンプレート画像の更新は行わず、前時刻のテンプレート画像T1をそのまま用いる。したがって、車両801のテンプレート画像の精度の劣化を防ぐことができる。   As shown in FIG. 3A, when the vehicle 801 and the question 802 are separated and appear in the image, the respective template images are T1 and T2 in FIG. 4A. At the next time, as shown in FIG. 3B, the vehicle 801 and the person 802 intersect in the image. In this case, the moving object information updating unit 138 indicates the template image of the person 802 as T2 ′ in FIG. 4B because the person 802 intersects the vehicle 801 of another moving object but is positioned in the foreground. Update as follows. On the other hand, since part of the vehicle 801 is hidden behind the human 802 and cannot be seen in its entirety, the moving object information updating unit 138 does not update the template image of the vehicle 801 and uses the template image T1 of the previous time as it is. Use. Therefore, deterioration of the accuracy of the template image of the vehicle 801 can be prevented.

ステップS1005において、追跡処理部130は、追跡が成功した移動物体に対して記憶部140に記憶されている追跡成功回数を1回増やす。逆に追跡に失敗して見失った場合は、追跡成功回数を0にリセットする。移動物体が画面外に出たと判定された場合、追跡処理部130は、この移動物体に関する移動物体情報141を記憶部140から消去する。   In step S1005, the tracking processing unit 130 increments the tracking success count stored in the storage unit 140 by one for the moving object that has been successfully tracked. On the other hand, if the tracking fails and is lost, the tracking success count is reset to zero. When it is determined that the moving object has moved out of the screen, the tracking processing unit 130 deletes the moving object information 141 regarding the moving object from the storage unit 140.

ステップS1100において、移動物体追跡装置10は、追跡処理部130が追跡に成功した移動物体について、滞留判定部150によって、予め定めた時間より長く画像中に存在しているか否かを判定する。   In step S1100, the moving object tracking device 10 determines whether or not the moving object successfully tracked by the tracking processing unit 130 exists in the image for longer than a predetermined time by the stay determination unit 150.

滞留判定部150は、例えば、移動物体の追跡成功回数が予め定めた回数よりも多いか否かを判定することによって、当該移動物体が予め定めた時間より長く画像中に存在し続けているか否かを判定する。また、滞留判定部150は、現時刻に取得された入力画像中に存在する移動物体について存在時間を更新し、この存在時間を記憶部140に記憶しておき、移動物体が長時間存在しているか否かの判定に使用してもよい。   For example, the stay determination unit 150 determines whether or not the moving object has been present in the image longer than a predetermined time by determining whether or not the tracking success number of the moving object is greater than a predetermined number. Determine whether. In addition, the stay determination unit 150 updates the existence time for the moving object present in the input image acquired at the current time, stores the existence time in the storage unit 140, and the moving object exists for a long time. It may be used to determine whether or not it exists.

移動物体が予め定めた時間より長く画像中に存在している場合(ステップS1100でYesの場合)、ステップS1200において、移動物体追跡装置10は、人判定部160によってこの移動物体が人であるか否かを判定する。   If the moving object is present in the image longer than a predetermined time (Yes in step S1100), in step S1200, the moving object tracking device 10 determines whether the moving object is a person by the person determination unit 160. Determine whether or not.

人判定部160は、滞留判定部150によって予め定めた時間より長く画面内に存在すると判定された移動物体が人間であるか否かを判定し、人間であると判定した揚合は警報部170にその結果を出力する(S1300)。そして、その移動物体の画像を不審者検知画像145として記憶部140に記憶する。また、例えば、不審者が滞留した時間帯など他の情報も一緒に記憶部140に記憶してもよい。さらに、例えば、室内に設置されたインターホンの親機において利用者がスイッチボタンやタッチパネルなどの入力装置を介してこれらの情報の表示を要求したとき、ディスプレイなどの出力装置を介して記憶部140に記憶された情報を表示してもよい。   The person determination unit 160 determines whether or not the moving object determined to be present in the screen for a longer time than the predetermined time by the stay determination unit 150 is a human being. The result is output to (S1300). Then, the moving object image is stored in the storage unit 140 as the suspicious person detection image 145. Further, for example, other information such as a time period during which the suspicious person stays may be stored in the storage unit 140 together. Further, for example, when a user requests display of such information via an input device such as a switch button or a touch panel in a base unit of an interphone installed indoors, the storage unit 140 is accessed via an output device such as a display. The stored information may be displayed.

人判定部160において移動物体が人間であるか否かを判定する方法には、周知の様々な方法を使用することが可能である。例えば、P. Viola、M. Jones & D. Snow、「動作パターン及び外観パターンによる歩行者の検出(Detecting Pedestrians Using Patterns of Motion and Appearance)」、IEEE International Conference on Computer Vision, pp.734, 0ct, 2003に記載されているように、予め撮影した様々な外観の人間の画像を使用してAdaBoostによって学習したHaar-Like特徴に基づくカスケード型識別器によって実現できる。   Various known methods can be used as a method for determining whether or not the moving object is a human in the human determination unit 160. For example, P. Viola, M. Jones & D. Snow, “Detecting Pedestrians Using Patterns of Motion and Appearance”, IEEE International Conference on Computer Vision, pp.734, 0ct, As described in 2003, it can be realized by a cascade classifier based on Haar-Like features learned by AdaBoost using human images of various appearances taken in advance.

移動物体が人間であると判定されたる場合(ステップS1200でYesの場合)、ステップS1300において、移動物体追跡装置10は、警報部170によって、ユーザーに光や音等で警告し、記憶部140に記憶されている不審者検知画像145を外部の機器、例えば室内に設置されるインターホン親機のモニターなどに表示する。   When it is determined that the moving object is a human (in the case of Yes in step S1200), in step S1300, the moving object tracking device 10 warns the user with light, sound, or the like by the alarm unit 170, and stores it in the storage unit 140. The stored suspicious person detection image 145 is displayed on an external device, for example, a monitor of an intercom base unit installed indoors.

図8は、本発明の一実施形態である移動物体追跡装置10における階層型テンプレートマッチング手段135の動作フローを示すフローチャートである。図8を参照しながら、階層型テンプレートマッチング手段135の動作の詳細について説明する。   FIG. 8 is a flowchart showing an operation flow of the hierarchical template matching unit 135 in the moving object tracking device 10 according to the embodiment of the present invention. Details of the operation of the hierarchical template matching unit 135 will be described with reference to FIG.

階層型テンプレートマッチング手段135は、処理対象の変化領域に存在すると対応付けられた各移動物体について、ステップS801〜806の処理を繰り返す。   The hierarchical template matching unit 135 repeats the processes of steps S801 to S806 for each moving object that is associated with the change area to be processed.

ステップS801において、階層型テンプレートマッチング手段135は、交差判定手段134によって処理対象の変化領域に対応付けられた各移動物体について、それぞれのテンプレート画像を用いてテンプレートマッチングを行い、変化領域中で最も一致する位置を抽出する。テンプレートマッチングの指標としては、変化領域とテンプレート画像の対応する画素間の画素値に対する正規化相関、差分絶対値和及び差分二乗和などの様々な指標を利用することができる。   In step S <b> 801, the hierarchical template matching unit 135 performs template matching for each moving object associated with the change area to be processed by the intersection determination unit 134 using the template image, and most closely matches in the change area. The position to be extracted is extracted. As a template matching index, various indices such as a normalized correlation with respect to a pixel value between corresponding pixels of the change area and the template image, a sum of absolute differences, and a sum of squared differences can be used.

ステップS803において、階層型テンプレートマッチング手段135は、テンプレートマッチングによって抽出された各移動物体の位置に基づいて前後関係を判定し、最前景に位置する移動物体を特定する。本実施例では、前述の最前景判定手段136と同様に、移動物体の領域の下端が下の方に位置する移動物体を前側に位置すると判定する。ここで、ステップS801〜806の初回のループにおいて最前景と判定された移動物体を記憶部140に記憶しておき、最前景判定手段136の判定に利用してもよい。   In step S803, the hierarchical template matching unit 135 determines the context based on the position of each moving object extracted by template matching, and identifies the moving object located in the foreground. In the present embodiment, like the foreground determination unit 136 described above, it is determined that the moving object whose lower end is located on the lower side is located on the front side. Here, the moving object determined to be the foreground in the first loop of steps S801 to S806 may be stored in the storage unit 140 and used for determination by the foreground determination unit 136.

ステップS805において、階層型テンプレートマッチング手段135は、マッチング位置に配置した最前景に位置する移動物体のテンプレート画像と変化領域とが重なる部分を移動物体の現時刻の入力画像における新たな領域とし、当該領域を変化領域から取り除く。   In step S805, the hierarchical template matching unit 135 sets a portion where the template image of the moving object located in the foreground arranged at the matching position and the change area overlap as a new area in the input image of the moving object at the current time. Remove the region from the change region.

階層型テンプレートマッチング手段135は、最前景に位置しない残りの移動物体について、ステップS801からステップS806までの一連の処理を繰り返し、最前景の移動物体から順に変化領域に存在する移動物体の個数分繰り返すことによって、各移動物体の領域が抽出される。   The hierarchical template matching unit 135 repeats a series of processes from step S801 to step S806 for the remaining moving objects that are not located in the foreground, and repeats the number of moving objects that exist in the change area in order from the moving object in the foreground. Thus, the area of each moving object is extracted.

ステップS807において、階層型テンプレートマッチング手段135は、変化領域に存在する全ての移動物体の領域を特定した後、どの移動物体にも対応付かなかった残りの変化領域の割合が予め定めた割合以上か否かを判定する。予め定めた割合以下であった場合(ステップS807でNoの場合)、残りの領域は、距離的に最も近い移動物体に対応付けられる。   In step S807, the hierarchical template matching unit 135 identifies the areas of all the moving objects existing in the change area, and then determines whether the ratio of the remaining change areas that did not correspond to any moving objects is equal to or greater than a predetermined ratio. Determine whether or not. If the ratio is equal to or less than the predetermined ratio (No in step S807), the remaining area is associated with the moving object that is closest in distance.

逆に予め定めた割合以上の変化領域が残った場合(ステップS807でYesの場合)、階層型テンプレートマッチング手段135は、前時刻の移動物体の中で画面端に接しているものが存在するか否かを検証する(ステップS808)。前時刻で画面端に接する移動物体が存在しない場合(ステップS808でNoの場合)、階層型テンプレートマッチング手段135は、残りの変化領域を全て新規出現の移動物体として対応付ける(ステップS811)。   On the other hand, if a change area of a predetermined ratio or more remains (Yes in step S807), does the hierarchical template matching unit 135 include any moving objects at the previous time that are in contact with the screen edge? It is verified whether or not (step S808). If there is no moving object in contact with the screen edge at the previous time (No in step S808), the hierarchical template matching unit 135 associates all remaining change areas as newly appearing moving objects (step S811).

ステップS808において、階層型テンプレートマッチング手段135は、変化領域の中から時刻の経過によって形状が変化する可能性のある移動物体を特定し、その特定された移動物体の領域を修正する。例えば、階層型テンプレートマッチング手段135は、変化領域に対応する移動物体のうちで前時刻の取得画像において画面端に接しているものが存在するか否かを判定する。画面端に接しているものが存在する場合(ステップS808でYesの場合)、階層型テンプレートマッチング手段135は、当該移動物体のマッチング結果を移動方向に平行な方向に変化領域内で拡張する(ステップS809)。尚、前時刻で複数の移動物体が画面端に接している場合は、前面の物体から順に領域を拡張する。こうして、階層型テンプレートマッチング手段135は、前時刻において移動物体全体が画面内に映っていなかったために対応付かなかったと思われる移動物体の領域を残った変化領域から対応付けることができる。   In step S808, the hierarchical template matching unit 135 identifies a moving object whose shape is likely to change over time from the change area, and corrects the area of the identified moving object. For example, the hierarchical template matching unit 135 determines whether there is a moving object corresponding to the change area that is in contact with the screen edge in the acquired image at the previous time. If there is something that touches the screen edge (Yes in step S808), the hierarchical template matching unit 135 expands the matching result of the moving object in the change area in a direction parallel to the moving direction (step). S809). When a plurality of moving objects are in contact with the screen edge at the previous time, the area is expanded in order from the front object. In this way, the hierarchical template matching unit 135 can associate the area of the moving object that has not been associated because the entire moving object was not reflected in the screen at the previous time from the remaining change area.

このように、前時刻で画面端に接している移動物体が画面内に進入してくる方向に移動している場合、現時刻では前時刻で画面外にあった部分まで撮影されていると考えられるため、前時刻で見えなかった部分は見えていた部分に対して移動方向と逆の方向に続いていると考える。こうして、階層型テンプレートマッチング手段135は、当該移動物体のテンプレートマッチング後の領域を移動方向の逆の方向に拡張して領域の修正を行う。尚、本実施例では、カメラ付インターホンのように撮像装置20は略水平方向に向くように設置されていると想定している。したがって、移動方向を水平方向と限定してもさほど問題はない。   In this way, if a moving object that touches the screen edge at the previous time is moving in the direction of entering the screen, it is considered that the current time has taken the part that was off the screen at the previous time. Therefore, it is considered that the portion that was not visible at the previous time continues in the direction opposite to the moving direction with respect to the portion that was visible. In this way, the hierarchical template matching unit 135 corrects the region by expanding the region after template matching of the moving object in the direction opposite to the moving direction. In the present embodiment, it is assumed that the imaging device 20 is installed so as to face in a substantially horizontal direction like a camera interphone. Therefore, there is no problem even if the moving direction is limited to the horizontal direction.

図6は、前時刻の入力画像において画面端に接する移動物体が存在する場合の領域修正の例を示す図である。図6を参照しながら、前時刻において画面端に接している移動物体が現時刻で他の移動物体と交差する場合の移動物体領域の修正処理について説明する。   FIG. 6 is a diagram illustrating an example of region correction when there is a moving object in contact with the screen edge in the input image at the previous time. With reference to FIG. 6, a description will be given of correction processing of a moving object region when a moving object that is in contact with the screen edge at the previous time intersects with another moving object at the current time.

図6(a)に示すように、前時刻において車両901の画像は画面左端に接しており一部分しか見えず、人間902は全身が見えており、図6(c)に示すように、現時刻において車両901と人間902とが交差して重なっている例について考える。前時刻における変化領域は、図6(b)に示す通りであり、それぞれID4、ID5という識別子が与えられている。また、図6(d)に示すように、現時刻では、交差によって車両901と人間902が一体化されて一つの変化領域ID6として抽出される。したがって、テンプレートマッチングによって各移動物体の領域を特定し、特定された領域を変化領域から抽出する必要がある。しかしながら、前時刻において移動物体は交差状態ではないため、図6(a)の車両901及び人間902のテンプレート画像は、それぞれ、図6(e)のT4及び図6(f)のT5に示す通りである。このように、前時刻の入力画像において車両901は一部しか映っておらず、車両901のテンプレート画像として、図6(e)のT4が記憶されている。したがって、このテンプレート画像T4を用いたテンプレートマッチングの結果、図6(g)に示すように、人間902はID5’に、車両901はID4’に対応付けられ、ID6’が残ってしまう。しかしながら、車両が前時刻で画面左端に接しており、画面右方向に移動しているため、車両の領域ID4’を左右方向に拡張することによって最終的にはID6’が車両の領域に含まれる。   As shown in FIG. 6A, at the previous time, the image of the vehicle 901 is in contact with the left end of the screen and only a part is seen, and the human 902 can see the whole body, and as shown in FIG. Let us consider an example in which the vehicle 901 and the person 902 cross and overlap each other. The change areas at the previous time are as shown in FIG. 6B, and are given identifiers ID4 and ID5, respectively. Further, as shown in FIG. 6D, at the current time, the vehicle 901 and the person 902 are integrated by the intersection and extracted as one change area ID6. Therefore, it is necessary to specify the area of each moving object by template matching and extract the specified area from the change area. However, since the moving object is not in an intersecting state at the previous time, the template images of the vehicle 901 and the person 902 in FIG. 6A are as shown at T4 in FIG. 6E and T5 in FIG. 6F, respectively. It is. Thus, only a part of the vehicle 901 is shown in the input image at the previous time, and T4 in FIG. 6E is stored as a template image of the vehicle 901. Therefore, as a result of template matching using the template image T4, as shown in FIG. 6G, the person 902 is associated with ID5 ', the vehicle 901 is associated with ID4', and ID6 'remains. However, since the vehicle is in contact with the left edge of the screen at the previous time and is moving in the right direction of the screen, the vehicle area ID4 ′ is expanded in the left-right direction, so that ID6 ′ is finally included in the vehicle area. .

以上の処理を行った後、まだ変化領域が予め定めた閾値以上残っている場合(ステップS810でYesの場合)、階層型テンプレートマッチング手段135は、ステップS811において残った領域を新規出現の移動物体の領域として対応付ける。   After the above processing, if the change area still remains more than a predetermined threshold (Yes in step S810), the hierarchical template matching unit 135 uses the remaining area in step S811 as a newly appearing moving object. Correspond as a region of.

この新規出現の移動物体に関して、階層型テンプレートマッチング手段135は、特定された領域やその領域の入力画像に基づいて新規移動物体の移動物体情報を抽出して記憶部140に記憶する。尚、変化領域の残りが予め定めた割合以下であった場合、階層型テンプレートマッチング手段135は、距離(例えばマハラノビス距離等)的に最も近い移動物体にこの変化領域の残りを対応付ける。   With respect to the newly appearing moving object, the hierarchical template matching unit 135 extracts the moving object information of the new moving object based on the specified area and the input image of the area, and stores the extracted moving object information in the storage unit 140. When the remaining change area is equal to or less than a predetermined ratio, the hierarchical template matching unit 135 associates the remaining change area with the moving object that is closest in distance (for example, Mahalanobis distance).

本発明によれば、画像中の複数の移動物体を追跡する際、交差する複数の移動物体を撮影するカメラに対する前後位置を判断して、後ろ側に位置する移動物体については、テンプレート画像のように画像に依存する情報の更新を敢えて行わない。したがって、複数の移動物体が画像中で交差する際、後ろ側に位置する移動物体のテンプレート画像が、前側に位置する移動物体に隠れて見えない部分があるにもかかわらず強制的に更新されるため、テンプレートとしての質が劣化してしまうことに起因する画像追跡の精度の低下を防ぐことができる。このため、複数の移動物体が頻繁に交差する状況においても、各移動物体を精度良く追跡することができる。したがって、例えば、カメラ付きインターホンなどのハードウェア資源が限られた動作環境に適用した場合でも、インターホンの前に長時間居続ける不審者(ストーカーなど)を的確に検出することができる。   According to the present invention, when tracking a plurality of moving objects in an image, the front-rear position with respect to a camera that captures a plurality of intersecting moving objects is determined. Don't dare to update image-dependent information. Therefore, when a plurality of moving objects intersect in the image, the template image of the moving object located on the rear side is forcibly updated even though there is a portion that is hidden behind the moving object located on the front side. Therefore, it is possible to prevent a decrease in image tracking accuracy due to the deterioration of the quality as a template. For this reason, each moving object can be accurately tracked even in a situation where a plurality of moving objects frequently intersect. Therefore, for example, even when applied to an operating environment in which hardware resources such as an interphone with a camera are limited, it is possible to accurately detect a suspicious person (such as a stalker) who stays in front of the interphone for a long time.

また、入力画像における位置関係に基づいて、すなわち、入力画像において移動物体の下端が下に位置する方が前に位置すると判定することによって、移動物体の前後関係の判定が簡単に行われる。特に、カメラを概略水平方向に向けざるを得ないカメラ付きインターホンに本発明を適用することで、玄関前に長時間居続ける不審者(ストーカー)を精度良く検出できる。さらに、前時刻に取得されたフレームにおいては画面端に映ったため画面内に一部または全部が映っていなかった移動物体が現時刻のフレームにおいて他の移動物体と交差する場合についても、その領域を更新することによって、より正確な画像追跡が行われる。また、現入力画像における各変化領域に対して最前景に位置する可能性の最も高い移動物体を対応付けることによって、交差判定などの処理が容易になる。   Also, based on the positional relationship in the input image, that is, by determining that the lower end of the moving object is positioned lower in the input image, the determination of the front-rear relationship of the moving object is easily performed. In particular, by applying the present invention to an interphone with a camera that has to point the camera in a substantially horizontal direction, it is possible to accurately detect a suspicious person (stalker) who stays in front of the entrance for a long time. Furthermore, even if a moving object that was not partially or wholly displayed on the screen in the frame acquired at the previous time intersects with another moving object in the current time frame, the area is By updating, more accurate image tracking is performed. Further, by associating a moving object most likely to be located in the foreground with each change area in the current input image, processing such as intersection determination is facilitated.

上記のように、すべての移動物体に対して更新する非画像依存情報と他の移動物体の背後に位置する移動物体に対して更新を行わない画像依存情報とに関しては、本実施例に制限される必要はない。追跡対象の移動物体の特性、撮影する撮像装置の性能、撮影場所の状況、画像処理の動作環境などに応じて更新の精度を考慮し、他の移動物体の背後に位置する移動物体に対して更新を行わない情報を適切に選定することができる。他の移動物体の背後に位置する移動物体に関する情報について全く更新を行わない場合もある。   As described above, non-image-dependent information that is updated for all moving objects and image-dependent information that is not updated for moving objects located behind other moving objects are limited to this embodiment. There is no need to For moving objects located behind other moving objects, considering the update accuracy according to the characteristics of the moving object to be tracked, the performance of the imaging device to shoot, the situation of the shooting location, the operating environment of image processing, etc. Information that will not be updated can be selected appropriately. There is a case where information about a moving object located behind another moving object is not updated at all.

本実施例では、本発明のカメラ付きインターホンなどのハードウェア資源が制限された環境においても交差する各移動物体を精度良く追跡することができるという利点を説明するため、カメラ付きインターホンにおける例について説明したが、本発明は本実施例に限定されない。他の限られたハードウェア資源を有する環境においても有効である。また、追跡する移動物体の特性、画像の撮影条件、その他の状況に応じて、豊富なハードウェア資源を有する高性能の画像処理環境においても、本発明が同様の効果をもたらす場合がある。   In this embodiment, in order to explain the advantage that each moving object that intersects can be accurately tracked even in an environment where hardware resources such as an interphone with a camera of the present invention are limited, an example of an interphone with a camera will be described. However, the present invention is not limited to this example. It is also effective in an environment having other limited hardware resources. Further, the present invention may provide the same effect even in a high-performance image processing environment having abundant hardware resources depending on the characteristics of the moving object to be tracked, the image capturing conditions, and other situations.

本発明の一実施形態である移動物体追跡装置が実装されたカメラ付インターホンの設置例を示す図である。It is a figure which shows the example of installation of the intercom with a camera by which the moving object tracking device which is one Embodiment of this invention was mounted. 本発明の一実施形態である移動物体追跡装置が実装されたカメラ付インターホンの構成を示すブロック図である。It is a block diagram which shows the structure of the intercom with a camera by which the moving object tracking device which is one Embodiment of this invention was mounted. 一時刻前の入力画像における移動物体と現時刻の入力画像における変化領域との1対1対応付けの例を示す図である。It is a figure which shows the example of 1 to 1 matching with the moving object in the input image of 1 time ago, and the change area | region in the input image of the present time. 本発明の一実施形態である移動物体追跡装置におけるテンプレート画像の更新の例を示す図である。It is a figure which shows the example of the update of the template image in the moving object tracking device which is one Embodiment of this invention. 本発明の一実施形態である移動物体追跡装置における前後関係判定処理を示す図である。It is a figure which shows the context determination process in the moving object tracking device which is one Embodiment of this invention. 前時刻の入力画像において画面端に接する移動物体が存在する場合の領域修正の例を示す図である。It is a figure which shows the example of area | region correction when the moving object which touches the screen edge exists in the input image of the previous time. 本発明の一実施形態である移動物体追跡装置の動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow of the moving object tracking apparatus which is one Embodiment of this invention. 本発明の一実施形態である移動物体追跡装置における階層型テンプレートマッチングの動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow of the hierarchical template matching in the moving object tracking device which is one Embodiment of this invention.

符号の説明Explanation of symbols

10 移動物体追跡装置
20 撮像装置
110 画像取得部
130 追跡処理部
131 変化領域抽出手段
132 特徴抽出手段
133 対応付け手段
134 交差判定手段
135 階層型テンプレートマッチング手段
136 最前景判定手段
137 移動物体情報抽出手段
138 移動物体情報更新手段
140 記憶部
141 移動物体情報
142 画像依存情報
143 非画像依存情報
144 基準画像
145 不審者検知画像
150 滞留判定部
160 人判定部
170 警報部
DESCRIPTION OF SYMBOLS 10 Moving object tracking apparatus 20 Imaging apparatus 110 Image acquisition part 130 Tracking process part 131 Change area extraction means 132 Feature extraction means 133 Association means 134 Intersection determination means 135 Hierarchical template matching means 136 Foreground foreground determination means 137 Moving object information extraction means 138 Moving object information update means 140 Storage unit 141 Moving object information 142 Image dependent information 143 Non-image dependent information 144 Reference image 145 Suspicious person detection image 150 Stay determination unit 160 Person determination unit 170 Alarm unit

Claims (4)

画像を順次取得する画像入力部と、移動物体ごとに追跡に使用する画像依存情報及び非画像依存情報を含む移動物体情報と、移動物体が含まれていない基準画像とを記憶する記憶部と、前記入力画像を順次画像処理して移動物体を画像上にて追跡する追跡処理部を具備する移動物体追跡装置であって、
前記追跡処理部は、
前記基準画像と前記入力画像とを差分処理して変化領域を抽出する変化領域抽出手段と、
前記入力画像における前記変化領域から特徴情報を抽出する特徴抽出手段と、
前記変化領域の特徴情報と前記移動物体情報とを用いて前記変化領域と移動物体情報との対応付けを行う対応付け手段と、
前記対応付け手段にて一つの変化領域に対し複数の移動物体情報が対応付く交差の有無を判定する交差判定手段と、
移動物体ごとに、前記入力画像における変化領域から画像に依存した画像依存情報と画像に依存しない非画像依存情報とを抽出する移動物体情報抽出手段と、
前記交差判定手段にて交差ありと判定した前記変化領域に対応する複数の移動物体情報のうち、最前景に位置すると判定した移動物体情報については前記移動物体情報抽出手段にて抽出した前記画像依存情報及び非画像依存情報の両方を更新し、前記最前景に位置しないと判定された移動物体情報については前記移動物体情報抽出手段にて抽出した前記非画像依存情報のみを更新し、
前記交差判定手段にて交差なしと判定した前記変化領域に対応する移動物体情報については、前記移動物体情報抽出手段にて抽出した前記画像依存情報及び前記非画像依存情報の両方を更新する移動物体情報更新手段と、
を具備することを特徴とした移動物体追跡装置。
An image input unit that sequentially acquires images; a moving unit information that includes image-dependent information and non-image-dependent information used for tracking for each moving object; and a storage unit that stores a reference image that does not include the moving object; A moving object tracking device comprising a tracking processing unit that sequentially processes the input image and tracks a moving object on the image,
The tracking processing unit
A change area extraction means for extracting a change area by performing a difference process between the reference image and the input image;
Feature extraction means for extracting feature information from the change region in the input image;
Association means for associating the change area with the moving object information using the feature information of the change area and the moving object information;
Crossing determination means for determining the presence or absence of a crossing in which a plurality of moving object information is associated with one change area in the association means;
For each moving object, moving object information extracting means for extracting image-dependent image-dependent information and non-image-dependent non-image-dependent information from a change area in the input image;
Among the plurality of moving object information corresponding to the change area determined to have an intersection by the intersection determination unit, the moving object information determined to be located in the foreground is the image dependency extracted by the moving object information extraction unit. Updating both information and non-image dependent information, and for the moving object information determined not to be located in the foreground, only the non-image dependent information extracted by the moving object information extracting means,
Moving said the moving object information corresponding to the change area where it is determined that no intersect at intersection determining means for updating both the image-dependent information and the non-image-dependent information extracted by the moving object information extraction means Object information updating means;
A moving object tracking device comprising:
前記記憶部の画像依存情報には、前記移動物体情報のうち過去の移動物体情報が対応付いた領域の画像をテンプレートとして含んでおり、
更に、
前記追跡処理部は、前記交差判定手段にて交差ありと判定した変化領域に対して、対応付いた移動物体情報の前記テンプレートを用いてテンプレートマッチング処理を行うテンプレートマッチング処理手段と、
前記テンプレートマッチング処理手段にてマッチングがれた領域のうち最下位置ある領域を最前景に位置すると判定する最前景判定手段と、を具備する請求項1に記載の移動物体追跡装置。
The image-dependent information in the storage unit includes an image of a region associated with past moving object information among the moving object information as a template,
Furthermore,
The tracking processing unit performs template matching processing using the template of the corresponding moving object information for the change area determined to be crossed by the cross determination unit;
Moving object tracking according to regions in the lowest position in the region matching bets were in the template matching process unit in claim 1 that immediately Bei and a top foreground judging means judges that positioned in the outermost foreground apparatus.
前記記憶部に記憶されている非画像依存情報には、前記移動物体情報のうち過去に移動物体情報が対応付いた領域を含み、
前記移動物体情報抽出手段は、前記テンプレートマッチング処理にてマッチングが取れた領域であって、一時刻前における当該移動物体に対応する領域が画像端に接している領域について、前記マッチングが取れた領域を移動方向と平行に当該変化領域の範囲内で拡張する請求項2に記載の移動物体追跡装置。
The non-image-dependent information stored in the storage unit includes a region in the moving object information associated with the moving object information in the past,
The moving object information extraction unit is an area that has been matched in the template matching process, and the area that has been matched with respect to an area in which an area corresponding to the moving object one hour before is in contact with an image end The moving object tracking device according to claim 2, wherein the moving object tracking device is expanded within the range of the change region in parallel with the moving direction.
前記対応付け手段は、前記記憶部に記憶している移動物体情報及び前記特徴情報から一時刻前の移動物体と現時刻の変化領域との類似度に基づく対応度を示した対応表を生成し、当該対応表における対応度の総和が最大になるように変化領域と移動物体情報とを対応付ける請求項1乃至請求項3に記載の移動物体追跡装置。 The association unit generates a correspondence table indicating a correspondence degree based on the similarity between the moving object one hour before and the change area of the current time from the moving object information and the feature information stored in the storage unit. 4. The moving object tracking device according to claim 1, wherein the change area and the moving object information are associated with each other so that the total sum of the correspondences in the correspondence degree table is maximized.
JP2008198913A 2008-07-31 2008-07-31 Moving object tracking device Expired - Fee Related JP5106302B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008198913A JP5106302B2 (en) 2008-07-31 2008-07-31 Moving object tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008198913A JP5106302B2 (en) 2008-07-31 2008-07-31 Moving object tracking device

Publications (2)

Publication Number Publication Date
JP2010039580A JP2010039580A (en) 2010-02-18
JP5106302B2 true JP5106302B2 (en) 2012-12-26

Family

ID=42012092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008198913A Expired - Fee Related JP5106302B2 (en) 2008-07-31 2008-07-31 Moving object tracking device

Country Status (1)

Country Link
JP (1) JP5106302B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5805511B2 (en) * 2011-12-01 2015-11-04 セコム株式会社 Image monitoring device
BR112015020989A2 (en) * 2013-03-29 2017-07-18 Nec Corp target object identification device, target object identification method, and target object identification program
JP6097150B2 (en) * 2013-05-24 2017-03-15 ソニーセミコンダクタソリューションズ株式会社 Image processing apparatus, image processing method, and program
JP6532317B2 (en) * 2015-06-19 2019-06-19 キヤノン株式会社 Object tracking device, object tracking method and program
JP6607630B2 (en) * 2015-06-30 2019-11-20 Kddi株式会社 Moving object extraction apparatus, method and program
JP6516646B2 (en) * 2015-09-30 2019-05-22 Kddi株式会社 Identification apparatus for identifying individual objects from images taken by a plurality of cameras, identification method and program
JP6641633B2 (en) * 2016-03-10 2020-02-05 スズキ株式会社 Moving object detection system and data consistency determination method thereof
JP2020009382A (en) * 2018-07-12 2020-01-16 株式会社チャオ Traffic line analyzer, traffic line analysis program, and method for analyzing traffic line
JP7326965B2 (en) * 2019-07-29 2023-08-16 富士通株式会社 Image processing device, image processing program, and image processing method
WO2022064687A1 (en) * 2020-09-28 2022-03-31 日本電気株式会社 Image-processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3257165B2 (en) * 1993-08-06 2002-02-18 株式会社日立製作所 Moving object monitoring device
JP3505872B2 (en) * 1995-08-28 2004-03-15 日本ビクター株式会社 Moving object tracking device in image
JP2003044860A (en) * 2001-08-01 2003-02-14 Nippon Hoso Kyokai <Nhk> Device for tracing video object

Also Published As

Publication number Publication date
JP2010039580A (en) 2010-02-18

Similar Documents

Publication Publication Date Title
JP5106302B2 (en) Moving object tracking device
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
JP6655878B2 (en) Image recognition method and apparatus, program
US8249301B2 (en) Video object classification
EP2372654B1 (en) Object tracking apparatus, object tracking method, and control program
JP5567853B2 (en) Image recognition apparatus and method
JP5390322B2 (en) Image processing apparatus and image processing method
JP4874150B2 (en) Moving object tracking device
JP2009027393A (en) Image searching system and personal searching method
JP2002074368A (en) Moving object recognizing and tracking device
JP5271227B2 (en) Crowd monitoring device, method and program
JP4969291B2 (en) Moving object tracking device
US20220366570A1 (en) Object tracking device and object tracking method
JP2010057105A (en) Three-dimensional object tracking method and system
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
Sledeviè et al. FPGA-based selected object tracking using LBP, HOG and motion detection
JP5132509B2 (en) Moving object tracking device
JP2002342762A (en) Object tracing method
JP5154461B2 (en) Moving object tracking device
JP6798609B2 (en) Video analysis device, video analysis method and program
Husni et al. Crowd event detection in computer vision
KR20200060868A (en) multi-view monitoring system using object-oriented auto-tracking function
Wang et al. Efficient visual tracking by probabilistic fusion of multiple cues
JP5047115B2 (en) Moving object tracking device
KR100543706B1 (en) Vision-based humanbeing detection method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121002

R150 Certificate of patent or registration of utility model

Ref document number: 5106302

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees