JP2010087882A - Moving object tracking device - Google Patents

Moving object tracking device Download PDF

Info

Publication number
JP2010087882A
JP2010087882A JP2008255292A JP2008255292A JP2010087882A JP 2010087882 A JP2010087882 A JP 2010087882A JP 2008255292 A JP2008255292 A JP 2008255292A JP 2008255292 A JP2008255292 A JP 2008255292A JP 2010087882 A JP2010087882 A JP 2010087882A
Authority
JP
Japan
Prior art keywords
moving object
change area
change
image
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008255292A
Other languages
Japanese (ja)
Other versions
JP5132509B2 (en
Inventor
Machiko Nakamura
真知子 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2008255292A priority Critical patent/JP5132509B2/en
Publication of JP2010087882A publication Critical patent/JP2010087882A/en
Application granted granted Critical
Publication of JP5132509B2 publication Critical patent/JP5132509B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving object tracking device that not only precisely tracks an image but also has small processing load thereof even if water drop is deposited to an image capturing apparatus. <P>SOLUTION: The moving object tracking device 10 includes: a feature extracting means 1313 for extracting feature information from a magnification change region where a change region of a reference image is magnified and an input image change region; a water drop determining means 1314 for determining that the change region is a water change region formed by the water drop if these feature information is identical each other and that the change region is a non-water drop change region formed by moving objects other than the water drop if not identical; a matching means for matching the non-water drop change region to moving object information 141 by using the feature information and moving object information 141 extracted from the non-water drop change region; and a moving object information updating means 134 for updating the moving object information 141 matched to the non-water drop change region based on the matching of the non-water drop region to the moving object information 141. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理において順次撮影される画像中の複数の移動物体をそれぞれ追跡する移動物体追跡装置に関する。特に、撮像装置のカバーなどに水滴が付着する状況においても、移動物体追跡を続けることができる移動物体追跡装置に関する。   The present invention relates to a moving object tracking device that tracks each of a plurality of moving objects in images sequentially captured in image processing. In particular, the present invention relates to a moving object tracking device capable of continuing tracking of a moving object even in a situation where water droplets adhere to a cover or the like of an imaging device.

例えば、移動物体追跡装置を実装したカメラ付きインターホンは、玄関のドアの横に設置され、移動物体追跡装置に接続されたカメラによって玄関前の監視領域を一定の時間間隔で連続的に撮影する。こうして撮影された画像中の移動物体を移動物体追跡装置が画像追跡することによって、玄関前にストーカーなどの不審人物がいないかを監視することができる。しかし、例えば、このカメラ付きインターホンなどのようにカメラを屋外に設置した場合、降雨などによって撮像装置のカバーなどに水滴が付着してしまうことが頻繁に起こり得る。このとき、背景画像と比較して変化した変化領域が、物体の移動によるものなのか又は水滴の付着によるものなのかを正しく判別しなければ、画像中の移動物体を正しく追跡し続けることができない。   For example, a camera-equipped interphone equipped with a moving object tracking device is installed next to a door of an entrance, and continuously captures a monitoring area in front of the entrance by a camera connected to the moving object tracking device at regular time intervals. When the moving object tracking device tracks the moving object in the image thus captured, it is possible to monitor whether there is a suspicious person such as a stalker in front of the entrance. However, for example, when a camera is installed outdoors, such as an interphone with a camera, water droplets may frequently adhere to the cover of the imaging device due to rain or the like. At this time, unless the change area changed compared to the background image is due to the movement of the object or due to the attachment of water droplets, the moving object in the image cannot be tracked correctly. .

そこで、特許文献1には、撮像部の前面に水滴が付着しているか否かを判定する手法として、入力画像と入力画像中に映っていると推定される物体の形状やテクスチャの変化を定量化する方法が開示されている。この方法では、撮影された入力画像における物体の形状やテクスチャを予め取得した背景画像における物体の形状やテクスチャと比較し、これらの変化に基づいて水滴の有無を判定している。   Therefore, in Patent Document 1, as a method for determining whether or not water droplets are attached to the front surface of the imaging unit, changes in the shape and texture of an object estimated to be reflected in the input image and the input image are quantified. Is disclosed. In this method, the shape and texture of an object in a captured input image are compared with the shape and texture of an object in a background image acquired in advance, and the presence or absence of water droplets is determined based on these changes.

特開2007−228448号広報JP 2007-228448

しかしながら、背景画像に対する形状やテクスチャの変化を判断に用いると、追跡対象である移動物体により生じた変化領域であっても形状やテクスチャは変化するため、水滴による変化領域であるか否かの判別は難しい。また水滴付着を検出した際の障害物検出プログラムの処理パラメータの変更は、所定のフレーム数の処理を経過した後に行われるので、それまでは水滴も追跡処理の対象となってしまう。このため、降雨中など撮像部に次々と水滴が付着すると、処理の負荷が爆発的に増加する。しかしながら、カメラ付きインターホンのように、潤沢なハードウェア資源を有さず、例えば1秒2フレーム程度しか画像を取得し処理できない装置では、処理量の増加は許されない。加えて、水滴を追跡対象と誤判断する可能性が高まり、追跡性能の劣化につながりかねない。   However, if the change in shape or texture with respect to the background image is used for judgment, the shape or texture changes even in the change area caused by the moving object to be tracked. Is difficult. In addition, since the change of the processing parameter of the obstacle detection program when the water droplet adhesion is detected is performed after a predetermined number of frames have passed, the water droplet is also subject to the tracking process until then. For this reason, when water droplets adhere to the imaging unit one after another, such as during rain, the processing load increases explosively. However, an apparatus that does not have abundant hardware resources, such as an interphone with a camera, and that can acquire and process images only for about 2 frames per second, for example, cannot increase the processing amount. In addition, the possibility of misjudging water droplets as a tracking target increases, which may lead to deterioration in tracking performance.

したがって、本発明は、画像中の移動物体の追跡処理において、水滴の付着による変化領域を精度良く処理対象から除外することによって、水滴によって生じる処理の負荷を軽減することができる移動物体追跡装置を提供することを目的とする。   Therefore, the present invention provides a moving object tracking device capable of reducing the processing load caused by water droplets by accurately excluding the change area due to the adhesion of water droplets from the processing target in the tracking processing of the moving object in the image. The purpose is to provide.

上記課題を解決するため、本発明に係る移動物体追跡装置は、画像を順次取得する画像入力部と、移動物体ごとに追跡に使用する移動物体情報と、移動物体が含まれない基準画像と、を記憶する記憶部と、入力画像を順次画像処理して移動物体を画像上にて追跡する追跡処理部と、を具備する。係る移動物体追跡装置において、追跡処理部は、基準画像と入力画像とを差分処理して変化領域を抽出する変化領域抽出手段と、基準画像の変化領域を膨張させた拡大変化領域から第1の特徴情報を抽出し且つ入力画像の変化領域から第2の特徴情報を抽出するか、又は、基準画像の変化領域から第1の特徴情報を抽出し且つ入力画像の変化領域を収縮させた縮小変化領域から第2の特徴情報を抽出する特徴抽出手段と、第1の特徴情報と第2の特徴情報との類似度を求め、当該類似度が一定値以上である場合に変化領域を画像入力部に付着した水滴により生じた水滴変化領域と判定し、当該類似度が一定値未満である場合に変化領域を水滴以外の移動物体により生じた非水滴変化領域と判定する水滴判定手段と、入力画像の非水滴変化領域から抽出された特徴情報と移動物体情報に含まれる特徴情報とを用いて、非水滴変化領域と移動物体情報との対応付けを行う対応付け手段と、非水滴変化領域と移動物体情報との対応付けに基づいて、非水滴変化領域に対応付けられた移動物体情報を更新する移動物体情報更新手段と、を備える。   In order to solve the above problems, a moving object tracking device according to the present invention includes an image input unit that sequentially acquires images, moving object information used for tracking for each moving object, a reference image that does not include a moving object, And a tracking processing unit for sequentially processing an input image and tracking a moving object on the image. In such a moving object tracking device, the tracking processing unit performs first processing from a change area extraction unit that extracts a change area by performing a difference process between the reference image and the input image, and an enlarged change area obtained by expanding the change area of the reference image. Extracting feature information and extracting second feature information from the change area of the input image, or extracting first feature information from the change area of the reference image and contracting the change area of the input image A feature extraction means for extracting second feature information from the region, a similarity between the first feature information and the second feature information is obtained, and if the similarity is equal to or greater than a certain value, the change region is input to the image input unit A water droplet determination unit that determines a water droplet change region caused by a water droplet attached to the water droplet and determines that the change region is a non-water droplet change region caused by a moving object other than a water droplet when the similarity is less than a certain value; and an input image Non-water droplet change region Means for associating the non-water droplet change area with the moving object information using the feature information extracted from the feature information included in the moving object information and the correspondence between the non-water drop change area and the moving object information And moving object information updating means for updating moving object information associated with the non-water droplet change area based on the attachment.

このように、本発明に係る移動物体追跡装置は、水滴により生じた水滴変化領域と判定された変化領域を追跡対象から除外することによって、処理コストを軽減することができる。特に、この移動物体追跡装置は、水滴が付着した部分がレンズ効果によって縮小して写ることを考慮して、基準画像又は入力画像における変化領域を膨張又は収縮させた領域から特徴情報を抽出する。これによって、基準画像と入力画像とにおいて水滴が付着した場合に相互に対応すると推定される画像領域について特徴情報を比較することができるので、水滴変化領域であるか否かをより高い精度で判定することができる。   As described above, the moving object tracking device according to the present invention can reduce the processing cost by excluding the change area determined as the water drop change area caused by the water drop from the tracking target. In particular, this moving object tracking device extracts feature information from a region in which a change region in a reference image or an input image is expanded or contracted in consideration that a portion to which a water droplet has adhered is reduced and captured due to a lens effect. This makes it possible to compare feature information for image regions that are estimated to correspond to each other when water droplets adhere to the reference image and the input image, so it is possible to determine whether or not the region is a water droplet change region with higher accuracy. can do.

本発明に係る移動物体追跡装置において、特徴抽出手段は、異なる割合で膨張させた複数の拡大変化領域を求め、当該複数の拡大変化領域からそれぞれの第1の特徴情報を抽出し、水滴判定手段は、それぞれの第1の特徴情報と第2の特徴情報とのそれぞれの類似度を求め、それぞれの類似度のうち最も高い類似度に基づき水滴変化領域であるか否かを判定することが好ましい。   In the moving object tracking device according to the present invention, the feature extraction means obtains a plurality of enlarged change areas expanded at different ratios, extracts respective first feature information from the plurality of enlarged change areas, and a water droplet determination means. It is preferable to determine the similarity between each of the first feature information and the second feature information, and determine whether the region is a water droplet change region based on the highest similarity among the respective similarities. .

また、本発明に係る移動物体追跡装置において、特徴抽出手段は、基準画像については、変化領域の中心からの距離に応じて値が小さくなる重み係数を乗じて第1の特徴情報を抽出することが好ましい。   In the moving object tracking device according to the present invention, the feature extraction means extracts the first feature information by multiplying a reference image by a weighting factor that decreases in value according to the distance from the center of the change area. Is preferred.

さらに、本発明に係る移動物体追跡装置において、特徴抽出手段は、異なる割合で収縮させた複数の縮小変化領域を求め、当該複数の縮小変化領域からそれぞれの第2の特徴晴報を抽出し、水滴判定手段は、第1の特徴清報とそれぞれの第2の特徴情報とのそれぞれの類似度を求め、それぞれの類似度のうち最も高い類似度に基づき水滴変化領域であるか否かを判定することが好ましい。   Further, in the moving object tracking device according to the present invention, the feature extraction means obtains a plurality of reduced change areas contracted at different ratios, and extracts each second feature good news from the reduced change areas, The water droplet determining means obtains the similarity between the first feature information and the second feature information, and determines whether or not the region is a water droplet change region based on the highest similarity among the similarities. It is preferable to do.

また、本発明に係る移動物体追跡装置において、特徴抽出手段は、入力画像については、変化領域の中心からの距離に応じて値が大きくなる重み係数を乗じて第2の特徴情報を抽出することが好ましい。   In the moving object tracking device according to the present invention, the feature extraction means extracts the second feature information by multiplying the input image by a weighting factor that increases in value according to the distance from the center of the change area. Is preferred.

さらに、本発明に係る移動物体追跡装置において、第1の特徴情報及び第2の特徴情報は、輝度ヒストグラム又は色ヒストグラムであることが好ましい。   Furthermore, in the moving object tracking device according to the present invention, it is preferable that the first feature information and the second feature information are luminance histograms or color histograms.

本発明に係る移動物体追跡装置は、画像中の移動物体の追跡処理において、水滴の付着による変化領域を精度良く処理対象から除外することによって、水滴によって生じる処理の負荷を軽減することができる。   The moving object tracking device according to the present invention can reduce the processing load caused by water droplets by accurately excluding the change area due to the attachment of water droplets from the processing target in the tracking processing of the moving object in the image.

本発明の好適な実施形態として、本発明に係る移動物体追跡装置を、カメラ付インターホンに適用し、屋外に概略水平方向に向けて設置したカメラの画角内に長時間滞留する不審人物を画像処理によって検知する例に基づき説明する。   As a preferred embodiment of the present invention, the moving object tracking device according to the present invention is applied to an interphone with a camera, and an image of a suspicious person who stays for a long time within an angle of view of a camera installed outdoors in a substantially horizontal direction. A description will be given based on an example of detection by processing.

本実施形態に係る移動物体追跡装置は、撮像装置に水滴が付着したことにより生じた水滴変化領域であると判定した変化領域を追跡対象から除外する。特に、この移動物体追跡装置は、基準画像の変化領域を膨張させた拡大変化領域と入力画像の変化領域とからそれぞれ特徴情報を抽出する。こうして抽出された特徴情報が互いに類似する場合、当該変化領域を水滴変化領域であると判定する。   The moving object tracking device according to the present embodiment excludes, from the tracking target, a change area that is determined to be a water drop change area that is generated when a water drop adheres to the imaging device. In particular, the moving object tracking device extracts feature information from an enlarged change area obtained by expanding a change area of the reference image and a change area of the input image. When the feature information extracted in this way is similar to each other, it is determined that the change area is a water drop change area.

図1(a)は、本発明の一実施形態である移動物体追跡装置が実装されたカメラ付インターホンの設置例を示す図である。図1(a)の例で示すように、カメラ付インターホン1は、玄関ドア5の脇等の壁面4に設置されている。図1(b)に示すように、このカメラ付インターホン1に内蔵されたカメラ2は、光軸を概略水平方向に向けて設置されており、玄関前の監視領域を連続的に撮影する。このカメラ2に接続された移動物体追跡装置は、カメラ2が連続的に撮影する画像を順次受け取りながら画像中の移動物体を追跡することによって、カメラ2の画角内に長時間滞留する不審人物などを検知する。   FIG. 1A is a diagram showing an installation example of an interphone with a camera on which a moving object tracking device according to an embodiment of the present invention is mounted. As shown in the example of FIG. 1A, the camera intercom 1 is installed on a wall surface 4 such as a side of the entrance door 5. As shown in FIG. 1B, the camera 2 built in the intercom with camera 1 is installed with the optical axis oriented in a substantially horizontal direction, and continuously images the monitoring area in front of the entrance. The moving object tracking device connected to the camera 2 tracks a moving object in the image while sequentially receiving images continuously captured by the camera 2, so that the suspicious person stays within the angle of view of the camera 2 for a long time. Etc. are detected.

図2は、本発明の一実施形態である移動物体追跡装置10が実装されたカメラ付インターホン1の構成を示すブロック図である。図2に示すように、本発明の一実施形態に係る移動物体追跡装置10は、画像取得部110と、追跡処理部130と、記憶部140と、滞留判定部150と、人判定部160と、警報部170と、を有し、撮像装置20に接続されている。   FIG. 2 is a block diagram illustrating a configuration of the camera intercom 1 on which the moving object tracking device 10 according to the embodiment of the present invention is mounted. As shown in FIG. 2, the moving object tracking device 10 according to an embodiment of the present invention includes an image acquisition unit 110, a tracking processing unit 130, a storage unit 140, a stay determination unit 150, a person determination unit 160, The alarm unit 170 is connected to the imaging device 20.

カメラ付インターホンに搭載されたカメラ2などの撮像装置20は、所定の監視領域を所定の時間間隔で撮影し、撮影された画像を順次追跡処理部130に送る。以下、この所定時間で刻まれる時間の単位を時刻と称する。撮像装置20としては、例えば、CCD素子又はC−MOS素子等の撮像素子、光学系部品、A/D変換器等を含んで構成される内蔵カメラ又は外部カメラなどの公知のものを用いることができる。また、撮像装置20の解像度は、追跡対象などの具体的な用途に応じてその解像度を選ぶことができる。また、画像の撮像に用いる波長帯としては、可視光波長又は赤外線波長などを、追跡対象などの具体的な用途に応じて選択することが好ましい。   The imaging device 20 such as the camera 2 mounted on the camera-equipped interphone captures a predetermined monitoring area at predetermined time intervals, and sequentially sends the captured images to the tracking processing unit 130. Hereinafter, the unit of time recorded in the predetermined time is referred to as time. As the imaging device 20, for example, a known device such as an internal camera or an external camera configured to include an imaging device such as a CCD device or a C-MOS device, an optical system component, an A / D converter, or the like is used. it can. Moreover, the resolution of the imaging device 20 can be selected according to a specific application such as a tracking target. In addition, as a wavelength band used for image capturing, it is preferable to select a visible light wavelength or an infrared wavelength according to a specific application such as a tracking target.

画像取得部110は、撮像装置20から順次送られる画像信号を受け取るためのインターフェースであり、撮像装置20からSCSI、USB、LAN、専用ケーブル、などの有線又は無線配線を介して画像を受信する。画像取得部110は、撮像装置20から受信した画像を移動物体追跡装置10の各部へ送る。   The image acquisition unit 110 is an interface for receiving image signals sequentially transmitted from the imaging device 20, and receives images from the imaging device 20 via wired or wireless wiring such as SCSI, USB, LAN, and dedicated cables. The image acquisition unit 110 sends the image received from the imaging device 20 to each unit of the moving object tracking device 10.

記憶部140は、各種プログラム及び各種データを記憶することができ、例えばRAM又はROM、EPROMなどの半導体メモリ、ハードディスクなどの磁気記録媒体、CD−ROM、DVD−R/Wなどの光記録媒体などを用いて構成することができる。記憶部140は、画像取得部110、追跡処理部130、滞留判定部150、人判定部160及び警報部170と接続されており、各部からの要求に応じて各種プログラムや各種データなどを読み書きする。記憶部140は、移動物体情報141と、基準画像142と、水滴情報143と、不審者検知画像144を記憶する。   The storage unit 140 can store various programs and various data. For example, a semiconductor memory such as RAM or ROM, EPROM, a magnetic recording medium such as a hard disk, an optical recording medium such as a CD-ROM, DVD-R / W, or the like. Can be used. The storage unit 140 is connected to the image acquisition unit 110, the tracking processing unit 130, the stay determination unit 150, the person determination unit 160, and the alarm unit 170, and reads and writes various programs and various data according to requests from each unit. . The storage unit 140 stores moving object information 141, a reference image 142, water droplet information 143, and a suspicious person detection image 144.

移動物体情報141は、追跡中の移動物体ごとに記憶される単位時刻ごとに取得された過去の移動物体に関する情報である。   The moving object information 141 is information relating to past moving objects acquired for each unit time stored for each moving object being tracked.

移動物体情報141には、例えば、移動物体の特徴情報、テンプレート、一時刻前の入力画像における移動物体の領域、過去の予め定めた数(例えば5時刻分)の移動量、移動物体が画面中に現れてから経過した時間(以後存在時間と呼称する)などが含まれる。   The moving object information 141 includes, for example, feature information of the moving object, a template, a region of the moving object in the input image one time ago, a movement amount of a predetermined number in the past (for example, five times), and the moving object on the screen. The time that has elapsed since appearing (hereinafter referred to as existing time) is included.

特徴情報とは、移動物体の特徴を表す情報であり、本実施例では、例えば、移動物体の画像の輝度ヒストグラムや面積などが含まれるが、画素値の平均や標準偏差、エッジ情報、テクスチャ情報、色ヒストグラムなどの他の特徴情報を含んでもよい。ここでは、水滴を通してもほとんど変化しない透過性特徴情報として、比較的処理の負荷が小さい輝度ヒストグラムを使用する実施例について主に説明する。しかし、水滴を通して撮影されてもあまり変化しない特徴情報であれば、色ヒストグラム、フラクタル次元などの他の特徴情報を使用することもできる。尚、輝度ヒストグラムに関しては、後述の特徴抽出手段1313の処理の説明において詳しく解説する。   The feature information is information representing the feature of the moving object. In the present embodiment, for example, the luminance histogram and area of the image of the moving object are included, but the average or standard deviation of pixel values, edge information, texture information, and the like are included. Other feature information such as a color histogram may be included. Here, a description will be mainly given of an embodiment in which a luminance histogram having a relatively small processing load is used as the permeability characteristic information that hardly changes even through water droplets. However, other feature information such as a color histogram and a fractal dimension can be used as long as the feature information does not change much even when photographed through a water droplet. The luminance histogram will be described in detail in the description of the processing of the feature extraction unit 1313 described later.

本実施例において使用されるテンプレートは、一時刻前の入力画像において検出された移動物体のテンプレート画像であり、追跡中の移動物体が現時刻の入力画像のどこに位置するかを特定するためのテンプレートマッチングにおいて使用される。したがって、このテンプレートマッチングのためのテンプレートとして使用できるものであれば、多様な特徴ベクトル、固有ベクトルなどのいかなる形式のテンプレートでもよい。   The template used in the present embodiment is a template image of a moving object detected in the input image one time before, and a template for specifying where the moving object being tracked is located in the input image at the current time. Used in matching. Therefore, any type of template such as various feature vectors and eigenvectors may be used as long as it can be used as a template for template matching.

また、移動物体の領域とは、移動物体が入力画像において占める範囲であり、一般に、その形状と大きさと位置とによって表すことができる。本実施例では、領域として外接矩形を用いており、外接矩形の大きさ及び位置によって領域を特定することができるが、例えば、重心位置等を利用してもよい。   The area of the moving object is a range that the moving object occupies in the input image, and can generally be represented by its shape, size, and position. In this embodiment, a circumscribed rectangle is used as the area, and the area can be specified by the size and position of the circumscribed rectangle. For example, the position of the center of gravity may be used.

基準画像142は、変化領域を抽出するとき比較対象の基準となる画像であり、例えば、監視領域に移動物体が存在しないときの背景画像を予め撮影しておき、記憶部140に記憶しておく。   The reference image 142 is an image that serves as a reference for comparison when extracting the change area. For example, a background image when a moving object does not exist in the monitoring area is captured in advance and stored in the storage unit 140. .

水滴情報143は、後述するように、抽出された変化領域が、水滴判定手段1314にて水滴によるものであると判定された水滴変化領域について、画像中での重心位置、形、ラベリングされた場合のラベルなどを、必要に応じて記憶している。   As will be described later, the water drop information 143 is obtained when the extracted change area is labeled with the center of gravity position, shape, and labeling of the water drop change area determined by the water drop determination unit 1314 as a result of the water drop. The label is stored as necessary.

不審者検知画像144は、画像における移動物体を追跡した結果、画面内に一定の時間以上居続ける人間と判別された移動物体を検知した際、この不審者と思われる移動物体の画像を記憶したものである。   The suspicious person detection image 144 stores an image of a moving object that seems to be a suspicious person when a moving object that has been determined to be a person who has been in the screen for more than a certain time as a result of tracking the moving object in the image is detected. Is.

追跡処理部130は、画像取得部110から順次受け取った画像を処理して画像中の移動物体を追跡する。追跡処理部130は、滞留判定部150、人判定部160及び警報部170と同様に、記憶部140に記憶された処理手順を記述したプログラムを読み出して、CPU、DSP、MCU等の処理装置で実行することによって実現される。追跡処理部130は、画像取得部110、記憶部140、滞留判定部150、人判定部160及び警報部170と接続されている。   The tracking processing unit 130 processes the images sequentially received from the image acquisition unit 110 to track a moving object in the image. Similar to the stay determination unit 150, the person determination unit 160, and the alarm unit 170, the tracking processing unit 130 reads a program describing the processing procedure stored in the storage unit 140, and uses a processing device such as a CPU, DSP, or MCU. It is realized by executing. The tracking processing unit 130 is connected to the image acquisition unit 110, the storage unit 140, the stay determination unit 150, the person determination unit 160, and the alarm unit 170.

図2に示すように、追跡処理部130は、変化領域抽出手段131と、特徴抽出手段1313と、水滴判定手段1314と、水滴領域除去手段1315と、対応付け手段132と、移動物体情報抽出手段133と、移動物体情報更新手段134と、を備える。   As shown in FIG. 2, the tracking processing unit 130 includes a change area extraction unit 131, a feature extraction unit 1313, a water drop determination unit 1314, a water drop region removal unit 1315, an association unit 132, and a moving object information extraction unit. 133 and moving object information updating means 134.

変化領域抽出手段131は、予め記憶部140に記憶しておいた移動物体が存在しない基準画像142と、撮像装置20が撮影し画像取得部110を介して受け取った画像(以下、入力画像という)と、の差分処理を行い、入力画像中の変化領域を抽出する。そして、変化領域抽出手段131は、ラベリングによって抽出した各変化領域にラベル付けを行う。   The change area extraction unit 131 includes a reference image 142 that is stored in advance in the storage unit 140 and has no moving object, and an image that is captured by the imaging device 20 and received via the image acquisition unit 110 (hereinafter referred to as an input image). And a change area in the input image is extracted. And the change area extraction means 131 labels each change area extracted by labeling.

特徴抽出手段1313は、変化領域抽出手段131で抽出されたそれぞれの変化領域について、変化領域における基準画像及び入力画像の輝度ヒストグラムなどを計算して特徴情報を抽出する。このとき、特徴抽出手段1313は、基準画像において変化領域を予め定めた割合などで膨張させた領域から特徴情報を抽出する。或いは、特徴抽出手段1313は、入力画像において変化領域を予め定めた割合などで収縮させた領域から特徴情報を抽出してもよい。   The feature extraction unit 1313 calculates feature information by calculating a reference image in the change region, a luminance histogram of the input image, and the like for each change region extracted by the change region extraction unit 131. At this time, the feature extraction unit 1313 extracts feature information from a region in which the change region is expanded in a predetermined ratio in the reference image. Alternatively, the feature extraction unit 1313 may extract feature information from an area in which the change area is contracted in a predetermined ratio or the like in the input image.

水滴判定手段1314は、水滴の付着によってほとんど変化しない透過性特徴情報として特徴抽出手段1313が抽出した輝度ヒストグラムに基づき、基準画像と入力画像の変化領域における輝度ヒストグラムを比較して変化領域抽出手段131が抽出した各変化領域が水滴による水滴変化領域か否かを判定する。   The water drop determination means 1314 compares the brightness histogram in the change area of the reference image and the input image based on the brightness histogram extracted by the feature extraction means 1313 as the transmission characteristic information that hardly changes due to the attachment of the water drop, and the change area extraction means 131. It is determined whether each change area extracted by is a water drop change area due to a water drop.

水滴領域除去手段1315は、変化領域抽出手段131が抽出した変化領域から水滴判定手段1314によって水滴であると判定された水滴変化領域を処理対象の変化領域から除去する。また、水滴領域除去手段1315は、この水滴変化領域に関する情報を水滴情報143として記憶してもよい。   The water droplet area removing unit 1315 removes, from the change region to be processed, the water droplet change region determined by the water droplet determining unit 1314 from the change region extracted by the change region extracting unit 131. Further, the water droplet region removing unit 1315 may store information regarding the water droplet change region as the water droplet information 143.

対応付け手段132は、特徴抽出手段1313が抽出した各変化領域の特徴情報と記憶部140に記憶された各移動物体の移動物体情報141との対応度に基づいて、処理対象の各変化領域と当該変化領域に存在する最も可能性の高い移動物体とを対応付ける。   The associating unit 132 selects each change region to be processed based on the degree of correspondence between the feature information of each changed region extracted by the feature extracting unit 1313 and the moving object information 141 of each moving object stored in the storage unit 140. The most likely moving object that exists in the change area is associated.

移動物体情報抽出手段133は、対応付け手段132によって対応付けられた変化領域と移動物体情報141とに基づいてテンプレートマッチングなどを行い、各移動物体に関する移動物体情報、即ち、入力画像における移動物体の位置や面積、特徴情報などを抽出する。   The moving object information extraction unit 133 performs template matching and the like based on the change area associated with the association unit 132 and the moving object information 141, and moves object information regarding each moving object, that is, the moving object in the input image. Extract position, area, feature information, etc.

移動物体情報更新手段134は、移動物体情報抽出手段133が抽出した移動物体情報を用いて記憶部140に記憶している移動物体情報141を更新する。また、現時刻で存在する移動物体に対して、移動物体情報141の存在時間を更新する。   The moving object information update unit 134 updates the moving object information 141 stored in the storage unit 140 using the moving object information extracted by the moving object information extraction unit 133. Also, the existence time of the moving object information 141 is updated for the moving object existing at the current time.

滞留判定部150は、移動物体ごとに記憶部140に記憶されている存在時間を調べ、予め定めた時間(例えば1分間)より長く画像中に存在していれば、それが人間か否かを調べるために当該移動物体の領域の情報を人判定部160に送る。   The stay determination unit 150 checks the existence time stored in the storage unit 140 for each moving object. If the stay determination unit 150 exists in the image longer than a predetermined time (for example, one minute), the stay determination unit 150 determines whether it is a human. Information on the area of the moving object is sent to the person determination unit 160 for examination.

人判定部160は、滞留判定部150から送られた予め定めた時間より長く画面内に存在している移動物体が人間であるか否かを判定し、人間であると判定した揚合は警報部170にその結果を送る。また、その時の画像を不審者検知画像144として記憶部140に記憶してもよい。   The person determination unit 160 determines whether or not the moving object that has been present in the screen for a longer time than the predetermined time sent from the stay determination unit 150 is a human, and the determination that the person is a human is an alarm. The result is sent to the unit 170. Further, the image at that time may be stored in the storage unit 140 as the suspicious person detection image 144.

警報部170は、人判定部160から結果を受け取ると、LEDなどの警報ランプや警報ブザーなどによって、不審者を検知したことを利用者に知らせる。予め記憶されたメッセージを、スピーカーなどを介して音声として流したり、ディスプレイ上に表示したりしてもよい。また、記憶部140に記憶された不審者検知画像144は、ディスプレイやプリンタなどの出力装置(図示せず)を介して出力することもできる。また、警報部170は、水滴情報143に基づいて水滴が一定以上になったことをユーザーに警告してもよい。   When the alarm unit 170 receives the result from the person determination unit 160, the alarm unit 170 notifies the user that a suspicious person has been detected by an alarm lamp such as an LED or an alarm buzzer. A message stored in advance may be played as a voice through a speaker or displayed on a display. Moreover, the suspicious person detection image 144 memorize | stored in the memory | storage part 140 can also be output via output devices (not shown), such as a display and a printer. Further, the alarm unit 170 may warn the user that the number of water drops has reached a certain level based on the water drop information 143.

[移動物体追跡装置の動作]
図7は、本発明の一実施形態である移動物体追跡装置10の動作フローを示すフローチャートである。図7を参照しながら、移動物体追跡装置10の各部の動作の詳細に関して説明する。
[Operation of moving object tracking device]
FIG. 7 is a flowchart showing an operation flow of the moving object tracking device 10 according to the embodiment of the present invention. The details of the operation of each part of the moving object tracking device 10 will be described with reference to FIG.

ステップS100において、移動物体追跡装置10は、撮像装置20によって監視領域を撮像装置20の画角内に移動物体が存在しない状況で予め撮影した背景画像を基準画像142として記憶部140に記憶したり、追跡対象の移動物体に関する移動物体情報141を初期状態にしたりするなどの移動物体の追跡処理のための初期化を行う。   In step S <b> 100, the moving object tracking device 10 stores, in the storage unit 140, a background image captured in advance in a situation where the moving region does not exist within the angle of view of the imaging device 20 by the imaging device 20 as the reference image 142. , Initialization for moving object tracking processing such as setting the moving object information 141 regarding the moving object to be tracked to an initial state is performed.

ステップS200において、移動物体追跡装置10は、予め規定された時間間隔で撮像装置20が撮影した画像を画像取得部110を介して受け取り、追跡処理部130へ渡す。こうして、移動物体追跡装置10は、撮像装置20から一定時間間隔で順次入力画像が送られるごとに、追跡処理部130によるステップS200〜S1100の処理を繰り返す。   In step S <b> 200, the moving object tracking device 10 receives images captured by the imaging device 20 at predetermined time intervals via the image acquisition unit 110 and passes them to the tracking processing unit 130. In this way, the moving object tracking device 10 repeats the processing of steps S200 to S1100 by the tracking processing unit 130 every time input images are sequentially sent from the imaging device 20 at regular time intervals.

ステップS300において、追跡処理部130は、変化領域抽出手段131によって、撮像装置20から新たに受け取った入力画像と記憶部140に記憶されている基準画像142とを比較し、差異のある領域を変化領域として抽出する。   In step S <b> 300, the tracking processing unit 130 compares the input image newly received from the imaging device 20 with the reference image 142 stored in the storage unit 140 by the change region extraction unit 131, and changes a region having a difference. Extract as a region.

変化領域抽出手段131は、例えば、入力画像と基準画像142との対応する画素の画素値について差分処理を行い、一定以上の差分値がある画素群について2値化を行い、抽出した領域についてラベリングを行う。こうして、入力画像において基準画像142と異なる変化領域、すなわち、移動物体が存在すると推定される領域が抽出される。尚、差分処理、二値化、ラベリングの方法に関しては、公知の様々な方法を用いることができるため、詳細についての説明は省略する。   For example, the change area extraction unit 131 performs difference processing on pixel values of corresponding pixels in the input image and the reference image 142, performs binarization on a pixel group having a difference value equal to or greater than a certain value, and labels the extracted areas. I do. In this way, a change area different from the reference image 142 in the input image, that is, an area where a moving object is estimated to exist is extracted. Note that various known methods can be used for the difference processing, binarization, and labeling methods, and thus detailed description thereof is omitted.

ステップS350の変化領域判定処理において、追跡処理部130は、ステップS300で変化領域抽出手段131が抽出した変化領域から、水滴判定手段1314によって水滴であると判定された水滴変化領域を水滴領域除去手段1315によって処理対象から除去する。尚、ステップS350の変化領域判定の処理については、後で詳述する。   In the change area determination process in step S350, the tracking processing unit 130 removes the water drop change area determined as a water drop by the water drop determination means 1314 from the change area extracted by the change area extraction means 131 in step S300. It is removed from the processing target by 1315. Note that the change area determination processing in step S350 will be described in detail later.

ステップS400において、追跡処理部130は、対応付け手段132によって、記憶部140に記憶されている移動物体の移動物体情報141と、ステップS350の変化領域判定処理において処理対象として残された非水滴変化領域との対応付けを行う。   In step S <b> 400, the tracking processing unit 130 uses the association unit 132 to move the moving object information 141 of the moving object stored in the storage unit 140 and the non-water droplet change left as a processing target in the change area determination process in step S <b> 350. Associate with an area.

対応付け手段132は、記憶部140に記憶されている一時刻前の入力画像で検出された追跡対象の移動物体に関する移動物体情報141と、特徴抽出手段1313が現時刻の入力画像の各変化領域から抽出した特徴情報と、に基づいて算出した類似度に基づいて、一時刻前に検出された移動物体のそれぞれが現時刻の入力画像のどの変化領域に存在する可能性が最も高いかを対応付ける。   The associating means 132 includes moving object information 141 relating to the tracking-target moving object detected from the input image one hour before stored in the storage unit 140, and the feature extracting means 1313 uses each change area of the input image at the current time. Based on the feature information extracted from the image and the similarity calculated on the basis of the feature information, the moving object detected one hour ago is associated with the change area of the input image at the current time that is most likely to exist. .

図3は、本発明の一実施形態による一時刻前の移動物体と現時刻の変化領域との1対1対応付けの例を示す図である。図3を参照して、対応付け手段132の処理について具体的に説明する。図3(a)は、前時刻に取得された入力画像300において抽出された移動物体を示す図である。前時刻の各移動物体には、それぞれ、ID1、ID2のラベルが付けられている。図3(b)は、現時刻に取得された入力画像310において抽出された変化領域を示す図である。現時刻の各変化領域には、それぞれ、IDA、IDBのラベルが付けられている。   FIG. 3 is a diagram illustrating an example of one-to-one association between a moving object one hour before and a change area at the current time according to an embodiment of the present invention. With reference to FIG. 3, the process of the matching means 132 is demonstrated concretely. FIG. 3A is a diagram showing a moving object extracted from the input image 300 acquired at the previous time. Each moving object at the previous time is labeled with ID1 and ID2, respectively. FIG. 3B is a diagram illustrating a change area extracted from the input image 310 acquired at the current time. Each change area at the current time is labeled with IDA and IDB, respectively.

図3(c)は、前時刻の各移動物体と現時刻の各変化領域との対応度を示す対応表320を示す図である。対応表320には、前時刻の各移動物体のラベルID1、ID2を各行に対応させ、現時刻の各変化領域のラベルIDA、IDBを各列に対応させて、各移動物体と変化領域との対応度が行列状に並べられている。対応度としては、前時刻の各移動物体に対応する移動物体情報から求められる特徴量と、特徴抽出手段1313が抽出した現時刻の各変化領域の特徴情報から求めた特徴量との間の類似度を用いる。本実施例では、類似度は、全く同じである場合は1.0、何らかの共通点がある場合は1.0以下の正数、全く共通点がない場合は0となるように正規化されている。さらに、対応表320には、各列の最大値を1.0から引いた新規出現度合を示す1行と、各行の最大値を1.0から引いたロスト度合を示す1列とが追加されている。尚、対応表320に関しては、公知の様々な対応表を使用することができるため、詳細についての説明は省略する。   FIG. 3C is a diagram showing a correspondence table 320 indicating the degree of correspondence between each moving object at the previous time and each change area at the current time. In the correspondence table 320, the labels ID1 and ID2 of each moving object at the previous time correspond to each row, the labels IDA and IDB of each change area at the current time correspond to each column, and each moving object and the change area Correspondence levels are arranged in a matrix. As the degree of correspondence, the similarity between the feature amount obtained from the moving object information corresponding to each moving object at the previous time and the feature amount obtained from the feature information of each change area at the current time extracted by the feature extraction unit 1313 Use degrees. In the present embodiment, the similarity is normalized so that it is 1.0 when they are exactly the same, a positive number of 1.0 or less when there is some common point, and 0 when there is no common point. Yes. Furthermore, in the correspondence table 320, one row indicating the new appearance degree obtained by subtracting the maximum value of each column from 1.0 and one column indicating the lost degree obtained by subtracting the maximum value of each row from 1.0 are added. ing. In addition, regarding the correspondence table 320, since various known correspondence tables can be used, detailed description thereof is omitted.

このように作成された対応表において、対応度の総和が最大になる移動物体と変化領域との組合せを探索することによって、前時刻の移動物体のラベルと現時刻の変化領域のラベルとの対応付けを行う。対応表に基づいて対応度の和が最大になる対応付けの組み合わせを求めるのに、例えば、ハンガリー法などの最適化手法を利用することができる。尚、ハンガリー法の詳細については、例えば、定道宏著、「経営科学」、オーム社、1989年に記載されている。   In the correspondence table created in this way, by searching for the combination of the moving object and the change area that maximizes the total degree of correspondence, the correspondence between the label of the moving object at the previous time and the label of the change area at the current time To do. For example, an optimization method such as the Hungarian method can be used to obtain a combination of correspondences that maximizes the sum of correspondences based on the correspondence table. Details of the Hungarian law are described in, for example, Hiroshi Sadamichi, “Management Science”, Ohmsha, 1989.

図3の例では、前時刻のラベルID1が現時刻のラベルIDAに、前時刻のラベルID2が現時刻のラベルIDBに対応付けられる。この処理を各時刻において順次繰り返すことによって、移動物体の追跡が行われる。   In the example of FIG. 3, the previous time label ID1 is associated with the current time label IDA, and the previous time label ID2 is associated with the current time label IDB. The moving object is tracked by sequentially repeating this process at each time.

図3(c)に示すように、対応表は、(前時刻のラベルの個数+1)行×(現時刻のラベルの個数+1)列の大きさになる。特に、前時刻と現時刻のラベルの対応付け処理は、それぞれのラベルの組み合わせについて行われるため、ラベルの個数が増加するに従って指数関数的に処理コストが増大する。このため、予め不要なラベルを削除して処理対象のラベルの個数を減らすることが肝要である。本実施形態では、水滴により生じたと判定した変化領域のラベルを不要なラベルとして処理対象のラベルから削除する。   As shown in FIG. 3C, the correspondence table has a size of (number of labels at the previous time + 1) rows x (number of labels at the current time + 1) columns. In particular, the process of associating the label with the previous time and the current time is performed for each combination of labels, so that the processing cost increases exponentially as the number of labels increases. For this reason, it is important to reduce the number of labels to be processed by deleting unnecessary labels in advance. In this embodiment, the label of the change area determined to have been caused by water droplets is deleted from the label to be processed as an unnecessary label.

図4は、本発明の一実施形態による一時刻前の水滴を含む移動物体と現時刻の水滴領域を含む変化領域との1対1対応付けの例を示す図である。例えば、図4(a)に示す前時刻の入力画像400において、人間401の他に水滴402〜404が映し出されており、図4(b)に示すように、それぞれID1〜ID4のラベルが付いた4つの移動物体として抽出されている。そして、図4(c)に示すように、現時刻の入力画像410においてさらに水滴415が1つ増えたとすると、図4(d)に示すように、5つの変化領域が抽出され5つのラベルIDA〜IDEが付けられる。   FIG. 4 is a diagram illustrating an example of one-to-one correspondence between a moving object including a water droplet one hour before and a change region including a water droplet region at the current time according to an embodiment of the present invention. For example, in the input image 400 at the previous time shown in FIG. 4A, water drops 402 to 404 are shown in addition to the human 401, and labels ID1 to ID4 are respectively attached as shown in FIG. 4B. The four moving objects are extracted. Then, as shown in FIG. 4C, if the water droplet 415 is further increased by one in the input image 410 at the current time, five change areas are extracted and five label IDAs are extracted as shown in FIG. ~ IDE is attached.

この場合、対応表を作成すると、図4(e)に示すように5行6列の対応表420となり、図3(c)の3行3列の対応表320と比べると処理の負荷が大幅に増加する。しかしながら、水滴領域除去手段1315により、水滴によると判定されたラベルが除去されると、前時刻及び現時刻において抽出されたラベルは、それぞれID1、IDAの1つしか残らない。この場合、作成される対応表は、2行2列(図4(e)の対応表420の太枠421内のみ)の小さなものとなり、対応付けの処理コストは、水滴変化領域のラベルを除去しない場合に比べて劇的に低減できる。   In this case, when the correspondence table is created, the correspondence table 420 of 5 rows and 6 columns is formed as shown in FIG. 4E, and the processing load is significantly larger than the correspondence table 320 of 3 rows and 3 columns of FIG. To increase. However, when the label determined to be due to the water droplet is removed by the water droplet region removing means 1315, only one of ID1 and IDA remains at the previous time and the current time. In this case, the created correspondence table is small in 2 rows and 2 columns (only in the thick frame 421 of the correspondence table 420 in FIG. 4E), and the processing cost of the association removes the label of the water drop change area. Compared to when not, it can be dramatically reduced.

また、処理対象のラベルの個数を最低限に抑えることによって、誤った対応付けをしてしまう可能性を低減することができるため、追跡性能の向上にも寄与する利点もある。   In addition, by minimizing the number of labels to be processed, it is possible to reduce the possibility of incorrect association, so there is also an advantage that contributes to an improvement in tracking performance.

ステップS410において、追跡処理部130は、移動物体情報抽出手段133によって、対応付け手段132によって対応付けられた変化領域と移動物体情報141に基づいて、現時刻の入力画像における各移動物体の移動物体情報を抽出する。   In step S410, the tracking processing unit 130 moves the moving object of each moving object in the input image at the current time based on the moving object information 141 by the moving object information extracting unit 133 based on the change area and the moving object information 141 associated with each other. Extract information.

移動物体情報抽出手段133は、例えば、テンプレートマッチングなどを行って特定した各移動物体の領域に基づいて、移動物体の領域や移動量などの情報を抽出する。また、例えば、移動物体情報抽出手段133は、移動物体の領域の入力画像から、移動物体の画像の輝度ヒストグラム、面積など、追跡処理に使用する特徴情報を抽出する。   For example, the moving object information extraction unit 133 extracts information such as the area of the moving object and the amount of movement based on the area of each moving object specified by performing template matching or the like. Further, for example, the moving object information extraction unit 133 extracts feature information used for tracking processing, such as a luminance histogram and an area of the moving object image, from the input image of the moving object region.

ステップS420において、追跡処理部130は、移動物体情報更新手段134によって、移動物体情報抽出手段133が抽出した移動物体情報を用いて移動物体情報141を更新する。   In step S <b> 420, the tracking processing unit 130 updates the moving object information 141 using the moving object information extracted by the moving object information extracting unit 133 by the moving object information updating unit 134.

ステップS600において、移動物体情報更新手段134は、追跡が成功した移動物体について、記憶部140に記憶してある移動物体情報141の追跡成功回数を1回増加させる。又は、存在時間を撮影間隔分増加させてもよい。逆に追跡に失敗して見失った場合は、追跡成功回数又は存在時間を0にリセットする。移動物体が画面外に出たと判定された場合、移動物体情報更新手段134は、この移動物体に関する移動物体情報141を記憶部140から消去する。   In step S600, the moving object information updating unit 134 increases the number of tracking successes of the moving object information 141 stored in the storage unit 140 by one for the moving object that has been successfully tracked. Alternatively, the existence time may be increased by the shooting interval. On the other hand, if tracking fails and it is lost, the number of tracking successes or the existence time is reset to zero. When it is determined that the moving object has moved out of the screen, the moving object information update unit 134 deletes the moving object information 141 regarding the moving object from the storage unit 140.

ステップS700において、移動物体追跡装置10は、追跡処理部130が追跡に成功した移動物体について、滞留判定部150によって、予め定めた時間より長く画像中に存在しているか否かを判定する。   In step S700, the moving object tracking device 10 determines whether or not the moving object successfully tracked by the tracking processing unit 130 exists in the image for longer than a predetermined time by the stay determination unit 150.

滞留判定部150は、例えば、移動物体の追跡成功回数が予め定めた回数よりも多いか否かを判定することによって、当該移動物体が予め定めた時間より長く画像中に存在し続けているか否かを判定する。また、滞留判定部150は、現時刻に取得された入力画像中に存在する移動物体について存在時間を更新し、この存在時間を記憶部140に記憶しておき、移動物体が長時間存在しているか否かの判定に使用してもよい。   For example, the stay determination unit 150 determines whether or not the moving object has been present in the image longer than a predetermined time by determining whether or not the tracking success number of the moving object is greater than a predetermined number. Determine whether. In addition, the stay determination unit 150 updates the existence time for the moving object present in the input image acquired at the current time, stores the existence time in the storage unit 140, and the moving object exists for a long time. It may be used to determine whether or not it exists.

移動物体が予め定めた時間より長く画像中に存在している場合(ステップS700のYes)、ステップS800において、移動物体追跡装置10は、人判定部160によってこの移動物体が人であるか否かを判定する。   When the moving object exists in the image longer than the predetermined time (Yes in Step S700), in Step S800, the moving object tracking device 10 determines whether or not the moving object is a person by the person determination unit 160. Determine.

人判定部160は、滞留判定部150によって予め定めた時間より長く画面内に存在すると判定された移動物体が人間であるか否かを判定し、人間であると判定した揚合(ステップS800のYes)は警報部170にその結果を出力する(S900)。そして、その移動物体の画像を不審者検知画像144として記憶部140に記憶する。また、例えば、不審者が滞留した時間帯など他の情報も一緒に記憶部140に記憶してもよい。さらに、例えば、室内に設置されたインターホンの親機において利用者がスイッチボタンやタッチパネルなどの入力装置を介してこれらの情報の表示を要求したとき、ディスプレイなどの出力装置を介して記憶部140に記憶された情報を表示してもよい。   The person determination unit 160 determines whether or not the moving object that has been determined to be present in the screen for a longer time than the predetermined time by the stay determination unit 150 is a human, and determines that the moving object is a human (in step S800). Yes) outputs the result to the alarm unit 170 (S900). Then, the moving object image is stored in the storage unit 140 as the suspicious person detection image 144. Further, for example, other information such as a time period during which the suspicious person stays may be stored in the storage unit 140 together. Further, for example, when a user requests display of such information via an input device such as a switch button or a touch panel in a base unit of an interphone installed indoors, the storage unit 140 is accessed via an output device such as a display. The stored information may be displayed.

人判定部160において移動物体が人間であるか否かを判定する方法には、周知の様々な方法を使用することが可能である。例えば、P. Viola、M. Jones & D. Snow、「動作パターン及び外観パターンによる歩行者の検出(Detecting Pedestrians Using Patterns of Motion and Appearance)」、IEEE International Conference on Computer Vision, pp.734, 0ct, 2003に記載されているように、予め撮影した様々な外観の人間の画像を使用してAdaBoostによって学習したHaar-Like特徴に基づくカスケード型識別器によって人間であるか否かの判定が実現できる。   Various known methods can be used as a method for determining whether or not the moving object is a human in the human determination unit 160. For example, P. Viola, M. Jones & D. Snow, “Detecting Pedestrians Using Patterns of Motion and Appearance”, IEEE International Conference on Computer Vision, pp.734, 0ct, As described in 2003, it is possible to determine whether or not a person is a human by a cascade type discriminator based on Haar-Like features learned by AdaBoost using human images of various appearances taken in advance.

移動物体が人間であると判定された場合(ステップS800のYes)、ステップS900において、移動物体追跡装置10は、警報部170によってユーザーに光や音等で警告し、記憶部140に記憶されている不審者検知画像144を外部の機器、例えば室内に設置されるインターホン親機のモニターなどに表示する。   When it is determined that the moving object is a human (Yes in Step S800), in Step S900, the moving object tracking device 10 warns the user with light or sound by the alarm unit 170, and is stored in the storage unit 140. The detected suspicious person detection image 144 is displayed on an external device, for example, a monitor of an interphone master unit installed indoors.

ステップS1100において、例えば、記憶部140に記憶されている水滴情報143に基づいて、付着した水滴の個数又は水滴が占める面積の割合が閾値以上になったとき、追跡の精度が落ちる可能性が高くなったことを警報部170を介してユーザーに警告してもよく、必要であれば追跡処理を中止してもよい。   In step S1100, for example, when the number of attached water droplets or the ratio of the area occupied by water droplets is equal to or greater than a threshold based on the water droplet information 143 stored in the storage unit 140, the tracking accuracy is likely to decrease. The user may be warned via the alarm unit 170, and the tracking process may be stopped if necessary.

図8は、図7のステップS350における変化領域判定の一実施例の処理フローを示すフローチャートである。図8を参照しながら、変化領域判定処理の第一の実施例の詳細について説明する。   FIG. 8 is a flowchart showing the processing flow of one embodiment of the change area determination in step S350 of FIG. Details of the first embodiment of the change area determination process will be described with reference to FIG.

追跡処理部130は、ステップS303〜S309の処理を、ステップS300で変化領域抽出手段131が抽出した変化領域のラベルごとに繰り返し実行する。   The tracking processing unit 130 repeatedly executes the processes of steps S303 to S309 for each change area label extracted by the change area extraction unit 131 in step S300.

ステップS304において、特徴抽出手段1313は、ラベルが付けられた変化領域における入力画像について画像処理を行い、特徴量を算出する。特徴量としては、例えば、変化領域の外接矩形、画素数、重心位置、輝度ヒストグラム等がある。ここでは、一実施例として、各ラベルの変化領域における輝度ヒストグラムを計算する。輝度ヒストグラムは、変化領域全体において集計される情報であり、水滴が撮像装置20に付着したとしてもあまり変化しない透過性特徴情報の1つである。したがって、入力画像中の変化領域における輝度ヒストグラムと基準画像中の変化領域における輝度ヒストグラムとの類似度が高ければ、水滴の付着による変化領域であると判断できる。   In step S304, the feature extraction unit 1313 performs image processing on the input image in the change area to which the label is attached, and calculates a feature amount. Examples of the feature amount include a circumscribed rectangle of the change area, the number of pixels, a centroid position, and a luminance histogram. Here, as an example, a luminance histogram in the change region of each label is calculated. The luminance histogram is information that is aggregated over the entire change region, and is one piece of transmissive characteristic information that does not change much even if water droplets adhere to the imaging device 20. Accordingly, if the similarity between the luminance histogram in the change area in the input image and the luminance histogram in the change area in the reference image is high, it can be determined that the change area is due to the attachment of water droplets.

輝度ヒストグラムは、物体像内の輝度分布を表す特徴量であり、変化領域内の各画素が所定幅で区切った輝度のどの領域に属するかを分類して頻度を累積した後、各累積値を全ピクセル数で割って正規化することによって計算される。例えば、8bit、256階調のモノクロ画像において輝度を等聞隔で8個の領域に分割し、各領域に属する画素数を累積した後全画素数で除算して作成する。このように、輝度ヒストグラムは、形状やテクスチャなどと比較して処理コストの小さい特徴情報である。   The luminance histogram is a feature amount representing the luminance distribution in the object image. After classifying which region of the luminance each pixel in the change region belongs to by a predetermined width and accumulating the frequency, Calculated by dividing by the total number of pixels and normalizing. For example, in an 8-bit, 256-gradation monochrome image, the luminance is divided into eight regions at equal intervals, the number of pixels belonging to each region is accumulated, and then divided by the total number of pixels. As described above, the luminance histogram is feature information having a low processing cost compared to the shape, texture, and the like.

ステップS305において、特徴抽出手段1313は、対象のラベルの基準画像における変化領域を水滴によって拡大すると推定される拡大変化領域に膨張させる。変化領域を膨張させるのは、図5に示すように、水滴が撮像装置20の前面に付着すると、付着した部分にレンズ効果によってより広い範囲の背景が映り込む現象に対応するためである。以下に例を交えて説明する。尚、膨張処理に関しては、モルフォロジー演算の膨張演算などの様々な公知の画像処理手法を用いることができるので、詳細の説明は省略する。   In step S305, the feature extraction unit 1313 expands the change area in the reference image of the target label to the enlargement change area estimated to be enlarged by the water droplet. As shown in FIG. 5, the change area is expanded in order to cope with a phenomenon in which when a water droplet adheres to the front surface of the imaging device 20, a wider range of background is reflected by the lens effect on the attached portion. An explanation will be given below with an example. Incidentally, regarding the expansion process, various known image processing methods such as expansion operation of morphological operation can be used, and thus detailed description thereof is omitted.

図5は、撮像装置20の前面に付着した水滴のレンズ効果を説明する模式図である。図5(a)は、水滴の付着していない場合の撮像装置20を上方から見た模式図であり、図5(b)は、水滴が付着している場合の撮像装置20を上方から見た模式図である。ここで、点Fは撮像装置20の焦点、線分Pはカメラカバーを表し、焦点Fを基点として放射状に広がる実線が画角を表す。図5(a)に示すように、水滴が付着していない場合の画角は角度θであるが、図5(b)に示すように、水滴が付着すると水滴が凸レンズのように作用するため屈折により画角が広がりθ’となる。このレンズ効果により、入力画像において水滴部分の背景は縮小して写る。   FIG. 5 is a schematic diagram illustrating the lens effect of water droplets attached to the front surface of the imaging device 20. FIG. 5A is a schematic view of the imaging device 20 when no water droplets are attached, and FIG. 5B is a top view of the imaging device 20 when water droplets are attached. It is a schematic diagram. Here, the point F represents the focal point of the imaging device 20, the line segment P represents the camera cover, and the solid line extending radially from the focal point F represents the angle of view. As shown in FIG. 5 (a), the angle of view when no water droplet is attached is the angle θ. However, as shown in FIG. 5 (b), when the water droplet adheres, the water droplet acts like a convex lens. The angle of view spreads due to refraction and becomes θ ′. Due to this lens effect, the background of the water droplet portion is reduced in the input image.

図5(c)は、水滴が付着していないときに得られる基準画像500の模式図であり、樹木501が映っている場合を表す。図5(d)は、水滴が付着しているときに得られる入力画像510の模式図であり、変化領域抽出手段131は、水滴の輪郭512を変化領域として抽出する。図5(d)に示すように、図5(c)の基準画像500における樹木501は、入力画像510における水滴による変化領域512を少し内側にほぼ全体の樹木513が縮小して映り込んでいる。   FIG. 5C is a schematic diagram of the reference image 500 obtained when no water droplet is attached, and shows a case where a tree 501 is reflected. FIG. 5D is a schematic diagram of the input image 510 obtained when a water droplet is attached, and the change area extraction unit 131 extracts the outline 512 of the water drop as a change area. As shown in FIG. 5D, the tree 501 in the reference image 500 shown in FIG. 5C reflects the entire tree 513 in a small amount inside the change area 512 due to water droplets in the input image 510. .

図5(e)では、図5(c)の基準画像500の中で、図5(d)の入力画像510における変化領域512と一致する領域を、変化領域502として示している。図5(e)に破線で示す拡大変化領域504内に映された樹木501全体の画像は、図5(d)の入力画像510の変化領域512内に縮小して映された樹木の画像とほぼ一致している。したがって、入力画像510では、変化領域512から輝度ヒストグラムを求め、基準画像500では、入力画像510の変化領域512に画像上対応している拡大変化領域504から輝度ヒストグラムを求めれば、基準画像500と入力画像510とで概略等しい画像領域の輝度ヒストグラムを比較することができる。   In FIG. 5 (e), an area that matches the change area 512 in the input image 510 in FIG. 5 (d) in the reference image 500 in FIG. 5 (c) is shown as a change area 502. An image of the whole tree 501 shown in the enlarged change area 504 indicated by a broken line in FIG. 5 (e) is an image of the tree reduced and shown in the change area 512 of the input image 510 in FIG. 5 (d). It almost matches. Accordingly, if the luminance histogram is obtained from the change area 512 in the input image 510 and the luminance histogram is obtained from the enlarged change area 504 corresponding to the change area 512 of the input image 510 in the reference image 500, the reference image 500 and It is possible to compare luminance histograms of image regions that are approximately equal to the input image 510.

このため、ステップS306において、特徴抽出手段1313は、図5(e)に示すように、変化領域502を膨張させた拡大変化領域504における基準画像500の輝度ヒストグラムを算出する。ステップS307では、こうして算出した輝度ヒストグラムとステップS304で算出した変化領域512における入力画像510の輝度ヒストグラムとの類似度を算出し、類似度が予め定めた閾値以上の場合に当該ラベルの変化領域を水滴変化領域であると判定する。   Therefore, in step S306, the feature extraction unit 1313 calculates a luminance histogram of the reference image 500 in the enlarged change area 504 obtained by expanding the change area 502, as shown in FIG. In step S307, the similarity between the brightness histogram calculated in this way and the brightness histogram of the input image 510 in the change area 512 calculated in step S304 is calculated. If the similarity is equal to or greater than a predetermined threshold, the change area of the label is determined. It is determined that the region is a water droplet change region.

ラベル領域を膨張する割合に関しては、予め適切な値を決定してもよいし、面積について膨張する最大の割合を決めておき、形を変えずに最大割合(例えば10%)まで徐々に(例えば1%ごと)大きくさせ、大きさごとに輝度ヒストグラムの類似度を算出し、得られた値のうち最も大きな値を最終的な類似度として採用するようステップS304〜S306を繰り返し処理してもよい。   Regarding the ratio of expanding the label area, an appropriate value may be determined in advance, or the maximum ratio of expansion for the area is determined and gradually increased to the maximum ratio (for example, 10%) without changing the shape (for example, Steps S304 to S306 may be repeated so that the similarity of the luminance histogram is calculated for each size, and the largest value among the obtained values is adopted as the final similarity. .

また、水滴内に映り込む像は、通常、図5(d)の水滴によって縮小して映された樹木513のように水滴の重心から離れるほど縮小された画像になる。従ってそのまま輝度ヒストグラムを算出すると基準画像から算出した輝度ヒストグラムとの類似度が低くなる可能性がある。そこで輝度ヒストグラム算出の際に、ラベル領域の重心位置からの距離に応じて重み付けをしながら、輝度ヒストグラムの各輝度範囲における出現頻度の累積を行うように構成してもよい。   In addition, the image reflected in the water droplet usually becomes an image that is reduced as the distance from the center of gravity of the water droplet is reduced, such as a tree 513 that is reduced and projected by the water droplet in FIG. Therefore, if the luminance histogram is calculated as it is, the similarity with the luminance histogram calculated from the reference image may be lowered. Therefore, when calculating the luminance histogram, the appearance frequency in each luminance range of the luminance histogram may be accumulated while weighting according to the distance from the barycentric position of the label area.

図5(g)は、重心Cと重心Cからの距離に応じた重み付けを示すグラフの一例である。例えば、ステップS304において図5(d)に示す入力画像510の変化領域512について均等の重み付けで輝度ヒストグラムを算出した場合、ステップS306において比較対象である基準画像の輝度ヒストグラムを算出する際には、図5(e)に示す拡大変化領域504内で、図5(g)で示すように重心Cからの距離が離れるに従って単調に減少するような重み付けをしながら頻度の累積を行うようにする。これにより、水滴周辺部に近いほど像が縮小する状況下でも、周辺部に近いほど輝度値の輝度ヒストグラムの計算への影響が小さくなるため、より高い精度で輝度ヒストグラムの比較を行う事が可能になる。   FIG. 5G is an example of a graph showing weighting according to the center of gravity C and the distance from the center of gravity C. For example, when the luminance histogram is calculated with equal weighting for the change region 512 of the input image 510 shown in FIG. 5D in step S304, when calculating the luminance histogram of the reference image to be compared in step S306, In the enlarged change area 504 shown in FIG. 5E, the frequency is accumulated while weighting so as to monotonously decrease as the distance from the center of gravity C increases as shown in FIG. 5G. This makes it possible to compare luminance histograms with higher accuracy because the closer to the periphery, the smaller the effect of the luminance value on the calculation of the luminance histogram. become.

尚、ステップS304において入力画像510の輝度ヒストグラムを算出する際に、変化領域512の重心からの距離に応じて図5(h)に示すような重み付けをしながら出現頻度の累積を行うように構成してもよい。   Note that when calculating the luminance histogram of the input image 510 in step S304, the appearance frequency is accumulated while weighting as shown in FIG. 5 (h) according to the distance from the center of gravity of the change area 512. May be.

ステップS307において、水滴判定手段1314は、入力画像と基準画像の変化領域における輝度ヒストグラムを比較することによって、変化領域が水滴の付着によるものか否かを判定する。両者の輝度ヒストグラム間の類似度は、入力画像の変化領域の輝度ヒストグラムをh(i)、基準画像の変化領域の輝度ヒストグラムをg(i)、iをビンの番号とすると、数式(1)によって算出できる。

Figure 2010087882
In step S307, the water drop determination unit 1314 determines whether or not the change area is caused by the adhesion of water drops by comparing the luminance histograms in the change area of the input image and the reference image. The similarity between the two luminance histograms is expressed by Equation (1), where h (i) is the luminance histogram of the change area of the input image, g (i) is the luminance histogram of the change area of the reference image, and i is the bin number. Can be calculated.
Figure 2010087882

輝度ヒストグラムh(i),g(i)はビンの総和が1となるように正規化しているため、数式1による類似度は、輝度ヒストグラムが完全に一致する場合に1.0、それ以外の場合に1.0未満の正数となり、両者が似ているほど大きな値をとる。水滴判定手段1314は、輝度ヒストグラム類似度が一定以上の値の変化領域を水滴変化領域であると判定する。   Since the luminance histograms h (i) and g (i) are normalized so that the total sum of bins is 1, the similarity according to Equation 1 is 1.0 when the luminance histograms completely match, In some cases, the positive number is less than 1.0, and the larger the value is, the larger the value is. The water drop determination unit 1314 determines that a change area having a value equal to or greater than a certain value in the luminance histogram similarity is a water drop change area.

ステップS308において、水滴領域除去手段1315は、水滴判定手段1314によって水滴変化領域であると判定された場合(ステップS307のYes)、変化領域のラベルを追跡処理の対象から除外する。当該変化領域の情報を、記憶部140の水滴情報143に記憶してもよい。   In step S308, when the water drop determination unit 1314 determines that the water drop change area is a water drop change area (Yes in step S307), the water drop area removal unit 1315 excludes the label of the change area from the target of the tracking process. Information on the change area may be stored in the water drop information 143 of the storage unit 140.

図6は、抽出された変化領域から水滴変化領域を除去する例を示す図である。図6(a)の入力画像には、人間601と水滴602〜604が映っている。図6(b)に示すように、変化領域抽出手段131は、図6(a)の入力画像と基準画像とを比較して変化領域を抽出し、図6(a)の人間601をラベルID1、図6(a)の水滴602、603、604をラベルID2、ID3、ID4とする。   FIG. 6 is a diagram illustrating an example of removing the water droplet change area from the extracted change area. A human 601 and water droplets 602 to 604 are shown in the input image of FIG. As shown in FIG. 6B, the change area extraction unit 131 extracts the change area by comparing the input image of FIG. 6A with the reference image, and identifies the person 601 of FIG. 6A as the label ID1. The water droplets 602, 603, and 604 in FIG. 6A are referred to as labels ID2, ID3, and ID4.

次に、水滴判定手段1314によってラベルごとに水滴か否かの判定を行い、水滴と判定されたラベル(図6(c)のID2、ID3、ID4)を後続の処理対象から除外し、水滴情報143として記憶部140に記憶する。残りの変化領域(図3(d)ではID1)は、追跡すべき移動物体として以後の処理対象となる。   Next, it is determined whether or not each label is a water droplet by the water droplet determination means 1314, and the labels determined as water droplets (ID2, ID3, ID4 in FIG. 6C) are excluded from the subsequent processing targets, and the water droplet information It is stored in the storage unit 140 as 143. The remaining change area (ID1 in FIG. 3D) becomes a subsequent processing target as a moving object to be tracked.

図9は、図7のステップS350における変化領域判定の他の実施例の処理フローを示すフローチャートである。図9を参照しながら、変化領域判定処理の第二の実施例について、図8に示す第一の実施例と異なる部分について説明する。第二の実施例では、図8に示す第一の実施例のステップS304〜306に代わって、図9に示すステップS310〜S312が実行される。   FIG. 9 is a flowchart showing a processing flow of another embodiment of the change area determination in step S350 of FIG. With reference to FIG. 9, the second embodiment of the change area determination process will be described with respect to differences from the first embodiment shown in FIG. In the second embodiment, steps S310 to S312 shown in FIG. 9 are executed instead of steps S304 to S306 of the first embodiment shown in FIG.

ステップS310において、特徴抽出手段1313は、基準画像において、ステップS301で抽出された変化領域について、膨張させずにそのままのサイズの領域の特徴量を算出する。即ち、図5(e)において、基準画像500の変化領域502から輝度ヒストグラムを作成する。   In step S310, the feature extraction unit 1313 calculates the feature amount of the region having the same size without being expanded with respect to the changed region extracted in step S301 in the reference image. That is, in FIG. 5E, a luminance histogram is created from the change area 502 of the reference image 500.

ステップS311において、特徴抽出手段1313は、対象のラベルの入力画像における変化領域を水滴によって縮小すると推定される縮小変化領域に収縮させる。即ち、図5(f)の入力画像510において破線で示す縮小変化領域515を求めて変化領域とする。   In step S311, the feature extraction unit 1313 contracts the change area in the input image of the target label to a reduction change area estimated to be reduced by the water droplet. That is, a reduced change area 515 indicated by a broken line in the input image 510 in FIG.

これは、図5(e)に示す基準画像500の変化領域502内に映る背景画像は、水滴のレンズ効果によって、図5(f)の入力画像510の縮小変化領域515内に縮小されて映るためである。したがって、入力画像510から輝度ヒストグラムを求める変化領域を、図5(f)の縮小変化領域515に収縮することで、入力画像と基準画像とを概略等しい画像領域の輝度ヒストグラムで比較することができる。   This is because the background image shown in the change area 502 of the reference image 500 shown in FIG. 5E is reduced and shown in the reduction change area 515 of the input image 510 shown in FIG. Because. Therefore, by contracting the change area for obtaining the luminance histogram from the input image 510 into the reduction change area 515 in FIG. 5F, the input image and the reference image can be compared with the luminance histogram of the substantially equal image area. .

したがって、ステップS312において、特徴抽出手段1313は、図5(f)に示すように、水滴による変化領域512を収縮させた縮小変化領域515における入力画像510の輝度ヒストグラムを算出する。ステップS307では、こうして算出した輝度ヒストグラムとステップS310で算出した変化領域502における基準画像500の輝度ヒストグラムとの類似度を算出し、類似度が予め定めた閾値以上の場合に当該ラベルの変化領域を水滴変化領域であると判定する。   Therefore, in step S312, the feature extraction unit 1313 calculates a luminance histogram of the input image 510 in the reduced change area 515 in which the change area 512 due to the water droplet is contracted, as shown in FIG. In step S307, the similarity between the brightness histogram thus calculated and the brightness histogram of the reference image 500 in the change area 502 calculated in step S310 is calculated. If the similarity is equal to or greater than a predetermined threshold, the change area of the label is determined. It is determined that the region is a water droplet change region.

ラベル領域を収縮する割合に関しては、予め適切な値を決定してもよいし、面積について収縮する最大の割合を決めておき、形を変えずに最大割合(例えば10%)まで徐々に(例えば1%ごと)小さくさせ、大きさごとに輝度ヒストグラムの類似度を算出し、得られた値のうち最も大きな値を最終的な類似度として採用するようステップS310〜S312を繰り返し処理してもよい。尚、収縮処理に関しては、膨張処理と同様に、モルフォロジー演算の収縮演算などの様々な公知の画像処理手法を用いることができるので、詳細の説明は省略する。   An appropriate value may be determined in advance for the rate of shrinking the label area, or the maximum rate of shrinking for the area may be determined and gradually increased to the maximum rate (eg 10%) without changing the shape (eg 10%). Steps S310 to S312 may be repeatedly performed so that the similarity of the luminance histogram is calculated for each size, and the largest value among the obtained values is adopted as the final similarity. . As for the contraction process, as in the expansion process, various known image processing methods such as a contraction calculation of a morphological operation can be used, and thus detailed description thereof is omitted.

また、第一の実施例の場合の図8のステップS304と同様に、図9のステップS312において、特徴抽出手段1313が入力画像から特徴情報を抽出する際に、図5(h)が示す重み付けを行ってもよい。或いは、図8のステップS306と同様に、図9のステップS310において、特徴抽出手段1313が基準画像142から特徴情報を抽出する際に、図5(g)が示す重み付けを行ってもよい。
他の処理は、図8の場合と同様なので説明を省略する。
Similarly to step S304 in FIG. 8 in the case of the first embodiment, when the feature extraction unit 1313 extracts feature information from the input image in step S312 in FIG. 9, the weighting shown in FIG. May be performed. Alternatively, as in step S306 in FIG. 8, when the feature extraction unit 1313 extracts feature information from the reference image 142 in step S310 in FIG. 9, the weighting shown in FIG.
The other processing is the same as that in the case of FIG.

以上の説明では、輝度情報に基づくものとしてきたが、カメラをはじめとして、カラー対応タイプの機器を使用するのであれば、色情報を用いて水滴の判定をすることが可能となる。背景画像の色ヒストグラムは、水滴を通してもほとんど変わらず、移動物体などが存在すれば、明確に異なってしまう情報である。したがって、色情報の処理が輝度情報の処理に比べて多少負荷が増えるとしても、水滴判定の精度をさらに向上することができる。   In the above description, it is based on luminance information. However, if a color-compatible device such as a camera is used, it is possible to determine a water droplet using color information. The color histogram of the background image is information that hardly changes even through water droplets, and is clearly different if a moving object exists. Therefore, even if the load of color information processing is slightly increased compared to the luminance information processing, the accuracy of water droplet determination can be further improved.

この場合、数式(1)の輝度ヒストグラム類似度に代え、数式(2)に示す色ヒストグラム類似度を用いる。ここで、h(y,u,v)は入力画像のラベル領域の色ヒストグラム、g(y,u,v)は基準画像のラベル領域の色ヒストグラムである。

Figure 2010087882
In this case, the color histogram similarity shown in Expression (2) is used instead of the luminance histogram similarity in Expression (1). Here, h (y, u, v) is a color histogram of the label area of the input image, and g (y, u, v) is a color histogram of the label area of the reference image.
Figure 2010087882

このように、本発明によれば、画像中に生じた変化領域について形状やテクスチャなどの処理負荷のかかる情報によらず、当該変化領域における背景画像と入力画像との輝度情報の比較などのように比較的小さな処理負荷によって画像中の水滴を判定することができる。   As described above, according to the present invention, the change area generated in the image does not depend on the processing load such as the shape and texture, and the luminance information of the background image and the input image in the change area is compared. In addition, it is possible to determine water droplets in an image with a relatively small processing load.

また、水滴部分は、レンズ効果により、入力画像では歪んで縮小して写ることを考慮し、変化領域を入力画像と基準画像のどちらかで膨張収縮することによって比較する画像情報を揃える。したがって、輝度ヒストグラムのような処理コストの小さい特徴情報を使用しても、水滴判定の精度を十分に高くすることができる。   Considering that the water droplet portion is distorted and reduced in the input image due to the lens effect, the change area is expanded or contracted in either the input image or the reference image, thereby aligning image information to be compared. Therefore, even if feature information with a low processing cost such as a luminance histogram is used, the accuracy of water droplet determination can be sufficiently increased.

さらに、入力画像中の変化領域から水滴の付着による変化領域を除去することによって、処理対象の数を格段に減らすことができるため、これらの処理対象を組み合わせて行われる対応付けなどの処理負荷を大幅に削減することができる。また、水滴を人などの移動物体と誤って判断する可能性が下がり、移動物体の追跡精度をさらに向上することができる。   Furthermore, since the number of processing objects can be significantly reduced by removing the change area due to the attachment of water droplets from the change area in the input image, the processing load such as association performed by combining these processing objects is reduced. It can be greatly reduced. In addition, the possibility of erroneously determining a water droplet as a moving object such as a person is reduced, and the tracking accuracy of the moving object can be further improved.

したがって、本発明によれば、カメラ付きインターホンなどのようにハードウェア資源が制限された環境において、撮像装置(カメラ)が屋外に設置され、降雨などによりその前面に水滴の付着が避けられない状況が頻発する環境を撮影する場合であっても、処理量の増加を招かず、目的の移動物体を継続的に精度良く追跡できる。   Therefore, according to the present invention, in an environment where hardware resources are limited such as an interphone with a camera, an imaging device (camera) is installed outdoors, and it is unavoidable that water droplets adhere to the front surface due to rain or the like. Even in the case of shooting an environment where frequent occurrences occur, it is possible to continuously and accurately track the target moving object without increasing the processing amount.

本実施例では、本発明のカメラ付きインターホンなどのハードウェア資源が制限された環境においても各移動物体を精度良く追跡することができるという利点を説明するため、カメラ付きインターホンにおける例について説明したが、本発明は本実施例に限定されない。特に、雨や蒸気などの水滴が撮像装置に付着する状況であれば、他の限られたハードウェア資源を有する環境においても有効である。また、追跡する移動物体の特性、画像の撮影条件、その他の状況に応じて、豊富なハードウェア資源を有する高性能の画像処理環境においても、本発明が同様の効果をもたらす場合がある。したがって、本発明は、趣旨を異ならせない範囲において様々な形態にて実施することが可能である。   In this embodiment, in order to explain the advantage that each moving object can be accurately tracked even in an environment where hardware resources such as an interphone with a camera of the present invention are limited, an example of an interphone with a camera has been described. The present invention is not limited to this embodiment. In particular, it is effective in an environment having other limited hardware resources as long as water droplets such as rain and steam adhere to the imaging apparatus. Further, the present invention may provide the same effect even in a high-performance image processing environment having abundant hardware resources depending on the characteristics of the moving object to be tracked, the image capturing conditions, and other situations. Therefore, the present invention can be implemented in various forms as long as the spirit is not changed.

本発明をカメラ付きインターホンに適用すると、カメラを屋外に設置したため降雨などで撮像部の前面に水滴が頻繁に付着する状況においても、インターホンの前に長時間居続ける不審者(ストーカー)を精度良く検出できる。   When the present invention is applied to an interphone with a camera, a suspicious person (stalker) who stays in front of the interphone for a long time can be accurately detected even in situations where water drops frequently adhere to the front surface of the imaging unit due to rain, etc. It can be detected.

本発明の一実施形態による移動物体追跡装置が実装されたカメラ付インターホンの設置例を示す図である。It is a figure which shows the example of installation of the intercom with a camera by which the moving object tracking device by one Embodiment of this invention was mounted. 本発明の一実施形態による移動物体追跡装置が実装されたカメラ付インターホンの構成を示すブロック図である。It is a block diagram which shows the structure of the intercom with a camera by which the moving object tracking device by one Embodiment of this invention was mounted. 本発明の一実施形態による一時刻前の移動物体と現時刻の変化領域との1対1対応付けの例を示す図である。It is a figure which shows the example of 1-to-1 correspondence with the moving object of one time ago, and the change area | region of the present time by one Embodiment of this invention. 本発明の一実施形態による一時刻前の水滴を含む移動物体と現時刻の水滴領域を含む変化領域との1対1対応付けの例を示す図である。It is a figure which shows the example of 1 to 1 matching with the change area | region containing the water drop area | region of the present time and the moving object containing the water drop of 1 time before by one Embodiment of this invention. 撮像装置の前面に付着した水滴のレンズ効果を説明する模式図である。It is a schematic diagram explaining the lens effect of the water droplet adhering to the front surface of an imaging device. 本発明の一実施形態による抽出された変化領域から水滴変化領域を除去する例を示す図である。It is a figure which shows the example which removes a water droplet change area | region from the extracted change area | region by one Embodiment of this invention. 本発明の一実施形態による移動物体追跡装置10の動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow of the moving object tracking apparatus 10 by one Embodiment of this invention. 図7のステップS350における変化領域判定の一実施例の処理フローを示すフローチャートである。It is a flowchart which shows the processing flow of one Example of the change area | region determination in FIG.7 S350. 図7のステップS350における変化領域判定の他の実施例の処理フローを示すフローチャートである。It is a flowchart which shows the process flow of the other Example of the change area | region determination in FIG.7 S350.

符号の説明Explanation of symbols

1 カメラ付インターホン
10 移動物体追跡装置
20 撮像装置
110 画像取得部
130 追跡処理部
131 変化領域抽出手段
132 対応付け手段
133 移動物体情報抽出手段
134 移動物体情報更新手段
140 記憶部
141 移動物体情報
142 基準画像
143 水滴情報
144 不審者検知画像
150 滞留判定部
160 人判定部
170 警報部
1313 特徴抽出手段
1314 水滴判定手段
1315 水滴領域除去手段
DESCRIPTION OF SYMBOLS 1 Interphone with a camera 10 Moving object tracking apparatus 20 Imaging apparatus 110 Image acquisition part 130 Tracking process part 131 Change area extraction means 132 Association means 133 Moving object information extraction means 134 Moving object information update means 140 Storage part 141 Moving object information 142 Reference | standard Image 143 Water drop information 144 Suspicious person detection image 150 Stay determination part 160 Person determination part 170 Alarm part 1313 Feature extraction means 1314 Water drop determination means 1315 Water drop area removal means

Claims (6)

画像を順次取得する画像入力部と、
移動物体ごとに追跡に使用する移動物体情報と、移動物体が含まれない基準画像と、を記憶する記憶部と、
前記入力画像を順次画像処理して移動物体を画像上にて追跡する追跡処理部と、
を具備する移動物体追跡装置であって、
前記追跡処理部は、
前記基準画像と前記入力画像とを差分処理して変化領域を抽出する変化領域抽出手段と、
前記基準画像の前記変化領域を膨張させた拡大変化領域から第1の特徴情報を抽出し且つ前記入力画像の前記変化領域から第2の特徴情報を抽出するか、又は、前記基準画像の前記変化領域から第1の特徴情報を抽出し且つ前記入力画像の前記変化領域を収縮させた縮小変化領域から第2の特徴情報を抽出する特徴抽出手段と、
前記第1の特徴情報と前記第2の特徴情報との類似度を求め、当該類似度が一定値以上である場合に前記変化領域を前記画像入力部に付着した水滴により生じた水滴変化領域と判定し、当該類似度が前記一定値未満である場合に前記変化領域を前記水滴以外の移動物体により生じた非水滴変化領域と判定する水滴判定手段と、
前記入力画像の前記非水滴変化領域から抽出された特徴情報と前記移動物体情報に含まれる特徴情報とを用いて、前記非水滴変化領域と前記移動物体情報との対応付けを行う対応付け手段と、
前記非水滴変化領域と移動物体情報との対応付けに基づいて、前記非水滴変化領域に対応付けられた前記移動物体情報を更新する移動物体情報更新手段と、を備えることを特徴とした移動物体追跡装置。
An image input unit for sequentially acquiring images;
A storage unit that stores moving object information used for tracking for each moving object and a reference image that does not include the moving object;
A tracking processing unit that sequentially processes the input image and tracks a moving object on the image;
A moving object tracking device comprising:
The tracking processing unit
A change area extraction means for extracting a change area by performing a difference process between the reference image and the input image;
First feature information is extracted from an enlarged change area obtained by expanding the change area of the reference image and second feature information is extracted from the change area of the input image, or the change of the reference image Feature extraction means for extracting first feature information from a region and extracting second feature information from a reduced change region obtained by contracting the change region of the input image;
A similarity between the first feature information and the second feature information is obtained, and when the similarity is equal to or greater than a predetermined value, the change region is a water drop change region generated by a water drop attached to the image input unit; Water drop determination means for determining, when the similarity is less than the predetermined value, the non-water droplet change area generated by a moving object other than the water drop, the change area;
Association means for associating the non-water drop change area with the moving object information using the feature information extracted from the non-water drop change area of the input image and the feature information included in the moving object information; ,
A moving object comprising: moving object information updating means for updating the moving object information associated with the non-water droplet change area based on the association between the non-water drop change area and the moving object information. Tracking device.
前記特徴抽出手段は、異なる割合で膨張させた複数の前記拡大変化領域を求め、当該複数の拡大変化領域からそれぞれの前記第1の特徴情報を抽出し、
前記水滴判定手段は、前記それぞれの第1の特徴情報と前記第2の特徴情報とのそれぞれの前記類似度を求め、前記それぞれの類似度のうち最も高い類似度に基づき前記水滴変化領域であるか否かを判定する、請求項1に記載の移動物体追跡装置。
The feature extraction means obtains a plurality of the enlarged change areas expanded at different ratios, extracts each of the first feature information from the plurality of enlarged change areas,
The water drop determination means obtains the similarity between each of the first feature information and the second feature information, and is the water drop change region based on the highest similarity among the respective similarities. The moving object tracking device according to claim 1, wherein it is determined whether or not.
前記特徴抽出手段は、前記基準画像については、前記変化領域の中心からの距離に応じて値が小さくなる重み係数を乗じて前記第1の特徴情報を抽出する請求項1又は2に記載の移動物体追跡装置。   The movement according to claim 1, wherein the feature extraction unit extracts the first feature information by multiplying the reference image by a weighting factor that decreases in value according to a distance from the center of the change area. Object tracking device. 前記特徴抽出手段は、異なる割合で収縮させた複数の前記縮小変化領域を求め、当該複数の縮小変化領域からそれぞれの前記第2の特徴晴報を抽出し、
前記水滴判定手段は、前記第1の特徴清報と前記それぞれの第2の特徴情報とのそれぞれの前記類似度を求め、前記それぞれの類似度のうち最も高い類似度に基づき前記水滴変化領域であるか否かを判定する、請求項1に記載の移動物体追跡装置。
The feature extraction means obtains a plurality of the reduced change areas contracted at different ratios, extracts the second feature bulletin from each of the plurality of reduced change areas,
The water drop determination means obtains the similarity between the first feature information and the second feature information, and determines the water drop change region based on the highest similarity among the similarities. The moving object tracking device according to claim 1, wherein it is determined whether or not there is any.
前記特徴抽出手段は、前記入力画像については、前記変化領域の中心からの距離に応じて値が大きくなる重み係数を乗じて前記第2の特徴情報を抽出する請求項1乃至4に記載の移動物体追跡装置。   5. The movement according to claim 1, wherein the feature extraction unit extracts the second feature information by multiplying the input image by a weighting factor that increases in value according to a distance from the center of the change area. Object tracking device. 前記第1の特徴情報及び前記第2の特徴情報は、輝度ヒストグラム又は色ヒストグラムである請求項1乃至5のいずれか一項に記載の移動物体追跡装置。   The moving object tracking apparatus according to claim 1, wherein the first feature information and the second feature information are luminance histograms or color histograms.
JP2008255292A 2008-09-30 2008-09-30 Moving object tracking device Active JP5132509B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008255292A JP5132509B2 (en) 2008-09-30 2008-09-30 Moving object tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008255292A JP5132509B2 (en) 2008-09-30 2008-09-30 Moving object tracking device

Publications (2)

Publication Number Publication Date
JP2010087882A true JP2010087882A (en) 2010-04-15
JP5132509B2 JP5132509B2 (en) 2013-01-30

Family

ID=42251371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008255292A Active JP5132509B2 (en) 2008-09-30 2008-09-30 Moving object tracking device

Country Status (1)

Country Link
JP (1) JP5132509B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017055387A (en) * 2015-06-30 2017-03-16 アクシス アーベー Monitoring camera
CN109493365A (en) * 2018-10-11 2019-03-19 中国科学院上海技术物理研究所 A kind of tracking of Weak target
US10552706B2 (en) 2016-10-24 2020-02-04 Fujitsu Ten Limited Attachable matter detection apparatus and attachable matter detection method
JP2022158339A (en) * 2021-04-01 2022-10-17 クイックイタレート株式会社 Detection device, detection method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132458A (en) * 2001-10-25 2003-05-09 Koito Ind Ltd Device for detecting smoke or fog or the like
JP2006268677A (en) * 2005-03-25 2006-10-05 Secom Co Ltd Sensing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003132458A (en) * 2001-10-25 2003-05-09 Koito Ind Ltd Device for detecting smoke or fog or the like
JP2006268677A (en) * 2005-03-25 2006-10-05 Secom Co Ltd Sensing device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017055387A (en) * 2015-06-30 2017-03-16 アクシス アーベー Monitoring camera
US10552706B2 (en) 2016-10-24 2020-02-04 Fujitsu Ten Limited Attachable matter detection apparatus and attachable matter detection method
CN109493365A (en) * 2018-10-11 2019-03-19 中国科学院上海技术物理研究所 A kind of tracking of Weak target
JP2022158339A (en) * 2021-04-01 2022-10-17 クイックイタレート株式会社 Detection device, detection method, and program

Also Published As

Publication number Publication date
JP5132509B2 (en) 2013-01-30

Similar Documents

Publication Publication Date Title
JP5106302B2 (en) Moving object tracking device
CN105938622B (en) Method and apparatus for detecting object in moving image
JP4216668B2 (en) Face detection / tracking system and method for detecting and tracking multiple faces in real time by combining video visual information
CN109145708B (en) Pedestrian flow statistical method based on RGB and D information fusion
Avgerinakis et al. Recognition of activities of daily living for smart home environments
US6421462B1 (en) Technique for differencing an image
JP2003030667A (en) Method for automatically locating eyes in image
JP2010176380A (en) Information processing device and method, program, and recording medium
JP2008192131A (en) System and method for performing feature level segmentation
EP2335405A2 (en) Pixel-level based micro-feature extraction
JP4874150B2 (en) Moving object tracking device
CN101715070B (en) Method for automatically updating background in specifically monitored video
JP2010057105A (en) Three-dimensional object tracking method and system
US20220366570A1 (en) Object tracking device and object tracking method
JP5132509B2 (en) Moving object tracking device
KR102434397B1 (en) Real time multi-object tracking device and method by using global motion
JP2010244207A (en) Moving object tracking device, moving object tracking method, and moving object tracking program
JP2001307107A (en) Image processor, its method and recording medium
Almomani et al. Segtrack: A novel tracking system with improved object segmentation
JP5154461B2 (en) Moving object tracking device
KR101542206B1 (en) Method and system for tracking with extraction object using coarse to fine techniques
JP5047115B2 (en) Moving object tracking device
Zhang et al. An optical flow based moving objects detection algorithm for the UAV
CN112633179A (en) Farmer market aisle object occupying channel detection method based on video analysis
KR100543706B1 (en) Vision-based humanbeing detection method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121009

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121106

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151116

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5132509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250