JP2013143069A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2013143069A
JP2013143069A JP2012003747A JP2012003747A JP2013143069A JP 2013143069 A JP2013143069 A JP 2013143069A JP 2012003747 A JP2012003747 A JP 2012003747A JP 2012003747 A JP2012003747 A JP 2012003747A JP 2013143069 A JP2013143069 A JP 2013143069A
Authority
JP
Japan
Prior art keywords
image
arrangement
area
background
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012003747A
Other languages
Japanese (ja)
Other versions
JP5865710B2 (en
Inventor
Tatsuyuki Sagawa
龍之 佐川
Takaharu Kurokawa
高晴 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012003747A priority Critical patent/JP5865710B2/en
Publication of JP2013143069A publication Critical patent/JP2013143069A/en
Application granted granted Critical
Publication of JP5865710B2 publication Critical patent/JP5865710B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve such a problem that, when a person moves an installed object in a monitoring space, a change area integrated with the installed object is generated on a monitoring image and, if the change area is uniformly processed for protecting privacy, it is hard to visually recognize the shapes of the person and a dolly.SOLUTION: An image processing apparatus causes a storage unit 3 to store a background image 30 including an installed object. A change area extraction unit 40 obtains a change area between the background image 30 and an input image. An installation change detecting unit 42 collates the background image 30 with the input image to obtain an installed object-derived area generated by moving the installed object in the change area. A mask image generation unit 44 excludes the installed object-derived area from an object of a masking process when performing a masking process for the input image in the change area.

Description

本発明は、監視画像にプライバシー保護処理を施す画像処理装置に関する。   The present invention relates to an image processing apparatus that performs a privacy protection process on a monitoring image.

監視画像中において人物等をプライバシー保護加工して表示するために、画像中の人物領域を抽出する必要がある。従来、背景画像と入力画像との差分処理によって変化領域を抽出し、当該変化領域を人物領域としてプライバシー保護加工を施していた。   In order to display a person or the like in a monitoring image with privacy protection processing, it is necessary to extract a person area in the image. Conventionally, a change area is extracted by a difference process between a background image and an input image, and privacy protection processing is performed using the change area as a person area.

特開2009−225398号公報JP 2009-225398 A

しかし、人が椅子や台車など監視空間内にもともと存在していた配置物を動かすと、人と配置物とがひとかたまりの変化領域として検出されてしまう。そのため変化領域を一律にプライバシー加工すると人や台車の形状が視認しづらく、監視員が不審行動の有無などの状況を把握しづらい問題があった。この場合、監視員が状況を把握するためには加工前の監視画像を確認するための手続きをとる必要が生じ、監視性が低下していた。また、この場合、加工前の監視画像の確認によりプライバシーを損ねるおそれがあった。また、配置物は監視空間ごとに異なるため、配置物の領域を検出するために事前に配置物の情報を記憶させておくことも困難であった。   However, if a person moves an arrangement that originally existed in the monitoring space such as a chair or a carriage, the person and the arrangement are detected as a group of change areas. For this reason, when the change area is uniformly processed with privacy, it is difficult to visually recognize the shape of the person or the carriage, and it is difficult for the observer to grasp the situation such as the presence or absence of suspicious behavior. In this case, in order for the monitoring person to grasp the situation, it is necessary to take a procedure for confirming the monitoring image before the processing, and the monitoring performance is deteriorated. In this case, there is a risk that privacy may be impaired by checking the monitoring image before processing. In addition, since the arrangement differs for each monitoring space, it is difficult to store the arrangement information in advance in order to detect the area of the arrangement.

本発明は、上記問題を鑑みてなされたものであり、プライバシー保護と監視性とを両立できる監視画像が得られる画像処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide an image processing apparatus capable of obtaining a monitoring image that can achieve both privacy protection and monitoring performance.

本発明に係る画像処理装置は、監視空間内を撮像した入力画像を順次入力され、前記入力画像にプライバシー保護のためのマスク処理を施すものであって、前記監視空間に置かれた配置物を含む背景が撮像された前記監視空間の背景画像を記憶する記憶部と、前記背景画像と前記入力画像との間における変化領域を求める変化領域抽出部と、前記変化領域内の前記入力画像に前記マスク処理を施すマスク処理部と、前記背景画像と前記入力画像とを照合して、前記変化領域のうち前記配置物の移動により生じた配置物由来領域を求める配置変化領域特定部と、を備え、前記マスク処理部は、前記配置物由来領域を前記マスク処理の対象から除外する。   An image processing apparatus according to the present invention sequentially inputs input images captured in a monitoring space, and performs mask processing for privacy protection on the input images, and an arrangement placed in the monitoring space A storage unit that stores a background image of the monitoring space in which a background is captured; a change region extraction unit that obtains a change region between the background image and the input image; and the input image in the change region in the input image A mask processing unit that performs a mask process, and an arrangement change area specifying unit that compares the background image with the input image and obtains an arrangement-derived area generated by movement of the arrangement among the change areas. The mask processing unit excludes the arrangement-derived region from the mask processing target.

他の本発明に係る画像処理装置においては、前記配置変化領域特定部は、前記背景画像と前記入力画像との間にて互いに画像特徴が類似する対応点を検出して当該対応点間の移動量を算出し、当該移動量が所定値以上である前記対応点の位置から前記配置物由来領域を検出する。   In another image processing apparatus according to the present invention, the arrangement change region specifying unit detects corresponding points having similar image characteristics between the background image and the input image, and moves between the corresponding points. An amount is calculated, and the arrangement-derived region is detected from the position of the corresponding point where the movement amount is a predetermined value or more.

また、前記配置変化領域特定部は、前記配置変化領域特定部は、前記入力画像側の前記対応点の位置から前記配置物の移動先に生じた前記配置物由来領域を検出する構成とすることができる。   In addition, the arrangement change area specifying unit is configured to detect the arrangement-derived area generated at the movement destination of the arrangement from the position of the corresponding point on the input image side. Can do.

さらに、前記配置変化領域特定部は、前記背景画像側の前記対応点の位置から前記配置物の移動元に生じた前記配置物由来領域を検出する構成とすることができる。   Furthermore, the arrangement change area specifying unit can detect the arrangement-derived area generated at the movement source of the arrangement from the position of the corresponding point on the background image side.

さらに、前記配置変化領域特定部は、前記移動元に生じた前記配置物由来領域の前記背景画像を前記配置物のテンプレートとして登録し、当該登録後にて当該テンプレートを用いたマッチング処理により前記入力画像における前記配置物由来領域を検出するものとすることもできる。   Further, the arrangement change area specifying unit registers the background image of the arrangement-derived area generated at the movement source as a template of the arrangement, and the input image is subjected to matching processing using the template after the registration. It is also possible to detect the arrangement-derived region in.

本発明によれば、監視空間内の人物が配置物を動かしたときも当該人物のプライバシーを保護しつつ監視空間の状況を把握しやすい監視画像が得られる。   According to the present invention, even when a person in a monitoring space moves an arrangement, a monitoring image that can easily grasp the situation of the monitoring space while protecting the privacy of the person is obtained.

本発明の実施形態に係る画像監視装置の概略の構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of an image monitoring apparatus according to an embodiment of the present invention. 背景フロー検出部の処理を説明する模式図である。It is a schematic diagram explaining the process of a background flow detection part. 本発明の実施形態に係る画像監視装置の概略の動作を示すフロー図である。It is a flowchart which shows the operation | movement of the outline of the image monitoring apparatus which concerns on embodiment of this invention. 背景フロー検出処理の概略のフロー図である。It is a general | schematic flowchart of a background flow detection process. 移動元の変化領域と移動先の変化領域とが同一の場合及び異なる場合の例を示す模式的な画像である。It is a typical image which shows the example when the change area of a movement origin and the change area of a movement destination are the same, and different. 追跡中の配置物の変化領域が写る連続する3時刻における入力画像及び当該画像に対応して抽出される変化領域の例の模式図である。It is a schematic diagram of the example of the change area extracted corresponding to the input image in three continuous times which the change area of the arrangement under tracking appears. 本発明の実施形態に係る画像監視装置によりマスク画像が生成される過程を具体例を用いて説明する模式図である。It is a schematic diagram explaining the process in which a mask image is produced | generated by the image monitoring apparatus which concerns on embodiment of this invention using a specific example.

以下、本発明の実施の形態(以下実施形態という)である画像監視装置1について、図面に基づいて説明する。   Hereinafter, an image monitoring apparatus 1 according to an embodiment of the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings.

監視空間には、人が出入りするほか、予め配置され人により動かされ得る物品(以下、配置物と称する)が存在する。例えば、監視空間は部屋であり、また配置物は監視空間の備品や設備、或いは一時置きされた物品であり、一例として椅子や台車などが配置物となる。   In the monitoring space, there are articles that are arranged in advance and can be moved by the person (hereinafter referred to as an arrangement) in addition to the person entering and exiting. For example, the monitoring space is a room, and the arrangement is equipment or facilities in the monitoring space, or temporarily placed items. As an example, a chair or a carriage is the arrangement.

配置物は通常時は静止して監視空間の背景の一部を成しており、通常時は配置物による変化領域は抽出されない。しかし配置物が人により動かされると配置物と人とが一体化した変化領域が抽出されてしまう。画像監視装置1は、このような変化領域の中から配置物の動きにより生じた配置物由来領域を分離検出することで、監視及びプライバシー保護に適した画像加工処理を行う。   The arrangement object is normally stationary and forms a part of the background of the monitoring space, and a change area due to the arrangement object is not extracted normally. However, if the placement object is moved by a person, a change area in which the placement object and the person are integrated is extracted. The image monitoring apparatus 1 performs an image processing process suitable for monitoring and privacy protection by separately detecting an arrangement-derived area generated by the movement of the arrangement from the change areas.

[画像監視装置1の構成]
図1は、画像監視装置1の概略の構成を示すブロック図である。画像監視装置1は撮像部2、記憶部3、制御部4及び出力部5を含んで構成される。このうち制御部4が本発明に係る画像処理装置であり、撮像部2、記憶部3及び出力部5は制御部4に接続される。
[Configuration of Image Monitoring Apparatus 1]
FIG. 1 is a block diagram illustrating a schematic configuration of the image monitoring apparatus 1. The image monitoring apparatus 1 includes an imaging unit 2, a storage unit 3, a control unit 4, and an output unit 5. Among these, the control unit 4 is an image processing apparatus according to the present invention, and the imaging unit 2, the storage unit 3, and the output unit 5 are connected to the control unit 4.

撮像部2は監視カメラであり、監視空間を所定の時間間隔で撮影する。撮影された監視空間の監視画像(入力画像)は順次、制御部4に入力される。背景画像を用いて配置物や人の位置、移動を把握するため、撮像部2はこれらを俯瞰撮影可能な高さに視野を固定して設置される。例えば、本実施形態では撮像部2は部屋の天井部に固定設置される。監視画像が撮像される時間間隔は例えば1/5秒である。以下、この撮像の時間間隔で刻まれる時間の単位を時刻と称し、最新の時刻を現時刻、現時刻の入力画像を現画像、現時刻より一時刻前の入力画像を直前画像と呼ぶ。   The imaging unit 2 is a surveillance camera and photographs the surveillance space at predetermined time intervals. The captured surveillance images (input images) of the surveillance space are sequentially input to the control unit 4. In order to grasp the position and movement of an arrangement object or a person using a background image, the imaging unit 2 is installed with a field of view fixed at a height at which a bird's-eye view can be taken. For example, in this embodiment, the imaging unit 2 is fixedly installed on the ceiling of the room. The time interval at which the monitoring image is captured is 1/5 second, for example. Hereinafter, the unit of time recorded at the imaging time interval is referred to as time, the latest time is referred to as the current time, the input image at the current time is referred to as the current image, and the input image one hour before the current time is referred to as the immediately preceding image.

記憶部3はROM(Read Only Memory)、RAM(Random Access Memory)等の記憶装置である。記憶部3は各種プログラムや各種データを記憶し、制御部4との間でこれらの情報を入出力する。各種データには背景画像30、直前画像31、配置物情報32及び領域情報33が含まれる。   The storage unit 3 is a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 3 stores various programs and various data, and inputs / outputs such information to / from the control unit 4. Various data includes a background image 30, a previous image 31, arrangement information 32, and area information 33.

背景画像30は監視空間の背景の像のみが含まれ、人の像が含まれていない画像である。背景画像30はマスク画像の生成処理に先立って生成され、記憶部3に格納される。具体的には人などの移動物体が監視空間内に存在しない状態で撮像された入力画像を背景画像30とすることができ、この背景画像30には配置物の像が含まれ得る。また、背景画像30はマスク画像の生成処理の途中にて適宜更新される。   The background image 30 is an image that includes only the background image of the monitoring space and does not include the human image. The background image 30 is generated prior to the mask image generation process and stored in the storage unit 3. Specifically, an input image captured in a state where a moving object such as a person does not exist in the monitoring space can be used as the background image 30, and the background image 30 can include an image of an arrangement object. The background image 30 is appropriately updated during the mask image generation process.

直前画像31は現時刻の一時刻前の入力画像であり、各時刻に入力される現画像が次時刻における直前画像31として記憶部3に書き込まれる。   The immediately preceding image 31 is an input image one hour before the current time, and the current image input at each time is written in the storage unit 3 as the immediately preceding image 31 at the next time.

配置物情報32は各配置物の識別番号、配置物の状態(配置物状態)、監視画像における当該配置物の位置と領域、及び当該配置物の画像特徴を含む。配置物が動かされて当該配置物が検知されると、当該配置物の配置物情報32が作成される。配置物の移動中において画像監視装置1は当該配置物の位置を追跡し、配置物情報32として位置の履歴が記憶される。配置物状態を示す属性として追跡中と移動完了とが定義される。画像特徴には、配置物の像全体の特徴を表す色ヒストグラムなどの他、配置物の像の中で特徴的な一部を表す特徴点が含まれる。   The arrangement information 32 includes the identification number of each arrangement, the state of the arrangement (arrangement state), the position and area of the arrangement in the monitoring image, and the image characteristics of the arrangement. When the arrangement is moved and the arrangement is detected, arrangement information 32 of the arrangement is created. While the arrangement is moving, the image monitoring apparatus 1 tracks the position of the arrangement, and the position history is stored as the arrangement information 32. Tracking and completion of movement are defined as attributes indicating the arrangement state. The image feature includes a feature point representing a characteristic part of the image of the arrangement, in addition to a color histogram representing the characteristics of the entire image of the arrangement.

領域情報33は各変化領域の識別番号、及び当該変化領域が配置物を含むか否かの別を示す情報を含む。   The area information 33 includes an identification number of each change area and information indicating whether or not the change area includes an arrangement.

制御部4は、監視空間内を撮像した入力画像を順次入力され、後述するようにマスク処理による隠蔽部分を含む画像を生成する画像処理装置として機能する。制御部4はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成され、記憶部3からプログラムを読み出して実行し、変化領域抽出部40、背景フロー検出部41、配置変化検知部42、背景画像生成部43及びマスク画像生成部44等として機能する。   The control unit 4 functions as an image processing apparatus that sequentially receives input images captured in the monitoring space and generates an image including a concealed portion by mask processing as will be described later. The control unit 4 is configured by using an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit), and reads and executes a program from the storage unit 3. , Function as a background flow detection unit 41, an arrangement change detection unit 42, a background image generation unit 43, a mask image generation unit 44, and the like.

変化領域抽出部40は入力画像と背景画像とを比較してそれらの間での変化領域を抽出し、抽出された変化領域の情報を背景フロー検出部41及び配置変化検知部42へ出力する。変化領域の抽出は公知の背景差分処理又は背景相関処理により行うことができる。すなわち、入力画像と背景画像との間における同一座標の画素の値の相違度(差又は相関値)を算出し、相違度がしきい値を超える画素を変化画素として検出する。そして、互いに隣接する変化画素をまとめ、まとめた領域を変化領域として抽出する。検出のしきい値は事前実験等に基づいて予め設定される。なお、1〜数画素程度の領域はノイズであるとして抽出対象から除外する。   The change area extraction unit 40 compares the input image and the background image, extracts a change area between them, and outputs information on the extracted change area to the background flow detection unit 41 and the arrangement change detection unit 42. The change area can be extracted by a known background difference process or background correlation process. That is, the degree of difference (difference or correlation value) of the pixel values at the same coordinates between the input image and the background image is calculated, and a pixel whose degree of difference exceeds the threshold value is detected as a change pixel. Then, change pixels adjacent to each other are collected, and the combined area is extracted as a change area. The detection threshold is set in advance based on a prior experiment or the like. Note that an area of about 1 to several pixels is excluded from the extraction target because it is noise.

抽出される変化領域には、配置物の配置変化により生じる変化領域、人の存在及び移動により生じる変化領域が含まれる。人による配置物の配置変化の進行中には、配置物と人とが一体化した変化領域が抽出される。また、配置物の移動に由来する変化領域(配置物由来領域)として、現画像にて配置物が存在する領域(移動先領域)の他、背景画像30にて配置物が存在した領域(移動元領域)が抽出される。以下、この配置物由来の変化領域のうち配置物の像の痕跡である移動元領域をゴーストと称する。ここで、配置変化の初期には配置物と人とゴーストとが一体化した変化領域が抽出され得る。   The extracted change area includes a change area caused by an arrangement change of the arrangement object and a change area caused by the presence and movement of a person. While the arrangement change of the arrangement by the person is in progress, a change area in which the arrangement and the person are integrated is extracted. Further, as a change area (arrangement derived area) derived from the movement of the arrangement, an area (movement) where the arrangement exists in the background image 30 in addition to an area (movement destination area) where the arrangement exists in the current image Original area) is extracted. Hereinafter, the movement source region that is the trace of the image of the arrangement object among the change areas derived from the arrangement object is referred to as a ghost. Here, at the initial stage of the arrangement change, a change area in which the arrangement object, the person, and the ghost are integrated can be extracted.

背景フロー検出部41及び配置変化検知部42は背景画像と現画像とを照合して、変化領域抽出部40より抽出された変化領域のうち配置物由来領域を特定する配置変化領域特定部として機能する。本実施形態においては、照合は画像特徴が互いに類似する対応点を検出することにより行われる。   The background flow detection unit 41 and the arrangement change detection unit 42 function as an arrangement change region specifying unit that compares the background image with the current image and specifies an arrangement-derived region from among the change regions extracted by the change region extraction unit 40. To do. In the present embodiment, collation is performed by detecting corresponding points whose image features are similar to each other.

背景フロー検出部41は背景画像30と現画像とで互いに画像特徴が類似する対応点を検出し、当該対応点間の動きベクトルである背景フローを検出する。背景画像30及び現画像には共に配置物の像が含まれており、配置物が移動すると背景画像30と現画像の対応点間に配置物の移動に応じた移動量(動きベクトル)が算出される。このとき現画像には配置物を動かしている人物の像が含まれるが、背景画像30は当該人物の像を含んでいないため基本的に人の背景フローは検出されない。よって、背景フロー検出部41が求める移動量を用いれば高精度に配置変化の有無を判定でき、対応点の位置から配置物由来領域が特定できる。なお、配置変化が生じていないときは0又は0とみなせる誤差程度の移動量しか算出されない。   The background flow detection unit 41 detects corresponding points having similar image characteristics between the background image 30 and the current image, and detects a background flow that is a motion vector between the corresponding points. Both the background image 30 and the current image include an image of an arrangement, and when the arrangement moves, a movement amount (motion vector) corresponding to the movement of the arrangement is calculated between corresponding points of the background image 30 and the current image. Is done. At this time, the current image includes the image of the person who is moving the arrangement, but the background image 30 does not include the image of the person, and thus the background flow of the person is basically not detected. Therefore, if the movement amount obtained by the background flow detection unit 41 is used, the presence / absence of the arrangement change can be determined with high accuracy, and the arrangement-derived region can be specified from the position of the corresponding point. Note that when there is no change in arrangement, only a movement amount of an error that can be regarded as 0 or 0 is calculated.

入力画像間で算出する動きベクトルは一般にオプティカルフローと呼ばれるが、背景フローは背景画像30と入力画像との間で算出する点で一般的なオプティカルフローとは異なる。以下、背景フローと区別して、直前画像31と現画像との間で算出する一般的なオプティカルフローを入力フローと呼ぶ。   A motion vector calculated between input images is generally called an optical flow, but a background flow is different from a general optical flow in that it is calculated between a background image 30 and an input image. Hereinafter, a general optical flow calculated between the immediately preceding image 31 and the current image is referred to as an input flow in distinction from the background flow.

具体的には、背景フロー検出部41は、背景画像30及び現画像のうち一方の画像(基準画像)上に複数の注目点を設定すると共に他方の画像(比較画像)において各注目点と画像特徴が最も類似する最類似点を検出し、注目点と最類似点とを結ぶベクトル(動きベクトル)を算出する。画像特徴としては注目点及び最類似点の候補のそれぞれを中心とする所定サイズ(例えば5×5画素)のブロックを設定して、ブロック内の色分布、輝度勾配又は濃淡分布などを用いることができる。ちなみに、背景画像30側の対応点が当該動きベクトルの始端、現画像側の対応点が終端である。   Specifically, the background flow detection unit 41 sets a plurality of attention points on one image (reference image) of the background image 30 and the current image, and each attention point and image in the other image (comparison image). The most similar point having the most similar feature is detected, and a vector (motion vector) connecting the attention point and the most similar point is calculated. As an image feature, a block having a predetermined size (for example, 5 × 5 pixels) centering on each of the target point and the most similar point candidate is set, and the color distribution, luminance gradient, or light / dark distribution in the block is used. it can. Incidentally, the corresponding point on the background image 30 side is the start point of the motion vector, and the corresponding point on the current image side is the end point.

なお、配置変化領域特定部の目的を鑑みて、注目点を設定する範囲は、画像全体ではなく画像変化が生じた部分、すなわち変化領域抽出部40によって得られる変化領域の内側とするのがよい。これにより、配置物以外の背景フローを誤検出する誤りが減少し、処理量も削減できる。   In view of the purpose of the arrangement change area specifying unit, the range in which the attention point is set is preferably not the entire image but the part where the image change has occurred, that is, the inside of the change area obtained by the change area extraction unit 40. . Thereby, errors that erroneously detect background flows other than the arrangement object are reduced, and the processing amount can be reduced.

背景フロー検出部41は撮像部2から現画像が入力されるたびに背景フローを算出して配置変化検知部42へ出力する。   The background flow detection unit 41 calculates a background flow and outputs the background flow to the arrangement change detection unit 42 every time a current image is input from the imaging unit 2.

配置物由来領域の形状を詳細に特定するためには各画素を注目点に設定して空間的に高密度な背景フロー(密背景フロー)を検出するのが望ましいが、全ての時刻において画素単位で検出すると処理の負荷が大きくなる。形状を詳細に特定するのは配置変化が生じているときだけで十分であり、配置変化の有無は画素単位よりも低密度な背景フロー(疎背景フロー)でも検知できる。疎背景フローは、基準画像上の特徴点を注目点に設定して検出することができる。   In order to specify the shape of the arrangement-derived area in detail, it is desirable to set each pixel as a point of interest and detect a spatially dense background flow (dense background flow). If it detects by, processing load will become large. It is sufficient to specify the shape in detail only when an arrangement change occurs, and the presence or absence of the arrangement change can be detected even in a background flow (sparse background flow) having a lower density than the pixel unit. The sparse background flow can be detected by setting a feature point on the reference image as a point of interest.

すなわち、背景フロー検出部41は、配置変化検知のために、各時刻において基準画像から特徴点を抽出して当該特徴点を注目点に設定することにより疎背景フローを検出し、配置物由来領域の特定のために、配置変化が検知されたときに各画素を注目点に設定して密背景フローを検出する。これにより配置変化が検知されていない時刻において対応点検出の処理負荷が軽減される。なお、特徴点としてはブロッブ(blob)を利用することができ、他にもコーナー(corner)、サブピクセルコーナー(subpixel corner)などの各種特徴点が利用可能である。   That is, the background flow detection unit 41 detects a sparse background flow by extracting a feature point from the reference image at each time and setting the feature point as a point of interest for detection of a change in arrangement, and the arrangement-derived region Therefore, when a change in arrangement is detected, each pixel is set as a point of interest and a dense background flow is detected. As a result, the processing load for detecting corresponding points is reduced at a time when no change in the arrangement is detected. Note that a blob can be used as the feature point, and various other feature points such as a corner and a subpixel corner can be used.

背景フロー検出部41は、比較画像上で探索処理を行って最類似点を検出する構成とすることができる。この探索にはルーカス・カナデ(Lucas-Kanade)法などの最急降下法など種々の探索方法が適用可能である。   The background flow detection unit 41 can be configured to perform a search process on the comparison image to detect the most similar point. For this search, various search methods such as the steepest descent method such as the Lucas-Kanade method can be applied.

ここで、前述したように配置物移動時の入力画像には人の像が含まれており、入力画像上の人の像が背景画像30の一部に類似した特徴を有していると、背景の一部と人との間に背景フローが誤検出され得る。   Here, as described above, the input image at the time of moving the arrangement includes a human image, and the human image on the input image has characteristics similar to a part of the background image 30, A background flow may be erroneously detected between a part of the background and a person.

一方、配置物の移動開始時の現画像及びその直前画像31は共に同一人物の像を含んでおり、同一人物の像同士は当該人物と背景よりも類似することが期待できる。そのため、背景フローと比較して入力フローでは人物と背景との間に動きベクトルが誤検出されにくい。   On the other hand, the current image at the start of the movement of the arrangement and the immediately preceding image 31 both include the same person image, and it can be expected that the same person image is more similar to the person and the background. Therefore, compared to the background flow, the motion vector is less likely to be erroneously detected between the person and the background in the input flow.

この性質に着目し、本実施形態の背景フロー検出部41は入力フローを検出する入力フロー検出部410と、入力フローと一致する背景フローを選定する背景フロー選定部411とを備え、選定した背景フローを出力することで人の影響による背景フローの誤検出を低減する。以下、これらについて説明する。   Focusing on this property, the background flow detection unit 41 of this embodiment includes an input flow detection unit 410 that detects an input flow, and a background flow selection unit 411 that selects a background flow that matches the input flow. By outputting the flow, false detection of background flow due to human influence is reduced. Hereinafter, these will be described.

入力フロー検出部410は相前後する入力画像である直前画像31(先行入力画像)と現画像(後続入力画像)とで互いに画像特徴の類似する対応点を検出する。具体的には、現画像及び直前画像31のうち、一方の画像上に複数の注目点を設定すると共に他方の画像において各注目点に特徴が最も類似する最類似点を検出し、注目点と最類似点とを結ぶ動きベクトルを算出し入力フローとする。ちなみに、直前画像31側の対応点が当該動きベクトルの始端、現画像側の対応点が終端である。算出した入力フローは背景フロー選定部411へ出力される。   The input flow detection unit 410 detects corresponding points having similar image characteristics between the immediately preceding image 31 (preceding input image) and the current image (subsequent input image), which are successive input images. Specifically, among the current image and the immediately preceding image 31, a plurality of attention points are set on one image, and the most similar point whose feature is most similar to each attention point in the other image is detected. A motion vector connecting the most similar points is calculated and used as an input flow. Incidentally, the corresponding point on the immediately preceding image 31 side is the start point of the motion vector, and the corresponding point on the current image side is the end point. The calculated input flow is output to the background flow selection unit 411.

なお、注目点の設定及び最類似点の検出は上述した背景フローの検出における処理と同様に行うことができる。すなわち、入力フロー検出部410は、配置変化検知に供する低密度な入力フロー(疎入力フロー)を検出するために、各時刻において一方の画像から特徴点を抽出して当該特徴点を注目点に設定し、配置物由来領域の特定に供する高密度な入力フロー(密入力フロー)を検出するために配置変化が検知されたときに各画素を注目点に設定する。また、このとき入力フロー検出部410は、処理量を削減するために、変化領域抽出部40によって得られる変化領域の内側にのみ注目点を設定することができる。そして、入力フロー検出部410は、他方の画像上で探索処理を行って最類似点を検出する。   Note that the attention point setting and the most similar point detection can be performed in the same manner as in the background flow detection described above. That is, the input flow detection unit 410 extracts a feature point from one image at each time and detects the feature point as an attention point in order to detect a low-density input flow (sparse input flow) used for arrangement change detection. Each pixel is set as a point of interest when an arrangement change is detected in order to detect a high-density input flow (dense input flow) that is set and used for specifying an arrangement-derived region. At this time, the input flow detection unit 410 can set the attention point only inside the change area obtained by the change area extraction unit 40 in order to reduce the processing amount. Then, the input flow detection unit 410 performs a search process on the other image to detect the most similar point.

背景フロー選定部411は入力フロー検出部410により検出された動きベクトル(入力フロー)と一致する背景フローを選定する。   The background flow selection unit 411 selects a background flow that matches the motion vector (input flow) detected by the input flow detection unit 410.

ここで、入力フローの検出とは独立して背景フローの検出を別途行い、それにより得られた背景フローと入力フローとの一致判定を行なうこともできるが、この方法では背景フローを検出するために処理量の多い類似点探索処理を行わなくてはならない。   Here, the background flow is detected separately from the input flow detection, and the background flow obtained by this can be determined to match the input flow. However, in this method, the background flow is detected. In addition, a similar point search process with a large amount of processing must be performed.

そこで、検出すべき背景フローは入力フローに包含されること、並びに背景フロー及び入力フローの元データのうち現画像は共通であることに着目して、本実施形態の背景フロー選定部411では背景フロー選定の処理方法を工夫し処理負荷の軽減を図っている。具体的には、背景フロー選定部411は、入力フロー検出部410により検出された各入力フローの始端の位置での直前画像31の画像特徴と、当該位置での背景画像30の画像特徴とが一致するか否かを判定し、一致すると判定された入力フローに相当する動きベクトルを背景フローと定める。すなわち、入力フローの始端・終端に基づいて背景フローの始端・終端を定義する。なお、直前画像31と背景画像30との間には照明変動やノイズによる微小変化が生じ得ることを考慮して始端の微小なずれ(例えば1画素分)は許容して一致判定を行なう。   Therefore, focusing on the fact that the background flow to be detected is included in the input flow and that the current image is common among the background flow and the original data of the input flow, the background flow selection unit 411 of the present embodiment selects the background. The flow selection processing method is devised to reduce the processing load. Specifically, the background flow selection unit 411 includes the image feature of the immediately preceding image 31 at the start position of each input flow detected by the input flow detection unit 410 and the image feature of the background image 30 at the position. It is determined whether or not they match, and a motion vector corresponding to the input flow determined to match is determined as the background flow. That is, the start and end of the background flow are defined based on the start and end of the input flow. Considering that a minute change due to illumination fluctuation or noise may occur between the immediately preceding image 31 and the background image 30, a slight deviation (for example, for one pixel) at the start end is allowed and the coincidence determination is performed.

配置変化検知部42は、背景フロー検出部41が検出した背景フロー又は入力フローに基づいて配置物移動開始の検知、配置物由来領域の検出、及び配置物の追跡を行う。   The arrangement change detection unit 42 detects the start of movement of the arrangement, detects the area derived from the arrangement, and tracks the arrangement based on the background flow or the input flow detected by the background flow detection unit 41.

配置変化検知部42は移動量、すなわちベクトルの大きさが予め設定した動き検出しきい値Ts以上の疎背景フローが検出されたときに配置物が移動開始した、つまり配置変化が生じたと判定する。この判定は各時刻において行われる。ここでTsは微小な照明変動により検出される誤差程度の背景フローを除外するための値であり、例えば2,3画素相当の大きさとすることができる。また、検知精度を上げるために、方向、数、位置の条件を加えて、同一変化領域から移動量がTs以上で同一方向の疎背景フローが所定数Tn(例えば10)以上検出されたときに配置物が移動開始したと判定してもよい。   The arrangement change detection unit 42 determines that the arrangement has started to move, that is, that an arrangement change has occurred when a sparse background flow having a movement amount, that is, a vector size equal to or greater than a preset motion detection threshold Ts is detected. . This determination is performed at each time. Here, Ts is a value for excluding a background flow of an error level detected by a minute illumination variation, and can be set to a size corresponding to a few pixels, for example. In addition, in order to increase the detection accuracy, when conditions of direction, number, and position are added and a movement amount is equal to or greater than Ts and a sparse background flow in the same direction is detected from a predetermined number Tn (for example, 10) or more from the same change area It may be determined that the arrangement has started moving.

配置変化検知部42は配置物の移動開始が検知されたとき、背景フロー検出部41が検出した密背景フローを参照して、移動量が動き検出しきい値Ts以上の対応点の位置を配置物由来領域として検出する。動き検出しきい値Tsには上述したように誤差程度の背景フローを除外できる値が予め設定される。またさらに配置変化検知部42は、配置物の追跡中に、背景フロー検出部41が検出した密入力フローを参照して、その対応点の位置を配置物由来領域として検出する。これらのために、配置変化検知部42は、配置物由来領域のうち配置物領域(移動先領域)を検出する配置物領域検出部420と、配置物由来領域のうちゴースト(移動元領域)を検出するゴースト検出部421とを備える。   When the movement start of the arrangement is detected, the arrangement change detection unit 42 refers to the dense background flow detected by the background flow detection unit 41 and arranges the position of the corresponding point whose movement amount is equal to or greater than the motion detection threshold Ts. It is detected as an object-derived region. As described above, the motion detection threshold value Ts is set in advance to a value that can exclude the background flow having an error level. Furthermore, the placement change detection unit 42 refers to the dense input flow detected by the background flow detection unit 41 during the tracking of the placement object, and detects the position of the corresponding point as the placement object-derived region. For these reasons, the arrangement change detection unit 42 detects the arrangement object area detection unit 420 that detects the arrangement object area (movement destination area) in the arrangement object-derived area and the ghost (movement source area) in the arrangement object-derived area. And a ghost detection unit 421 for detecting.

配置物領域検出部420は、配置物の移動開始が検知されたとき、移動量が動き検出しきい値Ts以上である密背景フローの現画像側の対応点の位置、つまり終端の位置を配置物の移動先領域である配置物領域として検出する。上述したように対応点は変化領域内にて検出されている。よって、変化領域の一部分であり、密背景フローの終端の画素の集まりが配置物移動開始時の配置物領域として検出される。また、配置物が手前に移動したときなど画像上の大きさや向きが変わると終端間に隙間が生じるため配置物領域検出部420は終端の画素の集まりに穴埋め処理(膨張処理してさらに収縮処理)を施す。そして、検出した配置物領域に新しい識別番号と、配置物状態として「追跡中」の属性とを付与して配置物情報32に登録する。   When the start of movement of the arrangement is detected, the arrangement object detection unit 420 arranges the position of the corresponding point on the current image side of the dense background flow whose movement amount is equal to or greater than the movement detection threshold Ts, that is, the position of the end. It is detected as an arrangement object area that is a movement destination area of an object. As described above, the corresponding points are detected in the change region. Therefore, a collection of pixels at the end of the dense background flow, which is a part of the change area, is detected as an arrangement area at the start of arrangement movement. In addition, if the size or orientation on the image changes, such as when the placement object moves forward, a gap is generated between the end points, so that the placement region detection unit 420 performs a filling process (expansion process and further contraction process) on the collection of end pixels. ). Then, a new identification number and an attribute “tracking” are assigned to the detected arrangement area and registered in the arrangement information 32.

また、配置物領域検出部420は配置物を追跡中のとき、背景フロー検出部41から得られる密入力フローのうち直前画像にて検出されている配置物領域内に始端があるものを抽出し、この抽出した密入力フローについて現画像における変化領域内にて検出される終端の集合を現時刻の配置物領域として検出する。なお、その際、停止中の配置物の領域も検出するためにゼロベクトルの密入力フローも検出に用い、また終端間の隙間を排除するために終端の集まりに穴埋め処理を施す。   Further, when the arrangement object is being tracked, the arrangement area detection unit 420 extracts a dense input flow obtained from the background flow detection unit 41 that has a start in the arrangement area detected in the immediately preceding image. A set of terminations detected in the change area in the current image for the extracted dense input flow is detected as an arrangement area at the current time. At that time, a zero-vector dense input flow is also used for detection in order to detect the area of the arrangement object that is stopped, and in order to eliminate a gap between the terminal ends, a filling process is performed on the collection of terminal ends.

以上により、配置物領域と人物領域とが一体化した変化領域から配置物領域及び人物領域を分離して検出できる。   As described above, the arrangement object area and the person area can be separated and detected from the change area in which the arrangement object area and the person area are integrated.

ゴースト検出部421は背景フローの背景画像側の対応点の位置に基づいてゴーストを検出する。ゴースト検出部421の処理はゴーストが配置物領域及び人物領域と一体化した混合状態のときの処理と、ゴーストが配置物領域及び人物領域から分離した分離状態のときの処理の2種類がある。   The ghost detection unit 421 detects a ghost based on the position of the corresponding point on the background image side of the background flow. There are two types of processing of the ghost detection unit 421: processing when the ghost is in a mixed state integrated with the arrangement object region and the person region, and processing when the ghost is separated from the arrangement object region and the person region.

疎背景フローの始端及び終端が同一変化領域にある場合は、ゴーストが混合状態である。この場合、ゴースト検出部421は移動量が動き検出しきい値Ts以上である密背景フローの背景画像側の対応点の位置、つまり始端の位置をゴーストとして検出する。また始端間の隙間を排除するために始端の集まりに穴埋め処理を施す。これにより、ゴーストが配置物領域や人物領域と一体化した変化領域の中からゴーストだけを分離して検出できる。   When the beginning and end of the sparse background flow are in the same change region, the ghost is in a mixed state. In this case, the ghost detection unit 421 detects the position of the corresponding point on the background image side of the dense background flow whose movement amount is equal to or greater than the motion detection threshold value Ts, that is, the position of the start end as a ghost. Further, in order to eliminate a gap between the start ends, a filling process is performed on the gathering of the start ends. Thus, only the ghost can be detected separately from the change area in which the ghost is integrated with the arrangement object area and the person area.

一方、背景フローの始端及び終端が異なる変化領域に分離して存在する場合は、ゴーストが分離状態である。この場合、ゴースト検出部421は移動量が動き検出しきい値Ts以上である疎背景フローの背景画像側の対応点の位置、つまり始端が検出された変化領域をゴーストとして検出する。つまり、分離状態であれば密背景フローを用いるまでもなく、疎背景フローのみで負荷をかけずにゴーストが検出できる。   On the other hand, when the start end and the end of the background flow are separated in different change areas, the ghost is in a separated state. In this case, the ghost detection unit 421 detects, as a ghost, the position of the corresponding point on the background image side of the sparse background flow whose movement amount is equal to or greater than the motion detection threshold Ts, that is, the change area where the start edge is detected. That is, in the separated state, it is not necessary to use the dense background flow, and the ghost can be detected without applying a load only with the sparse background flow.

配置物追跡部422は直前画像から検出された配置物領域と現画像から検出された変化領域とが疎入力フローで結ばれていれば同一配置物を含む領域として対応付ける。なお、停止中の配置物についても対応付けるためにゼロベクトルの疎入力フローも対応付けに用いる。   The arrangement tracking unit 422 associates an arrangement area detected from the immediately preceding image and a change area detected from the current image as an area including the same arrangement if they are connected by a sparse input flow. Note that a zero-vector sparse input flow is also used for association in order to associate the stopped arrangement.

また、配置物追跡部422は、同一配置物を含む変化領域同士で位置・形状を比較し、ほぼ同一の位置・形状のときに当該配置物が視野内にて移動完了したと判定する。この場合には、配置物情報32の配置物状態として「視野内にて移動完了」の属性が付与され、その配置物は追跡対象から外れる。同一の位置・形状か否かは例えば、両変化領域の重複度に基づいて判定でき、当該重複度をしきい値処理し、重複度が高い場合を同一位置・形状とすることができる。   Also, the arrangement tracking unit 422 compares the positions and shapes of the change areas including the same arrangement, and determines that the arrangement has been moved within the field of view when the positions and shapes are substantially the same. In this case, an attribute of “movement completed within the field of view” is given as the arrangement state of the arrangement information 32, and the arrangement is excluded from the tracking target. Whether or not they are the same position / shape can be determined based on, for example, the degree of overlap between the two change regions, and the degree of overlap can be thresholded, and the case where the degree of overlap is high can be made the same position / shape.

一方、直前画像から検出された配置物領域と対応付く配置物領域が現画像から検出されない場合は、配置物追跡部422は当該配置物が視野外へ移動完了したと判定する。この場合には、配置物状態として「視野外に移動完了」の属性が付与され、追跡対象から外れる。なお、この場合には、持ち出しの旨を表す異常信号を出力部5に出力してもよい。   On the other hand, when the arrangement area corresponding to the arrangement area detected from the immediately preceding image is not detected from the current image, the arrangement tracking section 422 determines that the arrangement has been moved out of the field of view. In this case, an attribute of “moving out of the field of view” is given as the arrangement state, and the object is not tracked. In this case, an abnormal signal indicating the take-out may be output to the output unit 5.

図2は背景フロー検出部41及び配置変化検知部42の処理を説明する模式図であり、背景画像200、直前画像210及び現画像220の具体例に基づいて背景フロー及び配置物由来領域の検出処理を示している。   FIG. 2 is a schematic diagram for explaining the processing of the background flow detection unit 41 and the arrangement change detection unit 42. Based on the specific examples of the background image 200, the immediately preceding image 210, and the current image 220, detection of the background flow and the arrangement-derived region is performed. Processing is shown.

背景画像200には配置物として椅子201(像201a)が存在し、また、当該背景画像200は誤検出の原因となり得る背景物202(像202a)を含んでいる。   The background image 200 includes a chair 201 (image 201a) as an arrangement, and the background image 200 includes a background object 202 (image 202a) that can cause erroneous detection.

直前画像210及び現画像220には、椅子201及び背景物202に加えて、人203が写っている。当該人203には背景物202に類似する色を有した部分が存在する。直前画像210では、まだ配置変化は生じておらず、椅子201(像201b)の位置は背景画像200と同一であり、人203(像203b)は椅子201にまだ接していない。一方、現画像220は人203(像203c)が椅子201に接した状態であり、椅子201(像201c)が配置変化を開始している。背景物202(像202c)は元の位置に留まっている。   In addition to the chair 201 and the background object 202, the person 203 is shown in the immediately preceding image 210 and the current image 220. The person 203 has a portion having a color similar to that of the background object 202. In the immediately preceding image 210, the arrangement has not changed yet, the position of the chair 201 (image 201b) is the same as that of the background image 200, and the person 203 (image 203b) is not yet in contact with the chair 201. On the other hand, the current image 220 is a state in which a person 203 (image 203c) is in contact with the chair 201, and the chair 201 (image 201c) has started to change its arrangement. The background object 202 (image 202c) remains in its original position.

模式的な画像230,240はそれぞれ背景フロー、入力フローを矢印で示している。画像230,240には、現画像220及び直前画像210それぞれと背景画像200との間での変化領域の輪郭を示している。具体的には、変化領域として、現画像220から椅子201と人203とが一体化した変化領域231が抽出され、背景画像200から椅子201のゴースト232が抽出される。また直前画像210からは人203の変化領域233が抽出される。   The schematic images 230 and 240 show the background flow and the input flow with arrows, respectively. The images 230 and 240 show the outlines of the change areas between the current image 220 and the immediately preceding image 210 and the background image 200, respectively. Specifically, the change area 231 in which the chair 201 and the person 203 are integrated is extracted from the current image 220 as the change area, and the ghost 232 of the chair 201 is extracted from the background image 200. Further, the change area 233 of the person 203 is extracted from the immediately preceding image 210.

画像230に示される背景フローには、椅子201の動きによる背景フロー234の他に、椅子201と人203との間に誤った背景フロー235が検出され、背景物202と人203との間に誤った背景フロー236が検出されている。   In the background flow shown in the image 230, in addition to the background flow 234 caused by the movement of the chair 201, an erroneous background flow 235 is detected between the chair 201 and the person 203. An incorrect background flow 236 has been detected.

画像240に示される入力フローでは、椅子201の動きによる入力フロー241と人203の動きによる入力フロー242とが検出される。ここで、椅子201と人203との類似度合いよりも人203同士の類似度合いの方が高いために、誤った背景フロー235に対応する入力フローは検出されない。また、背景物202と人203との類似度合いよりも人203同士の類似度合いの方が高いために、誤った背景フロー236に対応する入力フローも検出されない。   In the input flow shown in the image 240, an input flow 241 due to the movement of the chair 201 and an input flow 242 due to the movement of the person 203 are detected. Here, since the degree of similarity between the people 203 is higher than the degree of similarity between the chair 201 and the person 203, an input flow corresponding to the erroneous background flow 235 is not detected. Further, since the degree of similarity between the people 203 is higher than the degree of similarity between the background object 202 and the person 203, an input flow corresponding to the erroneous background flow 236 is not detected.

ちなみに、椅子201の入力フロー241と人203の入力フロー242とは、互いに近い位置でほぼ同じ向き及び大きさで検出される。そのため、配置物の入力フローを人の入力フローと識別するのは困難である。よって、入力フローのみから配置物由来領域を特定するのは困難である。   Incidentally, the input flow 241 of the chair 201 and the input flow 242 of the person 203 are detected in substantially the same direction and size at positions close to each other. Therefore, it is difficult to distinguish the input flow of the arrangement from the human input flow. Therefore, it is difficult to specify the arrangement-derived region only from the input flow.

模式的な画像250は、画像230に示す背景フローのうち画像240に示す入力フローと一致するものを示しており、当該背景フローが背景フロー検出部41により検出される。つまり、画像230に示す背景フローのうち椅子201の動きによる背景フロー234が、画像240に示す椅子201の動きによる入力フロー241と共通し、これが背景フロー251として選定される。一方、画像230に示す誤った背景フロー235,236は画像240の入力フローと共通しないので除外される。   A schematic image 250 shows the background flow shown in the image 230 that matches the input flow shown in the image 240, and the background flow is detected by the background flow detection unit 41. That is, the background flow 234 caused by the movement of the chair 201 in the background flow shown in the image 230 is in common with the input flow 241 caused by the movement of the chair 201 shown in the image 240, and is selected as the background flow 251. On the other hand, erroneous background flows 235 and 236 shown in the image 230 are excluded because they are not in common with the input flow of the image 240.

こうして選定された背景フロー251の終端の位置から配置物領域が特定され、始端の位置からゴーストが特定される。   The arrangement object region is specified from the end position of the background flow 251 selected in this way, and the ghost is specified from the start end position.

なお、上述したように背景フローと入力フローとを別々に生成して、それらの共通するものを背景フローとして選ぶ構成とすることもできるが、本実施形態の背景フロー選定部411は入力フローのうち、始端が背景画像200の同一位置と同じ画像特徴を有するものを背景フローとして選定する構成として、背景フロー検出に伴う処理負荷の軽減を図っている。当該構成では背景フロー234を求める処理負荷が軽減されると共に、入力フローには生じない動きベクトルである誤った背景フロー235,236を検出する無駄が省かれる。   Note that, as described above, the background flow and the input flow can be generated separately, and the common flow of them can be selected as the background flow. However, the background flow selection unit 411 of the present embodiment has the configuration of the input flow. Of these, a configuration in which the starting edge has the same image characteristics as the same position of the background image 200 is selected as the background flow, and the processing load associated with the background flow detection is reduced. With this configuration, the processing load for obtaining the background flow 234 is reduced, and waste of detecting erroneous background flows 235 and 236 that are motion vectors that do not occur in the input flow is eliminated.

また、ここでは背景物202は位置や輝度を変えず変化領域を生じないとしているので、背景フローと入力フローとを別々に生成して共通するものを背景フローとする構成においても、注目点又は類似点の探索範囲を変化領域に限定する上述の処理とすれば、誤った背景フロー236の検出は防止できる。   Here, since the background object 202 does not change the position and brightness and does not generate a change region, the background flow and the input flow are separately generated and the common flow is used as the background flow. If the above-described processing is performed to limit the search range for similar points to the change region, erroneous detection of the background flow 236 can be prevented.

背景画像生成部43は、画像監視装置1の起動時等の初期化処理として、無人時の入力画像を背景画像30として登録する。また背景画像生成部43は画像監視装置1の動作中にて、入力画像を用いて適宜、背景画像30を更新する背景画像更新部として機能する。具体的には、現画像と背景画像30との間の変化領域以外の領域について、背景画像30を現画像で置換したり、背景画像30と現画像とを加重平均して更新したりすることができる。   The background image generation unit 43 registers the unmanned input image as the background image 30 as an initialization process when the image monitoring apparatus 1 is activated. The background image generation unit 43 functions as a background image update unit that appropriately updates the background image 30 using the input image during the operation of the image monitoring apparatus 1. Specifically, for areas other than the change area between the current image and the background image 30, the background image 30 is replaced with the current image, or the background image 30 and the current image are updated by weighted averaging. Can do.

さらに、背景画像更新部として背景画像生成部43は、背景画像30における配置物領域のうち現画像では配置物が不在となっているゴースト領域を現画像により更新する。具体的には、配置物の移動完了が検知されたときに、背景画像30における配置物領域を現画像で置換して更新する。これにより移動完了した後、当該配置物領域を変化領域として抽出されなくすることができる。また、ゴースト領域が現画像において分離状態であると判定された時点で、背景画像30におけるゴースト領域を現画像で置換して更新し、それ以降、当該領域が変化領域として抽出されないようにできる。   Further, the background image generation unit 43 as the background image update unit updates the ghost region in the background image 30 where the arrangement object is absent in the current image with the current image. Specifically, when completion of movement of the arrangement is detected, the arrangement area in the background image 30 is replaced with the current image and updated. Thus, after the movement is completed, the arrangement object area can be prevented from being extracted as a change area. Further, when it is determined that the ghost area is in a separated state in the current image, the ghost area in the background image 30 is replaced with the current image and updated, and thereafter, the area is not extracted as a change area.

なお、上述の配置物領域に関する背景画像30の更新処理では、背景画像30に配置物の像が含まれなくなり得るが、一旦、配置変化が検知されれば配置物の像は背景から弁別され、その位置・形状が把握されるので、その情報を用いて以降の配置変化の検知や配置物領域の検出等の処理を続行することができる。一方、移動先の配置物の像を背景画像30に含める更新を行ってもよく、この場合には初期化処理後と同様にして配置変化の検知や配置物領域の検出等の処理が継続される。   In addition, in the update process of the background image 30 related to the arrangement object region described above, the arrangement image may not be included in the background image 30, but once the arrangement change is detected, the arrangement image is distinguished from the background. Since the position and shape are grasped, it is possible to continue processing such as detection of a change in arrangement and detection of an arrangement object area using the information. On the other hand, the update may be performed so that the image of the arrangement object at the movement destination is included in the background image 30. In this case, the process such as the detection of the arrangement change and the detection of the arrangement area is continued in the same manner as after the initialization process. The

マスク画像生成部44は入力画像に写る人のプライバシー保護を目的として、現画像のうち配置物領域及びゴースト(すなわち配置物由来領域)を除いた変化領域(加工対象領域)をマスク処理(フィルタ処理を含む)する加工を施した画像(マスク画像)を生成して出力部5へ出力するマスク処理部である。ちなみに、画像中の人物はその像を隠蔽する加工が施されることで誰であるか特定できないが、その隠蔽部分の形状及び動きが分かれば、監視員はそれに基づいて不審行動を把握することができる。   The mask image generation unit 44 performs mask processing (filter processing) on a change area (processing area) excluding an arrangement object area and a ghost (that is, an arrangement origin area) in the current image for the purpose of protecting the privacy of a person shown in the input image. This is a mask processing unit that generates an image (mask image) that has been processed to include and outputs the image to the output unit 5. By the way, the person in the image cannot be identified by processing to conceal the image, but if the shape and movement of the concealed part are known, the observer should grasp suspicious behavior based on it Can do.

ここで、その行動把握に際して、配置物由来領域を除く前の変化領域は人と配置物とが一体化して人の形状及び動きを視認しづらい状況が発生し得る。そのため、監視員は不審行動の有無を把握するために、加工前の入力画像を確認する手続きが必要になるなど、監視性が低下し、被写体のプライバシーも損なわれる。   Here, when grasping the action, it may be difficult to visually recognize the shape and movement of the person because the person and the arrangement are integrated in the change area before the area derived from the arrangement. For this reason, in order to ascertain the presence or absence of suspicious behavior, the monitoring person needs a procedure for confirming the input image before processing. For example, the monitoring performance is deteriorated and the privacy of the subject is also impaired.

一方、配置物は元々監視空間に存在したものであるため、配置物由来領域はプライバシー保護の加工処理をしなくてよいことが明白であり、むしろ配置物由来領域をプライバシー保護処理してしまうと状況把握がしづらくなる。   On the other hand, since the placement object originally existed in the monitoring space, it is clear that the placement-derived area does not need to be processed for privacy protection. It becomes difficult to grasp the situation.

この点、マスク画像生成部44は配置物由来領域を除いた変化領域を加工対象領域とするので、マスク画像にて上述のように人の形状及び動きを視認でき、また配置物の様子も視認できる。よって、監視員はマスク画像のみで状況を把握でき、プライバシー保護と監視性とを両立できる。   In this respect, since the mask image generation unit 44 uses the change area excluding the arrangement-derived area as the processing target area, the mask image can visually recognize the shape and movement of the person as described above, and also the appearance of the arrangement. it can. Therefore, the monitoring person can grasp the situation only with the mask image, and both privacy protection and monitoring can be achieved.

マスク処理は、加工対象領域と同形状である単色画像と、加工対象領域の背景画像30とを透過合成した合成画像を生成して、当該合成画像で現画像における加工対象領域を置換することにより行なう。また、背景画像を透過合成する代わりに、現画像における加工対象領域を単色で塗りつぶす、テクスチャで塗りつぶす、或いは現画像における加工対象領域にぼかし処理を施すなどの加工処理とすることもできる。   The mask processing is performed by generating a composite image obtained by transparently combining a single-color image having the same shape as the processing target region and the background image 30 of the processing target region, and replacing the processing target region in the current image with the composite image. Do. Further, instead of transparently synthesizing the background image, it is also possible to perform processing such as painting a processing target area in the current image with a single color, painting with a texture, or performing a blurring process on the processing target area in the current image.

ここで、配置物の像の縁部では画素による量子化の影響を受け、配置物の色と背景の色とが混じった画素やノイズ画素や配置物の影の画素が生じ、これらの画素が変化領域の一部として抽出されがちであるため、変化領域は少し広めに抽出されることが多い。そこで変化領域から配置物由来領域を除いた領域に、収縮処理を所定回数施してからこれと同回数の膨張処理を施して加工対象領域を生成するのがよい。収縮処理及び膨張処理の回数は1回ないし数回程度に設定すればよく、本実施形態では2回とする。   Here, at the edge of the image of the arrangement object, the pixel is affected by the quantization, and a pixel in which the color of the arrangement object and the background color are mixed, a noise pixel, or a shadow pixel of the arrangement object is generated. Since it tends to be extracted as a part of the change area, the change area is often extracted a little wider. Therefore, it is preferable to perform the contraction process a predetermined number of times on the area excluding the arrangement-derived area from the change area and then perform the same number of expansion processes to generate the processing target area. The number of times of the contraction process and the expansion process may be set to about 1 to several times, and is set to 2 in this embodiment.

出力部5は異常信号に応じて警告音を出力するスピーカー又はブザー等の音響出力手段、プライバシー加工された合成画像を表示する液晶ディスプレイ又はCRT等の表示手段などを含んでなる。   The output unit 5 includes a sound output unit such as a speaker or a buzzer that outputs a warning sound in response to an abnormal signal, a display unit such as a liquid crystal display or a CRT that displays a privacy-processed composite image, and the like.

[画像監視装置1の動作]
図3は画像監視装置1の概略の動作を示すフロー図である。
[Operation of the image monitoring apparatus 1]
FIG. 3 is a flowchart showing a schematic operation of the image monitoring apparatus 1.

画像監視装置1は監視空間に人がいない状態にて起動され、撮像部2が所定時間おきに監視空間を撮像する動作を開始する。背景画像生成部43は予め設定した初期化期間に撮像される入力画像から人が写っていない画像を取得又は生成して、当該画像で記憶部3の背景画像30を初期化する(S1)。例えば、背景画像生成部43は、初期化期間の複数時刻の入力画像を平均処理して背景画像30を生成する。   The image monitoring apparatus 1 is activated in a state where there is no person in the monitoring space, and the imaging unit 2 starts an operation of imaging the monitoring space every predetermined time. The background image generation unit 43 acquires or generates an image in which no person is captured from an input image captured during a preset initialization period, and initializes the background image 30 of the storage unit 3 with the image (S1). For example, the background image generation unit 43 generates the background image 30 by averaging the input images at a plurality of times in the initialization period.

初期化期間経過後、制御部4は撮像部2から取得する入力画像を用いた監視動作を開始する。制御部4は入力画像(以下、現画像)を順次入力され(S2)、当該画像を入力されるたびにステップS2〜S16の処理を繰り返す。   After the initialization period, the control unit 4 starts a monitoring operation using the input image acquired from the imaging unit 2. The control unit 4 sequentially receives input images (hereinafter, the current image) (S2), and repeats the processes of steps S2 to S16 each time the image is input.

変化領域抽出部40は順次入力される現画像を背景画像30と比較し、現画像における変化領域を抽出する(S3)。制御部4は変化領域が抽出されたか否かを判定し(S4)、変化領域が抽出されなければ(S4にて「NO」の場合)、制御部4はステップS5〜S14を省略して処理をステップS15へ進める。この場合、背景画像生成部43は背景画像30全体を現画像と加重平均することにより更新し(S15)、制御部4は現画像そのままを出力部5へ出力し、出力部5は現画像そのままを表示する(S16)。   The change area extraction unit 40 compares the current image sequentially input with the background image 30, and extracts a change area in the current image (S3). The control unit 4 determines whether or not a change region has been extracted (S4). If the change region is not extracted (in the case of “NO” in S4), the control unit 4 omits steps S5 to S14 and performs processing. To step S15. In this case, the background image generation unit 43 updates the entire background image 30 by weighted averaging with the current image (S15), the control unit 4 outputs the current image as it is to the output unit 5, and the output unit 5 outputs the current image as it is. Is displayed (S16).

一方、変化領域が抽出された場合(S4にて「YES」の場合)、制御部4は処理をステップS5へ進め、配置変化検知処理を行う(S5)。   On the other hand, when a change area is extracted (in the case of “YES” in S4), the control unit 4 advances the process to step S5 and performs an arrangement change detection process (S5).

背景フロー検出部41は、入力フロー検出部410により疎入力フローを検出し、背景フロー選定部411によりその始端において背景画像30の画像特徴が直前画像31の画像特徴と一致する疎入力フローを疎背景フローとして検出する。配置変化検知部42は疎背景フローを参照して、同一変化領域から移動量がTs以上で同一方向の疎背景フローがTn以上検出されるか調べ、検出されると配置変化を検知したと判定すると共に、当該疎背景フローのグループの始端側、終端側の変化領域をそれぞれ配置物の移動元、移動先に設定する。   The background flow detection unit 41 detects a sparse input flow by the input flow detection unit 410, and sparses a sparse input flow in which the image feature of the background image 30 matches the image feature of the immediately preceding image 31 by the background flow selection unit 411. Detect as background flow. The arrangement change detection unit 42 refers to the sparse background flow and checks whether a movement amount is equal to or greater than Ts and a sparse background flow in the same direction is detected from the same change area to Tn or more. If it is detected, it is determined that an arrangement change is detected. At the same time, the change areas on the start and end sides of the group of the sparse background flow are set as the movement source and the movement destination of the arrangement, respectively.

配置変化検知部42は配置変化検知処理S5にて新たな配置物の移動が検知された、又は追跡中の配置物(前時刻までに移動が検知されて追跡終了していない配置物)がある場合は配置変化中であると判定する(S6にて「YES」の場合)。   The arrangement change detection unit 42 has an arrangement in which movement of a new arrangement has been detected in the arrangement change detection processing S5 or is being tracked (an arrangement in which movement has been detected by the previous time and tracking has not ended). In this case, it is determined that the arrangement is changing (in the case of “YES” in S6).

ここで、配置変化中の配置物が存在しなければ(S6にて「NO」の場合)、制御部4はステップS7〜S13を省略してステップS14〜S16の処理を行う。この場合、全ての変化領域は人物領域として処理される。すなわち、マスク画像生成部44は全ての変化領域をマスク処理し、背景画像生成部43は変化領域以外の背景画像30を現画像と加重平均することにより更新し、制御部4はマスク処理された画像を出力部5へ出力し、出力部5はマスク処理された画像を表示する。   Here, if there is no arrangement subject to arrangement change (in the case of “NO” in S6), the control unit 4 omits steps S7 to S13 and performs the processes of steps S14 to S16. In this case, all the change areas are processed as person areas. That is, the mask image generation unit 44 performs mask processing on all the changed regions, the background image generation unit 43 updates the background image 30 other than the change regions by weighted averaging with the current image, and the control unit 4 performs the mask processing. The image is output to the output unit 5, and the output unit 5 displays the masked image.

ステップS6にて配置変化中の配置物が検知された場合は、配置物追跡部422が当該配置物の中に追跡中のものがあるか否かを調べ(S7)、追跡中の配置物がある場合は(S7にて「YES」の場合)、当該配置物を追跡して現在位置に対応する変化領域を検出する(S8)。一方、追跡中の配置物がない場合は(S7にて「NO」の場合)、ステップS8の処理は省略される。なお、ステップS5にて移動開始が検知された配置物は次時刻以降に追跡中となり、現時刻においては追跡処理S8の対象とはされない。   When an arrangement being changed in step S6 is detected, the arrangement tracking unit 422 checks whether or not there is an object being tracked (S7). If there is (in the case of “YES” in S7), the arrangement is tracked to detect a change area corresponding to the current position (S8). On the other hand, if there is no tracked object ("NO" in S7), the process of step S8 is omitted. In addition, the arrangement | positioning object by which the movement start was detected in step S5 will be tracking after the next time, and is not made into the object of tracking process S8 at the present time.

次に、変化領域中の配置物由来領域を特定するために、背景フロー検出部41によって背景フロー検出処理S9が行われる。図4は背景フロー検出処理S9の概略のフロー図であり、以下、図4に基づいて背景フロー検出処理を説明する。背景フロー検出部41の入力フロー検出部410は領域情報33として記憶されている直前時刻の変化領域及びステップS3で抽出された現時刻の変化領域を参照し、直前時刻の変化領域内または現時刻の変化領域内である直前画像31の各画素を注目点に設定する(S101)。   Next, in order to specify the arrangement-derived region in the change region, the background flow detection unit 41 performs background flow detection processing S9. FIG. 4 is a schematic flowchart of the background flow detection process S9. The background flow detection process will be described below with reference to FIG. The input flow detection unit 410 of the background flow detection unit 41 refers to the change region of the previous time stored as the region information 33 and the change region of the current time extracted in step S3, and within the change region of the previous time or the current time Each pixel of the immediately preceding image 31 that is within the change area is set as a point of interest (S101).

入力フロー検出部410は、現画像において、直前画像31にて設定した注目点の画像特徴と最も類似した画像特徴を有する最類似点を探索する(S103)。そして、注目点を始端とし最類似点を終端とするベクトルを密入力フローとして検出する(S104)。なお、密入力フローとしてゼロベクトルも検出しておく。また、ステップS103にて類似度が閾値以下の最類似点しか見つからない場合は、当該注目点に対応する密入力フローは検出されないとすることができる。   The input flow detection unit 410 searches the current image for the most similar point having an image feature most similar to the image feature of the target point set in the immediately preceding image 31 (S103). Then, a vector starting from the attention point and ending at the most similar point is detected as a dense input flow (S104). A zero vector is also detected as a dense input flow. In addition, when only the most similar point with a similarity equal to or less than the threshold value is found in step S103, it can be assumed that the dense input flow corresponding to the point of interest is not detected.

背景フロー選定部411は密入力フローと一致する密背景フローを選定する。具体的には、ステップS104にて検出された各密入力フローの始端座標を中心に所定のずれ許容範囲を設定し(S105)、当該ずれ許容範囲にて背景画像30にて直前画像31の注目点との一致点の検出を試みる(S106)。ずれ許容範囲は例えば、3×3画素に設定することができ、これにより1画素内のずれが許容されることになる。   The background flow selection unit 411 selects a dense background flow that matches the dense input flow. Specifically, a predetermined deviation allowable range is set around the start coordinates of each dense input flow detected in step S104 (S105), and the immediately preceding image 31 is noticed in the background image 30 within the deviation allowable range. An attempt is made to detect a coincident point with the point (S106). The allowable shift range can be set to 3 × 3 pixels, for example, and a shift within one pixel is allowed.

背景フロー選定部411はステップS106にて背景画像に一致点が検出された場合、当該一致点を始端とし対応する最類似点を終端とするベクトルを密背景フローとして検出する(S107)。一方、注目点がずれ許容範囲内の背景画像に一致しない場合は、当該注目点を始点とする密入力フローに対応する密背景フローは選定されない。なお、現時刻において移動開始が検知されていない場合はステップS104〜S107を省略できる。   When a matching point is detected in the background image in step S106, the background flow selection unit 411 detects a vector having the matching point as a starting point and the corresponding most similar point as a terminal as a dense background flow (S107). On the other hand, when the attention point does not match the background image within the deviation allowable range, the dense background flow corresponding to the dense input flow starting from the attention point is not selected. Note that if the start of movement is not detected at the current time, steps S104 to S107 can be omitted.

上述の背景フロー検出処理S9により移動開始が検知された配置物について密背景フローが検出されると、配置変化検知部42の配置物領域検出部420は移動量がTs以上の密背景フローの終端として検出した最類似点の集まりを現時刻の配置物領域として検出する(S10)。また、追跡中の配置物については、配置物領域検出部420は当該配置物の配置物情報32から直前時刻の配置物領域を読み出し、ステップS104にて検出された密入力フローのうち当該領域の画素を始端とする密入力フローの終端の集まりを現時刻の配置物領域として検出する(S10)。   When the dense background flow is detected for the arrangement whose movement start is detected by the background flow detection process S9 described above, the arrangement area detection unit 420 of the arrangement change detection unit 42 terminates the dense background flow whose movement amount is Ts or more. Is detected as the arrangement area at the current time (S10). Further, for the arrangement being tracked, the arrangement area detection unit 420 reads the arrangement area at the immediately preceding time from the arrangement information 32 of the arrangement, and the area of the dense input flow detected in step S104. A collection of terminal ends of the dense input flow starting from the pixel is detected as an arrangement area at the current time (S10).

配置変化検知部42は現画像における配置物の変化領域について人の変化領域やゴーストとの分離・混合を判定する(S11)。現時刻において移動開始が検知された配置物について、配置変化検知部42はステップS204で設定した移動元の変化領域とステップS205で設定した移動先の変化領域とが同一か異なるかを確認し、その結果に基づいて分離・混合判定を行う。   The arrangement change detection unit 42 determines separation / mixing of the change area of the arrangement in the current image with a person change area or a ghost (S11). For the arrangement in which the movement start is detected at the current time, the arrangement change detection unit 42 confirms whether the movement source change area set in step S204 is the same as or different from the movement destination change area set in step S205. Based on the result, separation / mixing determination is performed.

図5は移動元の変化領域と移動先の変化領域とが同一の場合及び異なる場合の例を示す模式的な画像である。図5(a)は移動元領域500と移動先領域501aとが同一変化領域の場合を示しており、移動開始が検知された配置物の移動量が小さく現画像における人及び配置物(移動先領域501a)とゴースト(移動元領域500)とが一体化した変化領域が抽出されている。配置変化検知部42は、この場合の配置物の変化領域を「人との混合領域」かつ「ゴーストとの混合領域」と判定する。   FIG. 5 is a schematic image showing an example in which the movement source change area and the movement destination change area are the same or different. FIG. 5A shows a case where the movement source area 500 and the movement destination area 501a are the same change area. The movement amount of the arrangement object whose movement start is detected is small, and the person and the arrangement object (movement destination in the current image). A change area in which the area 501a) and the ghost (movement source area 500) are integrated is extracted. The arrangement change detection unit 42 determines the change area of the arrangement in this case as “a mixed area with a person” and “a mixed area with a ghost”.

一方、図5(b)は移動元領域500と移動先領域501bとが異なる変化領域である場合を示しており、現画像における人及び配置物(移動先領域501b)とゴースト(移動元領域500)とが分離した変化領域として抽出されている。配置変化検知部42はこの場合の配置物の変化領域を「人との混合領域」かつ「ゴーストとの分離領域」と判定する。   On the other hand, FIG. 5B shows a case where the movement source area 500 and the movement destination area 501b are different change areas, and a person and an arrangement (movement destination area 501b) and a ghost (movement source area 500) in the current image. ) Are extracted as separated change areas. The arrangement change detection unit 42 determines the change area of the arrangement in this case as a “mixed area with people” and a “separated area with ghost”.

また、追跡中の配置物については、配置変化検知部42はステップS8で対応付けられた直前時刻の変化領域と現時刻の変化領域との形状が一致するか否かを確認し、その結果に基づいて分離・混合判定を行う。   For the arrangement being tracked, the arrangement change detection unit 42 checks whether or not the shape of the change area at the immediately preceding time and the change area at the current time matched in step S8 match. Based on this, separation / mixing judgment is performed.

図6は追跡中の配置物の変化領域が写る、連続する3時刻における入力画像、及び当該画像にて配置物に対応付けられた変化領域の例の模式図であり、同図(a)〜(c)の順に時刻が進み、また同図(a)〜(c)それぞれにおいて左側が入力画像、右側が変化領域を示す画像である。配置物に対応付けられた変化領域の形状が直前時刻と現時刻とで一致しない場合は、例えば、図6(a)に示す人と配置物とが一体の状態から図6(b)に示す人と配置物とが分離した状態に移行した直後である。この場合、配置変化検知部42は即座に分離を判定せず、当該配置物の変化領域についての判定を「人との混合領域」のまま維持する。一方、配置物に対応付けられた変化領域の形状が直前時刻と現時刻とで一致する場合は、例えば、図6(b)に示す状態から図6(c)に示す状態に移行した場合のように直前時刻及び現時刻のいずれにおいても人と配置物とが分離した状態であり、安定的な分離状態といえる。この場合は、配置変化検知部42は当該配置物に対応付けられた変化領域について「人との分離領域」と判定する。   FIG. 6 is a schematic diagram of an example of an input image at three consecutive times in which a change area of an arrangement being tracked is reflected, and an example of a change area associated with the arrangement in the image. The time advances in the order of (c), and in each of the diagrams (a) to (c), the left side is an input image and the right side is an image showing a change area. When the shape of the change area associated with the arrangement does not match the previous time and the current time, for example, the person and the arrangement shown in FIG. Immediately after the person and the arrangement are separated. In this case, the arrangement change detection unit 42 does not immediately determine the separation, but maintains the determination of the change area of the arrangement as the “mixed area with people”. On the other hand, when the shape of the change area associated with the arrangement matches the previous time and the current time, for example, when the state is changed from the state shown in FIG. 6B to the state shown in FIG. In this way, the person and the arrangement are separated at both the previous time and the current time, and can be said to be a stable separation state. In this case, the arrangement change detection unit 42 determines that the change area associated with the arrangement object is a “separated area from a person”.

ゴースト検出部421は、現時刻において移動開始が検知された配置物、及び追跡中であってゴーストの分離が判定されていない配置物を対象にして、上述したゴースト領域を検出する処理を行う(S12)。ゴースト検出部421は、現時刻において配置物の移動開始が検知されたのであれば、ステップS10で検出した密背景フローを参照してその注目点の集まりをゴーストとして検出する。   The ghost detection unit 421 performs the process of detecting the ghost region described above for an arrangement whose movement start has been detected at the current time and an arrangement that is being tracked and for which ghost separation has not been determined. S12). If the movement start of the arrangement is detected at the current time, the ghost detection unit 421 refers to the dense background flow detected in step S10 and detects the set of attention points as a ghost.

配置変化検知部42は、ステップS7にて配置変化中と判定された場合に上述のステップS8〜S12の処理を行い、その結果に基づいて配置物情報32及び領域情報33を更新する(S13)。具体的には、ステップS10にて、現時刻において新たに検出した配置物領域を、新しい識別番号及び追跡中の属性と共に配置物情報32に登録する。また、追跡中の配置物の配置物情報32における配置物領域の情報を、現時刻において検出した当該配置物の配置物領域で更新する。S9において視野外への移動完了が検出された配置物については配置物情報32の配置物状態を「視野外に移動完了」という属性に変更する。また、該当する配置物の配置物情報32の分離・混合情報をステップS12の分離・混合判定結果で更新すると共に、ステップS12にて「人との分離領域」が判定された配置物の属性を「視野内にて移動完了」に変更する。   If it is determined in step S7 that the arrangement is changing, the arrangement change detection unit 42 performs the processes in steps S8 to S12 described above, and updates the arrangement information 32 and the area information 33 based on the result (S13). . Specifically, in step S10, the arrangement area newly detected at the current time is registered in the arrangement information 32 together with the new identification number and the attribute being tracked. Also, the information on the arrangement area in the arrangement information 32 of the arrangement being tracked is updated with the arrangement area of the arrangement detected at the current time. For an arrangement for which completion of movement out of the field of view is detected in S9, the arrangement state of the arrangement information 32 is changed to an attribute "completion of movement out of field of view". Further, the separation / mixing information of the arrangement information 32 of the corresponding arrangement is updated with the separation / mixing determination result of step S12, and the attribute of the arrangement for which “separation area with human” is determined in step S12 is displayed. Change to “Completed within view”.

以上の処理により変化領域における配置物領域及びゴーストが検出されると、マスク画像生成部44は変化領域から配置物領域及びゴーストを除外し、次に除外後の領域に収縮処理を2回施し、さらに膨張処理を2回施して加工対象領域を生成する。続いて加工対象領域と同形状である単色画像と、加工対象領域の背景画像30とを透過合成して合成画像を生成し、現画像における加工対象領域を当該合成画像で置換してマスク画像を生成する(S14)。なお、配置物領域が検出されていない場合は配置物領域を除外する処理は省略される。また、ゴーストが検出されていない場合はゴーストを除外する処理は省略される。   When the arrangement area and the ghost in the change area are detected by the above processing, the mask image generation unit 44 excludes the arrangement area and the ghost from the change area, and then performs the contraction process twice on the area after the exclusion, Furthermore, an expansion process is performed twice to generate a processing target area. Subsequently, a single color image having the same shape as the processing target area and the background image 30 of the processing target area are transparently synthesized to generate a composite image, and the processing target area in the current image is replaced with the composite image to replace the mask image. Generate (S14). In addition, when the arrangement object area | region is not detected, the process which excludes an arrangement object area | region is abbreviate | omitted. If no ghost is detected, the process of excluding the ghost is omitted.

変化領域が抽出された現画像についてマスク画像の生成まで完了すると、背景画像生成部43は変化領域から、分離が判定されたゴースト及び移動完了が検知された配置物の配置物領域を除外して更新対象領域を算出し、背景画像30の更新対象領域の部分を当該更新対象領域における現画像で置換する(S15)。なお、移動完了が検知された配置物がない場合は配置物領域を除外する処理は省略される。また、分離が判定されたゴーストがない場合はゴーストを除外する処理は省略される。   When the generation of the mask image is completed for the current image from which the change area is extracted, the background image generation unit 43 excludes the ghost whose separation is determined and the arrangement area of the arrangement where the movement completion is detected from the change area. The update target area is calculated, and the part of the update target area of the background image 30 is replaced with the current image in the update target area (S15). If there is no arrangement for which movement completion is detected, the process of excluding the arrangement area is omitted. If there is no ghost determined to be separated, the process of excluding the ghost is omitted.

また、背景画像生成部43は変化領域以外の背景画像30を現画像と加重平均することにより更新する。   Further, the background image generation unit 43 updates the background image 30 other than the change area by performing a weighted average with the current image.

制御部4はマスク画像生成部44にてマスク画像が生成されたときは、マスク画像を出力部5へ出力し、マスク画像が生成されなかったときは現画像を出力部5へ出力する。出力部5は制御部4から入力された画像をモニタに表示する(S16)。   The control unit 4 outputs the mask image to the output unit 5 when the mask image is generated by the mask image generation unit 44, and outputs the current image to the output unit 5 when the mask image is not generated. The output unit 5 displays the image input from the control unit 4 on the monitor (S16).

現画像について以上の処理S2〜S16を終えると、制御部4は、現画像で直前画像31を置換するとともに、ステップS3で抽出された変化領域の情報で領域情報33を置換して、処理をステップS2に戻す。   When the above processes S2 to S16 are completed for the current image, the control unit 4 replaces the immediately preceding image 31 with the current image and also replaces the area information 33 with the information of the changed area extracted in step S3. Return to step S2.

図7は画像監視装置1によりマスク画像が生成される過程を具体例を用いて説明する模式図である。図7(a)は現画像600を示しており、人601が椅子602を動かした直後の状態を撮像した画像である。図7(b)に示す画像610は現画像600から抽出された変化領域を示す画像である。図7(a)の現画像に示した現時刻に人601が存在する領域及び椅子602が存在する領域と、椅子602のゴーストとの3種類の領域が一体化した変化領域611として抽出されている。この変化領域611そのままの形状をマスク処理すると人601が椅子602を動かしていることが視認しづらい。なお、像の境界部は量子化の影響で椅子602や人601が背景と混じった画素となるため、また椅子602や人601の下方に影が生じるため、変化領域611は少し広めに抽出される。   FIG. 7 is a schematic diagram illustrating a process of generating a mask image by the image monitoring apparatus 1 using a specific example. FIG. 7A shows a current image 600, which is an image obtained by capturing a state immediately after the person 601 moves the chair 602. An image 610 shown in FIG. 7B is an image showing a change area extracted from the current image 600. A region 611 in which the person 601 exists at the current time shown in the current image in FIG. 7A, a region in which the chair 602 exists, and a ghost of the chair 602 are extracted as an integrated change region 611. Yes. If the shape of the change area 611 is masked, it is difficult to visually recognize that the person 601 is moving the chair 602. Note that the boundary portion of the image is a pixel in which the chair 602 and the person 601 are mixed with the background due to the influence of quantization, and a shadow is generated below the chair 602 and the person 601, so the change region 611 is extracted slightly wider. The

図7(c)に示す画像620には変化領域611の中から検出されたゴースト621(斜線部)と配置物領域622(縦線部)とが示されている。図7(d)はマスク画像630を模式的に示しており、当該画像630は、変化領域611からゴースト621及び配置物領域622を除外した領域に形成されたマスク631により現画像600をプライバシー保護した画像である。変化領域611が少し広めに抽出されて椅子602の周りに細く残る領域(図7(c)参照)は収縮処理と膨張処理により図7(d)では除去されている。椅子602の領域には現画像が露出し、人601の形状が視認しやすく、椅子602と人601の関係も視認しやすくなっている。その上で人601の像はマスク処理されてプライバシーが保護されている。   In an image 620 shown in FIG. 7C, a ghost 621 (shaded portion) and an arrangement object region 622 (vertical line portion) detected from the change region 611 are shown. FIG. 7D schematically shows a mask image 630. The image 630 protects the current image 600 with privacy by a mask 631 formed in a region excluding the ghost 621 and the arrangement region 622 from the change region 611. It is an image. The area (see FIG. 7C) in which the change area 611 is extracted slightly wider and remains thin around the chair 602 (see FIG. 7C) is removed in FIG. 7D by the contraction process and the expansion process. The current image is exposed in the area of the chair 602, the shape of the person 601 is easily visible, and the relationship between the chair 602 and the person 601 is also easily visible. On top of that, the image of the person 601 is masked to protect privacy.

[変形例]
以上、本願発明の実施形態を説明したが、当該実施形態を改変して本願発明の他の実施形態とすることもできる。以下、その例について説明する。
[Modification]
As mentioned above, although embodiment of this invention was described, the said embodiment can be changed and it can also be set as other embodiment of this invention. Examples thereof will be described below.

配置変化検知部42は配置物情報32に登録された配置物領域(移動先領域)を登録抹消せずにテンプレートとして保持し、または背景画像のゴースト部分(移動元領域)を配置物のテンプレートとして配置物情報32に登録し、登録以降、一度検出された配置物については配置物領域検出部420にて当該テンプレートを用いたマッチング処理により入力画像における配置物の移動先領域を検出することができる。   The arrangement change detection unit 42 holds the arrangement object area (movement destination area) registered in the arrangement object information 32 as a template without deleting the registration, or uses the ghost part (movement source area) of the background image as a template of the arrangement object. For an arrangement that has been registered in the arrangement information 32 and has been detected after registration, the arrangement area detection unit 420 can detect the movement destination area of the arrangement in the input image by matching processing using the template. .

また、人物追跡に配置変化の検知結果を利用することが可能である。例えば、配置物由来領域以外の変化領域を人物領域として追跡することができる。また、配置物を含むことが判定された変化領域を人と配置物との分離が検出されるまでの間、当該変化領域の特徴量(人と配置物が混在した特徴量)により追跡し、この間、人物単独の特徴量は退避しておき、分離が検出されれば人物単独の特徴量による追跡に切り換えるという手法もある。   Further, it is possible to use the detection result of the arrangement change for person tracking. For example, a change area other than the arrangement-derived area can be tracked as a person area. In addition, until a change area determined to contain an arrangement is detected until a separation between the person and the arrangement is detected, the change area is characterized by a feature quantity (a feature quantity in which the person and the arrangement are mixed), During this time, there is a method in which the feature amount of the person alone is saved and switching to tracking by the feature amount of the person alone is detected if separation is detected.

1 画像監視装置、2 撮像部、3 記憶部、4 制御部、5 出力部、30 背景画像、31 直前画像、32 配置物情報、33 領域情報、40 変化領域抽出部、41 背景フロー検出部、42 配置変化検知部、43 背景画像生成部、44 マスク画像生成部、410 入力フロー検出部、411 背景フロー選定部、420 配置物領域検出部、421 ゴースト検出部、422 配置物追跡部。   DESCRIPTION OF SYMBOLS 1 Image monitoring apparatus, 2 Image pick-up part, 3 Storage part, 4 Control part, 5 Output part, 30 Background image, 31 Immediately preceding image, 32 Arrangement information, 33 Area information, 40 Change area extraction part, 41 Background flow detection part, 42 arrangement change detection unit, 43 background image generation unit, 44 mask image generation unit, 410 input flow detection unit, 411 background flow selection unit, 420 arrangement object region detection unit, 421 ghost detection unit, 422 arrangement object tracking unit.

Claims (5)

監視空間内を撮像した入力画像を順次入力され、前記入力画像にプライバシー保護のためのマスク処理を施す画像処理装置であって、
前記監視空間に置かれた配置物を含む背景が撮像された前記監視空間の背景画像を記憶する記憶部と、
前記背景画像と前記入力画像との間における変化領域を求める変化領域抽出部と、
前記変化領域内の前記入力画像に前記マスク処理を施すマスク処理部と、
前記背景画像と前記入力画像とを照合して、前記変化領域のうち前記配置物の移動により生じた配置物由来領域を求める配置変化領域特定部と、
を備え、
前記マスク処理部は、前記配置物由来領域を前記マスク処理の対象から除外すること、
を特徴とする画像処理装置。
An image processing apparatus that sequentially inputs input images captured in a monitoring space and performs mask processing for privacy protection on the input images,
A storage unit that stores a background image of the monitoring space in which a background including an arrangement placed in the monitoring space is captured;
A change area extraction unit for obtaining a change area between the background image and the input image;
A mask processing unit that performs the mask processing on the input image in the change area;
An arrangement change area specifying unit that compares the background image with the input image and obtains an arrangement-derived area generated by movement of the arrangement among the change areas;
With
The mask processing unit excludes the arrangement-derived region from the mask processing target;
An image processing apparatus.
請求項1に記載の画像処理装置において、
前記配置変化領域特定部は、前記背景画像と前記入力画像との間にて互いに画像特徴が類似する対応点を検出して当該対応点間の移動量を算出し、当該移動量が所定値以上である前記対応点の位置から前記配置物由来領域を検出すること、を特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The arrangement change region specifying unit detects corresponding points having similar image characteristics between the background image and the input image, calculates a movement amount between the corresponding points, and the movement amount is equal to or greater than a predetermined value. An image processing apparatus comprising: detecting the arrangement-derived region from the position of the corresponding point.
請求項2に記載の画像処理装置において、
前記配置変化領域特定部は、前記入力画像側の前記対応点の位置から前記配置物の移動先に生じた前記配置物由来領域を検出すること、を特徴とする画像処理装置。
The image processing apparatus according to claim 2,
The image processing apparatus according to claim 1, wherein the arrangement change area specifying unit detects the arrangement-derived area generated at the movement destination of the arrangement from the position of the corresponding point on the input image side.
請求項2又は請求項3に記載の画像処理装置において、
前記配置変化領域特定部は、前記背景画像側の前記対応点の位置から前記配置物の移動元に生じた前記配置物由来領域を検出すること、を特徴とする画像処理装置。
The image processing apparatus according to claim 2 or 3,
The arrangement change area specifying unit detects the arrangement-derived area generated at the movement source of the arrangement from the position of the corresponding point on the background image side.
請求項4に記載の画像処理装置において、
前記配置変化領域特定部は、前記移動元に生じた前記配置物由来領域の前記背景画像を前記配置物のテンプレートとして登録し、当該登録後にて当該テンプレートを用いたマッチング処理により前記入力画像における前記配置物由来領域を検出すること、を特徴とする画像処理装置。
The image processing apparatus according to claim 4.
The arrangement change area specifying unit registers the background image of the arrangement-derived area generated at the movement source as a template of the arrangement, and after the registration, the matching process using the template performs the matching in the input image. An image processing apparatus characterized by detecting an arrangement-derived region.
JP2012003747A 2012-01-12 2012-01-12 Image processing device Active JP5865710B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012003747A JP5865710B2 (en) 2012-01-12 2012-01-12 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012003747A JP5865710B2 (en) 2012-01-12 2012-01-12 Image processing device

Publications (2)

Publication Number Publication Date
JP2013143069A true JP2013143069A (en) 2013-07-22
JP5865710B2 JP5865710B2 (en) 2016-02-17

Family

ID=49039593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012003747A Active JP5865710B2 (en) 2012-01-12 2012-01-12 Image processing device

Country Status (1)

Country Link
JP (1) JP5865710B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002152A1 (en) * 2014-06-30 2016-01-07 日本電気株式会社 Image processing system, image processing method and program storage medium for which personal private information has been taken into consideration
JP2017011759A (en) * 2016-09-26 2017-01-12 パナソニックIpマネジメント株式会社 Imaging apparatus, video recording apparatus, and image output controller
JP2017184288A (en) * 2017-06-29 2017-10-05 パナソニックIpマネジメント株式会社 Imaging device, video recording device, video display method, and computer program
JP2020046296A (en) * 2018-09-19 2020-03-26 ファナック株式会社 Object monitoring system with ranging device
WO2021140844A1 (en) * 2020-01-06 2021-07-15 オムロン株式会社 Human body detection device and human body detection method
WO2022259451A1 (en) * 2021-06-10 2022-12-15 日本電気株式会社 Image processing device and image processing method
JP7399055B2 (en) 2019-10-01 2023-12-15 アクシス アーベー Methods and devices for image analysis

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069494A (en) * 1999-08-31 2001-03-16 Matsushita Electric Ind Co Ltd Supervisory camera apparatus and display method for supervisory camera
JP2004241945A (en) * 2003-02-05 2004-08-26 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for image monitoring, and recording medium where same program is recorded
JP2008017093A (en) * 2006-07-05 2008-01-24 Matsushita Electric Ind Co Ltd Monitoring system, monitoring device, and monitoring method
JP2010176206A (en) * 2009-01-27 2010-08-12 Secom Co Ltd Mobile object tracking device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001069494A (en) * 1999-08-31 2001-03-16 Matsushita Electric Ind Co Ltd Supervisory camera apparatus and display method for supervisory camera
JP2004241945A (en) * 2003-02-05 2004-08-26 Nippon Telegr & Teleph Corp <Ntt> Device, method, and program for image monitoring, and recording medium where same program is recorded
JP2008017093A (en) * 2006-07-05 2008-01-24 Matsushita Electric Ind Co Ltd Monitoring system, monitoring device, and monitoring method
JP2010176206A (en) * 2009-01-27 2010-08-12 Secom Co Ltd Mobile object tracking device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
北澤 仁志、藪田 顕一: ""映像要約とプライバシー保護機能を備えたモニタカメラシステム"", 月刊自動認識, vol. 22, no. 11, JPN6015039025, 10 September 2009 (2009-09-10), JP, pages 40 - 42, ISSN: 0003163466 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002152A1 (en) * 2014-06-30 2016-01-07 日本電気株式会社 Image processing system, image processing method and program storage medium for which personal private information has been taken into consideration
JPWO2016002152A1 (en) * 2014-06-30 2017-04-27 日本電気株式会社 Image processing system, image processing method and program storage medium considering personal information
US10432877B2 (en) 2014-06-30 2019-10-01 Nec Corporation Image processing system, image processing method and program storage medium for protecting privacy
US10623664B2 (en) 2014-06-30 2020-04-14 Nec Corporation Image processing system, image processing method and program storage medium for protecting privacy
US11159745B2 (en) 2014-06-30 2021-10-26 Nec Corporation Image processing system, image processing method and program storage medium for protecting privacy
JP2017011759A (en) * 2016-09-26 2017-01-12 パナソニックIpマネジメント株式会社 Imaging apparatus, video recording apparatus, and image output controller
JP2017184288A (en) * 2017-06-29 2017-10-05 パナソニックIpマネジメント株式会社 Imaging device, video recording device, video display method, and computer program
JP2020046296A (en) * 2018-09-19 2020-03-26 ファナック株式会社 Object monitoring system with ranging device
US11846708B2 (en) 2018-09-19 2023-12-19 Fanuc Corporation Object monitoring system including distance measuring device
JP7399055B2 (en) 2019-10-01 2023-12-15 アクシス アーベー Methods and devices for image analysis
WO2021140844A1 (en) * 2020-01-06 2021-07-15 オムロン株式会社 Human body detection device and human body detection method
WO2022259451A1 (en) * 2021-06-10 2022-12-15 日本電気株式会社 Image processing device and image processing method

Also Published As

Publication number Publication date
JP5865710B2 (en) 2016-02-17

Similar Documents

Publication Publication Date Title
JP5865710B2 (en) Image processing device
JP4991595B2 (en) Tracking system using particle filter
JP5832910B2 (en) Image monitoring device
WO2014155979A1 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
KR101492180B1 (en) Video analysis
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
EP2450832A1 (en) Image processing apparatus and image processing method
US20080247601A1 (en) Image processing apparatus and image processing method
EP2965262A1 (en) Method for detecting and tracking objects in sequence of images of scene acquired by stationary camera
JP6185517B2 (en) Image monitoring device
JP6240016B2 (en) Tracking device and tracking system
JP2007300531A (en) Object detector
JP4578864B2 (en) Automatic tracking device and automatic tracking method
WO2017081839A1 (en) Moving body tracking method, moving body tracking device, and program
JP2010063033A (en) Apparatus and method for extracting object, and object extraction program
JP5101429B2 (en) Image monitoring device
US11288817B2 (en) Image processing device, stationary object tracking system, image processing method, and recording medium
US20200311438A1 (en) Representative image generation device and representative image generation method
JP5142416B2 (en) Object detection device
US20130027549A1 (en) Method and device for video surveillance
KR101496287B1 (en) Video synopsis system and video synopsis method using the same
JP5865709B2 (en) Image monitoring device
US20230026038A1 (en) Image processing apparatus, image processing method, and storage medium
JP2012026881A (en) Collapse detection system and collapse detection method
JP5236592B2 (en) Suspicious object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151228

R150 Certificate of patent or registration of utility model

Ref document number: 5865710

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250