JP2018025914A - Detection device for individual in shot image - Google Patents

Detection device for individual in shot image Download PDF

Info

Publication number
JP2018025914A
JP2018025914A JP2016156392A JP2016156392A JP2018025914A JP 2018025914 A JP2018025914 A JP 2018025914A JP 2016156392 A JP2016156392 A JP 2016156392A JP 2016156392 A JP2016156392 A JP 2016156392A JP 2018025914 A JP2018025914 A JP 2018025914A
Authority
JP
Japan
Prior art keywords
individual
image
index
stationary
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016156392A
Other languages
Japanese (ja)
Other versions
JP6838310B2 (en
Inventor
創 清野
So Kiyono
創 清野
毅 川崎
Takeshi Kawasaki
毅 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2016156392A priority Critical patent/JP6838310B2/en
Publication of JP2018025914A publication Critical patent/JP2018025914A/en
Application granted granted Critical
Publication of JP6838310B2 publication Critical patent/JP6838310B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect respective individuals with an individual in action discriminated from an individual in standstill on the basis of shot images of a fixed-point camera, and display the individuals with the individual in action discriminated from the individual in standstill.SOLUTION: A raw image input unit 110 is configured to sequentially input a shot raw image P(t) as an image of a frame unit, and a background difference image preparation unit 130 is configured to prepare a background difference image D(t) as a difference between the raw image P(t) and a background image BG. An inter-frame difference image preparation unit 140 is configured to prepare an inter-frame difference image F(t) as a difference between two raw images P(t) different in a time t. An overlapping presence or absence determination unit 150 is configured to determine presence or absence of an overlapping part with respect to each difference area within the inter-frame difference image F(t) as to respective difference areas in the background difference image D(t), and an individual recognition unit 160 is configured to recognize each individual as a standstill individual and active individual on the basis of the determination result. A detection individual display unit 170 is configured to display a standstill individual index or active individual index with the standstill individual index or active individual index overlapped on the raw image P(t).SELECTED DRAWING: Figure 1

Description

本発明は、撮影画像内の個体の検出装置に関し、特に、所定の撮影対象領域内に存在する個体を、撮影画像に基づいて、静止中の静止個体もしくは動作中の動作個体として検出する個体の検出装置に関する。   The present invention relates to an apparatus for detecting an individual in a photographed image, and in particular, an individual that detects an individual existing in a predetermined photographing target region as a stationary individual or a moving individual based on the photographed image. The present invention relates to a detection device.

定点に設置された監視カメラ等の撮影画像を解析して、人や車両などの対象物を検出する装置は、様々な技術分野において広く利用されている。所定の撮影対象領域内に侵入した人や車両などの対象物を検出する場合、通常、予め用意しておいた背景画像と現時点で撮影された入力画像との差分をとり、差分を構成する領域に、人や車両などの対象物が存在する、との認識を行う方法が採られている。また、時系列で並んだフレーム単位の撮影画像上で、対象物の移動を認識する手法も種々提案されており、人や車両などの移動個体を追跡する技術も実用化されている。   An apparatus for detecting an object such as a person or a vehicle by analyzing a captured image of a surveillance camera or the like installed at a fixed point is widely used in various technical fields. When detecting an object such as a person or a vehicle that has entered a predetermined shooting target area, an area that normally forms a difference by taking a difference between a background image prepared in advance and an input image shot at the present time In addition, a method of recognizing that an object such as a person or a vehicle exists is employed. Various methods for recognizing the movement of an object on frame-by-frame captured images arranged in time series have been proposed, and a technique for tracking a moving individual such as a person or a vehicle has been put into practical use.

たとえば、下記の特許文献1には、入力画像と背景画像との差を求める第1の差分処理と、異なる時刻に入力された2つの入力画像の差を求める第2の差分処理とを行うことにより、移動物体を追跡することができる移動物体追跡装置が開示されている。また、特許文献2には、乗客がいない状態においてエレベータのドアが閉じた状態で撮影された第1の基本画像および毎回ドアが閉じた直後に撮影された第2の基本画像と、現時点の撮影画像と、の差分を求めることにより、かご内に静止物が存在するか否か、動態物が存在するか否か、を判定する機能をもったエレベータのかご内監視装置が開示されている。更に、特許文献3には、異なる時刻に入力された2つの入力画像の差に基づいて移動物体を検出し、予め設定した歩行者の歩幅や歩行周期に基づいて歩行者の検出を行う機能をもった歩行者検出装置が開示されている。   For example, in Patent Document 1 below, a first difference process for obtaining a difference between an input image and a background image and a second difference process for obtaining a difference between two input images input at different times are performed. Discloses a moving object tracking device capable of tracking a moving object. Patent Document 2 discloses a first basic image that is taken with the elevator door closed in the absence of passengers, a second basic image that is taken immediately after the door is closed, and the current shooting. There is disclosed an elevator car monitoring apparatus having a function of determining whether a stationary object is present in a car and whether a dynamic object is present by obtaining a difference from the image. Further, Patent Document 3 has a function of detecting a moving object based on a difference between two input images input at different times, and detecting a pedestrian based on a preset pedestrian's stride and a walking cycle. A pedestrian detection apparatus having a pedestrian is disclosed.

特許第5154461号公報Japanese Patent No. 5154461 特許第4705862号公報Japanese Patent No. 4705862 特許第5626099号公報Japanese Patent No. 5626099

定点カメラによる撮影画像には、人や車両などが被写体として含まれており、これらの被写体をそれぞれ独立した個体として認識することは重要である。特に、監視業務などを行う担当者にとっては、それぞれの個体を視覚的に認識するだけでなく、各個体が何らかの動作を行っているか、じっと静止しているか、を把握することが必要になる。たとえば、定点カメラの撮影画像を見ながら、人や車両の挙動を監視する監視員にとっては、個々の人や車両をそれぞれ1つの個体として認識するだけでなく、その個体が何らかの動作中であるのか、あるいは静止中であるのか、を区別して把握することが重要になる。   An image captured by a fixed-point camera includes people, vehicles, and the like as subjects, and it is important to recognize these subjects as independent individuals. In particular, it is necessary for a person in charge who performs a monitoring job to not only visually recognize each individual but also grasp whether each individual is performing some kind of operation or whether it is stationary. For example, for an observer who monitors the behavior of a person or vehicle while looking at the image taken by a fixed-point camera, not only recognizes each individual person or vehicle as an individual, but also whether the individual is in operation. It is important to distinguish whether it is stationary or not.

具体的には、人混みの中に設置された定点カメラの撮影画像について、長時間静止している人物を特定することができれば、不審者の可能性、あるいは、傷病者の可能性を意識して注視することができる。また、駐車場内に設置された定点カメラの撮影画像について、駐車中の車両と移動中の車両とを区別して把握することができれば、混雑状況を把握することができ、車両誘導にも役立てることができる。   Specifically, if it is possible to identify a person who has been stationary for a long time with respect to the images taken by a fixed-point camera installed in a crowded area, be aware of the possibility of a suspicious person or a victim. You can watch. In addition, if it is possible to distinguish between a parked vehicle and a moving vehicle for a captured image of a fixed point camera installed in the parking lot, it is possible to grasp the congestion situation, which can be useful for vehicle guidance. it can.

従来提案されている種々の装置は、前述したとおり、撮影画像を解析することにより、人や車両などの個体を認識することができ、また、動体であれば、これを追跡することが可能である。しかしながら、個々の個体が動作中の個体であるのか、静止中の個体であるのか、を区別して認識したり、これらを表示画像上で区別して表示したりすることはできない。前掲の特許文献2には、エレベータのかご内に存在する個体が静止物か動態物かを判定する技術が開示されているが、当該技術は、エレベータのかご内という限定された場所においてのみ適用可能な技術であり、一般的な監視システムに利用することはできない。   As described above, various conventionally proposed devices can recognize an individual such as a person or a vehicle by analyzing a captured image, and can track a moving object. is there. However, it is impossible to distinguish and recognize whether each individual is a moving individual or a stationary individual, or to distinguish and display them on a display image. Patent Document 2 described above discloses a technique for determining whether an individual existing in an elevator car is a stationary object or a dynamic object. However, the technique is applied only in a limited place in an elevator car. It is a possible technology and cannot be used for general monitoring systems.

そこで本発明は、定点カメラによる撮影画像に基づいて、動作中か静止中かを区別して、個々の個体を検出することが可能な撮影画像内の個体の検出装置を提供することを目的とし、また、動作中の個体と静止中の個体とを区別して表示することが可能な撮影画像内の個体の検出装置を提供することを目的とする。   Therefore, the present invention has an object to provide an individual detection device in a captured image that can detect an individual individual based on a captured image obtained by a fixed-point camera and distinguishing whether it is operating or stationary. It is another object of the present invention to provide a device for detecting an individual in a captured image that can distinguish and display a moving individual and a stationary individual.

(1) 本発明の第1の態様は、所定の撮影対象領域内に存在する個体を、静止中の静止個体もしくは動作中の動作個体として検出する撮影画像内の個体の検出装置において、
所定の撮影対象領域に対する撮影によって時系列で並んだフレーム単位の画像として得られた各原画像を入力する原画像入力部と、
撮影対象領域についての背景画像を格納する背景画像格納部と、
原画像入力部が入力した各原画像について、背景画像との差分を示す背景差分領域を含む背景差分画像を作成する背景差分画像作成部と、
原画像入力部が入力した各原画像について、時系列における異なるフレームとの差分を示すフレーム間差分領域を含むフレーム間差分画像を作成するフレーム間差分画像作成部と、
背景差分画像内の個々の背景差分領域について、フレーム間差分画像内のフレーム間差分領域に対する重複部分の有無を判定する重複有無判定部と、
重複有無判定部による判定結果に基づいて、原画像に含まれる個体を静止個体もしくは動作個体と認識する個体認識部と、
を設けるようにしたものである。
(1) According to a first aspect of the present invention, in an apparatus for detecting an individual in a captured image that detects an individual present in a predetermined imaging target region as a stationary individual that is stationary or an operating individual that is operating,
An original image input unit for inputting each original image obtained as an image in frame units arranged in time series by photographing with respect to a predetermined photographing target area;
A background image storage unit that stores a background image of the imaging target area;
For each original image input by the original image input unit, a background difference image creation unit that creates a background difference image including a background difference region indicating a difference from the background image;
For each original image input by the original image input unit, an inter-frame difference image creating unit that creates an inter-frame difference image including an inter-frame difference region indicating a difference from different frames in time series, and
For each background difference area in the background difference image, an overlap presence / absence determination unit that determines the presence / absence of an overlapping portion with respect to the inter-frame difference area in the inter-frame difference image;
Based on the determination result by the duplication presence / absence determination unit, an individual recognition unit that recognizes an individual included in the original image as a stationary individual or a moving individual,
Is provided.

(2) 本発明の第2の態様は、上述した第1の態様に係る撮影画像内の個体の検出装置において、
個体認識部が、重複有無判定部によって、フレーム間差分領域に対する実質的な重複部分は無い、との判定結果が得られた背景差分領域を占める個体を、静止個体と認識する静止個体認識部を有するようにしたものである。
(2) According to a second aspect of the present invention, in the device for detecting an individual in the captured image according to the first aspect described above,
The individual recognition unit recognizes an individual occupying the background difference region, which is obtained as a result of the determination that there is no substantial overlap with the inter-frame difference region, by the duplication presence / absence determination unit as a stationary individual. It is what you have.

(3) 本発明の第3の態様は、上述した第2の態様に係る撮影画像内の個体の検出装置において、
静止個体認識部によって静止個体と認識された個体を示す静止個体指標を表示する検出個体表示部を更に設けるようにしたものである。
(3) According to a third aspect of the present invention, in the individual detection device in the captured image according to the second aspect described above,
A detected individual display unit for displaying a stationary individual index indicating an individual recognized as a stationary individual by the stationary individual recognition unit is further provided.

(4) 本発明の第4の態様は、上述した第3の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体を示す静止個体指標を、当該静止個体が占める背景差分領域に基づいて作成するようにしたものである。
(4) According to a fourth aspect of the present invention, in the device for detecting an individual in the captured image according to the third aspect described above,
The detected individual display unit creates a stationary individual index indicating a stationary individual based on the background difference area occupied by the stationary individual.

(5) 本発明の第5の態様は、上述した第1の態様に係る撮影画像内の個体の検出装置において、
個体認識部が、重複有無判定部によって、少なくとも一部の領域についてフレーム間差分領域に対する実質的な重複部分が有る、との判定結果が得られた背景差分領域を占める個体を、動作個体と認識する動作個体認識部を有するようにしたものである。
(5) According to a fifth aspect of the present invention, in the individual detection device in the captured image according to the first aspect described above,
The individual recognition unit recognizes an individual that occupies a background difference region from which the determination result that at least a part of the region has a substantial overlap portion with respect to the inter-frame difference region is obtained by the overlap presence / absence determination unit as an operation individual It is made to have an operation individual recognition part which performs.

(6) 本発明の第6の態様は、上述した第5の態様に係る撮影画像内の個体の検出装置において、
動作個体認識部によって動作個体と認識された個体を示す動作個体指標を表示する検出個体表示部を更に有するようにしたものである。
(6) According to a sixth aspect of the present invention, in the individual detection device in the captured image according to the fifth aspect described above,
The apparatus further includes a detected individual display unit that displays an operating individual index indicating an individual recognized as an operating individual by the operating individual recognition unit.

(7) 本発明の第7の態様は、上述した第6の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、動作個体を示す動作個体指標を、当該動作個体が占める背景差分領域に基づいて作成するようにしたものである。
(7) According to a seventh aspect of the present invention, in the device for detecting an individual in the captured image according to the sixth aspect described above,
The detected individual display unit creates an operating individual index indicating the operating individual based on the background difference area occupied by the operating individual.

(8) 本発明の第8の態様は、上述した第6の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、動作個体を示す動作個体指標を、当該動作個体が占めるフレーム間差分領域に対して、当該動作個体が占める背景差分領域に基づく補正を施すことにより作成するようにしたものである。
(8) According to an eighth aspect of the present invention, in the device for detecting an individual in the captured image according to the sixth aspect described above,
The detected individual display unit creates the motion individual index indicating the motion individual by correcting the inter-frame difference region occupied by the motion individual based on the background difference region occupied by the motion individual. is there.

(9) 本発明の第9の態様は、上述した第8の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、動作個体が占めるフレーム間差分領域と当該動作個体が占める背景差分領域とについて、領域を構成する図形の論理和演算を行うことにより、補正を実行するようにしたものである。
(9) According to a ninth aspect of the present invention, in the individual detection device in the captured image according to the eighth aspect described above,
The detected individual display unit performs correction by performing a logical OR operation on the figures constituting the area for the inter-frame difference area occupied by the moving object and the background difference area occupied by the moving object. .

(10) 本発明の第10の態様は、上述した第1の態様に係る撮影画像内の個体の検出装置において、
個体認識部が、
重複有無判定部によって、フレーム間差分領域に対する実質的な重複部分は無い、との判定結果が得られた背景差分領域を占める個体を、静止個体と認識する静止個体認識部と、
重複有無判定部によって、少なくとも一部の領域についてフレーム間差分領域に対する実質的な重複部分が有る、との判定結果が得られた背景差分領域を占める個体を、動作個体と認識する動作個体認識部と、
を有するようにしたものである。
(10) According to a tenth aspect of the present invention, in the device for detecting an individual in the captured image according to the first aspect described above,
The individual recognition unit
A stationary individual recognizing unit that recognizes an individual occupying a background differential region obtained as a result of determination that there is no substantial overlapping portion with respect to the inter-frame difference region by the duplication presence / absence determining unit,
The motion individual recognition unit that recognizes an individual occupying the background difference region from which the determination result that at least a part of the region has a substantial overlap with the inter-frame difference region is obtained by the overlap presence / absence determination unit as a motion individual When,
It is made to have.

(11) 本発明の第11の態様は、上述した第10の態様に係る撮影画像内の個体の検出装置において、
静止個体認識部によって静止個体と認識された個体を示す静止個体指標と、動作個体と認識された個体を示す動作個体指標とを、それぞれ視覚的に区別可能な態様で表示する検出個体表示部を更に有するようにしたものである。
(11) According to an eleventh aspect of the present invention, in the device for detecting an individual in the captured image according to the tenth aspect described above,
A detected individual display unit for displaying a stationary individual index indicating an individual recognized as a stationary individual by a stationary individual recognition unit and a moving individual index indicating an individual recognized as a moving individual in a visually distinguishable manner. Furthermore, it is made to have.

(12) 本発明の第12の態様は、上述した第11の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体を示す静止個体指標を、当該静止個体が占める背景差分領域に基づいて作成し、動作個体を示す動作個体指標を、当該動作個体が占める背景差分領域に基づいて作成するようにしたものである。
(12) According to a twelfth aspect of the present invention, in the device for detecting an individual in the captured image according to the eleventh aspect described above,
The detected individual display unit creates a stationary individual index indicating a stationary individual based on the background difference area occupied by the stationary individual, and creates an operating individual index indicating the moving individual based on the background difference area occupied by the moving individual. It is what you do.

(13) 本発明の第13の態様は、上述した第11の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体を示す静止個体指標を、当該静止個体が占める背景差分領域に基づいて作成し、動作個体を示す動作個体指標を、当該動作個体が占めるフレーム間差分領域に対して、当該動作個体が占める背景差分領域に基づく補正を施すことにより作成するようにしたものである。
(13) According to a thirteenth aspect of the present invention, in the device for detecting an individual in the captured image according to the eleventh aspect described above,
The detected individual display unit creates a stationary individual index indicating a stationary individual based on the background difference area occupied by the stationary individual, and an operating individual index indicating the moving individual is calculated with respect to the inter-frame difference area occupied by the moving individual. This is created by performing correction based on the background difference area occupied by the moving individual.

(14) 本発明の第14の態様は、上述した第13の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、動作個体が占めるフレーム間差分領域と当該動作個体が占める背景差分領域とについて、領域を構成する図形の論理和演算を行うことにより、補正を実行するようにしたものである。
(14) According to a fourteenth aspect of the present invention, in the individual detection apparatus in the captured image according to the thirteenth aspect described above,
The detected individual display unit performs correction by performing a logical OR operation on the figures constituting the area for the inter-frame difference area occupied by the moving object and the background difference area occupied by the moving object. .

(15) 本発明の第15の態様は、上述した第3,4,6〜9の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を原画像に重畳させることにより個体検出画像を作成し、この個体検出画像をディスプレイ画面上に表示するようにしたものである。
(15) According to a fifteenth aspect of the present invention, in the device for detecting an individual in a captured image according to the third, fourth, and sixth to ninth aspects described above,
The detected individual display unit creates an individual detected image by superimposing a stationary individual index or a moving individual index on the original image, and displays the individual detected image on the display screen.

(16) 本発明の第16の態様は、上述した第15の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された閉領域指標によって構成し、原画像に閉領域指標を重畳させることにより個体検出画像を作成するようにしたものである。
(16) According to a sixteenth aspect of the present invention, in the device for detecting an individual in the captured image according to the fifteenth aspect described above,
The detected individual display unit is arranged in the vicinity of the area occupied by the target individual with the stationary individual index or the moving individual index, and the inside is painted with a predetermined color or the closed area index in which the predetermined pattern is formed The individual detection image is created by superposing the closed region index on the original image.

(17) 本発明の第17の態様は、上述した第16の態様に係る撮影画像内の個体の検出装置において、
閉領域指標が、半透明の色で塗られるかもしくは部分的に隙間のあるパターンが形成された閉領域によって構成され、原画像に閉領域指標を重畳させた場合に、原画像が閉領域指標を通して透けて表示されるようにしたものである。
(17) According to a seventeenth aspect of the present invention, in the device for detecting an individual in the captured image according to the sixteenth aspect described above,
When the closed area index is composed of a closed area that is painted in a semi-transparent color or has a partially spaced pattern, and the closed area index is superimposed on the original image, the original image is It is designed to show through through.

(18) 本発明の第18の態様は、上述した第15の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体を囲む枠状指標によって構成し、原画像に枠状指標を重畳させることにより個体検出画像を作成するようにしたものである。
(18) According to an eighteenth aspect of the present invention, in the individual detection device in the captured image according to the fifteenth aspect described above,
The detected individual display unit is configured with a stationary individual index or a moving individual index composed of a frame-shaped index surrounding the target individual, and an individual detection image is created by superimposing the frame-shaped index on the original image. is there.

(19) 本発明の第19の態様は、上述した第15の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体の輪郭線を示す輪郭指標によって構成し、原画像に輪郭指標を重畳させることにより個体検出画像を作成するようにしたものである。
(19) According to a nineteenth aspect of the present invention, in the device for detecting an individual in the captured image according to the fifteenth aspect described above,
The detected individual display unit is composed of a stationary individual index or a moving individual index with a contour index indicating the contour line of the target individual, and an individual detection image is created by superimposing the contour index on the original image It is.

(20) 本発明の第20の態様は、上述した第15の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体部分に開口窓が配置され、開口窓以外の部分が被覆されたマスク画像によって構成し、原画像にマスク画像を重畳させることにより個体検出画像を作成するようにしたものである。
(20) According to a twentieth aspect of the present invention, in the individual detection device in the captured image according to the fifteenth aspect described above,
The detected individual display unit comprises a stationary individual index or a moving individual index by a mask image in which an aperture window is arranged in a target individual part and a part other than the aperture window is covered, and the mask image is superimposed on the original image Thus, an individual detection image is created.

(21) 本発明の第21の態様は、上述した第11〜第14の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標および動作個体指標を原画像に重畳させることにより個体検出画像を作成し、この個体検出画像をディスプレイ画面上に表示するようにしたものである。
(21) According to a twenty-first aspect of the present invention, in the individual detection device in the captured image according to the above-described eleventh to fourteenth aspects,
The detected individual display unit creates an individual detected image by superimposing a stationary individual index and a moving individual index on the original image, and displays the individual detected image on the display screen.

(22) 本発明の第22の態様は、上述した第21の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された第1の閉領域指標によって構成し、動作個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された第2の閉領域指標によって構成し、第1の閉領域指標と第2の閉領域指標とは、互いに異なる色によって塗られるかもしくは互いに異なるパターンが形成された閉領域となるようにし、原画像に第1の閉領域指標および第2の閉領域指標を重畳させることにより個体検出画像を作成するようにしたものである。
(22) According to a twenty-second aspect of the present invention, in the device for detecting an individual in the captured image according to the twenty-first aspect described above,
The detected individual display unit is configured by a first closed region index in which a stationary individual index is arranged in the vicinity of a region occupied by the target individual and the inside is painted with a predetermined color or a predetermined pattern is formed inside Then, the motion individual index is arranged in the vicinity of the area occupied by the target individual and is constituted by a second closed area index in which the inside is painted with a predetermined color or a predetermined pattern is formed inside, The closed region index and the second closed region index are closed regions in which different colors are applied or different patterns are formed, and the first closed region index and the second closed region index are formed on the original image. An individual detection image is created by superimposing region indexes.

(23) 本発明の第23の態様は、上述した第22の態様に係る撮影画像内の個体の検出装置において、
第1の閉領域指標および第2の閉領域指標が、半透明の色で塗られるかもしくは部分的に隙間のあるパターンが形成された閉領域によって構成され、原画像に各閉領域指標を重畳させた場合に、原画像が各閉領域指標を通して透けて表示されるようにしたものである。
(23) According to a twenty-third aspect of the present invention, in the individual detection device in the captured image according to the twenty-second aspect described above,
The first closed area index and the second closed area index are configured by closed areas that are painted with a semi-transparent color or partially formed with a gap pattern, and each closed area index is superimposed on the original image In this case, the original image is displayed through each closed region index.

(24) 本発明の第24の態様は、上述した第21の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標を、対象となる静止個体を囲む第1の枠状指標によって構成し、動作個体指標を、対象となる動作個体を囲む第2の枠状指標によって構成し、第1の枠状指標と第2の枠状指標とは、線種、色、形状、太さのうちの少なくとも1つが互いに異なる枠線によって構成されるようにし、原画像に第1の枠状指標および第2の枠状指標を重畳させることにより個体検出画像を作成するようにしたものである。
(24) According to a twenty-fourth aspect of the present invention, in the device for detecting an individual in the captured image according to the twenty-first aspect described above,
The detected individual display unit configures the stationary individual index by a first frame-shaped index surrounding the target stationary individual, and configures the moving individual index by the second frame-shaped index surrounding the target moving individual, The first frame-shaped index and the second frame-shaped index are constituted by frame lines different from each other in at least one of line type, color, shape, and thickness, and the first frame-shaped index is displayed on the original image. The individual detection image is created by superimposing the index and the second frame-shaped index.

(25) 本発明の第25の態様は、上述した第21の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標を、対象となる静止個体の輪郭線を示す第1の輪郭指標によって構成し、動作個体指標を、対象となる動作個体の輪郭線を示す第2の輪郭指標によって構成し、第1の輪郭指標と第2の輪郭指標とは、線種、色、太さのうちの少なくとも1つが互いに異なる輪郭線によって構成されるようにし、原画像に第1の輪郭指標および第2の輪郭指標を重畳させることにより個体検出画像を作成するようにしたものである。
(25) According to a twenty-fifth aspect of the present invention, in the device for detecting an individual in the captured image according to the twenty-first aspect described above,
The detected individual display unit configures the stationary individual index by the first contour index indicating the contour line of the target stationary individual, and the moving individual index indicates the second contour index indicating the contour line of the target moving individual. The first contour index and the second contour index are configured by contour lines having at least one of line type, color, and thickness different from each other, and the first contour index is included in the original image. An individual detection image is created by superimposing the second contour index.

(26) 本発明の第26の態様は、上述した第21〜第25の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、
ディスプレイ画面上に原画像を表示する原画像表示モードと、
ディスプレイ画面上に静止個体指標と動作個体指標と原画像とを重畳させた個体検出画像を表示する全個体表示モードと、
ディスプレイ画面上に静止個体指標と原画像とを重畳させた個体検出画像を表示する静止個体表示モードと、
ディスプレイ画面上に動作個体指標と原画像とを重畳させた個体検出画像を表示する動作個体表示モードと、
の4通りの表示モードによる表示機能を有し、任意の表示モードに切り替えて表示を行うようにしたものである。
(26) According to a twenty-sixth aspect of the present invention, in the individual detection device in the captured image according to the above-described twenty-first to twenty-fifth aspects,
The detected individual display section
An original image display mode for displaying the original image on the display screen;
An all-individual display mode for displaying an individual detection image in which a stationary individual index, a motion individual index, and an original image are superimposed on a display screen;
A stationary individual display mode for displaying an individual detection image in which a stationary individual index and an original image are superimposed on a display screen;
An action individual display mode for displaying an individual detection image in which an action individual indicator and an original image are superimposed on a display screen;
These four display modes have a display function, and display is performed by switching to an arbitrary display mode.

(27) 本発明の第27の態様は、上述した第1〜第26の態様に係る撮影画像内の個体の検出装置において、
背景画像格納部が、原画像入力部が過去に入力した複数のフレーム単位の画像に基づいて背景画像を作成して格納する機能を有し、
背景差分画像作成部が、背景画像格納部に格納されている最新の背景画像を用いて背景差分画像を作成するようにしたものである。
(27) According to a twenty-seventh aspect of the present invention, in the individual detection device in the captured image according to the first to twenty-sixth aspects described above,
The background image storage unit has a function of creating and storing a background image based on a plurality of frame unit images input in the past by the original image input unit,
The background difference image creation unit creates a background difference image using the latest background image stored in the background image storage unit.

(28) 本発明の第28の態様は、上述した第1〜第27の態様に係る撮影画像内の個体の検出装置において、
原画像入力部が、外部から与えられる時系列で並んだフレーム単位の画像を所定のサンプリング周期でサンプリングして入力し、
フレーム間差分画像作成部が、サンプリングされた各フレーム単位の画像について、時系列における直前の画像との間で差分演算を行うことによりフレーム間差分画像を作成するようにしたものである。
(28) According to a twenty-eighth aspect of the present invention, in the individual detection device in the captured image according to the first to twenty-seventh aspects described above,
The original image input unit samples and inputs images in frame units arranged in time series given from the outside at a predetermined sampling period,
The inter-frame difference image creation unit creates an inter-frame difference image by performing a difference operation on the sampled image in units of frames with the immediately preceding image in time series.

(29) 本発明の第29の態様は、上述した第1〜第28の態様に係る撮影画像内の個体の検出装置において、
原画像入力部が、三原色RGBの各画素値をもった画素の集合体からなるカラー画像を原画像として入力し、これを輝度Yを示す画素値をもった画素の集合体からなる輝度画像に変換する処理を行い、
背景画像格納部が、輝度Yを示す画素値をもった画素の集合体からなる背景画像を格納し、
背景差分画像作成部が、上記輝度画像と上記背景画像についての輝度値の差の絶対値ΔYを示す画素値をもった画素の集合体からなる差分画像を、所定の閾値を用いて二値化することにより背景差分画像を作成し、
フレーム間差分画像作成部が、2枚のフレーム単位の画像についての輝度値の差の絶対値ΔYを示す画素値をもった画素の集合体からなる差分画像を、所定の閾値を用いて二値化することによりフレーム間差分画像を作成するようにしたものである。
(29) According to a twenty-ninth aspect of the present invention, in the individual detection device in the captured image according to the first to twenty-eighth aspects described above,
The original image input unit inputs a color image composed of a set of pixels having pixel values of the three primary colors RGB as an original image, and converts the color image into a luminance image composed of a set of pixels having a pixel value indicating luminance Y. Process to convert,
The background image storage unit stores a background image composed of a collection of pixels having pixel values indicating luminance Y,
A background difference image creation unit binarizes a difference image composed of a collection of pixels having pixel values indicating an absolute value ΔY of a difference in luminance value between the luminance image and the background image using a predetermined threshold value. To create a background difference image,
The inter-frame difference image creation unit binarizes a difference image composed of a set of pixels having pixel values indicating an absolute value ΔY of a difference in luminance value between two frame-unit images using a predetermined threshold value. By doing so, an inter-frame difference image is created.

(30) 本発明の第30の態様は、上述した第29の態様に係る撮影画像内の個体の検出装置において、
背景差分画像作成部が、輝度値の差の絶対値ΔYが閾値以上となる画素については画素値「1」を与え、輝度値の差の絶対値ΔYが閾値未満となる画素については画素値「0」を与えることにより、画素値「1」をもった画素の連続領域を背景差分領域として含む背景差分画像を作成し、
フレーム間差分画像作成部が、輝度値の差の絶対値ΔYが閾値以上となる画素については画素値「1」を与え、輝度値の差の絶対値ΔYが閾値未満となる画素については画素値「0」を与えることにより、画素値「1」をもった画素の連続領域をフレーム間差分領域として含むフレーム間差分画像を作成するようにしたものである。
(30) According to a thirtieth aspect of the present invention, in the individual detection device in the captured image according to the twenty-ninth aspect described above,
The background difference image creation unit gives a pixel value “1” for a pixel whose absolute value ΔY of the luminance value difference is equal to or greater than the threshold value, and a pixel value “1” for a pixel whose absolute value ΔY of the luminance value difference is less than the threshold value. By giving “0”, a background difference image including a continuous area of pixels having a pixel value “1” as a background difference area is created,
The inter-frame difference image creation unit gives a pixel value “1” for a pixel for which the absolute value ΔY of the luminance value difference is greater than or equal to the threshold value, and a pixel value for the pixel for which the absolute value ΔY of the luminance value difference is less than the threshold value By giving “0”, an inter-frame difference image including a continuous area of pixels having a pixel value “1” as an inter-frame difference area is created.

(31) 本発明の第31の態様は、上述した第1〜第30の態様に係る撮影画像内の個体の検出装置において、
重複有無判定部が、背景差分画像とフレーム間差分画像とに基づいて、背景差分領域とフレーム間差分領域との重複部分を示す重複部分領域を含む重複確認画像を作成し、
個体認識部が、背景差分画像に含まれている特定の背景差分領域について、重複確認画像上の対応領域を参照し、当該対応領域内に重複部分領域が実質的に含まれていない場合には、当該特定の背景差分領域を占める個体を静止個体と認識し、当該対応領域内に重複部分領域が実質的に含まれていた場合には、当該特定の背景差分領域を占める個体を動作個体と認識するようにしたものである。
(31) According to a thirty-first aspect of the present invention, in the device for detecting an individual in the captured image according to the first to thirtieth aspects described above,
Based on the background difference image and the inter-frame difference image, the duplication presence / absence determining unit creates an overlap confirmation image including an overlapping partial region indicating an overlapping portion of the background difference region and the inter-frame difference region,
When the individual recognition unit refers to a corresponding region on the overlap confirmation image for a specific background difference region included in the background difference image, and the overlapping partial region is not substantially included in the corresponding region When the individual occupying the specific background difference area is recognized as a stationary individual, and the overlapping partial area is substantially included in the corresponding area, the individual occupying the specific background difference area is defined as an operating individual. It is intended to be recognized.

(32) 本発明の第32の態様は、上述した第31の態様に係る撮影画像内の個体の検出装置において、
個体認識部が、対応領域内に含まれている重複部分領域の面積が所定の基準に満たない場合には、当該対応領域内に重複部分領域が含まれていないと判断するようにしたものである。
(32) According to a thirty-second aspect of the present invention, in the device for detecting an individual in the captured image according to the thirty-first aspect described above,
When the area of the overlapping partial area included in the corresponding area does not satisfy a predetermined standard, the individual recognition unit determines that the overlapping partial area is not included in the corresponding area. is there.

(33) 本発明の第33の態様は、上述した第32の態様に係る撮影画像内の個体の検出装置において、
背景差分画像作成部が、画素値「1」もしくは「0」をもった画素の集合体からなる二値画像であって、画素値「1」をもった画素の連続領域として背景差分領域を表現した背景差分画像を作成し、
フレーム間差分画像作成部が、画素値「1」もしくは「0」をもった画素の集合体からなる二値画像であって、画素値「1」をもった画素の連続領域としてフレーム間差分領域を表現したフレーム間差分画像を作成し、
重複有無判定部が、背景差分画像とフレーム間差分画像とについて、対応する画素についての論理積演算を行うことにより、画素値「1」もしくは「0」をもった画素の集合体からなる二値画像である重複確認画像を作成し、
個体認識部が、背景差分画像に含まれている特定の背景差分領域について、重複確認画像上の対応領域を参照し、当該対応領域内の画素のうち、画素値「1」をもった画素の総数が所定の基準に満たない場合には、上記特定の背景差分領域を占める個体を静止個体と認識し、当該対応領域内の画素のうち、画素値「1」をもった画素の総数が所定の基準以上である場合には、上記特定の背景差分領域を占める個体を動作個体と認識するようにしたものである。
(33) According to a thirty-third aspect of the present invention, in the device for detecting an individual in the captured image according to the thirty-second aspect described above,
The background difference image creation unit is a binary image composed of a collection of pixels having a pixel value “1” or “0”, and represents the background difference region as a continuous region of pixels having the pixel value “1”. Created background difference image,
The inter-frame difference image creation unit is a binary image composed of a collection of pixels having a pixel value “1” or “0”, and the inter-frame difference area is a continuous area of pixels having the pixel value “1”. Create an inter-frame difference image that represents
The duplication presence / absence determination unit performs a logical AND operation on the corresponding pixels with respect to the background difference image and the inter-frame difference image, thereby forming a binary consisting of a collection of pixels having the pixel value “1” or “0”. Create a duplicate confirmation image that is an image,
The individual recognition unit refers to the corresponding region on the overlap confirmation image for a specific background difference region included in the background difference image, and the pixel having the pixel value “1” among the pixels in the corresponding region is referred to. When the total number does not satisfy the predetermined standard, the individual occupying the specific background difference area is recognized as a stationary individual, and the total number of pixels having the pixel value “1” among the pixels in the corresponding area is predetermined. If it is equal to or more than the reference, an individual occupying the specific background difference area is recognized as an action individual.

(34) 本発明の第34の態様は、上述した第1〜第30の態様に係る撮影画像内の個体の検出装置において、
背景差分画像作成部が、個々の背景差分領域ごとに背景差分領域符号を付与し、個々の背景差分領域符号に対応する背景差分領域に含まれる画素を特定する画素特定情報を含む、背景差分領域のラベリング情報を作成する処理を行い、
フレーム間差分画像作成部が、個々のフレーム間差分領域ごとにフレーム間差分領域符号を付与し、個々のフレーム間差分領域符号に対応するフレーム間差分領域に含まれる画素を特定する画素特定情報を含む、フレーム間差分領域のラベリング情報を作成する処理を行い、
重複有無判定部が、所定の着目背景差分領域について重複部分の有無を判定する際に、着目背景差分領域のラベリング情報内の画素特定情報によって特定された個々の着目画素について、各フレーム間差分領域のラベリング情報内の画素特定情報に同位置の画素が存在するか否かを調べ、存在する場合に重複部分有りとの判定を行うようにしたものである。
(34) According to a thirty-fourth aspect of the present invention, in the device for detecting an individual in the captured image according to the first to thirty-third aspects described above,
A background difference area including a pixel difference information that the background difference image creating unit assigns a background difference area code to each background difference area and identifies pixels included in the background difference area corresponding to each background difference area code Process to create labeling information for
The inter-frame difference image creating unit assigns an inter-frame difference area code for each inter-frame difference area, and specifies pixel specifying information for specifying a pixel included in the inter-frame difference area corresponding to each inter-frame difference area code. Including the process of creating the labeling information of the inter-frame difference area,
When the overlapping presence / absence determining unit determines the presence / absence of an overlapping portion for a predetermined target background difference region, each frame difference region is determined for each target pixel specified by the pixel specifying information in the labeling information of the target background difference region. It is determined whether or not there is a pixel at the same position in the pixel specifying information in the labeling information, and if it exists, it is determined that there is an overlapping portion.

(35) 本発明の第35の態様は、上述した第1〜第30の態様に係る撮影画像内の個体の検出装置において、
重複有無判定部が、背景差分画像内の背景差分領域について、フレーム間差分画像内のフレーム間差分領域に対する重複部分の有無を判定する際に、背景差分領域の外接矩形とフレーム間差分領域の外接矩形とについての重複部分の有無を判定する簡易判定法を行うようにしたものである。
(35) According to a thirty-fifth aspect of the present invention, in the device for detecting an individual in the captured image according to the first to thirtieth aspects described above,
When the overlap presence / absence determination unit determines the presence / absence of an overlapping portion with respect to the inter-frame difference area in the inter-frame difference image for the background difference area in the background difference image, the circumscribing rectangle of the background difference area and the circumscribing of the inter-frame difference area A simple determination method for determining the presence or absence of an overlapping portion with respect to a rectangle is performed.

(36) 本発明の第36の態様は、上述した第35の態様に係る撮影画像内の個体の検出装置において、
個体認識部が、重複有無判定部が行った簡易判定法によって、外接矩形についての重複部分は無い、との判定結果が得られた背景差分領域を占める個体を静止個体と認識し、
静止個体と認識された個体を示す静止個体指標を、当該静止個体が占める背景差分領域の外接矩形に基づいて作成し、これを表示する検出個体表示部を更に有するようにしたものである。
(36) According to a thirty-sixth aspect of the present invention, in the individual detection device in a photographed image according to the thirty-fifth aspect,
The individual recognition unit recognizes the individual occupying the background difference area from which the determination result is obtained that there is no overlapping part about the circumscribed rectangle by the simple determination method performed by the duplication presence / absence determination unit as a stationary individual,
A stationary individual index indicating an individual recognized as a stationary individual is created based on a circumscribed rectangle of a background difference area occupied by the stationary individual, and further includes a detected individual display unit for displaying the rectangle.

(37) 本発明の第37の態様は、上述した第35の態様に係る撮影画像内の個体の検出装置において、
個体認識部が、重複有無判定部が行った簡易判定法によって、外接矩形についての重複部分が有る、との判定結果が得られた背景差分領域を占める個体を動作個体と認識し、
動作個体と認識された個体を示す動作個体指標を、当該動作個体が占める背景差分領域の外接矩形に基づいて作成し、これを表示する検出個体表示部を更に有するようにしたものである。
(37) According to a thirty-seventh aspect of the present invention, in the individual detection device in the captured image according to the thirty-fifth aspect,
The individual recognition unit recognizes the individual occupying the background difference area from which the determination result is obtained that there is an overlapping part about the circumscribed rectangle by the simple determination method performed by the duplication presence / absence determination unit, as an operation individual,
A motion individual index indicating an individual recognized as a motion individual is created based on a circumscribed rectangle of a background difference area occupied by the motion individual, and further includes a detected individual display unit for displaying the rectangle.

(38) 本発明の第38の態様は、上述した第35の態様に係る撮影画像内の個体の検出装置において、
個体認識部が、重複有無判定部が行った簡易判定法によって、外接矩形についての重複部分が有る、との判定結果が得られたフレーム間差分領域を占める個体を動作個体と認識し、
動作個体と認識された個体を示す動作個体指標を、当該動作個体が占めるフレーム間差分領域の外接矩形に対して、当該動作個体が占める背景差分領域の外接矩形に基づく補正を施すことにより作成し、これを表示する検出個体表示部を更に有するようにしたものである。
(38) According to a thirty-eighth aspect of the present invention, in the individual detection device in the captured image according to the thirty-fifth aspect,
The individual recognition unit recognizes an individual that occupies the inter-frame difference area obtained as a result of determination that there is an overlapping part for the circumscribed rectangle by the simple determination method performed by the duplication presence / absence determination unit, as an operation individual,
The motion individual index indicating the individual recognized as the motion individual is created by performing correction based on the circumscribing rectangle of the background difference region occupied by the motion individual on the circumscribing rectangle of the inter-frame difference region occupied by the motion individual. Further, a detected individual display unit for displaying this is further provided.

(39) 本発明の第39の態様は、上述した第38の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、動作個体が占めるフレーム間差分領域の外接矩形と当該動作個体が占める背景差分領域の外接矩形とについて、両外接矩形を包摂する包摂矩形を求め、求めた包摂矩形に基づいて動作個体指標を作成するようにしたものである。
(39) According to a thirty-ninth aspect of the present invention, in the individual detection device in a photographed image according to the thirty-eighth aspect described above,
The detected individual display unit obtains an inclusion rectangle that includes both circumscribed rectangles for the circumscribed rectangle of the inter-frame difference area occupied by the moving individual and the circumscribed rectangle of the background difference area occupied by the moving individual, and based on the obtained inclusion rectangle The movement individual index is created.

(40) 本発明の第40の態様は、上述した第1〜第39の態様に係る撮影画像内の個体の検出装置を、コンピュータにプログラムを組み込むことにより構成したものである。   (40) According to a 40th aspect of the present invention, the individual detection device in the photographed image according to the first to 39th aspects is configured by incorporating a program in a computer.

(41) 本発明の第41の態様は、上述した第1〜第39の態様に係る撮影画像内の個体の検出装置が組み込まれた監視システムを、
所定の撮影対象領域に対して動画撮影を行うことにより、時系列で並んだフレーム単位の画像を取得する定点カメラと、
定点カメラが取得したフレーム単位の画像を原画像として入力して、所定の処理を実行するコンピュータと、
コンピュータの指示に基づいて画像表示を行うディスプレイ装置と、
によって構成し、
上記コンピュータは、インストールされたプログラムに基づく動作により、上記個体の検出装置として機能するようにしたものである。
(41) According to a 41st aspect of the present invention, there is provided a monitoring system in which an individual detection device in a captured image according to the above 1st to 39th aspects is incorporated.
A fixed-point camera that acquires images in frame units arranged in time series by performing moving image shooting on a predetermined shooting target area;
A computer that inputs a frame unit image acquired by a fixed point camera as an original image and executes a predetermined process;
A display device for displaying an image based on instructions from a computer;
Composed by
The computer functions as the individual detection device by an operation based on an installed program.

(42) 本発明の第42の態様は、上述した第1〜第39の態様に係る撮影画像内の個体の検出装置が組み込まれた監視システムを、
ネットワークによって相互に接続されたクライアントシステムとサーバシステムとによって構成し、
クライアントシステムは、
所定の撮影対象領域に対して動画撮影を行うことにより、時系列で並んだフレーム単位の画像を取得する定点カメラと、
定点カメラが取得したフレーム単位の画像を原画像として入力して、所定の処理を実行するクライアントコンピュータと、
クライアントコンピュータの指示に基づいて画像表示を行うディスプレイ装置と、を有し、
サーバシステムは、
クライアントコンピュータとネットワークを介した通信を行いながら、所定の処理を実行するサーバコンピュータを有し、
クライアントコンピュータは、インストールされたクライアントコンピュータ用プログラムに基づく動作により、上記個体の検出装置として必要な一部の処理を実行し、
サーバコンピュータは、インストールされたサーバコンピュータ用プログラムに基づく動作により、上記個体の検出装置として必要な他の一部の処理を実行するようにしたものである。
(42) According to a forty-second aspect of the present invention, there is provided a monitoring system in which an individual detection device in a captured image according to the first to thirty-ninth aspects described above is incorporated.
Consists of a client system and a server system connected to each other by a network,
The client system
A fixed-point camera that acquires images in frame units arranged in time series by performing moving image shooting on a predetermined shooting target area;
A client computer that inputs a frame-unit image acquired by a fixed-point camera as an original image and executes predetermined processing;
A display device that displays an image based on an instruction from a client computer,
Server system
A server computer that executes predetermined processing while communicating with a client computer via a network;
The client computer performs a part of processing necessary as the individual detection device by an operation based on the installed client computer program,
The server computer is configured to execute other part of the processing necessary as the individual detection device by an operation based on the installed server computer program.

(43) 本発明の第43の態様は、上述した第42の態様に係る監視システムにおけるクライアントコンピュータ用プログラムまたはサーバコンピュータ用プログラムを独立して提供するようにしたものである。   (43) According to a forty-third aspect of the present invention, a client computer program or a server computer program in the monitoring system according to the forty-second aspect is provided independently.

(44) 本発明の第44の態様は、上述した第41または第42の態様に係る監視システムにおいて、
コンピュータもしくはクライアントコンピュータが、静止個体もしくは動作個体の認識結果に基づいて、外部に対して警報を発するようにしたものである。
(44) A forty-fourth aspect of the present invention provides the monitoring system according to the forty-first or forty-second aspect described above,
The computer or the client computer issues an alarm to the outside based on the recognition result of the stationary object or the moving object.

(45) 本発明の第45の態様は、上述した第41の態様に係る監視システムにおいて、
定点カメラの代わりに、または、定点カメラに加えて、所定の撮影対象領域に対して動画撮影を行うことにより得られた、時系列で並んだフレーム単位の画像を保存する入力用の画像保存装置を設け、
コンピュータが、入力用の画像保存装置に保存されているフレーム単位の画像を原画像として入力して、所定の処理を実行するようにしたものである。
(45) A forty-fifth aspect of the present invention is the monitoring system according to the forty-first aspect described above,
An image storage device for input that stores images in frames arranged in time series obtained by performing moving image shooting on a predetermined shooting target area instead of or in addition to the fixed point camera. Provided,
A computer inputs a frame unit image stored in an input image storage device as an original image and executes a predetermined process.

(46) 本発明の第46の態様は、上述した第41または第45の態様に係る監視システムにおいて、
ディスプレイ装置の代わりに、または、ディスプレイ装置に加えて、コンピュータから与えられる画像を保存する出力用の画像保存装置を設け、
コンピュータが、ディスプレイ装置に出力すべき画像を、出力用の画像保存装置に対して出力して保存させるようにしたものである。
(46) According to a 46th aspect of the present invention, in the monitoring system according to the 41st or 45th aspect described above,
In place of the display device or in addition to the display device, an image storage device for output for storing an image given from a computer is provided,
The computer outputs the image to be output to the display device to the output image storage device and stores it.

(47) 本発明の第47の態様は、所定の撮影対象領域内に存在する個体のうち、静止中の静止個体を検出する個体の検出装置において、
所定の撮影対象領域に対する撮影によって時系列で並んだフレーム単位の画像として得られる原画像を入力する原画像入力部と、
原画像上に現れている個々の個体が、静止個体か動作個体かを認識する個体認識部と、
個体認識部による認識結果に基づいて、原画像上に、静止個体と認識された個体を示す静止個体指標を重畳して表示する検出個体表示部と、
を設けるようにしたものである。
(47) According to a 47th aspect of the present invention, in an individual detection apparatus for detecting a stationary individual that is stationary among individuals existing in a predetermined imaging target region,
An original image input unit for inputting an original image obtained as an image in frame units arranged in time series by photographing with respect to a predetermined photographing target region;
An individual recognition unit that recognizes whether each individual appearing on the original image is a stationary individual or a moving individual;
Based on the recognition result by the individual recognition unit, a detected individual display unit that superimposes and displays a stationary individual index indicating an individual recognized as a stationary individual on the original image;
Is provided.

(48) 本発明の第48の態様は、所定の撮影対象領域内に存在する個体のうち、動作中の動作個体を検出する個体の検出装置において、
所定の撮影対象領域に対する撮影によって時系列で並んだフレーム単位の画像として得られる原画像を入力する原画像入力部と、
原画像上に現れている個々の個体が、静止個体か動作個体かを認識する個体認識部と、
個体認識部による認識結果に基づいて、原画像上に、動作個体と認識された個体を示す動作個体指標を重畳して表示する検出個体表示部と、
を設けるようにしたものである。
(48) According to a 48th aspect of the present invention, in an individual detection apparatus for detecting an operating individual that is operating among individuals existing in a predetermined imaging target region,
An original image input unit for inputting an original image obtained as an image in frame units arranged in time series by photographing with respect to a predetermined photographing target region;
An individual recognition unit that recognizes whether each individual appearing on the original image is a stationary individual or a moving individual;
Based on the recognition result by the individual recognition unit, a detected individual display unit that superimposes and displays an operation individual index indicating an individual recognized as an operation individual on the original image,
Is provided.

(49) 本発明の第49の態様は、上述した第47または第48の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された閉領域指標によって構成し、原画像に閉領域指標を重畳させて表示するようにしたものである。
(49) According to a 49th aspect of the present invention, in the individual detection device in the photographed image according to the 47th or 48th aspect described above,
The detected individual display unit is arranged in the vicinity of the area occupied by the target individual with the stationary individual index or the moving individual index, and the inside is painted with a predetermined color or the closed area index in which the predetermined pattern is formed The closed area index is superimposed on the original image and displayed.

(50) 本発明の第50の態様は、上述した第49の態様に係る撮影画像内の個体の検出装置において、
閉領域指標が、半透明の色で塗られるかもしくは部分的に隙間のあるパターンが形成された閉領域によって構成され、原画像に閉領域指標を重畳させた場合に、原画像が閉領域指標を通して透けて表示されるようにしたものである。
(50) According to a 50th aspect of the present invention, in the device for detecting an individual in the photographed image according to the 49th aspect described above,
When the closed area index is composed of a closed area that is painted in a semi-transparent color or has a partially spaced pattern, and the closed area index is superimposed on the original image, the original image is It is designed to show through through.

(51) 本発明の第51の態様は、上述した第47または第48の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体を囲み、所定の線種、色、形状、太さを有する枠状指標によって構成し、原画像に枠状指標を重畳させて表示するようにしたものである。
(51) According to a fifty-first aspect of the present invention, in the individual detection device in the photographed image according to the forty-seventh or forty-eighth aspect described above,
The detected individual display unit configures the stationary individual indicator or the moving individual indicator as a frame-like indicator that surrounds the target individual and has a predetermined line type, color, shape, and thickness, and superimposes the frame-like indicator on the original image It is made to display.

(52) 本発明の第52の態様は、上述した第47または第48の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体の輪郭線を示し、所定の線種、色、太さを有する輪郭指標によって構成し、原画像に輪郭指標を重畳させて表示するようにしたものである。
(52) According to a 52nd aspect of the present invention, in the individual detection device in the photographed image according to the 47th or 48th aspect described above,
The detected individual display unit shows the contour of the target individual as a stationary individual index or a moving individual index, and is composed of a contour index having a predetermined line type, color, and thickness, and superimposes the contour index on the original image. Are displayed.

(53) 本発明の第53の態様は、所定の撮影対象領域内に存在する個体を、静止中の静止個体もしくは動作中の動作個体として検出する個体の検出装置において、
所定の撮影対象領域に対する撮影によって時系列で並んだフレーム単位の画像として得られる原画像を入力する原画像入力部と、
原画像上に現れている個々の個体を、静止個体もしくは動作個体と認識する個体認識部と、
個体認識部による認識結果に基づいて、原画像上に、静止個体と認識された個体を示す静止個体指標と、動作個体と認識された個体を示す動作個体指標と、を重畳して、かつ、静止個体指標と動作個体指標とがそれぞれ視覚的に区別可能となるような態様で表示する検出個体表示部と、
を設けるようにしたものである。
(53) According to a fifty-third aspect of the present invention, in an individual detection apparatus for detecting an individual existing in a predetermined imaging target region as a stationary stationary individual or an operating individual moving.
An original image input unit for inputting an original image obtained as an image in frame units arranged in time series by photographing with respect to a predetermined photographing target region;
An individual recognition unit that recognizes individual individuals appearing on the original image as stationary individuals or moving individuals;
Based on the recognition result by the individual recognition unit, on the original image, a stationary individual index indicating an individual recognized as a stationary individual and a moving individual index indicating an individual recognized as a moving individual are superimposed, and A detected individual display unit that displays the stationary individual index and the moving individual index in such a manner as to be visually distinguishable from each other;
Is provided.

(54) 本発明の第54の態様は、上述した第53の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された第1の閉領域指標によって構成し、動作個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された第2の閉領域指標によって構成し、第1の閉領域指標と第2の閉領域指標とは、互いに異なる色によって塗られるかもしくは互いに異なるパターンが形成された閉領域となるようにし、原画像に第1の閉領域指標および第2の閉領域指標を重畳させて表示するようにしたものである。
(54) According to a fifty-fourth aspect of the present invention, in the device for detecting an individual in the photographed image according to the fifty-third aspect described above,
The detected individual display unit is configured by a first closed region index in which a stationary individual index is arranged in the vicinity of a region occupied by the target individual and the inside is painted with a predetermined color or a predetermined pattern is formed inside Then, the motion individual index is arranged in the vicinity of the area occupied by the target individual and is constituted by a second closed area index in which the inside is painted with a predetermined color or a predetermined pattern is formed inside, The closed region index and the second closed region index are closed regions in which different colors are applied or different patterns are formed, and the first closed region index and the second closed region index are formed on the original image. The area index is superimposed and displayed.

(55) 本発明の第55の態様は、上述した第54の態様に係る撮影画像内の個体の検出装置において、
第1の閉領域指標および第2の閉領域指標が、半透明の色で塗られるかもしくは部分的に隙間のあるパターンが形成された閉領域によって構成され、原画像に各閉領域指標を重畳させた場合に、原画像が各閉領域指標を通して透けて表示されるようにしたものである。
(55) According to a 55th aspect of the present invention, in the individual detection device in a photographed image according to the above-mentioned 54th aspect,
The first closed area index and the second closed area index are configured by closed areas that are painted with a semi-transparent color or partially formed with a gap pattern, and each closed area index is superimposed on the original image In this case, the original image is displayed through each closed region index.

(56) 本発明の第56の態様は、上述した第53の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標を、対象となる静止個体を囲む第1の枠状指標によって構成し、動作個体指標を、対象となる動作個体を囲む第2の枠状指標によって構成し、第1の枠状指標と第2の枠状指標とは、線種、色、形状、太さのうちの少なくとも1つが互いに異なる枠線によって構成されるようにし、原画像に第1の枠状指標および第2の枠状指標を重畳させて表示するようにしたものである。
(56) According to a fifty-sixth aspect of the present invention, in the individual detection device in the photographed image according to the fifty-third aspect described above,
The detected individual display unit configures the stationary individual index by a first frame-shaped index surrounding the target stationary individual, and configures the moving individual index by the second frame-shaped index surrounding the target moving individual, The first frame-shaped index and the second frame-shaped index are constituted by frame lines different from each other in at least one of line type, color, shape, and thickness, and the first frame-shaped index is displayed on the original image. The index and the second frame-shaped index are superimposed and displayed.

(57) 本発明の第57の態様は、上述した第53の態様に係る撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標を、対象となる静止個体の輪郭線を示す第1の輪郭指標によって構成し、動作個体指標を、対象となる動作個体の輪郭線を示す第2の輪郭指標によって構成し、第1の輪郭指標と第2の輪郭指標とは、線種、色、太さのうちの少なくとも1つが互いに異なる輪郭線によって構成されるようにし、原画像に第1の輪郭指標および第2の輪郭指標を重畳させて表示するようにしたものである。
(57) According to a 57th aspect of the present invention, in the individual detection apparatus in a photographed image according to the 53rd aspect described above,
The detected individual display unit configures the stationary individual index by the first contour index indicating the contour line of the target stationary individual, and the moving individual index indicates the second contour index indicating the contour line of the target moving individual. The first contour index and the second contour index are configured by contour lines having at least one of line type, color, and thickness different from each other, and the first contour index is included in the original image. In addition, the second contour index is superimposed and displayed.

(58) 本発明の第58の態様は、上述した第47〜第57の態様に係る撮影画像内の個体の検出装置を、コンピュータにプログラムを組み込むことにより構成したものである。   (58) According to a 58th aspect of the present invention, the individual detection apparatus in the photographed image according to the 47th to 57th aspects is configured by incorporating a program in a computer.

本発明に係る撮影画像内の個体の検出装置によれば、背景差分画像とフレーム間差分画像について領域の重複有無を判定することにより、個々の個体が動作中か否かを区別するようにしたため、定点カメラによる撮影画像に基づいて、動作中か静止中かを区別して個々の個体を検出することが可能になる。また、動作中の個体と静止中の個体とを区別してディスプレイ画面上に表示することが可能になる。   According to the individual detection device in the photographed image according to the present invention, whether or not each individual is in operation is determined by determining whether or not there is an overlap of regions in the background difference image and the inter-frame difference image. Based on the image taken by the fixed point camera, it is possible to detect each individual by distinguishing whether it is operating or stationary. In addition, it is possible to distinguish between a moving individual and a stationary individual on the display screen.

本発明の基本的な実施形態に係る撮影画像内の個体の検出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the detection apparatus of the individual in the picked-up image which concerns on fundamental embodiment of this invention. 図1の装置に入力された原画像P(t)と図1の装置から出力された個体検出画像Q(t)−Sとの対応関係の具体例を示す図である。FIG. 2 is a diagram illustrating a specific example of a correspondence relationship between an original image P (t) input to the apparatus of FIG. 1 and an individual detection image Q (t) -S output from the apparatus of FIG. 図1の装置に入力された原画像P(t)と図1の装置から出力された個体検出画像Q(t)−Mとの対応関係の具体例を示す図である。FIG. 2 is a diagram illustrating a specific example of a correspondence relationship between an original image P (t) input to the apparatus of FIG. 1 and an individual detection image Q (t) -M output from the apparatus of FIG. 図1の装置に入力された原画像P(t)と図1の装置から出力された個体検出画像Q(t)−SMとの対応関係の具体例を示す図である。FIG. 2 is a diagram illustrating a specific example of a correspondence relationship between an original image P (t) input to the apparatus of FIG. 1 and an individual detection image Q (t) -SM output from the apparatus of FIG. 図1の装置の背景差分画像作成部130によって作成された背景差分画像D(t)の具体例を示す図である。It is a figure which shows the specific example of the background difference image D (t) produced by the background difference image creation part 130 of the apparatus of FIG. 図1の装置のフレーム間差分画像作成部140によって作成されたフレーム間差分画像F(t)の具体例を示す図である。It is a figure which shows the specific example of the inter-frame difference image F (t) produced by the inter-frame difference image creation part 140 of the apparatus of FIG. 図1の装置の重複有無判定部150によって、時刻t1の時点で作成された重複確認画像C(t1)の具体例を示す図である。It is a figure which shows the specific example of the duplication confirmation image C (t1) produced by the duplication existence determination part 150 of the apparatus of FIG. 1 at the time of the time t1. 図1の装置の重複有無判定部150によって、時刻t2の時点で作成された重複確認画像C(t2)の具体例を示す図である。It is a figure which shows the specific example of the duplication confirmation image C (t2) produced by the duplication existence determination part 150 of the apparatus of FIG. 1 at the time of the time t2. 図1の装置の重複有無判定部150によって、時刻t3の時点で作成された重複確認画像C(t3)の具体例を示す図である。It is a figure which shows the specific example of the duplication confirmation image C (t3) produced at the time of the time t3 by the duplication presence determination part 150 of the apparatus of FIG. 図1の装置の重複有無判定部150によって、時刻t4の時点で作成された重複確認画像C(t4)の具体例を示す図である。It is a figure which shows the specific example of the duplication confirmation image C (t4) produced by the duplication presence determination part 150 of the apparatus of FIG. 1 at the time of the time t4. 図1の装置の重複有無判定部150によって、時刻t1〜t4の各時点で作成された重複確認画像C(t1)〜C(t4)の具体例を示す図である。It is a figure which shows the specific example of duplication confirmation image C (t1)-C (t4) produced at each time of the time t1-t4 by the duplication presence determination part 150 of the apparatus of FIG. 図4に示す静止個体および動作個体の個体検出画像Q(t)−SMの第1の変形例を示す図である。It is a figure which shows the 1st modification of the individual detection image Q (t) -SM of a stationary individual and an operation | movement individual shown in FIG. 図4に示す静止個体および動作個体の個体検出画像Q(t)−SMの第2の変形例を示す図である。It is a figure which shows the 2nd modification of the individual detection image Q (t) -SM of a stationary individual and a movement individual shown in FIG. 図4に示す静止個体および動作個体の個体検出画像Q(t)−SMの第3の変形例を示す図である。It is a figure which shows the 3rd modification of the individual detection image Q (t) -SM of a stationary individual and a moving individual shown in FIG. 図2に示す静止個体の個体検出画像Q(t)−Sの変形例を示す図である。It is a figure which shows the modification of individual detection image Q (t) -S of a stationary individual shown in FIG. 図3に示す動作個体の個体検出画像Q(t)−Mの変形例を示す図である。It is a figure which shows the modification of the individual detection image Q (t) -M of an operation | movement individual | organism | solid shown in FIG. 図1の装置の検出個体表示部170による4通りの表示モードを示す図である。It is a figure which shows four kinds of display modes by the detected individual display part 170 of the apparatus of FIG. 2枚のカラー画像U,Vについて、二値化差分画像Wを作成し、その差分領域についてラベリング情報を作成する処理の一般的な手順を示す図である。It is a figure which shows the general procedure of the process which produces the binarization difference image W about the two color images U and V, and produces labeling information about the difference area. 図1の装置の重複有無判定部150による重複判定処理の原理を示す図である。It is a figure which shows the principle of the duplication determination process by the duplication presence determination part 150 of the apparatus of FIG. 図1の装置の重複有無判定部150、静止個体認識部161、検出個体表示部170の連携作業により静止個体指標を作成する手順を示す流れ図である。2 is a flowchart showing a procedure for creating a stationary individual index by a cooperative operation of the duplication presence / absence determining unit 150, stationary individual recognition unit 161, and detected individual display unit 170 of the apparatus of FIG. 図20の流れ図に示す処理の具体例を示す図である。It is a figure which shows the specific example of the process shown to the flowchart of FIG. 図1の装置の重複有無判定部150、動作個体認識部162、検出個体表示部170の連携作業により動作個体指標を作成する手順を示す流れ図である。2 is a flowchart illustrating a procedure for creating an action individual index by a cooperative operation of the duplication presence / absence determination unit 150, the action individual recognition unit 162, and the detected object display unit 170 of the apparatus of FIG. 図22の流れ図に示す処理の具体例を示す図である。It is a figure which shows the specific example of the process shown to the flowchart of FIG. 図1の装置の重複有無判定部150、動作個体認識部162、検出個体表示部170の連携作業により動作個体指標を作成する手順の変形例を示す流れ図である。7 is a flowchart showing a modified example of a procedure for creating an action individual index by a cooperative operation of the duplication presence / absence determination unit 150, the action individual recognition unit 162, and the detected object display unit 170 of the apparatus of FIG. 図24の流れ図に示す処理の具体例を示す第1の図である。FIG. 25 is a first diagram illustrating a specific example of the process illustrated in the flowchart of FIG. 24. 図24の流れ図に示す処理の具体例を示す第2の図である。FIG. 25 is a second diagram illustrating a specific example of the process illustrated in the flowchart of FIG. 24. 図24に示す変形例を実施した場合に表示される個体検出画像Q(t)−SMの具体例を示す図である。FIG. 25 is a diagram illustrating a specific example of an individual detection image Q (t) -SM displayed when the modification example illustrated in FIG. 24 is performed. 図27に示す個体検出画像Q(t)−SMの変形例を示す図である。It is a figure which shows the modification of individual detection image Q (t) -SM shown in FIG. 本発明の簡易判定法を導入した実施形態における矩形データの取り扱いを説明する図である。It is a figure explaining the handling of the rectangular data in embodiment which introduced the simple determination method of this invention. 本発明の簡易判定法を導入した実施形態において、重複有無判定部150、静止個体認識部161、検出個体表示部170の連携作業により静止個体指標を作成する手順を示す流れ図である。10 is a flowchart showing a procedure for creating a stationary individual index by a cooperative operation of the duplication presence / absence determination unit 150, the stationary individual recognition unit 161, and the detected individual display unit 170 in the embodiment in which the simple determination method of the present invention is introduced. 図30の流れ図に示す処理の具体例を示す図である。It is a figure which shows the specific example of the process shown to the flowchart of FIG. 本発明の簡易判定法を導入した実施形態において、重複有無判定部150、動作個体認識部162、検出個体表示部170の連携作業により動作個体指標を作成する手順を示す流れ図である。10 is a flowchart showing a procedure for creating an action individual index by a cooperative operation of the duplication presence / absence determination unit 150, the action individual recognition unit 162, and the detected object display unit 170 in the embodiment in which the simple determination method of the present invention is introduced. 図32の流れ図に示す処理の具体例を示す図である。It is a figure which shows the specific example of the process shown to the flowchart of FIG. 本発明の簡易判定法を導入した実施形態において、重複有無判定部150、動作個体認識部162、検出個体表示部170の連携作業により動作個体指標を作成する手順の変形例を示す流れ図である。10 is a flowchart showing a modified example of a procedure for creating an action individual index by a cooperative operation of the duplication presence / absence determination unit 150, the action individual recognition unit 162, and the detected object display unit 170 in the embodiment in which the simple determination method of the present invention is introduced. 図34の流れ図に示す処理の具体例を示す第1の図である。FIG. 35 is a first diagram showing a specific example of the process shown in the flowchart of FIG. 34. 図34の流れ図に示す処理の具体例を示す第2の図である。FIG. 35 is a second diagram showing a specific example of the process shown in the flowchart of FIG. 34. 本発明に係る個体の検出装置を用いた監視システムの一例を示すブロック図である。It is a block diagram which shows an example of the monitoring system using the individual detection apparatus which concerns on this invention.

以下、本発明を図示する実施形態に基づいて説明する。   Hereinafter, the present invention will be described based on the illustrated embodiments.

<<< §1. 基本的実施形態に係る個体の検出装置の構成 >>>
はじめに、本発明に係る個体の検出装置の全体構成について説明する。図1は、本発明の基本的な実施形態に係る撮影画像内の個体の検出装置100の構成を示すブロック図である。この検出装置100は、所定の撮影対象領域内に存在する個体を、静止中の静止個体もしくは動作中の動作個体として検出する個体の検出装置であり、図示のとおり、原画像入力部110と、背景画像格納部120と、背景差分画像作成部130と、フレーム間差分画像作成部140と、重複有無判定部150と、個体認識部160と、検出個体表示部170と、を備えている。
<<< §1. Configuration of individual detection apparatus according to basic embodiment >>
First, the overall configuration of the individual detection apparatus according to the present invention will be described. FIG. 1 is a block diagram showing a configuration of an individual detection device 100 in a captured image according to a basic embodiment of the present invention. This detection apparatus 100 is an individual detection apparatus that detects an individual existing in a predetermined imaging target region as a stationary individual that is stationary or an operating individual that is operating, and as illustrated, an original image input unit 110, A background image storage unit 120, a background difference image creation unit 130, an inter-frame difference image creation unit 140, an overlap presence / absence determination unit 150, an individual recognition unit 160, and a detected individual display unit 170 are provided.

原画像入力部110は、時系列で並んだフレーム単位の画像として得られた各原画像P(t)を入力する構成要素であり、図示の実施形態の場合、入力した各原画像P(t)を一時的に保存する機能も有している。ここで、変数tは時刻を示しており、たとえば、時刻t0で撮影された原画像P(t0),時刻t1で撮影された原画像P(t1),時刻t2で撮影された原画像P(t2),... というように、フレーム単位の原画像が順次入力されることになる。各原画像P(t)は、所定の撮影対象領域に対する撮影によって得られた画像であり、たとえば、所定の監視場所に設置された定点カメラによる撮影によって得られたデジタル画像である。   The original image input unit 110 is a component that inputs each original image P (t) obtained as a frame-by-frame image arranged in time series. In the illustrated embodiment, each input original image P (t ) Is temporarily stored. Here, the variable t indicates the time. For example, the original image P (t0) taken at time t0, the original image P (t1) taken at time t1, and the original image P (taken at time t2 ( As in t2),..., original images in units of frames are sequentially input. Each original image P (t) is an image obtained by photographing a predetermined photographing target region, for example, a digital image obtained by photographing by a fixed point camera installed at a predetermined monitoring place.

一方、背景画像格納部120は、上記撮影対象領域についての背景画像BGを格納する構成要素である。ここで、背景画像BGは、この検出装置100による検出対象となる個体が存在しない基準状態において、上記撮影対象領域を撮影することによって得られた画像である。たとえば、この検出装置100が、地下駐車場など、照明環境に変化が生じない屋内の場所に設置された定点カメラの撮影画像を原画像P(t)として入力する装置の場合であれば、予め車両が存在しないときに撮影された原画像P(t)を背景画像BGとして背景画像格納部120に格納しておくようにすればよい。図1における原画像入力部110から背景画像格納部120への矢印は、このような原画像P(t)を背景画像BGとして格納する信号の流れを示している。   On the other hand, the background image storage unit 120 is a component that stores the background image BG for the shooting target region. Here, the background image BG is an image obtained by shooting the shooting target region in a reference state where there is no individual to be detected by the detection device 100. For example, if the detection apparatus 100 is an apparatus that inputs a captured image of a fixed point camera installed in an indoor place where the lighting environment does not change, such as an underground parking lot, as an original image P (t), The original image P (t) taken when no vehicle is present may be stored in the background image storage unit 120 as the background image BG. The arrows from the original image input unit 110 to the background image storage unit 120 in FIG. 1 indicate the flow of signals for storing such an original image P (t) as the background image BG.

一方、この検出装置100が、照明環境に変化が生じる屋外の場所などに設置された定点カメラの撮影画像を原画像P(t)として入力する装置の場合は、たとえば、昼間用の背景画像や夜間用の背景画像といった複数の背景画像を背景画像格納部120内に用意して使い分けるようにしてもよい。ただ、実用上は、背景画像格納部120に、原画像入力部110が過去に入力した複数のフレーム単位の画像に基づいて背景画像BGを作成して格納する機能をもたせておき、背景差分画像作成部130に対して、最新の背景画像BGを提供するようにしておくのが好ましい。   On the other hand, when the detection apparatus 100 is an apparatus that inputs, as an original image P (t), a captured image of a fixed-point camera installed in an outdoor place where the lighting environment changes, for example, a background image for daytime, A plurality of background images such as night background images may be prepared in the background image storage unit 120 and used separately. However, practically, the background image storage unit 120 has a function of creating and storing a background image BG based on a plurality of frame-unit images input by the original image input unit 110 in the past, and the background difference image. It is preferable to provide the latest background image BG to the creation unit 130.

たとえば、原画像入力部110が過去の所定時間内に入力した多数の原画像P(t)を背景画像格納部120に取り込み、これら多数の原画像P(t)についての平均画像を作成し、作成した平均画像をその時点の背景画像BGとする取り扱いをすればよい。具体的には、たとえば、1時間といった長い時間について平均画像を作成すれば、それほど長時間にわたって同位置に存在し続ける検出対象物がない限り、作成した平均画像は背景画像として利用することができる。   For example, a large number of original images P (t) input by the original image input unit 110 in the past predetermined time are taken into the background image storage unit 120, and an average image for these many original images P (t) is created. The created average image may be handled as the background image BG at that time. Specifically, for example, if an average image is created for a long time such as one hour, the created average image can be used as a background image unless there is a detection target that remains in the same position for a long time. .

背景差分画像作成部130は、原画像入力部110が逐次入力した各原画像P(t)と背景画像格納部120から与えられる背景画像BGとの差をとることにより、背景差分画像D(t)を作成する構成要素である。上述したように、背景画像格納部120が、多数の原画像P(t)の平均画像を作成する機能をもっている場合、背景差分画像作成部130は、背景画像格納部120に格納されている最新の背景画像BGを用いて背景差分画像D(t)を作成することになる。   The background difference image creation unit 130 obtains the difference between the original image P (t) sequentially input by the original image input unit 110 and the background image BG given from the background image storage unit 120, thereby obtaining the background difference image D (t ). As described above, when the background image storage unit 120 has a function of generating an average image of many original images P (t), the background difference image generation unit 130 is the latest stored in the background image storage unit 120. The background difference image D (t) is created using the background image BG.

これに対して、フレーム間差分画像作成部140は、原画像入力部110が逐次入力した各原画像P(t)について、時系列における異なるフレームとの差分を示すフレーム間差分画像を作成する構成要素である。たとえば、時刻t1に与えられた原画像P(t1)については、その前のフレームである原画像P(t0)との差を求め、得られた差分画像をフレーム間差分画像F(t1)として出力する処理を行う。   On the other hand, the inter-frame difference image creation unit 140 creates an inter-frame difference image indicating a difference between different frames in time series for each original image P (t) sequentially input by the original image input unit 110. Is an element. For example, for the original image P (t1) given at time t1, a difference from the original image P (t0) which is the previous frame is obtained, and the obtained difference image is set as an inter-frame difference image F (t1). Perform output processing.

重複有無判定部150は、背景差分画像作成部130が作成した背景差分画像D(t)内の個々の背景差分領域dについて、フレーム間差分画像作成部140が作成したフレーム間差分画像F(t)内のフレーム間差分領域fに対する重複部分の有無を判定する構成要素である。ここに示す実施例の場合、重複有無判定部150は、判定結果を重複確認画像C(t)という形で出力する機能を有している。この重複確認画像C(t)の作成方法については、後に具体例を示しながら説明する。   The duplication presence / absence determination unit 150 determines the inter-frame difference image F (t) created by the inter-frame difference image creation unit 140 for each background difference region d in the background difference image D (t) created by the background difference image creation unit 130. ) Is a component that determines whether or not there is an overlapping portion with respect to the inter-frame difference region f. In the embodiment shown here, the duplication presence / absence determination unit 150 has a function of outputting the determination result in the form of an overlap confirmation image C (t). A method of creating the duplication confirmation image C (t) will be described later with a specific example.

個体認識部160は、重複有無判定部150による判定結果に基づいて、原画像P(t)に含まれる個体を静止個体もしくは動作個体と認識する構成要素であり、要するに、原画像P(t)上に現れている個々の個体が、静止個体か動作個体かを認識する役割を果たす。より具体的に説明すれば、この個体認識部160は、背景差分画像作成部130が作成した背景差分画像D(t)に含まれている個々の背景差分領域dについて、重複有無判定部150による判定結果(図示の実施例の場合、重複確認画像C(t))に基づいて、当該背景差分領域dを占める個体を静止個体もしくは動作個体と認識する処理を行う構成要素であり、図示のとおり、静止個体認識部161と動作個体認識部162とを有している。静止個体認識部161は、静止個体の認識処理を行い、動作個体認識部162は、動作個体の認識処理を行う。   The individual recognition unit 160 is a component that recognizes an individual included in the original image P (t) as a stationary individual or a moving individual based on the determination result by the duplication presence / absence determination unit 150. In short, the original image P (t) It plays a role of recognizing whether each individual appearing above is a stationary individual or a moving individual. More specifically, the individual recognition unit 160 uses the duplication presence / absence determination unit 150 for each background difference region d included in the background difference image D (t) created by the background difference image creation unit 130. Based on the determination result (in the case of the illustrated example, duplication confirmation image C (t)), this is a component that performs processing for recognizing an individual occupying the background difference region d as a stationary individual or a moving individual. And a stationary individual recognition unit 161 and a moving individual recognition unit 162. The stationary individual recognition unit 161 performs recognition processing of the stationary individual, and the moving individual recognition unit 162 performs recognition processing of the moving individual.

なお、本願にいう「個体」とは、1人の人間や、1台の車両、というように、独立して移動可能な検出対象物を指しており、人間の足とか、車両のタイヤといった一部分は、あくまでも「個体」の一部分であって、それ自体は「個体」ではない。また、本願にいう「動作個体」とは、「何らかの動作を行っている最中の個体」を指しており、必ずしも移動している個体(歩行中の人や走行中の車両)だけを指すものではない。たとえば、定位置に止まりながら手を振っている人や、停車しながらウインカーを点滅させている車両などは、本願にいう「動作個体」である。   The term “individual” as used in the present application refers to a detection object that can be moved independently, such as one person or one vehicle, and a part such as a human foot or a vehicle tire. Is only a part of an “individual” and is not itself an “individual”. In addition, the “moving individual” in the present application refers to “an individual that is performing some kind of motion”, and only refers to an individual that is moving (a walking person or a running vehicle). is not. For example, a person waving while staying at a fixed position, or a vehicle blinking a blinker while stopping, is an “operating object” in the present application.

これに対して、本願にいう「静止個体」とは、「何ら動作を行っていない個体」を指しており、撮影対象領域内に存在する個体のうち、上記「動作個体」以外の個体をいう。たとえば、座ったまま手足などを動かさない人や、駐車中の車両などは、本願にいう「動作個体」である。もっとも、「動作を行っているか否か」は、後述するように、フレーム間差分画像F(t)上でフレーム間差分領域fと認識される部分があるか否かによって判断される事項であり、フレーム間の差分が所定の基準以下にしかならない微細な動作しかしていない個体(たとえば、呼吸動作しかしていない人)は、「静止個体」と判定されることになる。   On the other hand, the “stationary individual” referred to in the present application refers to an “individual that has not performed any motion”, and refers to an individual other than the “moving individual” among the individuals present in the imaging target region. . For example, a person who does not move his / her limbs while sitting, a parked vehicle, and the like are “moving individuals” as used herein. However, “whether or not an operation is being performed” is a matter to be determined based on whether or not there is a portion recognized as an inter-frame difference area f on the inter-frame difference image F (t), as will be described later. An individual who performs only a fine motion (for example, a person who performs only a breathing motion) whose difference between frames is less than or equal to a predetermined reference is determined as a “stationary individual”.

検出個体表示部170は、個体認識部160によって静止個体もしくは動作個体と認識された個体を、ディスプレイ画面上で識別させるための個体指標を表示する構成要素である。すなわち、静止個体認識部161によって静止個体と認識された個体については静止個体指標sを表示し、動作個体認識部162によって動作個体と認識された個体については動作個体指標mを表示する処理を行う。静止個体指標sは、ディスプレイ画面上に表示されている個体のうち、静止個体と認識された個体を示す指標であり、動作個体指標mは、ディスプレイ画面上に表示されている個体のうち、動作個体と認識された個体を示す指標である。   The detected individual display unit 170 is a component that displays an individual index for identifying an individual recognized as a stationary individual or a moving individual by the individual recognition unit 160 on the display screen. That is, a process for displaying a stationary individual index s for an individual recognized as a stationary individual by the stationary individual recognition unit 161 and a moving individual index m for an individual recognized as a moving individual by the moving individual recognition unit 162 is performed. . The stationary individual index s is an index indicating an individual recognized as a stationary individual among the individuals displayed on the display screen, and the moving individual index m is an action among the individuals displayed on the display screen. It is an index indicating an individual recognized as an individual.

ここに示す実施例の場合、検出個体表示部170には、原画像入力部110が入力した原画像P(t)が逐次与えられている。したがって、検出個体表示部170は、静止個体指標sまたは動作個体指標mを、原画像P(t)に重畳させることにより個体検出画像Q(t)を作成し、この個体検出画像Q(t)をディスプレイ画面上に表示する。なお、検出個体表示部170は、個体認識部160によって静止個体と認識された個体を示す静止個体指標sと、動作個体と認識された個体を示す動作個体指標mとの双方を、ディスプレイ画面上に表示する際には、両者をそれぞれ視覚的に区別可能な態様で表示する機能を有している。   In the example shown here, the detected individual display unit 170 is sequentially given the original image P (t) input by the original image input unit 110. Therefore, the detected individual display unit 170 creates an individual detected image Q (t) by superimposing the stationary individual index s or the moving individual index m on the original image P (t), and this individual detected image Q (t) Is displayed on the display screen. The detected individual display unit 170 displays both a stationary individual index s indicating an individual recognized as a stationary individual by the individual recognition unit 160 and a moving individual index m indicating an individual recognized as a moving individual on a display screen. When displaying on the screen, it has a function of displaying both in a visually distinguishable manner.

したがって、この検出装置100を、監視システムとして利用する場合、ディスプレイ画面を見ながら個々の個体を監視する監視員は、個体検出画像Q(t)に含まれている静止個体指標sと動作個体指標mとを区別して認識することにより、画面上の個体が静止個体であるのか動作個体であるのかを視覚的に把握することができる。静止個体指標sと動作個体指標mの具体的な態様については後述する。   Therefore, when this detection apparatus 100 is used as a monitoring system, a monitoring person who monitors each individual while looking at the display screen has a stationary individual index s and a moving individual index included in the individual detection image Q (t). By distinguishing and recognizing m, it is possible to visually grasp whether an individual on the screen is a stationary individual or an operating individual. Specific modes of the stationary individual index s and the moving individual index m will be described later.

以上、図1を参照しながら、本発明の基本的な実施形態に係る個体の検出装置100の基本構成を、個々のブロックで示す機能要素の集合体として説明したが、実用上、この検出装置100は、コンピュータに専用のアプリケーションプログラムを組み込むことにより構成することができる。したがって、実際には、図1に各ブロックで示した構成要素は、コンピュータのハードウェアとプログラムによるソフトウェアとの組み合わせによって実現されることになる。   The basic configuration of the individual detection apparatus 100 according to the basic embodiment of the present invention has been described above as a collection of functional elements indicated by individual blocks with reference to FIG. 100 can be configured by incorporating a dedicated application program in the computer. Therefore, in practice, the components shown in each block in FIG. 1 are realized by a combination of computer hardware and software by a program.

また、図1に示す実施例では、個体認識部160内に静止個体認識部161と動作個体認識部162との双方が設けられているが、これらは必ずしも双方を設ける必要はない。たとえば、静止個体の認識だけを行えば足りる用途に利用する装置であれば、静止個体認識部161のみを設けておけば足り、検出個体表示部170は静止個体指標sを表示する処理を行えばよい。同様に、動作個体の認識だけを行えば足りる用途に利用する装置であれば、動作個体認識部162のみを設けておけば足り、検出個体表示部170は動作個体指標mを表示する処理を行えばよい。   In the embodiment shown in FIG. 1, both the stationary individual recognition unit 161 and the moving individual recognition unit 162 are provided in the individual recognition unit 160, but it is not always necessary to provide both. For example, if the device is used only for recognition of a stationary individual, it is sufficient to provide only the stationary individual recognition unit 161, and the detected individual display unit 170 performs processing for displaying the stationary individual index s. Good. Similarly, if the apparatus is used only for recognition of the moving object, it is sufficient to provide only the moving object recognition unit 162, and the detected object display unit 170 performs processing for displaying the moving object index m. Just do it.

更に、検出個体表示部170は、静止個体指標sまたは動作個体指標mを原画像P(t)に重畳させることにより個体検出画像Q(t)を作成してディスプレイ画面上に表示する機能を果たす構成要素であるが、個体検出画像Q(t)を表示する必要がない用途に利用する装置の場合は、検出個体表示部170を設ける必要はない。たとえば、監視業務という用途ではなく、個体認識部160が認識した静止個体や動作個体の数を計数し、当該計数値に基づいて統計をとるような用途に利用する装置の場合は、個体認識部160が個々の静止個体や動作個体の認識を行い、これを計数することができれば足りる。このような用途では、監視員のためにディスプレイ画面上に個体検出画像Q(t)を表示する必要はなく、検出個体表示部170は不要である。   Further, the detected individual display unit 170 has a function of creating an individual detected image Q (t) by superimposing the stationary individual index s or the moving individual index m on the original image P (t) and displaying it on the display screen. In the case of a device that is a component but is used for an application that does not need to display the individual detection image Q (t), it is not necessary to provide the detected individual display unit 170. For example, in the case of a device that is not used for monitoring work but counts the number of stationary and moving individuals recognized by the individual recognition unit 160 and uses the statistics based on the count value, the individual recognition unit It suffices if 160 can recognize and count individual stationary individuals and moving individuals. In such an application, it is not necessary to display the individual detection image Q (t) on the display screen for the monitor, and the detected individual display unit 170 is not necessary.

<<< §2. 本発明における静止個体と動作個体 >>>
§1で述べたとおり、図1に示す個体の検出装置100の基本的な処理機能は、所定の監視場所に設置された定点カメラによる撮影などによって得られた原画像P(t)を逐次入力して(原画像入力部110への入力)、個体検出画像Q(t)をディスプレイ画面上に逐次出力する(検出個体表示部170からの出力)ことにある。
<<< §2. Stationary and moving individuals in the present invention >>>
As described in §1, the basic processing function of the individual detection apparatus 100 shown in FIG. 1 sequentially inputs an original image P (t) obtained by photographing with a fixed point camera installed at a predetermined monitoring place. (Input to the original image input unit 110) and sequentially output the individual detection image Q (t) on the display screen (output from the detected individual display unit 170).

たとえば、定点カメラによって30フレーム/秒のフレームレートで撮影された原画像P(t)を処理する場合、1/30秒の間隔で与えられる原画像P(t0),P(t1),P(t2),P(t3),...を順次入力しながら、同じく1/30秒の間隔で作成された個体検出画像Q(t1),Q(t2),Q(t3),...を順次出力する処理が行われることになる。なお、個体検出画像Q(t)の作成には、フレーム間差分画像F(t)が必要になるので、上例の場合、時刻t0における個体検出画像Q(t0)は作成されない。   For example, when processing an original image P (t) captured at a frame rate of 30 frames / second by a fixed point camera, the original images P (t0), P (t1), P () given at intervals of 1/30 seconds While sequentially inputting t2), P (t3),..., the individual detection images Q (t1), Q (t2), Q (t3),. Processing to output sequentially is performed. In addition, since the inter-frame difference image F (t) is required to create the individual detection image Q (t), the individual detection image Q (t0) at the time t0 is not generated in the above example.

ここで重要な点は、こうして作成された個体検出画像Q(t)には、検出された個々の個体を示す情報だけではなく、当該個体が静止中の個体(静止個体)か動作中の個体(動作個体)か、を示す情報も含まれている点である。以下、本発明にいう「静止個体」と「動作個体」の概念について、具体的な例を示しながら説明する。   The important point here is that the individual detection image Q (t) created in this way includes not only information indicating the detected individual individuals but also whether the individual is a stationary individual (stationary individual) or a moving individual. This also includes information indicating whether the object is an (operation individual). Hereinafter, the concept of “stationary object” and “moving object” according to the present invention will be described with reference to specific examples.

図2は、図1の装置に入力された原画像P(t)と図1の装置から出力された個体検出画像Q(t)−Sとの対応関係の具体例を示す図である。まず、図2の左側には、時刻t0,t1,t2,t3,t4の各時点で撮影された原画像P(t0),P(t1),P(t2),P(t3),P(t4)が例示されている。これらの各原画像は、所定の撮影対象領域を撮影するために設置された定点カメラによって撮影されたものである。一般的な動画撮影用のカメラの場合、30フレーム/秒程度のフレームレートでの撮影が行われることになるが、ここでは便宜上、1フレーム/秒程度のフレームレートで、2人の人物が撮影された例を用いて以下の説明を行うことにする。また、背景については図示を省略する。   FIG. 2 is a diagram showing a specific example of the correspondence between the original image P (t) input to the apparatus of FIG. 1 and the individual detection image Q (t) -S output from the apparatus of FIG. First, on the left side of FIG. 2, the original images P (t0), P (t1), P (t2), P (t3), and P (taken at the time points t0, t1, t2, t3, and t4 are displayed. t4) is illustrated. Each of these original images is taken by a fixed point camera installed to take a picture of a predetermined shooting target area. In the case of a general camera for moving image shooting, shooting is performed at a frame rate of about 30 frames / second. Here, for convenience, two persons are shot at a frame rate of about 1 frame / second. The following description will be given using the example described. Further, illustration of the background is omitted.

原画像P(t0)は、時刻t0における撮影によって得られたフレーム画像を示すものであり、左端に第1の個体A(符号A0で示す。以下、大人と呼ぶ)が位置し、右端に第2の個体B(符号B0で示す。以下、子供と呼ぶ)が位置している。この例では、大人Aは図の右側へと移動し、子供Bは図の左側へと移動しているため、時刻t1に撮影された原画像P(t1)では、大人Aの位置(A1)は若干右へずれ、子供Bの位置(B1)は若干左にずれている。ここでは、説明の便宜上、子供Bは時刻t1に移動をやめたものとする。大人Aは移動を続けているため、時刻t2に撮影された原画像P(t2)では、大人Aの位置(A2)は更に右へずれ、子供Bの位置(B2)は元の位置のままである。   The original image P (t0) is a frame image obtained by photographing at time t0, and a first individual A (indicated by reference numeral A0, hereinafter referred to as an adult) is located at the left end, and the first image at the right end. Two individuals B (indicated by the symbol B0, hereinafter referred to as children) are located. In this example, since adult A has moved to the right side of the figure and child B has moved to the left side of the figure, in the original image P (t1) taken at time t1, the position of adult A (A1) Is slightly shifted to the right, and the position of child B (B1) is slightly shifted to the left. Here, for convenience of explanation, it is assumed that the child B stops moving at time t1. Since adult A continues to move, in the original image P (t2) taken at time t2, the position of adult A (A2) is further shifted to the right and the position of child B (B2) remains at the original position. It is.

ここで、大人Aが時刻t2に移動をやめたものとすると、時刻t3に撮影された原画像P(t3)では、大人Aも子供Bも元の位置のままである。したがって、図示の原画像P(t3)は原画像P(t2)と同じになる。このように、時刻t3に至った時点で、大人Aも子供Bも、その移動動作は中止しているため、両者は定位置に立った状態にある。ただ、この後、大人Aが片手を上げる動作をしたものとしよう。この場合、時刻t4に撮影された原画像P(t4)では、大人Aの位置には変化は生じていないが、その形態が、片手を上げた状態(A4)に変化している。子供Bについては、位置も形態も変化は生じていない。   Here, assuming that the adult A stops moving at time t2, in the original image P (t3) photographed at time t3, both the adult A and the child B remain in their original positions. Therefore, the illustrated original image P (t3) is the same as the original image P (t2). Thus, since the movement operation | movement of the adult A and the child B has stopped at the time of reaching the time t3, both are in the state of standing. However, after this, let's assume that adult A moves up one hand. In this case, in the original image P (t4) taken at time t4, the position of the adult A has not changed, but its form has changed to a state where one hand is raised (A4). For child B, neither the position nor the form has changed.

このように、図2の左側に示す5枚の原画像P(t0)〜P(t4)は、上から下に向かった時系列で撮影されたフレーム単位の画像であり、2組の個体(大人Aと子供B)を被写体として含む画像になっている。以下、説明の便宜上、原画像P(t0)〜P(t4)に含まれている大人Aに対応する個体をA0〜A4と呼び、子供Bに対応する個体をB0〜B4と呼ぶことにする。   As described above, the five original images P (t0) to P (t4) shown on the left side of FIG. 2 are frame-based images taken in time series from the top to the bottom, and two sets of individuals ( The image includes adult A and child B) as subjects. Hereinafter, for convenience of explanation, an individual corresponding to the adult A included in the original images P (t0) to P (t4) will be referred to as A0 to A4, and an individual corresponding to the child B will be referred to as B0 to B4. .

もちろん、実際には、これら個体の画像は、背景画像の上に配置されていることになるが、ここでは説明の便宜上、背景を単なる無地の領域で示す。また、大人Aや子供Bが徒歩で移動すれば、手足の動きに応じて、その形態に変化が生じることになるが、ここでは、説明の便宜上、大人A0〜A3は同じ形態として描き(大人A4は手を上げているため、形態は異なったものになる)、子供B0〜B4も同じ形態として描いてある。   Of course, the images of these individuals are actually arranged on the background image, but here, for the convenience of explanation, the background is simply indicated by a plain area. Further, if the adult A or the child B moves on foot, the form will change according to the movement of the limbs. Here, for convenience of explanation, the adults A0 to A3 are drawn as the same form (adults). Since A4 raises his hand, the form will be different), and children B0-B4 are also depicted as the same form.

さて、ここでこの2つの個体の動きに着目すると、大人Aについては、時刻t0〜t2まで歩行動作中であり、時刻t3で静止し、時刻t4で腕を上げる動作中ということになる。一方、子供Bについては、時刻t0〜t1まで歩行動作中であり、時刻t2〜t4までは静止中ということになる。もちろん、実際には、静止中であっても呼吸などにより微動が生じているが、本発明では、位置や形態に有意な変化が生じていない場合には、静止中と判断することになる。   Now, paying attention to the movements of these two individuals, the adult A is in a walking motion from time t0 to t2, is stationary at time t3, and is moving up his arm at time t4. On the other hand, child B is in a walking motion from time t0 to t1, and is stationary from time t2 to t4. Of course, in reality, fine movement is caused by breathing or the like even when stationary, but in the present invention, when there is no significant change in position or form, it is determined that the object is stationary.

要するに、本発明に係る検出装置100では、位置および形態のいずれかに有意な実質的な変化が生じている個体を動作中と判断し、そのような個体を「動作個体」と呼んでいる。したがって、本発明にいう「動作個体」には、位置が変化する移動中の個体だけでなく、定位置であってもその形態を変えている個体も含まれることになる。これに対して、本発明にいう「静止個体」は、位置および形態がともに変化していない個体ということになる。もちろん、実際には、「変化していない」という意味は、「所定の基準を超える有意な変化が生じていない」という意味であり、位置変化や形態変化が基準以下である場合には、「静止個体」と認識されることになる。   In short, in the detection apparatus 100 according to the present invention, an individual having a significant change in either position or form is determined to be operating, and such an individual is referred to as an “operating individual”. Therefore, the “moving individual” referred to in the present invention includes not only a moving individual whose position changes but also an individual whose form is changed even at a fixed position. On the other hand, the “stationary individual” referred to in the present invention is an individual whose position and form have not changed. Of course, in practice, the meaning of “no change” means “no significant change exceeding a predetermined standard”, and when the position change or the shape change is below the reference, It will be recognized as a “stationary individual”.

ここに示す実施例では、ある1枚のフレーム画像上に現れている個体が、動作個体か静止個体かを決定する場合、1つ前のフレーム画像を基準として、位置や形態が有意な実質的な変化を生じているか否かを判定することになる。   In the embodiment shown here, when determining whether an individual appearing on a single frame image is a moving individual or a stationary individual, the position and form are substantially substantial with reference to the previous frame image. It is determined whether or not a change has occurred.

たとえば、図示の例の場合、大人A1は、1つ前のA0に対して位置を変えているため「動作個体」と判定され、大人A2は、1つ前のA1に対して位置を変えているため「動作個体」と判定される。これに対して、大人A3は、1つ前のA2に対して位置も形態も変えていないため、「静止個体」と判定される。そして、大人A4は、1つ前のA3に対して位置は変えていないが、形態を変えているため、「動作個体」と判定される。同様に、子供B1は、1つ前のB0に対して位置を変えているため「動作個体」と判定されるが、子供B2〜B4は、1つ前に対して位置も形態も変えていないため、「静止個体」と判定される。   For example, in the case of the illustrated example, the adult A1 has changed its position with respect to the previous A0, so it is determined as an “operating individual”, and the adult A2 has changed its position with respect to the previous A1. Therefore, it is determined as an “operating individual”. On the other hand, the adult A3 is determined to be a “stationary individual” because neither the position nor the form has changed with respect to the previous A2. The adult A4 does not change the position with respect to the previous A3, but changes the form, so it is determined as the “moving individual”. Similarly, the child B1 is determined to be an “operating individual” because the position is changed with respect to the previous B0, but the children B2 to B4 are not changed in position or form with respect to the previous one. Therefore, it is determined as a “stationary individual”.

本発明の目的は、定点カメラによる撮影画像に基づいて、動作中か静止中かを区別して、個々の個体を検出することにある。すなわち、撮影画像中に現れている個々の個体を検出するだけでなく、検出した各個体について、それぞれ動作個体であるのか静止個体であるのかを認識することを目的としている。特に、図1に示す実施例の場合、個体認識部160において、各個体が動作個体か静止個体かを認識した上で、更に、検出個体表示部170によって、その認識結果をディスプレイ画面上に表示する機能を有している。   An object of the present invention is to detect individual individuals by distinguishing whether they are operating or stationary based on images taken by a fixed point camera. In other words, the object is not only to detect individual individuals appearing in a captured image, but also to recognize whether each detected individual is an operating individual or a stationary individual. In particular, in the embodiment shown in FIG. 1, the individual recognition unit 160 recognizes whether each individual is an operating individual or a stationary individual, and further displays the recognition result on the display screen by the detected individual display unit 170. It has a function to do.

具体的には、検出個体表示部170は、静止個体指標sまたは動作個体指標mを原画像P(t)に重畳させることにより個体検出画像Q(t)を作成してディスプレイ画面上に表示する機能を有している。図2の右側に示す個体検出画像Q(t)−Sは、検出個体表示部170による静止個体の検出結果の表示例を示すものであり、各時刻t1〜t4における原画像P(t1)〜P(t4)の上に、静止個体認識部161によって静止個体と認識された個体を示す静止個体指標sを重畳した画像になっている。図では、静止個体指標sが微細矩形ドットパターンによるハッチング領域として示されている。   Specifically, the detected individual display unit 170 creates an individual detected image Q (t) by superimposing the stationary individual index s or the moving individual index m on the original image P (t) and displays it on the display screen. It has a function. The individual detection image Q (t) -S shown on the right side of FIG. 2 shows a display example of the detection result of the stationary individual by the detected individual display unit 170, and the original images P (t1) to t4 at the times t1 to t4. This is an image in which a stationary individual index s indicating an individual recognized as a stationary individual by the stationary individual recognition unit 161 is superimposed on P (t4). In the figure, the stationary individual index s is shown as a hatched area by a fine rectangular dot pattern.

まず、時刻t1の原画像P(t1)に対応して得られる個体検出画像Q(t1)−Sを見てみよう。図示の例の場合、個体検出画像Q(t1)−Sは、原画像P(t1)と全く同じ画像になり、いずれも大人A1と子供B1を含む画像になっている。この個体検出画像Q(t1)−Sには、静止個体指標sは表示されていない。これは、大人A1と子供B1がいずれも動作個体であり(1つ前のA0,B0に対して位置を変えている)、静止個体は1つも存在しないためである。   First, let us look at the individual detection image Q (t1) -S obtained corresponding to the original image P (t1) at time t1. In the case of the illustrated example, the individual detection image Q (t1) -S is the same image as the original image P (t1), and both are images including an adult A1 and a child B1. In this individual detection image Q (t1) -S, the stationary individual index s is not displayed. This is because both the adult A1 and the child B1 are moving individuals (the positions are changed with respect to the previous A0 and B0), and there are no stationary individuals.

次に、時刻t2の原画像P(t2)に対応して得られる個体検出画像Q(t2)−Sを見てみよう。図示の例の場合、個体検出画像Q(t2)−Sは、原画像P(t2)の上に、静止個体指標s1(t2)を重畳した画像になっている。具体的には、静止個体指標s1(t2)は、子供B2の領域に重なる微細矩形ドットによるハッチング領域として示されている。これは、子供B2が、1つ前のB1に対して位置も形態も変えていない静止個体であるためである。   Next, let us look at the individual detection image Q (t2) -S obtained corresponding to the original image P (t2) at time t2. In the illustrated example, the individual detection image Q (t2) -S is an image in which the stationary individual index s1 (t2) is superimposed on the original image P (t2). Specifically, the stationary individual index s1 (t2) is shown as a hatched area with fine rectangular dots overlapping the area of the child B2. This is because the child B2 is a stationary individual whose position and form have not changed with respect to the previous B1.

続いて、時刻t3の原画像P(t3)に対応して得られる個体検出画像Q(t3)−Sを見てみよう。図示の例の場合、個体検出画像Q(t3)−Sは、原画像P(t3)の上に、静止個体指標s1(t3)およびs2(t3)を重畳した画像になっている。具体的には、静止個体指標s1(t3)は、大人A3の領域に重なる微細矩形ドットによるハッチング領域として示されており、静止個体指標s2(t3)は、子供B3の領域に重なる微細矩形ドットによるハッチング領域として示されている。これは、大人A3が、1つ前のA2に対して位置も形態も変えていない静止個体であり、子供B3が、1つ前のB2に対して位置も形態も変えていない静止個体であるためである。   Next, let us look at the individual detection image Q (t3) -S obtained corresponding to the original image P (t3) at time t3. In the illustrated example, the individual detection image Q (t3) -S is an image in which the stationary individual indices s1 (t3) and s2 (t3) are superimposed on the original image P (t3). Specifically, the stationary individual index s1 (t3) is shown as a hatched area by fine rectangular dots that overlap the area of the adult A3, and the stationary individual index s2 (t3) is a fine rectangular dot that overlaps the area of the child B3. Are shown as hatched areas. This is an adult A3 is a stationary individual whose position and form have not changed with respect to the previous A2, and a child B3 is a stationary individual whose position and form has not changed with respect to the previous B2. Because.

最後に、時刻t4の原画像P(t4)に対応して得られる個体検出画像Q(t4)−Sを見てみよう。図示の例の場合、個体検出画像Q(t4)−Sは、原画像P(t4)の上に、静止個体指標s1(t4)を重畳した画像になっている。具体的には、静止個体指標s1(t4)は、子供B4の領域に重なる微細矩形ドットによるハッチング領域として示されている。これは、子供B4が、1つ前のB3に対して位置も形態も変えていない静止個体であるためである。大人A4は、1つ前のA3に対して位置は変えていないが、形態を変えているため(片手を上げているため)、動作個体になる。   Finally, let us look at the individual detection image Q (t4) -S obtained corresponding to the original image P (t4) at time t4. In the illustrated example, the individual detection image Q (t4) -S is an image in which the stationary individual index s1 (t4) is superimposed on the original image P (t4). Specifically, the stationary individual index s1 (t4) is shown as a hatched area with fine rectangular dots overlapping the area of the child B4. This is because the child B4 is a stationary individual whose position and form have not changed with respect to the previous B3. The adult A4 does not change its position relative to the previous A3, but changes its form (because one hand is raised), and thus becomes an operating individual.

結局、図1に示す個体の検出装置100を監視システムとして利用して、図2の右側に示すような個体検出画像Q(t)−Sをディスプレイ画面上に表示させるようにすれば、定点カメラによる撮影画像(原画像P(t))とともに、各時刻において静止個体と判定された個体を示す静止個体指標sが提示されることになるので、監視員は、静止個体に注意を向けた監視を行うことが可能になる。   After all, if the individual detection apparatus 100 shown in FIG. 1 is used as a monitoring system and an individual detection image Q (t) -S as shown on the right side of FIG. 2 is displayed on the display screen, a fixed point camera is obtained. Together with the captured image (original image P (t)), the stationary individual index s indicating the individual determined to be a stationary individual at each time will be presented. It becomes possible to do.

たとえば、図2に示す例の場合、時刻t2〜t4の間、ディスプレイ画面上には、子供Bの画像上に微細矩形ドットによるハッチング領域として静止個体指標sが重畳表示されるので、監視員は子供Bがずっと動かない状態であることを認識することができる。すなわち、微細矩形ドットによるハッチング領域からなる静止個体指標sは、子供Bという個体の検出結果を示すだけでなく、当該個体が静止個体であることを示す役割を果たす。したがって、この装置をプール用監視システムとして利用すれば、溺れた可能性のある利用客に注意を向けた監視を行うことができる。   For example, in the case of the example shown in FIG. 2, since the stationary individual index s is superimposed on the display screen as a hatched area of fine rectangular dots on the display screen between times t2 and t4, It can be recognized that the child B is in a state of not moving all the time. That is, the stationary individual index s composed of the hatched area by the fine rectangular dots not only shows the detection result of the individual called the child B but also plays a role of indicating that the individual is a stationary individual. Therefore, if this apparatus is used as a pool monitoring system, it is possible to perform monitoring with attention paid to users who may have drowned.

一方、図3は、図1の装置に入力された原画像P(t)と図1の装置から出力された個体検出画像Q(t)−Mとの対応関係の具体例を示す図である。図3の左側に示されている原画像P(t0),P(t1),P(t2),P(t3),P(t4)は、時刻t0,t1,t2,t3,t4の各時点において定点カメラによって撮影されたフレーム単位の画像であり、図2の左側に示した画像と全く同じである。これに対して、図3の右側に示されている個体検出画像Q(t)−Mは、検出個体表示部170による動作個体の検出結果の表示例を示すものである。   On the other hand, FIG. 3 is a diagram showing a specific example of the correspondence relationship between the original image P (t) input to the apparatus of FIG. 1 and the individual detection image Q (t) -M output from the apparatus of FIG. . The original images P (t0), P (t1), P (t2), P (t3), and P (t4) shown on the left side of FIG. 3 are time points t0, t1, t2, t3, and t4. 2 is a frame-by-frame image taken by a fixed point camera, which is exactly the same as the image shown on the left side of FIG. On the other hand, the individual detection image Q (t) -M shown on the right side of FIG. 3 shows a display example of the detection result of the operating individual by the detected individual display unit 170.

上述したとおり、図2の右側に示す個体検出画像Q(t)−Sは、静止個体の検出結果を示す画像であり、各時刻t1〜t4における原画像P(t1)〜P(t4)の上に、静止個体認識部161によって静止個体と認識された個体を示す静止個体指標sを重畳した画像になっている。これに対して、図3の右側に示す個体検出画像Q(t)−Mは、動作個体の検出結果を示す画像であり、各時刻t1〜t4における原画像P(t1)〜P(t4)の上に、動作個体認識部162によって動作個体と認識された個体を示す動作個体指標mを重畳した画像になっている。図では、動作個体指標mが斜線網目パターンによるハッチング領域として示されている。   As described above, the individual detection image Q (t) -S shown on the right side of FIG. 2 is an image showing the detection result of the stationary individual, and the original images P (t1) to P (t4) at the times t1 to t4. On the top, an image in which a stationary individual index s indicating an individual recognized as a stationary individual by the stationary individual recognition unit 161 is superimposed. On the other hand, the individual detection image Q (t) -M shown on the right side of FIG. 3 is an image showing the detection result of the moving individual, and the original images P (t1) to P (t4) at the times t1 to t4. On top of this, an action individual index m indicating an individual recognized as an action individual by the action individual recognition unit 162 is superimposed. In the figure, the moving individual index m is shown as a hatched area with a hatched mesh pattern.

まず、時刻t1の原画像P(t1)に対応して得られる個体検出画像Q(t1)−Mを見てみよう。図示の例の場合、個体検出画像Q(t1)−Mは、原画像P(t1)の上に、動作個体指標m1(t1)およびm2(t1)を重畳した画像になっている。具体的には、動作個体指標m1(t1)は、大人A1の領域に重なる斜線網目によるハッチング領域として示されており、動作個体指標m2(t1)は、子供B1の領域に重なる斜線網目によるハッチング領域として示されている。これは、大人A1が、1つ前のA0に対して位置を変えた動作個体であり、子供B1が、1つ前のB0に対して位置を変えた動作個体であるためである。   First, let's look at the individual detection image Q (t1) -M obtained corresponding to the original image P (t1) at time t1. In the case of the illustrated example, the individual detection image Q (t1) -M is an image in which the motion individual indexes m1 (t1) and m2 (t1) are superimposed on the original image P (t1). Specifically, the motion individual index m1 (t1) is shown as a hatched area with hatched meshes overlapping the area of the adult A1, and the motion individual index m2 (t1) is hatched with hatched meshes overlapping with the area of the child B1. Shown as a region. This is because the adult A1 is an operating individual whose position is changed with respect to the previous A0, and the child B1 is an operating individual whose position is changed with respect to the previous B0.

次に、時刻t2の原画像P(t2)に対応して得られる個体検出画像Q(t2)−Mを見てみよう。図示の例の場合、個体検出画像Q(t2)−Mは、原画像P(t2)の上に、動作個体指標m1(t2)を重畳した画像になっている。具体的には、動作個体指標m1(t2)は、大人A2の領域に重なる斜線網目によるハッチング領域として示されている。これは、大人A2が、1つ前のA1に対して位置を変えた動作個体であるためである。   Next, let us look at the individual detection image Q (t2) -M obtained corresponding to the original image P (t2) at time t2. In the case of the illustrated example, the individual detection image Q (t2) -M is an image in which the motion individual index m1 (t2) is superimposed on the original image P (t2). Specifically, the motion individual index m1 (t2) is shown as a hatched area with a hatched mesh overlapping the area of the adult A2. This is because the adult A2 is an operating individual whose position is changed with respect to the previous A1.

続いて、時刻t3の原画像P(t3)に対応して得られる個体検出画像Q(t3)−Mを見てみよう。図示の例の場合、個体検出画像Q(t3)−Mは、原画像P(t3)と全く同じ画像になり、動作個体指標mは表示されていない。これは、大人A3と子供B3がいずれも静止個体であり(1つ前のA2,B2に対して位置および形態を変えていない)、動作個体は1つも存在しないためである。   Next, let us look at the individual detection image Q (t3) -M obtained corresponding to the original image P (t3) at time t3. In the case of the illustrated example, the individual detection image Q (t3) -M is the same image as the original image P (t3), and the motion individual index m is not displayed. This is because both the adult A3 and the child B3 are stationary individuals (the positions and forms are not changed with respect to the previous A2 and B2), and there are no moving individuals.

最後に、時刻t4の原画像P(t4)に対応して得られる個体検出画像Q(t4)−Mを見てみよう。図示の例の場合、個体検出画像Q(t4)−Mは、原画像P(t4)の上に、動作個体指標m1(t4)を重畳した画像になっている。具体的には、動作個体指標m1(t4)は、大人A4の領域に重なる斜線網目によるハッチング領域として示されている。これは、大人A4が、1つ前のA3に対して位置は変えていないが形態を変えている(片手を上げている)動作個体であるためである。   Finally, let's look at the individual detection image Q (t4) -M obtained corresponding to the original image P (t4) at time t4. In the case of the illustrated example, the individual detection image Q (t4) -M is an image in which the motion individual index m1 (t4) is superimposed on the original image P (t4). Specifically, the motion individual index m1 (t4) is shown as a hatched area with a hatched mesh overlapping the area of the adult A4. This is because the adult A4 is an operating individual whose position is not changed with respect to the previous A3 but whose form is changed (with one hand raised).

結局、図1に示す個体の検出装置100を監視システムとして利用して、図3の右側に示すような個体検出画像Q(t)−Mをディスプレイ画面上に表示させるようにすれば、定点カメラによる撮影画像(原画像P(t))とともに、各時刻において動作個体と判定された個体を示す動作個体指標mが提示されることになるので、監視員は、動作個体に注意を向けた監視を行うことが可能になる。   After all, if the individual detection apparatus 100 shown in FIG. 1 is used as a monitoring system and an individual detection image Q (t) -M as shown on the right side of FIG. 3 is displayed on the display screen, a fixed point camera is obtained. In addition to the captured image (original image P (t)), the motion individual index m indicating the individual determined to be the motion individual at each time is presented, so that the monitor monitors the motion individual with attention. It becomes possible to do.

たとえば、図3に示す例の場合、時刻t1,t2,t4において、ディスプレイ画面上には、大人Aの画像上に斜線網目によるハッチング領域として動作個体指標mが重畳表示されるので、監視員は大人Aが何らかの動作を行っていることを認識することができる。すなわち、斜線網目によるハッチング領域からなる動作個体指標mは、大人Aという個体の検出結果を示すだけでなく、当該個体が動作個体であることを示す役割を果たす。したがって、この装置を講演会場などの警備システムとして利用すれば、不審な行動を行っている聴衆者に注意を向けた警備を行うことができる。   For example, in the case of the example shown in FIG. 3, at time t1, t2, t4, the motion individual indicator m is superimposed and displayed as a hatched area with hatched meshes on the image of the adult A on the display screen. It can be recognized that the adult A is performing some kind of operation. That is, the moving individual index m composed of the hatched area by the hatched mesh not only shows the detection result of the individual called adult A, but also plays a role of indicating that the individual is an operating individual. Therefore, if this device is used as a security system in a lecture hall or the like, it is possible to perform security that pays attention to an audience performing suspicious behavior.

図4は、図1の装置に入力された原画像P(t)と図1の装置から出力された個体検出画像Q(t)−SMとの対応関係の具体例を示す図である。図4の左側に示されている原画像P(t0),P(t1),P(t2),P(t3),P(t4)は、時刻t0,t1,t2,t3,t4の各時点において定点カメラによって撮影されたフレーム単位の画像であり、図2や図3の左側に示した画像と全く同じである。これに対して、図4の右側に示されている個体検出画像Q(t)−SMは、検出個体表示部170による静止個体・動作個体の双方の検出結果の表示例を示すものである。   FIG. 4 is a diagram illustrating a specific example of a correspondence relationship between the original image P (t) input to the apparatus of FIG. 1 and the individual detection image Q (t) -SM output from the apparatus of FIG. The original images P (t0), P (t1), P (t2), P (t3), and P (t4) shown on the left side of FIG. 4 are time points t0, t1, t2, t3, and t4. 2 is a frame-by-frame image taken by a fixed-point camera, which is exactly the same as the image shown on the left side of FIGS. On the other hand, the individual detection image Q (t) -SM shown on the right side of FIG. 4 shows a display example of detection results of both stationary and moving individuals by the detected individual display unit 170.

要するに、図4の右側に示す個体検出画像Q(t)−SMは、各時刻t1〜t4における原画像P(t1)〜P(t4)の上に、静止個体認識部161によって静止個体と認識された個体を示す静止個体指標sと、動作個体認識部162によって動作個体と認識された個体を示す動作個体指標mと、の双方を重畳した画像になっている。図では、静止個体指標sが微細矩形ドットパターンによるハッチング領域として示され、動作個体指標mが斜線網目パターンによるハッチング領域として示されている。   In short, the individual detection image Q (t) -SM shown on the right side of FIG. 4 is recognized as a stationary individual by the stationary individual recognition unit 161 on the original images P (t1) to P (t4) at each time t1 to t4. This is an image in which both the stationary individual index s indicating the individual and the moving individual index m indicating the individual recognized as the moving individual by the moving object recognition unit 162 are superimposed. In the figure, the stationary individual index s is shown as a hatched area with a fine rectangular dot pattern, and the moving individual index m is shown as a hatched area with a hatched mesh pattern.

すなわち、時刻t1の原画像P(t1)に対応して得られる個体検出画像Q(t1)−SM上では、動作個体である大人A1および子供B1の双方に、動作個体指標m1(t1)およびm2(t1)が重畳されている。また、時刻t2の原画像P(t2)に対応して得られる個体検出画像Q(t2)−SM上では、動作個体である大人A2には動作個体指標m1(t2)が重畳されており、静止個体である子供B2には静止個体指標s1(t2)が重畳されている。そして、時刻t3の原画像P(t3)に対応して得られる個体検出画像Q(t3)−SM上では、静止個体である大人A3および子供B3の双方に、静止個体指標s1(t3)およびs2(t3)が重畳されている。最後に、時刻t4の原画像P(t4)に対応して得られる個体検出画像Q(t4)−SM上では、動作個体である大人A4には動作個体指標m1(t4)が重畳されており、静止個体である子供B2には静止個体指標s1(t4)が重畳されている。   That is, on the individual detection image Q (t1) -SM obtained in correspondence with the original image P (t1) at time t1, the motion individual index m1 (t1) and the adult individual A1 and the child B1 that are motion individuals are displayed. m2 (t1) is superimposed. Further, on the individual detection image Q (t2) -SM obtained corresponding to the original image P (t2) at time t2, the motion individual index m1 (t2) is superimposed on the adult A2 that is the motion individual, A stationary individual index s1 (t2) is superimposed on the child B2, which is a stationary individual. On the individual detection image Q (t3) -SM obtained corresponding to the original image P (t3) at time t3, the stationary individual index s1 (t3) and the adult individual A3 and the child B3 that are stationary individuals are displayed. s2 (t3) is superimposed. Finally, on the individual detection image Q (t4) -SM obtained corresponding to the original image P (t4) at time t4, the motion individual index m1 (t4) is superimposed on the adult A4 that is the motion individual. The stationary individual index s1 (t4) is superimposed on the child B2, which is a stationary individual.

結局、図1に示す個体の検出装置100を監視システムとして利用して、図4の右側に示すような個体検出画像Q(t)−SMをディスプレイ画面上に表示させるようにすれば、定点カメラによる撮影画像(原画像P(t))とともに、各時刻において、静止個体と判定された個体を示す静止個体指標sと、動作個体と判定された個体を示す動作個体指標mとが提示されることになる。しかも、静止個体指標sと動作個体指標mとは、それぞれ視覚的に区別可能な態様で表示されるので(図示の例の場合、微細矩形ドットパターンによるハッチング領域と斜線網目パターンによるハッチング領域)、監視員は、静止個体と動作個体とをそれぞれ区別して認識することができる。   After all, if the individual detection apparatus 100 shown in FIG. 1 is used as a monitoring system and an individual detection image Q (t) -SM as shown on the right side of FIG. 4 is displayed on the display screen, a fixed point camera is obtained. A stationary individual index s indicating an individual determined to be a stationary individual and a moving individual index m indicating an individual determined to be an operating individual are presented at each time, together with a captured image (original image P (t)). It will be. In addition, the stationary individual index s and the moving individual index m are displayed in a visually distinguishable manner (in the example shown in the figure, a hatching area with a fine rectangular dot pattern and a hatched area with a hatched mesh pattern), The monitor can distinguish and recognize a stationary individual and a moving individual.

すなわち、監視員は、ハッチングがなされた領域をそれぞれ独立した個体(この例の場合は人)として直観的に把握できるとともに、微細矩形ドットによるハッチングであれば静止中の個体、斜線網目によるハッチングであれば動作中の個体として、それぞれ区別して把握することができる。このため、様々な環境において、静止中の個体に注意を向けた監視や、逆に、動作中の個体に注意を向けた監視を行うことができる。   That is, the observer can intuitively grasp the hatched area as an individual individual (in this case, a person), and if it is hatched by a fine rectangular dot, it is a stationary individual or hatched by a hatched mesh. If there is, it is possible to distinguish and grasp each as an individual in operation. For this reason, in various environments, it is possible to perform monitoring with attention directed to a stationary individual, and conversely, monitoring with attention directed to a moving individual.

このように、図1に示す個体の検出装置100は、図2の右側に示すように、静止個体の検出結果を示す個体検出画像Q(t)−Sを表示することもできるし、図3の右側に示すように、動作個体の検出結果を示す個体検出画像Q(t)−Mを表示することもできるし、図4の右側に示すように、静止個体と動作個体の双方の検出結果を示す個体検出画像Q(t)−SMを表示することもできる。なお、個体検出画像Q(t)−Sを表示するだけで十分な装置の場合は、図1に示す動作個体認識部162を設ける必要はなく、動作検出画像Q(t)−Mを表示するだけで十分な装置の場合は、図1に示す静止個体認識部161を設ける必要はない。   As described above, the individual detection device 100 shown in FIG. 1 can also display the individual detection image Q (t) -S indicating the detection result of the stationary individual as shown on the right side of FIG. The individual detection image Q (t) -M showing the detection result of the moving individual can be displayed as shown on the right side of FIG. 4, and the detection result of both the stationary individual and the moving individual as shown on the right side of FIG. It is also possible to display an individual detection image Q (t) -SM indicating In the case of a device that only needs to display the individual detection image Q (t) -S, it is not necessary to provide the motion individual recognition unit 162 shown in FIG. 1, and the motion detection image Q (t) -M is displayed. In the case of a device that is sufficient, it is not necessary to provide the stationary individual recognition unit 161 shown in FIG.

図1に示す個体の検出装置100を、図4の右側に示すように、静止個体と動作個体の双方の検出結果を示す個体検出画像Q(t)−SMを表示する装置として捉えると、この装置は、所定の撮影対象領域内に存在する個体を、静止中の静止個体もしくは動作中の動作個体として検出する個体の検出装置であり、所定の撮影対象領域に対する撮影によって時系列で並んだフレーム単位の画像として得られる原画像P(t)を入力する原画像入力部110と、この原画像P(t)上に現れている個々の個体を、静止個体もしくは動作個体と認識する個体認識部160と、この個体認識部160による認識結果に基づいて、原画像P(t)上に、静止個体と認識された個体を示す静止個体指標sと、動作個体と認識された個体を示す動作個体指標mと、を重畳して、かつ、静止個体指標sと動作個体指標mとがそれぞれ視覚的に区別可能となるような態様で表示する検出個体表示部170と、を備えた装置ということができる。   When the individual detection device 100 shown in FIG. 1 is regarded as a device that displays an individual detection image Q (t) -SM showing detection results of both stationary and moving individuals, as shown on the right side of FIG. The device is an individual detection device for detecting an individual existing in a predetermined imaging target area as a stationary stationary object or an operating individual in motion, and frames arranged in time series by imaging with respect to the predetermined imaging target area An original image input unit 110 that inputs an original image P (t) obtained as a unit image, and an individual recognition unit that recognizes each individual appearing on the original image P (t) as a stationary individual or a moving individual 160, based on the recognition result by the individual recognition unit 160, on the original image P (t), a stationary individual index s indicating an individual recognized as a stationary individual, and an operating individual indicating an individual recognized as an operating individual index If, by superimposing, and a detecting individual display unit 170 and the stationary individual indices s and operating individual indices m may be displayed in a visually distinguishable and become such embodiments respectively, it can be that the apparatus comprising a.

<<< §3. 基本的実施形態に係る個体の検出装置の動作 >>>
上述した§2では、図1に示す個体の検出装置100に対して原画像P(t0)〜P(t4)を入力したときに、どのような個体検出画像Q(t1)〜Q(t4)が出力されるかを、図2〜図4の具体的実例を参照しながら説明し、ディスプレイ画面上に表示された個体検出画像Q(t1)〜Q(t4)によって、監視員に付加的な情報を提供できるメリットがある点についても付言した。結局、図1に示す個体の検出装置100は、与えられた原画像P(t0)〜P(t4)に基づいて、個体検出画像Q(t1)〜Q(t4)を作成して出力する処理を行う装置ということになる。ここでは、図2〜図4に示した具体的な画像を実例として用いながら、個体の検出装置100の各部の具体的な処理動作を述べる。
<<< §3. Operation of the individual detection apparatus according to the basic embodiment >>
In §2 described above, when the original images P (t0) to P (t4) are input to the individual detection apparatus 100 shown in FIG. 1, what kind of individual detection images Q (t1) to Q (t4) are input. Is output with reference to the specific examples of FIGS. 2 to 4, and the individual detection images Q (t 1) to Q (t 4) displayed on the display screen are used to add additional information to the monitor. He also added that there is a merit that can provide information. After all, the individual detection apparatus 100 shown in FIG. 1 creates and outputs individual detection images Q (t1) to Q (t4) based on the given original images P (t0) to P (t4). It will be a device that performs. Here, specific processing operations of each part of the individual detection apparatus 100 will be described using the specific images shown in FIGS. 2 to 4 as examples.

<3−1.原画像入力部110の動作>
原画像入力部110は、定点カメラなどによる撮影画像を、時系列で並んだフレーム単位の原画像P(t)として入力する処理を行い、必要に応じて、これら原画像P(t)を一時的に保存する処理を行う。図2〜図4には、t=t0,t1,t2,t3,t4の各時点において入力された原画像P(t0)〜P(t4)の実例が示されている。
<3-1. Operation of Original Image Input Unit 110>
The original image input unit 110 performs a process of inputting an image captured by a fixed point camera or the like as a frame-unit original image P (t) arranged in time series, and temporarily stores these original images P (t) as necessary. To save automatically. 2 to 4 show actual examples of original images P (t0) to P (t4) input at each time point t = t0, t1, t2, t3, and t4.

前述したとおり、一般的な動画撮影用のカメラでは、30フレーム/秒程度のフレームレートで撮影が行われるが、図2〜図4には、説明の便宜上、1フレーム/秒程度のフレームレートで撮影を行った場合を想定した原画像P(t0),P(t1),P(t2),P(t3),...が例示されている。後述するように、フレーム間差分画像作成部140は、時系列で連続的に入力される個々の原画像について、1つ前の原画像との間のフレーム間差分をとる処理を行うことになる。   As described above, a general video camera performs shooting at a frame rate of about 30 frames / second. For convenience of explanation, FIGS. 2 to 4 show a frame rate of about 1 frame / second. Original images P (t0), P (t1), P (t2), P (t3),. As will be described later, the inter-frame difference image creation unit 140 performs a process of obtaining an inter-frame difference from the previous original image for each original image continuously input in time series. .

したがって、定点カメラが30フレーム/秒のフレームレートで撮影を行った場合に、原画像入力部110がこれら撮影画像をそのまま原画像P(t)として入力した合、背景差分画像作成部130は、1/30秒の周期で背景差分画像D(t)を作成し、フレーム間差分画像作成部140は、1/30秒の周期で、1/30秒前の原画像との間で差分をとることによりフレーム間差分画像F(t)を作成することになる。   Therefore, when the fixed-point camera captures images at a frame rate of 30 frames / second, when the original image input unit 110 directly inputs these captured images as the original image P (t), the background difference image creation unit 130 The background difference image D (t) is created at a period of 1/30 seconds, and the inter-frame difference image creation unit 140 takes a difference from the original image 1/30 seconds before at a period of 1/30 seconds. Thus, the inter-frame difference image F (t) is created.

もっとも、実用上は、背景差分画像D(t)やフレーム間差分画像F(t)を作成する周期は、必ずしも1/30秒程度の短い周期に設定する必要はなく、より長い周期に設定してもかまわない。その場合は、原画像入力部110に、外部から与えられる時系列で並んだフレーム単位の画像を所定のサンプリング周期でサンプリングして入力する機能をもたせておけばよい。この場合、背景差分画像作成部130は、サンプリングされた(時間的に間引きされた)個々の原画像P(t)について背景差分画像D(t)を作成すれば足り、フレーム間差分画像作成部140は、サンプリングされた各フレーム単位の画像について、時系列における直前の画像との間で差分演算を行うことによりフレーム間差分画像F(t)を作成すれば足りる。たとえば、サンプリング周期を1秒に設定すれば、1フレーム/秒程度のフレームレートの原画像を用いた場合と同じになる。   However, in practice, the period for creating the background difference image D (t) and the inter-frame difference image F (t) does not necessarily have to be set to a short period of about 1/30 seconds, and is set to a longer period. It doesn't matter. In that case, the original image input unit 110 may be provided with a function of sampling and inputting images in frame units arranged in time series from the outside at a predetermined sampling period. In this case, the background difference image creation unit 130 suffices to create a background difference image D (t) for each sampled (temporarily thinned) original image P (t). For the sampled image of each frame, it is sufficient to create an inter-frame difference image F (t) by performing a difference operation with the immediately preceding image in time series. For example, setting the sampling period to 1 second is the same as using an original image with a frame rate of about 1 frame / second.

<3−2.背景画像格納部120の動作>
背景画像格納部120は、定点カメラの撮影対象領域についての背景画像BGを格納する構成要素である。§1で述べたとおり、地下駐車場など、照明環境に変化が生じない屋内の場所に設置された定点カメラを利用する場合であれば、背景画像BGとして、検出対象となる個体が存在しない基準状態において、予め撮影しておいた画像を利用することができる。
<3-2. Operation of Background Image Storage Unit 120>
The background image storage unit 120 is a component that stores the background image BG for the shooting target area of the fixed point camera. As described in §1, when using a fixed-point camera installed in an indoor place where there is no change in the lighting environment, such as an underground parking lot, a standard in which an individual to be detected does not exist as the background image BG In the state, an image captured in advance can be used.

ただ、照明環境に変化が生じる屋外の場所などに設置された定点カメラを利用する場合は、背景画像格納部120に、原画像入力部110が過去に入力した複数のフレーム単位の画像の平均画像を自動的に作成する機能をもたせておき、所定タイミングで、作成した平均画像を最新の背景画像BGとして切り替えるようにすればよい。このような背景画像の自動作成の技術は公知の技術であるため、本願では詳しい説明は省略する。   However, when using a fixed-point camera installed in an outdoor place where the lighting environment changes, an average image of a plurality of frame-unit images previously input by the original image input unit 110 to the background image storage unit 120. And a function for automatically creating the image, and the created average image may be switched as the latest background image BG at a predetermined timing. Since such a technique for automatically creating a background image is a known technique, a detailed description thereof will be omitted in the present application.

<3−3.背景差分画像作成部130の動作>
背景差分画像作成部130は、原画像入力部110が入力した各原画像P(t)について、背景画像BGとの差分を示す背景差分画像D(t)を作成する。図5は、こうして作成された背景差分画像D(t)の具体例を示す図であり、図の左に示す原画像P(t1)〜P(t4)に対して、それぞれ図の右に背景差分画像D(t1)〜D(t4)が作成された例が示されている。図の右上に示す画像BGは背景画像である。
<3-3. Operation of Background Difference Image Creating Unit 130>
The background difference image creation unit 130 creates a background difference image D (t) indicating a difference from the background image BG for each original image P (t) input by the original image input unit 110. FIG. 5 is a diagram showing a specific example of the background difference image D (t) created in this way, and the background is shown on the right side of the drawing with respect to the original images P (t1) to P (t4) shown on the left side of the drawing. An example in which difference images D (t1) to D (t4) are created is shown. An image BG shown in the upper right of the figure is a background image.

ここでは、説明の便宜上、背景画像BGを無地の画像として図示しているが、実際の背景画像BGは、撮影対象領域の背景のみが写った画像であり、原画像P(t0)〜P(t4)は、いずれもこの背景画像BGの前景に各個体(大人Aおよび子供B)が写った画像になっている。なお、原画像P(t0)に対応する背景差分画像D(t0)も作成することが可能であるが、以下の手順には必要ないため、ここでは背景差分画像D(t0)の作成は省略されている。   Here, for convenience of explanation, the background image BG is illustrated as a plain image, but the actual background image BG is an image in which only the background of the shooting target region is shown, and the original images P (t0) to P ( t4) is an image in which each individual (adult A and child B) is shown in the foreground of the background image BG. Note that the background difference image D (t0) corresponding to the original image P (t0) can also be created. However, since it is not necessary for the following procedure, the creation of the background difference image D (t0) is omitted here. Has been.

背景差分画像D(t)は、原画像P(t)と背景画像BGとの差分演算によって作成される画像である。差分演算の具体的な手順については後述するが、ここで述べる実施例における差分画像は、「0」もしくは「1」のいずれかの画素値を有する画素の集合体からなる画像であり、対象となる2組の画像の対応する画素の画素値が所定の近似範囲内であれば、当該画素を画素値「0」とし、所定の近似範囲外であれば、当該画素を画素値「1」とする演算によって求まる。図5の背景差分画像D(t)では、画素値「1」の部分を黒、画素値「0」の部分を白で示してある。   The background difference image D (t) is an image created by a difference calculation between the original image P (t) and the background image BG. Although the specific procedure of the difference calculation will be described later, the difference image in the embodiment described here is an image made up of a collection of pixels having a pixel value of “0” or “1”. If the pixel values of the corresponding pixels of the two sets of images are within the predetermined approximate range, the pixel is set to the pixel value “0”. If the pixel values are outside the predetermined approximate range, the pixel is set to the pixel value “1”. It is obtained by the operation to do. In the background difference image D (t) in FIG. 5, the portion with the pixel value “1” is shown in black, and the portion with the pixel value “0” is shown in white.

図5に示す背景差分画像D(t1)は、原画像P(t1)と背景画像BGとの差分演算によって作成される画像であり、大人A1および子供B1が占有する領域部分が黒く示されている。ここでは、大人A1が占有する領域部分を背景差分領域d1(t1)と呼び、子供B1が占有する領域部分を背景差分領域d2(t1)と呼ぶことにする。したがって、背景差分画像D(t1)は、背景差分領域d1(t1)と背景差分領域d2(t1)とを含む画像ということになり、背景差分領域d1(t1)および背景差分領域d2(t1)は、画素値「1」をもった画素の集合体領域によって構成される。   The background difference image D (t1) shown in FIG. 5 is an image created by the difference calculation between the original image P (t1) and the background image BG, and the area portion occupied by the adult A1 and the child B1 is shown in black. Yes. Here, the region portion occupied by the adult A1 is referred to as a background difference region d1 (t1), and the region portion occupied by the child B1 is referred to as a background difference region d2 (t1). Therefore, the background difference image D (t1) is an image including the background difference area d1 (t1) and the background difference area d2 (t1), and the background difference area d1 (t1) and the background difference area d2 (t1). Is constituted by an aggregate region of pixels having a pixel value “1”.

同様に、背景差分画像D(t2)は、原画像P(t2)と背景画像BGとの差分演算によって作成される画像であり、大人A2に対応する背景差分領域d1(t2)と子供B2に対応する背景差分領域d2(t2)とを含む画像になる。また、背景差分画像D(t3)は、原画像P(t3)と背景画像BGとの差分演算によって作成される画像であり、大人A3に対応する背景差分領域d1(t3)と子供B3に対応する背景差分領域d2(t3)とを含む画像になり、背景差分画像D(t4)は、原画像P(t4)と背景画像BGとの差分演算によって作成される画像であり、大人A4に対応する背景差分領域d1(t4)と子供B4に対応する背景差分領域d2(t4)とを含む画像になる。   Similarly, the background difference image D (t2) is an image created by the difference calculation between the original image P (t2) and the background image BG, and the background difference area d1 (t2) corresponding to the adult A2 and the child B2 The image includes the corresponding background difference area d2 (t2). The background difference image D (t3) is an image created by the difference calculation between the original image P (t3) and the background image BG, and corresponds to the background difference area d1 (t3) corresponding to the adult A3 and the child B3. The background difference image D (t4) is an image created by the difference calculation between the original image P (t4) and the background image BG, and corresponds to the adult A4. The image includes a background difference area d1 (t4) and a background difference area d2 (t4) corresponding to the child B4.

このように、背景差分画像作成部130は、原画像入力部110が入力した各原画像P(t)について、背景画像BGとの差分を示す背景差分領域di(t)を含む背景差分画像D(t)を作成する構成要素ということになる。ここで、iは、画像中に含まれる背景差分領域(実質的に個々の個体に対応)の番号を示すパラメータであり、以下、「背景差分領域番号」と呼ぶことにする。図5に示す例の場合、i=1もしくは2であり、i=1は大人Aに付与された番号、i=2は子供Bに付与された番号ということになる。   As described above, the background difference image creation unit 130 includes the background difference image D including the background difference region di (t) indicating the difference from the background image BG for each original image P (t) input by the original image input unit 110. This is a component for creating (t). Here, i is a parameter indicating the number of the background difference area (substantially corresponding to each individual) included in the image, and is hereinafter referred to as “background difference area number”. In the case of the example shown in FIG. 5, i = 1 or 2, i = 1 is a number given to adult A, and i = 2 is a number given to child B.

こうして得られた各背景差分領域di(t)は、結局、時刻tにおいて撮影された原画像P(t)内に存在する各個体に対応していることになる。たとえば、背景差分画像D(t1)内の背景差分領域d1(t1)は大人A1に対応し、背景差分領域d2(t1)は子供B1に対応している。したがって、各時刻tにおいて、個々の個体を検出するだけなら、背景差分画像作成部130によって背景差分画像D(t)を作成すれば足り、図5の右側に示された各背景差分画像D(t1)〜D(t4)に含まれている黒い人型(背景差分領域)が、個々の個体(人)を示していることになる。ただ、本発明では、動作中か静止中かを区別して、個々の個体を検出する必要があるため、以下に述べる処理が必要になる。   Each background difference area di (t) obtained in this way eventually corresponds to each individual existing in the original image P (t) photographed at time t. For example, the background difference area d1 (t1) in the background difference image D (t1) corresponds to the adult A1, and the background difference area d2 (t1) corresponds to the child B1. Therefore, if only individual individuals are detected at each time t, it is sufficient to create the background difference image D (t) by the background difference image creation unit 130, and each background difference image D (( Black human figures (background difference areas) included in t1) to D (t4) indicate individual individuals (persons). However, in the present invention, it is necessary to detect each individual by distinguishing whether it is in motion or at rest, so the processing described below is required.

<3−4.フレーム間差分画像作成部140の動作>
フレーム間差分画像作成部140は、原画像入力部110が入力した各原画像P(t)について、時系列における異なるフレーム(時間的に前のフレーム)との差分を示すフレーム間差分画像F(t)を作成する。図6は、こうして作成されたフレーム間差分画像F(t)の具体例を示す図であり、図の左に示す原画像P(t0)〜P(t4)に基づいて、それぞれ図の右に示すフレーム間差分画像F(t1)〜F(t4)が作成された例が示されている。すなわち、第n番目のフレーム間差分画像は、第n番目のフレームを構成する原画像と第(n−1)番目のフレームを構成する原画像との差分画像になる。
<3-4. Operation of inter-frame difference image creation unit 140>
The inter-frame difference image creation unit 140, for each original image P (t) input by the original image input unit 110, an inter-frame difference image F () indicating a difference from a different frame (temporarily previous frame) in time series. t). FIG. 6 is a diagram showing a specific example of the inter-frame difference image F (t) created in this way. Based on the original images P (t0) to P (t4) shown on the left side of the figure, each is shown on the right side of the figure. The example in which the inter-frame difference images F (t1) to F (t4) shown are created is shown. That is, the nth inter-frame difference image is a difference image between the original image constituting the nth frame and the original image constituting the (n−1) th frame.

やはり、このフレーム間差分画像も、「0」もしくは「1」のいずれかの画素値を有する画素の集合体からなる画像であり、対象となる2組の画像の対応する画素の画素値が所定の近似範囲内であれば、当該画素を画素値「0」とし、所定の近似範囲外であれば、当該画素を画素値「1」とする演算によって求まる。図6のフレーム間差分画像F(t)では、画素値「1」の部分を黒、画素値「0」の部分を白で示してある。   Again, this inter-frame difference image is also an image made up of a collection of pixels having pixel values of either “0” or “1”, and the pixel values of the corresponding pixels of the two sets of target images are predetermined. If the pixel is within the approximate range, the pixel is set to a pixel value “0”, and if the pixel is outside the predetermined approximate range, the pixel is determined to be the pixel value “1”. In the inter-frame difference image F (t) in FIG. 6, the portion with the pixel value “1” is shown in black, and the portion with the pixel value “0” is shown in white.

具体的には、図6に示すフレーム間差分画像F(t1)は、原画像P(t0)と原画像P(t1)との差分演算によって作成される画像であり、大人Aおよび子供Bの移動に起因して生じた画像の変化領域が黒く示されている。ここでは、大人AがA0からA1に移動することにより生じた変化領域をフレーム間差分領域f1(t1)と呼び、子供BがB0からB1に移動することにより生じた変化領域をフレーム間差分領域f2(t1)と呼ぶことにする。したがって、フレーム間差分画像F(t1)は、フレーム間差分領域f1(t1)とフレーム間差分領域f2(t1)とを含む画像ということになり、フレーム間差分領域f1(t1)およびフレーム間差分領域f2(t1)は、画素値「1」をもった画素の集合体領域によって構成される。   Specifically, the inter-frame difference image F (t1) shown in FIG. 6 is an image created by the difference calculation between the original image P (t0) and the original image P (t1). The change area of the image caused by the movement is shown in black. Here, the change area generated when the adult A moves from A0 to A1 is referred to as an interframe difference area f1 (t1), and the change area generated when the child B moves from B0 to B1 is referred to as the interframe difference area. Call it f2 (t1). Therefore, the inter-frame difference image F (t1) is an image including the inter-frame difference area f1 (t1) and the inter-frame difference area f2 (t1), and the inter-frame difference area f1 (t1) and the inter-frame difference. The region f2 (t1) is configured by an aggregate region of pixels having a pixel value “1”.

図示の例をよく見ると、フレーム間差分領域f1(t1)は、大人Aの影を左右に若干ずらして重ねたような領域となっているが、腕の一部と足の一部に白抜き部分が生じている。この白抜き部分は、左右の大人Aの重複部分に相当し、差分演算時に十分な差が得られなかった領域ということになる。別言すれば、黒い部分は、背景部分と人物部分との差分がとられたために、十分な差が得られた領域であるのに対して、上記白抜き部分は、人物部分同士の差分がとられたため、十分な差が得られなかった領域ということになる。フレーム間差分領域f2(t1)についても同様に、腕の一部と足の一部に白抜き部分が生じている。   If you look closely at the example shown in the figure, the inter-frame difference area f1 (t1) is an area in which the shadow of adult A is slightly shifted left and right, but it is white on part of the arm and part of the foot. There are unplugged parts. This white portion corresponds to an overlapping portion of the left and right adults A, and is a region where a sufficient difference was not obtained during the difference calculation. In other words, the black part is an area where a sufficient difference is obtained because the difference between the background part and the person part is obtained, whereas the white part is the difference between the person parts. This is a region where a sufficient difference could not be obtained. Similarly, in the inter-frame difference region f2 (t1), white portions are generated in a part of the arms and a part of the legs.

なお、前述したとおり、ここでは説明の便宜上、1フレーム/秒程度のフレームレートで、2人の人物が撮影された実例を示しているため、フレーム間差分領域f1(t1)およびフレーム間差分領域f2(t1)は、人物の2つの影が左右にかなりずれて重なった誇張した例になっているが、一般的な動画撮影用のカメラの場合、30フレーム/秒程度のフレームレートでの撮影が行われるので、このずれ量はより小さくなる。   As described above, here, for convenience of explanation, an example in which two persons are photographed at a frame rate of about 1 frame / second is shown, so the inter-frame difference area f1 (t1) and the inter-frame difference area Although f2 (t1) is an exaggerated example in which two shadows of a person are shifted and overlapped to the left and right, in the case of a general video camera, shooting at a frame rate of about 30 frames / second Therefore, this deviation amount becomes smaller.

同様に、フレーム間差分画像F(t2)は、原画像P(t1)と、原画像P(t2)との差分演算によって作成される画像である。このフレーム間差分画像F(t2)には、大人AがA1からA2に移動することにより生じた変化領域がフレーム間差分領域f1(t2)として含まれている。子供Bは移動していないため、子供Bに関するフレーム間差分領域は存在しない。   Similarly, the inter-frame difference image F (t2) is an image created by the difference calculation between the original image P (t1) and the original image P (t2). The inter-frame difference image F (t2) includes a change area generated when the adult A moves from A1 to A2 as an inter-frame difference area f1 (t2). Since child B is not moving, there is no inter-frame difference area for child B.

また、フレーム間差分画像F(t3)は、原画像P(t2)と、原画像P(t3)との差分演算によって作成される画像である。このフレーム間差分画像F(t3)は、図示のとおり、実際には空の画像になる。これは、時刻t2〜t3の間は、大人Aも子供Bも移動しておらず、フレーム間差分領域が存在しないためである。   Further, the inter-frame difference image F (t3) is an image created by a difference calculation between the original image P (t2) and the original image P (t3). This inter-frame difference image F (t3) is actually an empty image as shown in the figure. This is because during the time t2 to t3, neither the adult A nor the child B moves, and there is no inter-frame difference area.

最後のフレーム間差分画像F(t4)は、原画像P(t3)と、原画像P(t4)との差分演算によって作成される画像である。このフレーム間差分画像F(t4)には、大人Aの形態がA3からA4に変化する(手を上げる)ことにより生じた変化領域がフレーム間差分領域f1(t4),f2(t4)として含まれている。子供Bは移動も形態変化もしていないため、子供Bに関するフレーム間差分領域は存在しない。なお、ここでは、領域f1(t4)とf2(t4)とが連結した領域ではなく、若干離れた領域であったものとし、2つの異なる領域として認識された例が示されている。   The last inter-frame difference image F (t4) is an image created by calculating a difference between the original image P (t3) and the original image P (t4). This inter-frame difference image F (t4) includes changed areas f1 (t4) and f2 (t4) that are generated by changing the form of the adult A from A3 to A4 (raising hands). It is. Since child B has not moved or changed its shape, there is no inter-frame difference area for child B. In this example, it is assumed that the areas f1 (t4) and f2 (t4) are not connected to each other, but are slightly separated from each other, and are recognized as two different areas.

このように、フレーム間差分画像作成部140は、原画像入力部110が入力した各原画像P(t)について、時系列における前のフレームとの差分を示すフレーム間差分領域fj(t)を含むフレーム間差分画像F(t)を作成する構成要素ということになる。ここで、jは、画像中に含まれるフレーム間差分領域を示すパラメータであり、以下、「フレーム間差分領域番号」と呼ぶことにする。このフレーム間差分領域番号jは、必ずしも個々の個体に対応するものではない。   As described above, the inter-frame difference image creating unit 140 creates an inter-frame difference region fj (t) indicating a difference from the previous frame in the time series for each original image P (t) input by the original image input unit 110. This is a constituent element for creating the inter-frame difference image F (t). Here, j is a parameter indicating the inter-frame difference area included in the image, and is hereinafter referred to as “inter-frame difference area number”. This inter-frame difference area number j does not necessarily correspond to each individual.

たとえば、図示するフレーム間差分画像F(t1)には、j=1として第1番目のフレーム間差分領域f1(t1)と、j=2として第2番目のフレーム間差分領域f2(t1)と、が含まれており、j=1はたまたま第1の個体(大人A)に対応し、j=2はたまたま第2の個体(子供B)に対応している。しかしながら、図示するフレーム間差分画像F(t4)には、やはり、j=1として第1番目のフレーム間差分領域f1(t4)と、j=2として第2番目のフレーム間差分領域f2(t4)と、が含まれているが、j=1もj=2も、いずれも第1の個体(大人A)に対応するものになる。   For example, in the illustrated inter-frame difference image F (t1), j = 1 is set as the first inter-frame difference area f1 (t1), and j = 2 is set as the second inter-frame difference area f2 (t1). , J = 1 happens to correspond to the first individual (adult A), and j = 2 happens to correspond to the second individual (child B). However, in the illustrated inter-frame difference image F (t4), j = 1 is set as the first inter-frame difference area f1 (t4), and j = 2 is set as the second inter-frame difference area f2 (t4). ), Both j = 1 and j = 2 correspond to the first individual (adult A).

なお、ここで述べる実施形態では、フレーム間差分画像作成部140が、定点カメラから与えられる時系列的に連続した2つのフレーム間の差分画像を作成する典型的な例についての説明を行うことにするが、フレーム間差分画像は、必ずしも時系列的に連続した2つのフレーム間の差分画像である必要はない。たとえば、前述したように、原画像入力部110がサンプリング機能を有している場合、差分の演算対象となる2つのフレーム画像は、定点カメラの撮影によって得られる連続フレーム画像ではなく、サンプリング周期に応じた時間間隔をあけた2つのフレーム画像ということになる。   In the embodiment described here, a typical example in which the inter-frame difference image creation unit 140 creates a difference image between two frames that are continuous in time series given from a fixed point camera will be described. However, the inter-frame difference image is not necessarily a difference image between two frames that are continuous in time series. For example, as described above, when the original image input unit 110 has a sampling function, the two frame images to be subjected to the difference calculation are not continuous frame images obtained by photographing with a fixed point camera, but at a sampling period. That is, two frame images with a corresponding time interval.

また、最近は、動体抽出精度を向上させるため、3以上のフレーム画像についての差分画像を作成する技術や、動きベクトルを利用して差分画像を作成する技術なども提案されている。本発明におけるフレーム間差分画像作成部140は、このような技術を用いてフレーム間差分画像を作成してもかまわない。要するに、本発明におけるフレーム間差分画像作成部140は、時系列をもって入力された個々のフレーム画像について、時間的に先行する別なフレーム(直前のフレームとは限らない、また、1つのフレームとは限らない)との差分を示すフレーム間差分領域を含むフレーム間差分画像を作成する処理を行えばよい。   Recently, in order to improve moving object extraction accuracy, a technique for creating a difference image for three or more frame images, a technique for creating a difference image using a motion vector, and the like have been proposed. The inter-frame difference image creation unit 140 according to the present invention may create an inter-frame difference image using such a technique. In short, the inter-frame difference image creation unit 140 according to the present invention, for each frame image input in time series, is another frame that precedes in time (not necessarily the previous frame, or one frame) A process of creating an inter-frame difference image including an inter-frame difference area indicating a difference with (not limited to) may be performed.

<3−5.重複有無判定部150の動作>
重複有無判定部150は、背景差分画像D(t)内の個々の背景差分領域di(t)について、フレーム間差分画像F(t)内のフレーム間差分領域fj(t)に対する重複部分の有無を判定する構成要素である。特に、ここに示す実施例の場合、重複有無判定部150は、背景差分画像D(t)とフレーム間差分画像F(t)とに基づいて、背景差分領域di(t)とフレーム間差分領域fj(t)との重複部分を示す重複部分領域ci(t)を含む重複確認画像C(t)を作成する機能を有している。図7〜図10は、こうして作成された重複確認画像C(t)の具体例を示す図である。各重複確認画像C(t)では、背景差分領域di(t)とフレーム間差分領域fj(t)との重複部分が黒い領域として示されており、非重複部分が白い領域として示されている。
<3-5. Operation of Duplication Presence Judgment Unit 150>
The duplication presence / absence determination unit 150 determines whether or not there is an overlapping portion of each background difference area di (t) in the background difference image D (t) with respect to the inter-frame difference area fj (t) in the inter-frame difference image F (t). Is a component for determining In particular, in the case of the embodiment shown here, the duplication presence / absence determination unit 150 determines the background difference area di (t) and the inter-frame difference area based on the background difference image D (t) and the inter-frame difference image F (t). It has a function of creating an overlapping confirmation image C (t) including an overlapping partial region ci (t) indicating an overlapping portion with fj (t). 7-10 is a figure which shows the specific example of the duplication confirmation image C (t) produced in this way. In each overlap confirmation image C (t), the overlapping portion between the background difference region di (t) and the inter-frame difference region fj (t) is shown as a black region, and the non-overlapping portion is shown as a white region. .

まず、図7には、図5の時刻t1に示す背景差分画像D(t1)と、図6の時刻t1に示すフレーム間差分画像F(t1)と、に基づいて、重複確認画像C(t1)が作成された状態が示されている。図示のとおり、背景差分画像D(t1)には、背景差分領域d1(t1),d2(t1)が含まれており、フレーム間差分画像F(t1)には、フレーム間差分領域f1(t1),f2(t1)が含まれている。このため、重複確認画像C(t1)上には、背景差分領域d1(t1)とフレーム間差分領域f1(t1)との重複部分に相当する重複部分領域c1(t1)と、背景差分領域d2(t1)とフレーム間差分領域f2(t1)との重複部分に相当する重複部分領域c2(t1)とが、黒い領域として示されている。   First, FIG. 7 shows an overlap confirmation image C (t1) based on the background difference image D (t1) shown at time t1 in FIG. 5 and the inter-frame difference image F (t1) shown at time t1 in FIG. ) Is created. As illustrated, the background difference image D (t1) includes background difference areas d1 (t1) and d2 (t1), and the interframe difference image F (t1) includes an interframe difference area f1 (t1). ), F2 (t1). For this reason, on the overlap confirmation image C (t1), an overlapping partial region c1 (t1) corresponding to the overlapping portion of the background difference region d1 (t1) and the inter-frame difference region f1 (t1), and the background difference region d2 An overlapping partial region c2 (t1) corresponding to an overlapping portion between (t1) and the inter-frame difference region f2 (t1) is shown as a black region.

図示のとおり、重複部分領域c1(t1)の人型は、背景差分領域d1(t1)の人型の手足の一部を欠いたものになっており、重複部分領域c2(t1)の人型は、背景差分領域d2(t1)の人型の手足の一部を欠いたものになっている。これは、フレーム間差分領域f1(t1)の二重人型やフレーム間差分領域f2(t1)の二重人型が、手足の一部を欠いたものになっているためである。   As shown in the figure, the human shape of the overlapping partial region c1 (t1) lacks a part of the humanoid limb of the background difference region d1 (t1), and the human shape of the overlapping partial region c2 (t1) Is a part of the background difference region d2 (t1) lacking a part of the humanoid limb. This is because the double humanoid of the interframe difference region f1 (t1) and the double humanoid of the interframe difference region f2 (t1) lack a part of the limbs.

上述したとおり、ここで述べる実施例の場合、背景差分画像作成部130が作成する背景差分画像D(t)は、画素値「1」もしくは「0」をもった画素の集合体からなる二値画像であり、画素値「1」をもった画素の連続領域(図における黒い領域)として各背景差分領域di(t)が表現されている。また、フレーム間差分画像作成部140が作成するフレーム間差分画像F(t)も、画素値「1」もしくは「0」をもった画素の集合体からなる二値画像であり、画素値「1」をもった画素の連続領域(図における黒い領域)としてフレーム間差分領域fj(t)が表現されている。   As described above, in the embodiment described here, the background difference image D (t) created by the background difference image creation unit 130 is a binary consisting of a collection of pixels having pixel values “1” or “0”. Each background difference area di (t) is represented as a continuous area (black area in the figure) of pixels having a pixel value “1”, which is an image. Further, the inter-frame difference image F (t) created by the inter-frame difference image creation unit 140 is also a binary image composed of a collection of pixels having the pixel value “1” or “0”, and the pixel value “1”. The inter-frame difference area fj (t) is expressed as a continuous area (black area in the figure) of pixels having "".

したがって、重複有無判定部150は、背景差分画像D(t)とフレーム間差分画像F(t)とについて、対応する画素についての論理積演算を行うことにより、画素値「1」もしくは「0」をもった画素の集合体からなる二値画像である重複確認画像C(t)を作成することができる。この重複確認画像C(t)において、画素値「1」をもつ領域(図における黒い領域)が重複部分領域ci(t)ということになる。   Therefore, the duplication presence / absence determination unit 150 performs a logical product operation on the corresponding pixels on the background difference image D (t) and the inter-frame difference image F (t), thereby obtaining a pixel value “1” or “0”. The duplication confirmation image C (t), which is a binary image made up of an aggregate of pixels having the above, can be created. In this overlap confirmation image C (t), an area having a pixel value “1” (black area in the figure) is an overlapped partial area ci (t).

同様に、図8には、図5の時刻t2に示す背景差分画像D(t2)と、図6の時刻t2に示すフレーム間差分画像F(t2)と、に基づいて、重複確認画像C(t2)が作成された状態が示されている。図示のとおり、背景差分画像D(t2)には、背景差分領域d1(t2),d2(t2)が含まれており、フレーム間差分画像F(t2)には、フレーム間差分領域f1(t2)が含まれている。このため、重複確認画像C(t2)上には、背景差分領域d1(t2)とフレーム間差分領域f1(t2)との重複部分に相当する重複部分領域c1(t2)が、黒い領域として示されている。   Similarly, FIG. 8 shows an overlap confirmation image C ((2) based on the background difference image D (t2) shown at time t2 in FIG. 5 and the inter-frame difference image F (t2) shown at time t2 in FIG. The state where t2) has been created is shown. As illustrated, the background difference image D (t2) includes background difference regions d1 (t2) and d2 (t2), and the inter-frame difference image F (t2) includes an inter-frame difference region f1 (t2). )It is included. For this reason, on the overlap confirmation image C (t2), the overlapping partial region c1 (t2) corresponding to the overlapping portion of the background difference region d1 (t2) and the inter-frame difference region f1 (t2) is shown as a black region. Has been.

図示のとおり、重複部分領域c1(t2)の人型は、背景差分領域d1(t2)の人型の手足の一部を欠いたものになっているが、これは、フレーム間差分領域f1(t2)の二重人型が、手足の一部を欠いたものになっているためである。なお、背景差分領域d2(t2)については、重複するフレーム間差分領域が存在しないので、実際には、重複部分領域c2(t2)は形成されないことになるが、図8では、説明の便宜上、重複部分領域c2(t2)を仮想の領域として、その輪郭のみを描いてある。別言すれば、図示の重複部分領域c2(t2)は、その輪郭線部分を含めて実在しない領域であり、実際には、この部分には画素値「0」をもった画素が配置されている。   As shown in the figure, the human part of the overlapping partial area c1 (t2) lacks a part of the humanoid limb of the background difference area d1 (t2), but this is different from the inter-frame difference area f1 ( This is because the double humanoid of t2) lacks a part of the limb. Since there is no overlapping inter-frame difference area for the background difference area d2 (t2), the overlapping partial area c2 (t2) is not actually formed, but in FIG. 8, for convenience of explanation. The overlapping partial area c2 (t2) is assumed to be a virtual area, and only its outline is drawn. In other words, the overlapped partial region c2 (t2) shown in the figure is a region that does not actually exist including its contour portion, and in fact, pixels having a pixel value “0” are arranged in this portion. Yes.

一方、図9には、図5の時刻t3に示す背景差分画像D(t3)と、図6の時刻t3に示すフレーム間差分画像F(t3)と、に基づいて、重複確認画像C(t3)が作成された状態が示されている。図示のとおり、背景差分画像D(t3)には、背景差分領域d1(t3),d2(t3)が含まれているが、フレーム間差分画像F(t3)には、フレーム間差分領域は全く含まれていない。このため、重複確認画像C(t3)は、重複部分領域を全く含まない空の画像(全領域が非重複部分)になる。ただ、図9では、説明の便宜上、重複部分領域c1(t3),c2(t3)を仮想の領域として、その輪郭のみを描いてある。すなわち、図9に示されている重複部分領域c1(t3),c2(t3)は、その輪郭線部分を含めて実在しない領域であり、実際には、この部分には画素値「0」をもった画素が配置されている。   On the other hand, FIG. 9 shows an overlap confirmation image C (t3) based on the background difference image D (t3) shown at time t3 in FIG. 5 and the inter-frame difference image F (t3) shown at time t3 in FIG. ) Is created. As illustrated, the background difference image D (t3) includes background difference areas d1 (t3) and d2 (t3), but the interframe difference image F (t3) has no interframe difference area. Not included. For this reason, the overlap confirmation image C (t3) is an empty image that does not include any overlapping partial areas (all areas are non-overlapping parts). However, in FIG. 9, for convenience of explanation, the overlapping partial areas c1 (t3) and c2 (t3) are assumed to be virtual areas, and only their outlines are drawn. That is, the overlapping partial areas c1 (t3) and c2 (t3) shown in FIG. 9 are areas that do not actually exist including the outline portion, and actually, the pixel value “0” is set in this portion. Pixels having the same are arranged.

最後に、図10には、図5の時刻t4に示す背景差分画像D(t4)と、図6の時刻t4に示すフレーム間差分画像F(t4)と、に基づいて、重複確認画像C(t4)が作成された状態が示されている。図示のとおり、背景差分画像D(t4)には、背景差分領域d1(t4),d2(t4)が含まれており、フレーム間差分画像F(t4)には、フレーム間差分領域f1(t4),f2(t4)が含まれている。このため、重複確認画像C(t4)上には、背景差分領域d1(t4)とフレーム間差分領域f1(t4)との重複部分に相当する重複部分領域c1(t4)が、黒い領域として示されている。   Finally, in FIG. 10, based on the background difference image D (t4) shown at time t4 in FIG. 5 and the inter-frame difference image F (t4) shown at time t4 in FIG. The state where t4) has been created is shown. As illustrated, the background difference image D (t4) includes background difference areas d1 (t4) and d2 (t4), and the inter-frame difference image F (t4) includes an inter-frame difference area f1 (t4). ), F2 (t4). For this reason, on the overlap confirmation image C (t4), the overlapping partial region c1 (t4) corresponding to the overlapping portion of the background difference region d1 (t4) and the inter-frame difference region f1 (t4) is shown as a black region. Has been.

なお、図10でも、説明の便宜上、重複部分領域c1(t4),c2(t4)の輪郭を仮想の領域の輪郭として描いてある。すなわち、図10に示されている重複部分領域c1(t4)は、本来は、黒い領域のみによって構成される領域であり、白い部分はその輪郭線部分を含めて実在しない領域である。同様に、重複部分領域c2(t4)も、その輪郭線部分を含めて実在しない領域である。結局、この重複確認画像C(t4)では、黒く塗った腕の部分に相当する領域内の画素のみが画素値「1」をもち、他の画素はすべて画素値「0」をもっていることになる。   In FIG. 10, for convenience of explanation, the outlines of the overlapping partial areas c1 (t4) and c2 (t4) are drawn as virtual area outlines. That is, the overlapping partial region c1 (t4) shown in FIG. 10 is originally a region constituted only by a black region, and the white portion is a region that does not actually exist including its contour line portion. Similarly, the overlapping partial region c2 (t4) is also a non-existent region including the contour portion. Eventually, in this overlap confirmation image C (t4), only the pixels in the area corresponding to the arm portion painted in black have the pixel value “1”, and all the other pixels have the pixel value “0”. .

この図10に示す例の場合、2組のフレーム間差分領域f1(t4),f2(t4)は、2組の背景差分領域d1(t4),d2(t4)にそれぞれ対応するものではなく、両者間の対応関係は1対1の関係にはなっていない。別言すれば、2組のフレーム間差分領域f1(t4),f2(t4)は、いずれも大人Aの腕に対応する領域であり、いずれも背景差分領域d1(t4)に対応する領域ということになる。このように、背景差分画像D(t)上の背景差分領域di(t)とフレーム間差分画像F(t)上のフレーム間差分領域fj(t)とは、必ずしも1対1の対応関係にはならないが、重複確認画像C(t)を求める上では何ら支障は生じない。   In the example shown in FIG. 10, the two sets of inter-frame difference areas f1 (t4) and f2 (t4) do not correspond to the two sets of background difference areas d1 (t4) and d2 (t4), respectively. The correspondence between the two is not a one-to-one relationship. In other words, the two sets of inter-frame difference areas f1 (t4) and f2 (t4) are both areas corresponding to the arm of the adult A, and both are areas corresponding to the background difference area d1 (t4). It will be. As described above, the background difference area di (t) on the background difference image D (t) and the inter-frame difference area fj (t) on the inter-frame difference image F (t) are not necessarily in a one-to-one correspondence. However, there is no problem in obtaining the duplication confirmation image C (t).

<3−6.個体認識部160の動作>
個体認識部160は、前述したとおり、背景差分画像D(t)に含まれている個々の背景差分領域di(t)について、重複有無判定部150による判定結果に基づいて、当該背景差分領域di(t)を占める個体を静止個体もしくは動作個体と認識する処理を行う構成要素である。ここで述べる実施例の場合、重複有無判定部150は、図7〜図10に示すような重複確認画像C(t1)〜C(t4)を作成する機能を有している。したがって、個体認識部160は、これら重複確認画像C(t1)〜C(t4)を参照することにより重複部分の有無を確認することができ、各個体を静止個体もしくは動作個体と認識することができる。
<3-6. Operation of individual recognition unit 160>
As described above, the individual recognition unit 160 determines the background difference area di (t) based on the determination result by the duplication presence / absence determination unit 150 for each background difference area di (t) included in the background difference image D (t). It is a component that performs processing for recognizing an individual occupying (t) as a stationary individual or a moving individual. In the case of the embodiment described here, the duplication presence / absence determination unit 150 has a function of creating duplication confirmation images C (t1) to C (t4) as shown in FIGS. Therefore, the individual recognition unit 160 can confirm the presence or absence of an overlapping portion by referring to these overlap confirmation images C (t1) to C (t4), and can recognize each individual as a stationary individual or a moving individual. it can.

図11は、これまで例示してきた具体的な原画像P(t0)〜P(t4)と、これらに対応して作成された具体的な重複確認画像C(t1)〜C(t4)との対応関係を示す図である。すなわち、図示の重複確認画像C(t1)〜C(t4)は、図7〜図10に示した重複確認画像C(t1)〜C(t4)と同じものである。   FIG. 11 shows specific original images P (t0) to P (t4) that have been exemplified so far, and specific duplication confirmation images C (t1) to C (t4) created corresponding to these. It is a figure which shows a correspondence. That is, the illustrated overlap confirmation images C (t1) to C (t4) are the same as the overlap confirmation images C (t1) to C (t4) illustrated in FIGS.

原画像P(t1)〜P(t4)上の各個体(大人Aおよび子供B)は、図5に示す背景差分画像D(t1)〜D(t4)を利用すれば、容易に認識することができる。たとえば、図5に示す例において、時刻t1の原画像P(t1)上には、2組の個体A1,B1が存在しているが、個体A1は、背景差分画像D(t1)上の第1の背景差分領域d1(t1)を占める個体として認識可能であり、個体B1は、背景差分画像D(t1)上の第2の背景差分領域d2(t1)を占める個体として認識可能である。   Individuals (adult A and child B) on the original images P (t1) to P (t4) can be easily recognized by using the background difference images D (t1) to D (t4) shown in FIG. Can do. For example, in the example shown in FIG. 5, there are two sets of individuals A1 and B1 on the original image P (t1) at time t1, but the individual A1 is the second one on the background difference image D (t1). It can be recognized as an individual occupying one background difference area d1 (t1), and the individual B1 can be recognized as an individual occupying the second background difference area d2 (t1) on the background difference image D (t1).

そこで、図11の左に示す原画像P(t1)〜P(t4)には、個々の個体を示す符号A1〜A4,B1〜B4の後ろに、括弧書きで、当該個体に対応する背景差分領域の符号を付記した。たとえば、時刻t1の原画像P(t1)の場合、個体A1は第1の背景差分領域d1(t1)を占める個体として認識可能であるため、符号「A1」の後ろに括弧書きで「d1(t1)」なる背景差分領域を示す符号を付記し、個体B1は第2の背景差分領域d2(t1)を占める個体として認識可能であるため、符号「B1」の後ろに括弧書きで「d2(t1)」なる背景差分領域を示す符号を付記した。   Therefore, in the original images P (t1) to P (t4) shown on the left in FIG. 11, the background differences corresponding to the individual in parentheses after the codes A1 to A4 and B1 to B4 indicating the individual individuals. The area code is added. For example, in the case of the original image P (t1) at the time t1, the individual A1 can be recognized as an individual occupying the first background difference area d1 (t1), and therefore “d1 ( t1) ”indicating the background difference region is added, and the individual B1 can be recognized as an individual occupying the second background difference region d2 (t1). Therefore,“ d2 ( The reference numeral indicating the background difference area “t1)” is added.

個体認識部160は、このように、背景差分画像D(t)上の各背景差分領域di(t)を利用することにより、原画像P(t)上で各個体を認識した上で、更に、重複確認画像C(t)を利用することにより、認識した個々の個体が静止個体か動作個体かを判別することができる。   Thus, the individual recognition unit 160 recognizes each individual on the original image P (t) by using each background difference area di (t) on the background difference image D (t), and then further By using the overlap confirmation image C (t), it is possible to determine whether each recognized individual is a stationary individual or a moving individual.

具体的には、静止個体の認識を担う静止個体認識部161は、重複有無判定部150によって、フレーム間差分領域fj(t)に対する実質的な重複部分は無い、との判定結果が得られた背景差分領域di(t)を占める個体を、静止個体と認識すればよい。同様に、動作個体の認識を担う動作個体認識部162は、重複有無判定部150によって、少なくとも一部の領域についてフレーム間差分領域fj(t)に対する実質的な重複部分が有る、との判定結果が得られた背景差分領域di(t)を占める個体を、動作個体と認識すればよい。   Specifically, the stationary individual recognizing unit 161 responsible for recognizing a stationary individual has obtained a determination result that there is no substantial overlapping portion with respect to the inter-frame difference region fj (t) by the duplication presence / absence determining unit 150. An individual occupying the background difference area di (t) may be recognized as a stationary individual. Similarly, the motion individual recognition unit 162 responsible for recognition of the motion individual determines by the duplication presence / absence determination unit 150 that there is a substantial overlap with the inter-frame difference region fj (t) for at least a part of the region. The individual that occupies the background difference area di (t) obtained from the above may be recognized as an operating individual.

別言すれば、個体認識部160は、背景差分画像D(t)に含まれている特定の背景差分領域di(t)について、重複確認画像C(t)上の対応領域を参照し、当該対応領域内に実質的な重複部分領域ci(t)が含まれていない場合には、当該特定の背景差分領域di(t)を占める個体を静止個体と認識し、当該対応領域内に実質的な重複部分領域ci(t)が含まれていた場合には、当該特定の背景差分領域を占める個体を動作個体と認識する処理を行えばよい。   In other words, the individual recognition unit 160 refers to the corresponding region on the overlap confirmation image C (t) for the specific background difference region di (t) included in the background difference image D (t), and When the corresponding overlapping area does not include a substantial overlapping partial area ci (t), the individual occupying the specific background difference area di (t) is recognized as a stationary individual, and is substantially included in the corresponding area. If the overlapping partial area ci (t) is included, a process of recognizing an individual occupying the specific background difference area as an operating individual may be performed.

なお、ここで「実質的な重複部分」や「実質的な重複部分領域」という文言を用いているのは、静止中の個体の一部が風などの影響でたなびいたり、画像にノイズが混入したりする要因によって、微細な重複部分が生じていても、そのような微細な重複部分については、本発明の処理上、重複部分としては取り扱わないためである。たとえば、わずか数画素からなる重複部分領域が存在していても、実用上、重複部分は無い、との判定を行うようにするのが好ましい。以下に述べる各実施例や変形例においても、重複部分の有無を判定する際には、実質的な重複部分の有無を判定するのが好ましい。   Note that the terms “substantial overlapping part” and “substantial overlapping part region” are used here because a part of a stationary individual flutters under the influence of wind or the like, and noise is mixed in the image. This is because, even if a minute overlapping portion is generated due to a factor, the minute overlapping portion is not handled as an overlapping portion in the processing of the present invention. For example, it is preferable to determine that there is no overlapping part even if there is an overlapping part region consisting of only a few pixels. Also in each of the embodiments and modifications described below, when determining the presence or absence of an overlapping portion, it is preferable to determine the presence or absence of a substantial overlapping portion.

ここでは、図11に示す具体例に即して、個体認識部160による認識処理をより詳細に説明する。はじめに、時刻t1では、個体認識部160によって、次のような認識処理が行われる。まず、原画像P(t1)上において、背景差分領域d1(t1)を占める個体として大人A1が認識され、背景差分領域d2(t1)を占める個体として子供B1が認識される。   Here, according to the specific example shown in FIG. 11, the recognition processing by the individual recognition unit 160 will be described in more detail. First, at time t1, the individual recognition unit 160 performs the following recognition process. First, on the original image P (t1), an adult A1 is recognized as an individual occupying the background difference area d1 (t1), and a child B1 is recognized as an individual occupying the background difference area d2 (t1).

そこで、大人A1に関して、重複確認画像C(t1)上に、背景差分領域d1(t1)と同一位置を占め同一形状をもった対応領域を定義し、当該対応領域内にいずれかの重複部分領域が一部でも含まれているか否かを調べる。図11に示す例の場合、重複確認画像C(t1)上において、背景差分領域d1(t1)の対応領域と重複部分領域c1(t1)とは完全には一致しないが(重複部分領域c1(t1)の手足の一部に欠けがあるため)、当該対応領域内の一部分として、重複部分領域c1(t1)が含まれている。別言すれば、当該対応領域の少なくとも一部分に、黒く塗られた重複部分が存在することになる。そこで、個体認識部160は、大人A1を動作個体と認識する。   Therefore, for the adult A1, on the overlap confirmation image C (t1), a corresponding region that occupies the same position as the background difference region d1 (t1) and has the same shape is defined, and any of the overlapping partial regions in the corresponding region It is checked whether or not even a part is included. In the example shown in FIG. 11, on the overlap confirmation image C (t1), the corresponding area of the background difference area d1 (t1) and the overlap partial area c1 (t1) do not completely match (the overlap partial area c1 ( Since a part of the limb of t1) is missing), an overlapping partial area c1 (t1) is included as a part in the corresponding area. In other words, an overlapping portion painted in black exists in at least a part of the corresponding region. Therefore, the individual recognition unit 160 recognizes the adult A1 as an operating individual.

続いて、子供B1に関して、重複確認画像C(t1)上に、背景差分領域d2(t1)と同一位置を占め同一形状をもった対応領域を定義し、当該対応領域内にいずれかの重複部分領域が一部でも含まれているか否かを調べる。図11に示す例の場合、重複確認画像C(t1)上において、背景差分領域d2(t1)の対応領域と重複部分領域c2(t1)とは完全には一致しないが(重複部分領域c2(t1)の手足の一部に欠けがあるため)、当該対応領域内の一部分として、重複部分領域c2(t1)が含まれている。別言すれば、当該対応領域の少なくとも一部分に、黒く塗られた重複部分が存在することになる。そこで、個体認識部160は、子供B1を動作個体と認識する。   Subsequently, with respect to the child B1, a corresponding region having the same position and occupying the same position as the background difference region d2 (t1) is defined on the overlap confirmation image C (t1), and any overlapping portion is included in the corresponding region. Check whether or not the area is partially included. In the example shown in FIG. 11, on the overlap confirmation image C (t1), the corresponding region of the background difference region d2 (t1) and the overlapped partial region c2 (t1) do not completely match (the overlapped partial region c2 ( Since a part of the limb of t1) is missing), an overlapping partial area c2 (t1) is included as a part in the corresponding area. In other words, an overlapping portion painted in black exists in at least a part of the corresponding region. Therefore, the individual recognition unit 160 recognizes the child B1 as an operating individual.

こうして、時刻t1の時点において、原画像P(t1)に含まれている2組の個体A1,B1は、いずれも動作個体と認識されることになる。検出個体表示部170は、このような認識結果に基づいて、図4の時刻t1の欄に示すような個体検出画像Q(t1)−SMを表示することができる。   Thus, at the time t1, the two sets of individuals A1 and B1 included in the original image P (t1) are both recognized as operating individuals. The detected individual display unit 170 can display the individual detected image Q (t1) -SM as shown in the column of time t1 in FIG. 4 based on such a recognition result.

また、時刻t2では、個体認識部160によって、次のような認識処理が行われる。まず、原画像P(t2)上において、背景差分領域d1(t2)を占める個体として大人A2が認識され、背景差分領域d2(t2)を占める個体として子供B2が認識される。   At time t2, the individual recognition unit 160 performs the following recognition process. First, on the original image P (t2), the adult A2 is recognized as an individual occupying the background difference area d1 (t2), and the child B2 is recognized as an individual occupying the background difference area d2 (t2).

そこで、大人A2に関して、重複確認画像C(t2)上に、背景差分領域d1(t2)と同一位置を占め同一形状をもった対応領域を定義し、当該対応領域内にいずれかの重複部分領域が一部でも含まれているか否かを調べる。図11に示す例の場合、重複確認画像C(t2)上において、背景差分領域d1(t2)の対応領域と重複部分領域c1(t2)とは完全には一致しないが(重複部分領域c1(t2)の手足の一部に欠けがあるため)、当該対応領域内の一部分として、重複部分領域c1(t2)が含まれている。別言すれば、当該対応領域の少なくとも一部分に、黒く塗られた重複部分が存在することになる。そこで、個体認識部160は、大人A2を動作個体と認識する。   Therefore, for the adult A2, on the overlap confirmation image C (t2), a corresponding region that occupies the same position as the background difference region d1 (t2) and has the same shape is defined, and any overlapping partial region is included in the corresponding region. It is checked whether or not even a part is included. In the example shown in FIG. 11, on the overlap confirmation image C (t2), the corresponding region of the background difference region d1 (t2) and the overlap partial region c1 (t2) do not completely match (the overlap partial region c1 ( Since a part of the limb of t2) is missing), an overlapping partial area c1 (t2) is included as a part in the corresponding area. In other words, an overlapping portion painted in black exists in at least a part of the corresponding region. Therefore, the individual recognition unit 160 recognizes the adult A2 as an operating individual.

続いて、子供B2に関して、重複確認画像C(t2)上に、背景差分領域d2(t2)と同一位置を占め同一形状をもった対応領域を定義し、当該対応領域内にいずれかの重複部分領域が一部でも含まれているか否かを調べる。図11に示す例の場合、重複確認画像C(t2)上において、背景差分領域d2(t2)の対応領域には、黒く塗られた重複部分は全く存在しない。前述したとおり、図には便宜上、重複部分領域c2(t2)の輪郭線が描かれているが、実際には、この重複部分領域c2(t2)は存在しない領域である。したがって、背景差分領域d2(t2)の対応領域内には、重複部分領域は全く含まれていないことになる。そこで、個体認識部160は、子供B2を静止個体と認識する。   Subsequently, with regard to the child B2, a corresponding region having the same shape and occupying the same position as the background difference region d2 (t2) is defined on the overlap confirmation image C (t2), and any overlapping portion is defined in the corresponding region. Check whether or not the area is partially included. In the case of the example shown in FIG. 11, on the overlap confirmation image C (t2), there is no overlapping portion painted in black in the corresponding region of the background difference region d2 (t2). As described above, for the sake of convenience, the outline of the overlapping partial region c2 (t2) is drawn in the figure, but actually, this overlapping partial region c2 (t2) does not exist. Therefore, the overlapping partial area is not included at all in the corresponding area of the background difference area d2 (t2). Therefore, the individual recognition unit 160 recognizes the child B2 as a stationary individual.

こうして、時刻t2の時点において、原画像P(t2)に含まれている2組の個体A2,B2のうち、大人A2は動作個体と認識され、子供B2は静止個体と認識されることになる。検出個体表示部170は、このような認識結果に基づいて、図4の時刻t2の欄に示すような個体検出画像Q(t2)−SMを表示することができる。   Thus, at time t2, adult A2 is recognized as a moving individual and child B2 is recognized as a stationary individual among the two sets of individuals A2 and B2 included in original image P (t2). . The detected individual display unit 170 can display the individual detected image Q (t2) -SM as shown in the column of time t2 in FIG. 4 based on such a recognition result.

続く、時刻t3では、個体認識部160によって、次のような認識処理が行われる。まず、原画像P(t3)上において、背景差分領域d1(t3)を占める個体として大人A3が認識され、背景差分領域d2(t3)を占める個体として子供B3が認識される。   At time t3, the individual recognition unit 160 performs the following recognition process. First, on the original image P (t3), an adult A3 is recognized as an individual occupying the background difference area d1 (t3), and a child B3 is recognized as an individual occupying the background difference area d2 (t3).

そこで、大人A3に関して、重複確認画像C(t3)上に、背景差分領域d1(t3)と同一位置を占め同一形状をもった対応領域を定義し、当該対応領域内にいずれかの重複部分領域が一部でも含まれているか否かを調べる。図11に示す例の場合、重複確認画像C(t3)上において、背景差分領域d1(t3)の対応領域には、黒く塗られた重複部分は全く存在しない。前述したとおり、図には便宜上、重複部分領域c1(t3),c2(t3)の輪郭線が描かれているが、実際には、これら重複部分領域c1(t3),c2(t3)は存在しない領域であり、重複確認画像C(t3)は、実質的に全画素が画素値「0」をもった空画像である。したがって、背景差分領域d1(t3)の対応領域内には、重複部分領域は全く含まれていないことになる。そこで、個体認識部160は、大人A3を静止個体と認識する。   Therefore, for the adult A3, on the overlap confirmation image C (t3), a corresponding region that occupies the same position as the background difference region d1 (t3) and has the same shape is defined, and any overlapping partial region is included in the corresponding region. It is checked whether or not even a part is included. In the case of the example shown in FIG. 11, on the overlap confirmation image C (t3), there is no overlapping portion painted in black in the corresponding region of the background difference region d1 (t3). As described above, for the sake of convenience, the outlines of the overlapping partial areas c1 (t3) and c2 (t3) are drawn in the figure, but actually these overlapping partial areas c1 (t3) and c2 (t3) exist. The overlap confirmation image C (t3) is an empty image in which substantially all the pixels have a pixel value “0”. Therefore, the overlapping partial area is not included at all in the corresponding area of the background difference area d1 (t3). Therefore, the individual recognition unit 160 recognizes the adult A3 as a stationary individual.

全く同様の理由により、個体認識部160は、子供B3を静止個体と認識する。こうして、時刻t3の時点において、原画像P(t3)に含まれている2組の個体A3,B3はいずれも静止個体と認識されることになる。検出個体表示部170は、このような認識結果に基づいて、図4の時刻t3の欄に示すような個体検出画像Q(t3)−SMを表示することができる。   For exactly the same reason, the individual recognition unit 160 recognizes the child B3 as a stationary individual. Thus, at time t3, the two sets of individuals A3 and B3 included in the original image P (t3) are both recognized as stationary individuals. The detected individual display unit 170 can display the individual detected image Q (t3) -SM as shown in the column of time t3 in FIG. 4 based on such a recognition result.

最後に、時刻t4では、個体認識部160によって、次のような認識処理が行われる。まず、原画像P(t4)上において、背景差分領域d1(t4)を占める個体として大人A4が認識され、背景差分領域d2(t4)を占める個体として子供B4が認識される。   Finally, at time t4, the individual recognition unit 160 performs the following recognition process. First, on the original image P (t4), an adult A4 is recognized as an individual occupying the background difference area d1 (t4), and a child B4 is recognized as an individual occupying the background difference area d2 (t4).

そこで、大人A4に関して、重複確認画像C(t4)上に、背景差分領域d1(t4)と同一位置を占め同一形状をもった対応領域を定義し、当該対応領域内にいずれかの重複部分領域が一部でも含まれているか否かを調べる。図11に示す例の場合、重複確認画像C(t4)上において、背景差分領域d1(t4)の対応領域と重複部分領域c1(t4)とは完全には一致しないが(重複部分領域c1(t4)は、実際には、黒く塗られた腕の部分だけである)、当該対応領域内の一部分として、重複部分領域c1(t4)が含まれている。別言すれば、当該対応領域の少なくとも一部分に、黒く塗られた重複部分が存在することになる。そこで、個体認識部160は、大人A4を動作個体と認識する。   Therefore, for the adult A4, a corresponding region that occupies the same position and has the same shape as the background difference region d1 (t4) is defined on the overlap confirmation image C (t4), and any overlapping partial region is included in the corresponding region. It is checked whether or not even a part is included. In the example shown in FIG. 11, on the overlap confirmation image C (t4), the corresponding area of the background difference area d1 (t4) and the overlap partial area c1 (t4) do not completely match (the overlap partial area c1 ( t4) is actually only the part of the arm painted in black), and the overlapping partial area c1 (t4) is included as a part in the corresponding area. In other words, an overlapping portion painted in black exists in at least a part of the corresponding region. Therefore, the individual recognition unit 160 recognizes the adult A4 as an operating individual.

続いて、子供B4に関して、重複確認画像C(t4)上に、背景差分領域d2(t4)と同一位置を占め同一形状をもった対応領域を定義し、当該対応領域内にいずれかの重複部分領域が一部でも含まれているか否かを調べる。図11に示す例の場合、重複確認画像C(t4)上において、背景差分領域d2(t4)の対応領域には、黒く塗られた重複部分は全く存在しない。前述したとおり、図には便宜上、重複部分領域c2(t4)の輪郭線が描かれているが、実際には、この重複部分領域c2(t4)は存在しない領域である。したがって、背景差分領域d2(t4)の対応領域内には、重複部分領域は全く含まれていないことになる。そこで、個体認識部160は、子供B4を静止個体と認識する。   Subsequently, with respect to the child B4, a corresponding region having the same position and occupying the same position as the background difference region d2 (t4) is defined on the overlap confirmation image C (t4), and any overlapping portion is included in the corresponding region. Check whether or not the area is partially included. In the case of the example shown in FIG. 11, on the overlap confirmation image C (t4), there is no overlapping portion painted in black in the corresponding region of the background difference region d2 (t4). As described above, for the sake of convenience, the outline of the overlapping partial region c2 (t4) is drawn in the figure, but actually, this overlapping partial region c2 (t4) does not exist. Therefore, the overlapping partial area is not included at all in the corresponding area of the background difference area d2 (t4). Therefore, the individual recognition unit 160 recognizes the child B4 as a stationary individual.

こうして、時刻t4の時点において、原画像P(t4)に含まれている2組の個体A4,B4のうち、大人A4は動作個体と認識され、子供B4は静止個体と認識されることになる。検出個体表示部170は、このような認識結果に基づいて、図4の時刻t4の欄に示すような個体検出画像Q(t4)−SMを表示することができる。   Thus, at time t4, among the two sets of individuals A4 and B4 included in the original image P (t4), the adult A4 is recognized as a moving individual and the child B4 is recognized as a stationary individual. . The detected individual display unit 170 can display an individual detected image Q (t4) -SM as shown in the column of time t4 in FIG. 4 based on such a recognition result.

このように、重複有無判定部150によって、背景差分領域di(t)とフレーム間差分領域fj(t)との重複部分を示す重複部分領域を含む重複確認画像C(t)を作成すれば、個体認識部160は、個々の個体に対応する背景差分領域について、重複確認画像C(t)上の対応領域に重複部分があるか否かに基づいて、個々の個体が静止個体か動作個体かを判断することができる。   Thus, if the duplication confirmation image C (t) including the duplication partial area indicating the duplication part of the background difference area di (t) and the inter-frame difference area fj (t) is created by the duplication presence / absence determination unit 150, The individual recognizing unit 160 determines whether each individual is a stationary individual or a moving individual based on whether or not there is an overlapping portion in the corresponding region on the overlap confirmation image C (t) for the background difference region corresponding to each individual. Can be judged.

もっとも、実用上は、重複部分の有無を判定するために、何らかの基準を設けておくようにするのが好ましい。たとえば、図11の右下に示す重複確認画像C(t4)の場合、黒く塗って示されている重複部分領域c1(t4)は、大人A4の片腕に相当する部分である。個体認識部160は、大人A4を示す背景差分領域d1(t4)の対応領域内に、当該重複部分領域c1(t4)が含まれているため、大人A4を動作個体と認識することになる。   However, in practice, it is preferable to provide some reference in order to determine whether or not there is an overlapping portion. For example, in the case of the overlap confirmation image C (t4) shown in the lower right of FIG. 11, the overlapped partial region c1 (t4) shown in black is a portion corresponding to one arm of the adult A4. The individual recognition unit 160 recognizes the adult A4 as an operating individual because the overlapping partial region c1 (t4) is included in the corresponding region of the background difference region d1 (t4) indicating the adult A4.

上例のように、個体が手を上げる動作を行っている場合は、当該個体を動作個体とする判断は妥当なものになろう。しかしながら、たとえば、髪や服が風になびいたために、フレーム間差分画像F(t)にフレーム間差分領域が生じることになり、その結果、重複確認画像C(t)に微小な重複部分領域が生じた場合はどうであろう。このような場合、微小な重複部分の存在により、当該個体を動作個体と認識してしまうことは、必ずしも妥当とは言えない。   As in the above example, when an individual is performing an action of raising his hand, the determination that the individual is an operating individual will be appropriate. However, for example, since hair or clothes fluttered in the wind, an inter-frame difference area is generated in the inter-frame difference image F (t). As a result, a small overlapping partial area is present in the overlap confirmation image C (t). What if it happens? In such a case, it is not always appropriate to recognize the individual as a moving individual due to the presence of a minute overlapping portion.

したがって、実用上、個体認識部160は、特定の個体について、その背景差分領域の対応領域内に重複部分が含まれているか否かを判断する際に、当該対応領域内に含まれている重複部分領域の面積が所定の基準に満たない場合には、当該対応領域内に重複部分領域が含まれていないと判断する処理を行うようにするのが好ましい。そうすれば、図11の右下に示す重複確認画像C(t4)のように、ある程度の面積をもった重複部分(腕に相当する重複部分領域c1(t4))が対応領域内に含まれている場合には、大人A4は動作個体として認識されることになるが、髪がたなびく程度の微細な面積をもった重複部分が対応領域内に含まれていた場合には、重複部分領域は含まれていない、との判断がなされ、大人A4は静止個体として認識されることになる。   Therefore, in practice, when the individual recognition unit 160 determines whether or not an overlap portion is included in the corresponding region of the background difference region for a specific individual, the overlap included in the corresponding region is included. When the area of the partial region does not satisfy a predetermined standard, it is preferable to perform processing for determining that the overlapping partial region is not included in the corresponding region. Then, as shown in the overlapping confirmation image C (t4) shown in the lower right of FIG. 11, an overlapping portion (an overlapping portion region c1 (t4) corresponding to the arm) having a certain area is included in the corresponding region. The adult A4 will be recognized as the moving individual, but if the overlapping portion having a minute area that the hair flutters is included in the corresponding region, the overlapping portion region is It is determined that it is not included, and adult A4 is recognized as a stationary individual.

実際には、前述したとおり、重複確認画像C(t)における重複部分領域は、画素値「1」をもった画素の集合体になる。そこで、個体認識部160は、背景差分画像D(t)に含まれている特定の背景差分領域について、重複確認画像C(t)上の対応領域を参照し、当該対応領域内の画素のうち、画素値「1」をもった画素の総数が所定の基準に満たない場合には、当該特定の背景差分領域を占める個体を静止個体と認識し、当該対応領域内の画素のうち、画素値「1」をもった画素の総数が所定の基準以上である場合には、当該特定の背景差分領域を占める個体を動作個体と認識する処理を行うようにすればよい。   Actually, as described above, the overlapping partial area in the overlapping confirmation image C (t) is an aggregate of pixels having the pixel value “1”. Therefore, the individual recognition unit 160 refers to the corresponding region on the duplication confirmation image C (t) for a specific background difference region included in the background difference image D (t), and among the pixels in the corresponding region. When the total number of pixels having the pixel value “1” does not satisfy the predetermined standard, the individual occupying the specific background difference area is recognized as a stationary individual, and the pixel value among the pixels in the corresponding area When the total number of pixels having “1” is equal to or greater than a predetermined reference, a process of recognizing an individual occupying the specific background difference area as an operating individual may be performed.

判断基準となる画素の総数は、個々の個体を静止個体として検出するか、動作個体として検出するかを決定する検出感度のパラメータということになる。当該パラメータの値は、装置の設置場所や用途に応じて、適宜、適切な値に設定するようにすればよい。   The total number of pixels serving as a determination criterion is a detection sensitivity parameter that determines whether an individual is detected as a stationary individual or an operating individual. The value of the parameter may be set to an appropriate value as appropriate according to the installation location and application of the apparatus.

<3−7.検出個体表示部170の動作>
ここに示す実施例の場合、検出個体表示部170は、静止個体指標sおよび動作個体指標mを原画像P(t)に重畳させることにより個体検出画像Q(t)を作成し、この個体検出画像Q(t)をディスプレイ画面上に表示する役割を果たす。別言すれば、個体認識部160によって静止個体もしくは動作個体と認識された個体に、静止個体もしくは動作個体であることを示す個体指標を付して表示する処理を実行することになる。たとえば、図4に示す実施例の場合、静止個体指標sは微細矩形ドットパターンによるハッチング領域として示され、動作個体指標mは斜線網目パターンによるハッチング領域として示されている。
<3-7. Operation of Detected Object Display Unit 170>
In the embodiment shown here, the detected individual display unit 170 creates an individual detected image Q (t) by superimposing the stationary individual index s and the moving individual index m on the original image P (t), and this individual detection. It plays the role of displaying the image Q (t) on the display screen. In other words, a process of displaying an individual index indicating that it is a stationary individual or a moving individual on an individual recognized as a stationary individual or a moving individual by the individual recognition unit 160 is executed. For example, in the case of the embodiment shown in FIG. 4, the stationary individual index s is shown as a hatched area with a fine rectangular dot pattern, and the moving individual index m is shown as a hatched area with a hatched mesh pattern.

このように、静止個体と動作個体の双方の検出結果を同じディスプレイ画面上に表示する場合は、静止個体指標sと動作個体指標mとを、それぞれ視覚的に区別可能な態様で表示すればよい。図4に示す例のように、微細矩形ドットパターンによるハッチングからなる静止個体指標sや斜線網目パターンによるハッチングからなる動作個体指標mは、下地が部分的に透けて見える指標であるため、原画像P(t)の上に重ねて表示した場合でも、その下に位置する個体の内容を視覚的に確認することが可能である。   As described above, when the detection results of both the stationary individual and the moving individual are displayed on the same display screen, the stationary individual index s and the moving individual index m may be displayed in a visually distinguishable manner. . As in the example shown in FIG. 4, the stationary individual index s consisting of hatching with a fine rectangular dot pattern and the moving individual index m consisting of hatching with a hatched mesh pattern are indices that allow the background to be partially seen through. Even when displayed over P (t), it is possible to visually confirm the contents of the individual located below it.

もちろん、原画像P(t)上の各個体を視覚的に確認する必要がない場合には、不透明な指標を用いてもかまわない。たとえば、静止個体指標sとして、ベタ塗りの青色閉領域からなる図形を用い、動作個体指標mとして、ベタ塗りの赤色閉領域からなる図形を用いるようにしてもかまわない。この場合、静止個体指標sや動作個体指標mは、輪郭は個々の個体の輪郭と一致した人型の図形になるが、不透明のベタ塗りの閉領域から構成されるため、その下に位置する個体の内容(たとえば、人の顔や服装)を視覚的に確認することはできない。   Of course, if it is not necessary to visually confirm each individual on the original image P (t), an opaque index may be used. For example, a graphic composed of a solid blue closed region may be used as the stationary individual index s, and a graphic composed of a solid red closed region may be used as the motion individual index m. In this case, the stationary individual index s and the moving individual index m are human-shaped figures whose contours match the contours of the individual individuals, but are located below them because they are composed of opaque solid-coated closed regions. The contents of the individual (for example, a person's face and clothes) cannot be visually confirmed.

要するに、検出個体表示部170は、各個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された閉領域指標によって構成し、原画像に当該閉領域指標を重畳させることにより個体検出画像Q(t)を作成すればよい。   In short, the detected individual display unit 170 is configured by a closed region index in which each individual index is arranged in the vicinity of a region occupied by the target individual and the inside is painted with a predetermined color or a predetermined pattern is formed inside. Then, the individual detection image Q (t) may be created by superimposing the closed region index on the original image.

図4に示す例のように、静止個体指標sと動作個体指標mとを同一画面上で同時に表示するのであれば、静止個体指標sを、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された第1の閉領域指標によって構成し、動作個体指標mを、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された第2の閉領域指標によって構成すればよい。   If the stationary individual index s and the moving individual index m are displayed simultaneously on the same screen as in the example shown in FIG. 4, the stationary individual index s is arranged in the vicinity of the area occupied by the target individual. , Constituted by a first closed region index in which the inside is painted with a predetermined color or a predetermined pattern is formed inside, and the motion individual index m is arranged in the vicinity of the region occupied by the target individual, What is necessary is just to comprise by the 2nd closed area | region parameter | index with which the predetermined color was painted or the predetermined pattern was formed in the inside.

このとき、第1の閉領域指標と第2の閉領域指標とは、互いに異なる色によって塗られるかもしくは互いに異なるパターンが形成された閉領域となるようにし、原画像P(t)に第1の閉領域指標および第2の閉領域指標を重畳させることにより個体検出画像Q(t)−SMを作成すればよい。上述したように、第1の閉領域指標および第2の閉領域指標としては、不透明なベタ塗りの着色閉領域を用いてもよいし、不透明なベタ塗りのパターンが埋め込まれた閉領域を用いてもよい。この場合、その下に位置する個体の内容(たとえば、人の顔や服装)を視覚的に確認することはできない。   At this time, the first closed region index and the second closed region index are closed regions in which different colors are applied or different patterns are formed, and the first image P (t) is displayed in the first region. The individual detection image Q (t) -SM may be created by superimposing the closed region index and the second closed region index. As described above, as the first closed region index and the second closed region index, an opaque solid-colored closed region may be used, or a closed region in which an opaque solid-painted pattern is embedded is used. May be. In this case, it is not possible to visually confirm the contents of the individual located below it (for example, a person's face and clothes).

ただ、実用上は、原画像P(t)上に位置する個体の内容(たとえば、人の顔や服装)を視覚的に確認できるようにした方が好ましい。その場合は、第1の閉領域指標および第2の閉領域指標を、半透明の色で塗られるかもしくは部分的に隙間のあるパターンが形成された閉領域によって構成し、原画像P(t)に各閉領域指標を重畳させた場合に、原画像P(t)が各閉領域指標を通して透けて表示されるようにすればよい。そうすれば、ディスプレイ画面上で、個々の個体の内容を視覚的に確認しつつ、個々の個体が静止個体か動作個体かを直観的に把握することができる。   However, in practice, it is preferable that the contents (for example, a person's face and clothes) of an individual located on the original image P (t) can be visually confirmed. In that case, the first closed region index and the second closed region index are constituted by closed regions that are painted in a translucent color or partially formed with a gap pattern, and the original image P (t ), When each closed region index is superimposed, the original image P (t) may be displayed through each closed region index. Then, it is possible to intuitively grasp whether each individual is a stationary individual or a moving individual while visually confirming the contents of each individual on the display screen.

図4に示す個体検出画像Q(t)−SMは、静止個体指標sおよび動作個体指標mを、部分的に隙間のあるパターン(微細矩形ドットによるハッチングパターンおよび斜線網目によるハッチングパターン)が形成された閉領域指標によって構成した例である。静止個体指標sおよび動作個体指標mを、半透明の色で塗られた閉領域指標によって構成する場合は、たとえば、静止個体指標sを半透明な青色着色領域とし、動作個体指標mを半透明な赤色着色領域とすることができる。この場合、静止個体は、あたかも青色セロファンで覆われたように表示され、動作個体は、あたかも赤色セロファンで覆われたように表示されることになる。   In the individual detection image Q (t) -SM shown in FIG. 4, the stationary individual index s and the moving individual index m are partially formed with a gap pattern (a hatching pattern with fine rectangular dots and a hatched pattern with hatched mesh). This is an example constituted by a closed region index. When the stationary individual index s and the moving individual index m are configured by a closed region index painted in a translucent color, for example, the stationary individual index s is a translucent blue colored region, and the moving individual index m is translucent. A red colored region. In this case, the stationary individual is displayed as if it was covered with blue cellophane, and the moving individual is displayed as if it was covered with red cellophane.

もっとも、静止個体指標sや動作個体指標mは、ディスプレイ画面上を観察している監視員に対して、個々の個体の位置を知らしめるとともに、当該個体が静止個体か動作個体かを知らしめる役割を果たすことができればよいので、この他にも様々な形態の指標を用いることが可能である。以下、静止個体指標sや動作個体指標mとして、これまで説明してきた指標とは異なる形態を使用した変形例を、図12〜図16に例示しておく。   However, the stationary individual index s and the moving individual index m are used to inform the observer who is observing the display screen of the position of each individual and whether the individual is a stationary individual or a moving individual. In addition to this, various forms of indicators can be used. Hereinafter, modified examples using forms different from the index described so far as the stationary individual index s and the moving individual index m are illustrated in FIGS.

図12は、図4に示す個体検出画像Q(t)−SMの第1の変形例を示す図である。図の左に示す原画像P(t)は、これまで述べてきたものと全く同じであるが、図の右に示す個体検出画像Q(t)−SMは、対象となる個体を囲む矩形の枠状指標によって静止個体指標sおよび動作個体指標mを構成し、これを原画像P(t)に重畳させたものになっている。   FIG. 12 is a diagram showing a first modification of the individual detection image Q (t) -SM shown in FIG. The original image P (t) shown on the left side of the figure is exactly the same as that described so far, but the individual detection image Q (t) -SM shown on the right side of the figure has a rectangular shape surrounding the target individual. A stationary individual index s and a moving individual index m are constituted by the frame-shaped index, and these are superimposed on the original image P (t).

具体的には、静止個体指標s1(t2),s1(t3),s2(t3),s1(t4)は、いずれも対象となる静止個体B2,A3,B3,B4を囲む第1の枠状指標(図では破線の枠として示されている)によって構成されており、動作個体指標m1(t1),m2(t1),m1(t2),m1(t4)は、いずれも対象となる動作個体A1,B1,A2,A4を囲む第2の枠状指標(図では実線の枠として示されている)によって構成されている。   Specifically, the stationary individual indices s1 (t2), s1 (t3), s2 (t3), and s1 (t4) are all in the first frame shape surrounding the target stationary individuals B2, A3, B3, and B4. Each of the motion individual indices m1 (t1), m2 (t1), m1 (t2), and m1 (t4) is a target motion individual. It is configured by a second frame-like index (shown as a solid line frame in the figure) surrounding A1, B1, A2, and A4.

結局、図示されている第1の変形例に係る個体検出画像Q(t)−SMは、原画像P(t)の上に、2組の矩形枠を付加したものであり、個々の矩形枠が個々の個体(大人Aおよび子供B)を示すことになる。個々の矩形枠は、個々の個体の移動とともに移動してゆくので、監視員は、ディスプレイ画面上に表示された個体検出画像Q(t)−SMを見ることにより、個々の個体を直観的に把握することができる。しかも、静止個体指標sを構成する矩形枠は破線で示され、動作個体指標mを構成する矩形枠は実線で示されるため、各矩形枠で囲まれた個々の個体について、それが静止個体であるか動作個体であるかを視覚的に認識することができる。   After all, the individual detection image Q (t) -SM according to the first modification shown in the figure is obtained by adding two sets of rectangular frames on the original image P (t). Will represent individual individuals (adult A and child B). Since the individual rectangular frames move with the movement of the individual individuals, the observer can intuitively identify the individual individuals by looking at the individual detection image Q (t) -SM displayed on the display screen. I can grasp it. Moreover, since the rectangular frame constituting the stationary individual index s is indicated by a broken line and the rectangular frame constituting the moving individual index m is indicated by a solid line, each individual individual enclosed by the rectangular frame is a stationary individual. It is possible to visually recognize whether there is an individual or a moving individual.

図12に示す第1の変形例は、各個体指標を矩形枠、特に、対象となる個体の外接矩形枠によって構成した例である。個々の個体の外接矩形枠は、図5の右に示す背景差分画像D(t)に含まれる背景差分領域di(t)の外接矩形枠として作成することができる。   The first modified example shown in FIG. 12 is an example in which each individual index is configured by a rectangular frame, in particular, a circumscribed rectangular frame of the target individual. The circumscribed rectangular frame of each individual can be created as a circumscribed rectangular frame of the background difference area di (t) included in the background difference image D (t) shown on the right in FIG.

ただ、枠状指標は、必ずしも矩形枠にする必要はない。図13は、図4に示す個体検出画像Q(t)−SMの第2の変形例を示す図である。図の左に示す原画像P(t)は、これまで述べてきたものと全く同じであるが、図の右に示す個体検出画像Q(t)−SMは、対象となる個体を囲む楕円形の枠状指標によって静止個体指標sおよび動作個体指標mを構成し、これを原画像P(t)に重畳させたものになっている。各枠状指標は楕円形の枠であるため、必ずしも対象となる個体に接しているわけではないが、静止個体指標sを構成する楕円枠は破線で示され、動作個体指標mを構成する楕円枠は実線で示されており、やはり、各楕円枠で囲まれた個々の個体について、それが静止個体であるか動作個体であるかを視覚的に認識することができる。   However, the frame index need not necessarily be a rectangular frame. FIG. 13 is a diagram showing a second modification of the individual detection image Q (t) -SM shown in FIG. The original image P (t) shown on the left side of the figure is exactly the same as that described so far, but the individual detection image Q (t) -SM shown on the right side of the figure is an ellipse surrounding the target individual. The stationary individual index s and the moving individual index m are composed of the frame-shaped indices, and these are superimposed on the original image P (t). Since each frame index is an elliptical frame, it is not necessarily in contact with the target individual, but the oval frame constituting the stationary individual index s is indicated by a broken line and the ellipse constituting the moving individual index m The frame is indicated by a solid line, and it is possible to visually recognize whether the individual is surrounded by each elliptical frame, whether it is a stationary individual or a moving individual.

なお、静止個体指標sを構成する第1の枠状指標と動作個体指標mを構成する第2の枠状指標とは、図12および図13に示す例の場合、破線と実線とによって相互に区別できるようにしているが、視覚的に区別可能な態様であれば、別な方法で区別してもかまわない。たとえば、同じく線種によって区別する方法を採用する場合であっても、破線と一点鎖線とによって区別させることも可能である。また、青い枠と赤い枠というように色によって区別させてもよいし、太線と細線というように太さによって区別させてもよい。あるいは、静止個体指標sは矩形枠とし、動作個体指標mは楕円枠とする、というように、相互に形状を変えることにより区別させてもよい。   In the example shown in FIGS. 12 and 13, the first frame index constituting the stationary individual index s and the second frame index constituting the motion individual index m are mutually indicated by a broken line and a solid line. Although it can be distinguished, it may be distinguished by another method as long as it can be visually distinguished. For example, even when a method of distinguishing by line type is adopted, it is also possible to distinguish by a broken line and an alternate long and short dash line. Also, the blue frame and the red frame may be distinguished by color, or the thick line and the thin line may be distinguished by thickness. Alternatively, the stationary individual indicator s may be a rectangular frame, and the moving individual indicator m may be an elliptical frame.

要するに、静止個体指標sとして第1の枠状指標を用い、動作個体指標mとして第2の枠状指標を用いる場合、第1の枠状指標と第2の枠状指標とは、線種、色、形状、太さのうちの少なくとも1つが互いに異なる枠線によって構成されるようにすればよい。図12および図13に示す例は、このような2種類の枠状指標を原画像P(t)に重畳することにより個体検出画像Q(t)−SMを作成した例である。なお、枠状指標は、必ずしも対象となる個体全体をそっくり囲う図形である必要はなく、たとえば、対象となる個体の一部分(たとえば、上半身の部分)のみを囲う図形であってもかまわない。また、図示の例のように、隣接する枠状指標が部分的に重なって表示されてもかまわない。   In short, when the first frame-shaped index is used as the stationary individual index s and the second frame-shaped index is used as the moving individual index m, the first frame-shaped index and the second frame-shaped index are: What is necessary is just to make it comprise at least 1 among a color, a shape, and thickness by a mutually different frame line. The example shown in FIG. 12 and FIG. 13 is an example in which the individual detection image Q (t) -SM is created by superimposing such two types of frame-shaped indexes on the original image P (t). Note that the frame index does not necessarily need to be a figure that encloses the entire target individual, and may be a graphic that surrounds only a part of the target individual (for example, the upper body part). Further, as in the example shown in the figure, adjacent frame indexes may be partially overlapped and displayed.

一方、図14は、図4に示す個体検出画像Q(t)−SMの第3の変形例を示す図である。図の左に示す原画像P(t)は、これまで述べてきたものと全く同じであるが、図の右に示す個体検出画像Q(t)−SMは、対象となる個体の輪郭線を示す輪郭指標によって静止個体指標sおよび動作個体指標mを構成し、これを原画像P(t)に重畳させたものになっている。   On the other hand, FIG. 14 is a diagram showing a third modification of the individual detection image Q (t) -SM shown in FIG. The original image P (t) shown on the left side of the figure is exactly the same as that described so far, but the individual detection image Q (t) -SM shown on the right side of the figure shows the contour of the target individual. A stationary individual index s and a moving individual index m are constituted by the contour index shown, and these are superimposed on the original image P (t).

具体的には、静止個体指標s1(t2),s1(t3),s2(t3),s1(t4)は、いずれも対象となる静止個体B2,A3,B3,B4の輪郭線を示す輪郭指標(図では破線の輪郭線として示されている)によって構成されており、動作個体指標m1(t1),m2(t1),m1(t2),m1(t4)は、いずれも対象となる動作個体A1,B1,A2,A4の輪郭線を示す輪郭指標(図では実線の輪郭線として示されている)によって構成されている。   Specifically, the stationary individual indices s1 (t2), s1 (t3), s2 (t3), and s1 (t4) are all contour indices indicating the contour lines of the stationary individuals B2, A3, B3, and B4. (Shown as a dashed outline in the figure), and the motion individual indices m1 (t1), m2 (t1), m1 (t2), and m1 (t4) are all target motion individuals It is comprised by the outline parameter | index (it shows as a solid outline in the figure) which shows the outline of A1, B1, A2, A4.

結局、図14に示されている第3の変形例に係る個体検出画像Q(t)−SMは、原画像P(t)上に現れている2組の個体のそれぞれに輪郭線を付加したものであり、個々の輪郭線が個々の個体(大人Aおよび子供B)を示すことになる。個々の輪郭線は、個々の個体の移動とともに移動してゆくので、監視員は、ディスプレイ画面上に表示された個体検出画像Q(t)−SMを見ることにより、個々の個体を直観的に把握することができる。しかも、静止個体指標sを構成する輪郭線は破線で示され、動作個体指標mを構成する輪郭線は実線で示されるため、各輪郭線で囲まれた個々の個体について、それが静止個体であるか動作個体であるかを視覚的に認識することができる。   Eventually, the individual detection image Q (t) -SM according to the third modified example shown in FIG. 14 adds contour lines to each of the two sets of individuals appearing on the original image P (t). Individual contour lines will indicate individual individuals (adult A and child B). Since the individual contour lines move with the movement of the individual individuals, the observer can intuitively identify the individual individuals by looking at the individual detection image Q (t) -SM displayed on the display screen. I can grasp it. Moreover, since the contour line constituting the stationary individual index s is indicated by a broken line and the contour line constituting the motion individual index m is indicated by a solid line, the individual individual surrounded by each contour line is a stationary individual. It is possible to visually recognize whether there is an individual or a moving individual.

なお、図14に示す例の場合、静止個体指標sを構成する第1の輪郭指標と動作個体指標mを構成する第2の輪郭指標とは、破線と実線とによって相互に区別できるようにしているが、視覚的に区別可能な態様であれば、別な方法で区別してもかまわない。各輪郭指標は、図5の右に示す背景差分画像D(t)に含まれる背景差分領域di(t)の輪郭線を抽出することによって作成することができ、その形状は、対象となる個体の輪郭形状によって定まる。したがって、上述した枠状指標のように、形を変えることによって、静止個体指標sを構成する第1の輪郭指標と動作個体指標mを構成する第2の輪郭指標とを区別することはできないが、輪郭線の線種、色、太さを変えることによって、両者を区別することは可能である。   In the example shown in FIG. 14, the first contour index constituting the stationary individual index s and the second contour index constituting the moving individual index m can be distinguished from each other by a broken line and a solid line. However, as long as it is visually distinguishable, it may be distinguished by another method. Each contour index can be created by extracting the contour line of the background difference region di (t) included in the background difference image D (t) shown on the right in FIG. It is determined by the contour shape. Therefore, unlike the frame-shaped index described above, the first contour index constituting the stationary individual index s and the second contour index constituting the moving individual index m cannot be distinguished by changing the shape. It is possible to distinguish between the two by changing the line type, color, and thickness of the outline.

結局、検出個体表示部170は、静止個体指標sを、対象となる静止個体の輪郭線を示す第1の輪郭指標によって構成し、動作個体指標mを、対象となる動作個体の輪郭線を示す第2の輪郭指標によって構成し、第1の輪郭指標と第2の輪郭指標とは、線種、色、太さのうちの少なくとも1つが互いに異なる輪郭線によって構成されるようにし、原画像P(t)に第1の輪郭指標および第2の輪郭指標を重畳させることにより個体検出画像Q(t)−SMを作成すればよい。   Eventually, the detected individual display unit 170 configures the stationary individual index s by the first contour index indicating the contour of the target stationary individual, and the moving individual index m indicates the contour of the target moving individual. The first contour index and the second contour index are configured by a contour line that is different from each other in at least one of line type, color, and thickness. The individual detection image Q (t) -SM may be created by superimposing the first contour index and the second contour index on (t).

図15は、図2に示す個体検出画像Q(t)−Sの変形例を示す図である。図の左に示す原画像P(t)は、これまで述べてきたものと全く同じであるが、図の右に示す個体検出画像Q(t)−Sは、検出対象となる静止個体を、開口窓を有するマスク画像を用いて示す画像になっている。一方、図16は、図3に示す個体検出画像Q(t)−Mの変形例を示す図である。図の左に示す原画像P(t)は、これまで述べてきたものと全く同じであるが、図の右に示す個体検出画像Q(t)−Mは、検出対象となる動作個体を、開口窓を有するマスク画像を用いて示す画像になっている。   FIG. 15 is a diagram showing a modification of the individual detection image Q (t) -S shown in FIG. The original image P (t) shown on the left of the figure is exactly the same as that described so far, but the individual detection image Q (t) -S shown on the right of the figure shows a stationary individual to be detected. The image is shown using a mask image having an aperture window. On the other hand, FIG. 16 is a diagram showing a modification of the individual detection image Q (t) -M shown in FIG. The original image P (t) shown on the left side of the figure is exactly the same as that described so far, but the individual detection image Q (t) -M shown on the right side of the figure shows the motion individual to be detected. The image is shown using a mask image having an aperture window.

この図15,図16に示す変形例の場合、検出個体表示部170は、検出対象となる個体部分に開口窓が配置され、当該開口窓以外の部分が被覆されたマスク画像によって静止個体指標sまたは動作個体指標mを構成したものであり、原画像P(t)にこのマスク画像を重畳させることにより個体検出画像Q(t)−SもしくはQ(t)−Mを作成することになる。   In the modification shown in FIGS. 15 and 16, the detected individual display unit 170 has a stationary individual index s by a mask image in which an opening window is arranged in an individual part to be detected and a part other than the opening window is covered. Alternatively, the motion individual index m is configured, and the individual detection image Q (t) -S or Q (t) -M is created by superimposing the mask image on the original image P (t).

たとえば、図15は、静止個体の検出結果のみを示す個体検出画像Q(t)−Sの例である。時刻t1の欄に示された個体検出画像Q(t1)−Sは、全面がマスク画像(図では、網目状パターンで示すが、実際には、たとえば、グレーの領域として表示すればよい)で覆われた状態になっている。この場合、全面を覆うマスク画像が静止個体指標sということになる。原画像P(t1)は、この静止個体指標sを構成するマスク画像によって全面被覆状態となっているため、ディスプレイ画面は、全体がグレーで表示された状態になる。これは、現時点では、静止個体は全く検出されていないことを示している。   For example, FIG. 15 is an example of an individual detection image Q (t) -S showing only the detection result of a stationary individual. The individual detection image Q (t1) -S shown in the column of time t1 is a mask image (shown as a mesh pattern in the figure, but actually, for example, it may be displayed as a gray region). It is in a covered state. In this case, the mask image covering the entire surface is the stationary individual index s. Since the original image P (t1) is entirely covered with the mask image constituting the stationary individual index s, the entire display screen is displayed in gray. This indicates that no stationary individual is detected at present.

一方、時刻t2の欄に示された個体検出画像Q(t2)−Sは、静止個体である子供B2の領域に開口窓が配置され、それ以外の領域が被覆されたマスク画像からなる静止個体指標sを、原画像P(t2)の上に重畳させることによって得られた画像である。開口窓が形成された領域のみ、下地の原画像P(t2)が観察できるので、ディスプレイ画面を観察した場合、グレーの背景に静止個体である子供B2のみが配置されているように見える。   On the other hand, the individual detection image Q (t2) -S shown in the column of time t2 is a stationary individual consisting of a mask image in which an opening window is arranged in the region of the child B2 that is a stationary individual and the other region is covered. This is an image obtained by superimposing the index s on the original image P (t2). Since the underlying original image P (t2) can be observed only in the area where the opening window is formed, when the display screen is observed, it appears that only the child B2 that is a stationary individual is arranged on a gray background.

また、時刻t3の欄に示された個体検出画像Q(t3)−Sは、静止個体である大人A3および子供B3の領域に開口窓が配置され、それ以外の領域が被覆されたマスク画像からなる静止個体指標sを、原画像P(t3)の上に重畳させることによって得られた画像である。開口窓が形成された領域のみ、下地の原画像P(t3)が観察できるので、ディスプレイ画面を観察した場合、グレーの背景に静止個体である大人A3と子供B3が配置されているように見える。   Further, the individual detection image Q (t3) -S shown in the column of time t3 is based on a mask image in which aperture windows are arranged in the areas of adults A3 and children B3, which are stationary individuals, and the other areas are covered. This is an image obtained by superimposing a stationary individual index s on the original image P (t3). Since the underlying original image P (t3) can be observed only in the area where the opening window is formed, when the display screen is observed, it appears that the adult A3 and the child B3, which are stationary individuals, are arranged on a gray background. .

そして、時刻t4の欄に示された個体検出画像Q(t4)−Sは、静止個体である子供B4の領域に開口窓が配置され、それ以外の領域が被覆されたマスク画像からなる静止個体指標sを、原画像P(t4)の上に重畳させることによって得られた画像である。開口窓が形成された領域のみ、下地の原画像P(t4)が観察できるので、ディスプレイ画面を観察した場合、グレーの背景に静止個体である子供B4のみが配置されているように見える。   The individual detection image Q (t4) -S shown in the column of time t4 is a stationary individual consisting of a mask image in which an opening window is arranged in the region of the child B4 that is a stationary individual and the other region is covered. This is an image obtained by superimposing the index s on the original image P (t4). Since the underlying original image P (t4) can be observed only in the area where the opening window is formed, when the display screen is observed, it appears that only the child B4, which is a stationary individual, is arranged on a gray background.

このように、図15に示した個体検出画像Q(t)−Sでは、グレーの背景に静止個体のみが表示されることになるので、静止個体のみを明瞭に把握したい用途には最適である。   As described above, in the individual detection image Q (t) -S shown in FIG. 15, only the stationary individual is displayed on the gray background, so that it is most suitable for the purpose of clearly grasping only the stationary individual. .

これに対して、図16は、動作個体の検出結果のみを示す個体検出画像Q(t)−Mの例である。時刻t1の欄に示された個体検出画像Q(t1)−Mは、動作個体である大人A1および子供B1の領域に開口窓が配置され、それ以外の領域が被覆されたマスク画像からなる動作個体指標mを、原画像P(t1)の上に重畳させることによって得られた画像である。開口窓が形成された領域のみ、下地の原画像P(t1)が観察できるので、ディスプレイ画面を観察した場合、グレーの背景に動作個体である大人A1と子供B1が配置されているように見える。   On the other hand, FIG. 16 is an example of the individual detection image Q (t) -M showing only the detection result of the moving individual. The individual detection image Q (t1) -M shown in the column of time t1 is an operation composed of a mask image in which aperture windows are arranged in the areas of the adult A1 and the child B1 that are the operating individuals and the other areas are covered. This is an image obtained by superimposing the individual index m on the original image P (t1). Since the underlying original image P (t1) can be observed only in the area where the opening window is formed, when the display screen is observed, it appears that the adult A1 and the child B1 that are the moving individuals are arranged on the gray background. .

一方、時刻t2の欄に示された個体検出画像Q(t2)−Mは、動作個体である大人A2の領域に開口窓が配置され、それ以外の領域が被覆されたマスク画像からなる動作個体指標mを、原画像P(t2)の上に重畳させることによって得られた画像である。開口窓が形成された領域のみ、下地の原画像P(t2)が観察できるので、ディスプレイ画面を観察した場合、グレーの背景に動作個体である大人A2のみが配置されているように見える。   On the other hand, the individual detection image Q (t2) -M shown in the column of time t2 is an operation individual consisting of a mask image in which an opening window is arranged in the region of the adult A2 that is the operation individual and the other region is covered. This is an image obtained by superimposing the index m on the original image P (t2). Since the underlying original image P (t2) can be observed only in the area where the opening window is formed, when the display screen is observed, it appears that only the adult A2 that is an operating individual is arranged on a gray background.

また、時刻t3の欄に示された個体検出画像Q(t3)−Mは、全面がマスク画像で覆われた状態になっている。この場合、全面を覆うマスク画像が動作体指標mということになる。原画像P(t3)は、この動作個体指標mを構成するマスク画像によって全面被覆状態となっているため、ディスプレイ画面は、全体がグレーで表示された状態になる。これは、現時点では、動作個体は全く検出されていないことを示している。   The individual detection image Q (t3) -M shown in the column of time t3 is in a state where the entire surface is covered with the mask image. In this case, the mask image covering the entire surface is the operating body index m. Since the original image P (t3) is entirely covered by the mask image constituting the motion individual index m, the entire display screen is displayed in gray. This indicates that no moving object is detected at present.

そして、時刻t4の欄に示された個体検出画像Q(t4)−Mは、動作個体である大人A4の領域に開口窓が配置され、それ以外の領域が被覆されたマスク画像からなる動作個体指標mを、原画像P(t4)の上に重畳させることによって得られた画像である。開口窓が形成された領域のみ、下地の原画像P(t4)が観察できるので、ディスプレイ画面を観察した場合、グレーの背景に動作個体である大人A4のみが配置されているように見える。   The individual detection image Q (t4) -M shown in the column of time t4 is an operation individual composed of a mask image in which an aperture window is arranged in the region of the adult A4 that is the operation individual and the other region is covered. This is an image obtained by superimposing the index m on the original image P (t4). Since the underlying original image P (t4) can be observed only in the area where the opening window is formed, when the display screen is observed, it appears that only the adult A4, which is an operating individual, is arranged on a gray background.

このように、図16に示した個体検出画像Q(t)−Mでは、グレーの背景に動作個体のみが表示されることになるので、動作個体のみを明瞭に把握したい用途には最適である。   As described above, in the individual detection image Q (t) -M shown in FIG. 16, only the motion individual is displayed on the gray background, so that it is most suitable for the purpose of clearly grasping only the motion individual. .

なお、図15に示す静止個体指標sを構成するマスク画像や、図16に示す動作個体指標mを構成するマスク画像は、図5の右に示す背景差分画像D(t)に含まれる所定の背景差分領域di(t)の輪郭線を用いて開口窓を形成することによって作成することができる。   It should be noted that the mask image constituting the stationary individual index s shown in FIG. 15 and the mask image constituting the motion individual index m shown in FIG. 16 are predetermined ones included in the background difference image D (t) shown on the right in FIG. It can be created by forming an opening window using the contour line of the background difference area di (t).

図1のブロック図に示されているとおり、この実施例における検出個体表示部170には、原画像入力部110によって入力された原画像P(t)が与えられている。したがって、検出個体表示部170は、ディスプレイ画面上に原画像P(t)をそのまま表示することが可能である。また、個体認識部160には、静止個体認識部161と動作個体認識部162の双方が備わっているため、検出個体表示部170は、図2に例示するように、原画像P(t)に静止個体指標sを重畳させることにより個体検出画像Q(t)−Sを作成し、これをディスプレイ画面上に表示することが可能であり、また、図3に例示するように、原画像P(t)に動作個体指標mを重畳させることにより個体検出画像Q(t)−Mを作成し、これをディスプレイ画面上に表示することも可能である。更に、静止個体指標sと動作個体指標mの双方を用いて、図4に例示するような個体検出画像Q(t)−SMを作成し、これをディスプレイ画面上に表示することも可能である。   As shown in the block diagram of FIG. 1, the detected individual display unit 170 in this embodiment is given the original image P (t) input by the original image input unit 110. Therefore, the detected individual display unit 170 can display the original image P (t) as it is on the display screen. Further, since the individual recognition unit 160 includes both the stationary individual recognition unit 161 and the moving individual recognition unit 162, the detected individual display unit 170 displays the original image P (t) as illustrated in FIG. It is possible to create an individual detection image Q (t) -S by superimposing a stationary individual index s and display it on the display screen, and as illustrated in FIG. It is also possible to create an individual detection image Q (t) -M by superimposing the motion individual index m on t) and display it on the display screen. Furthermore, it is also possible to create an individual detection image Q (t) -SM as illustrated in FIG. 4 using both the stationary individual index s and the moving individual index m and display it on the display screen. .

そこで、実用上は、上述した4通りの表示態様をそれぞれ別個の表示モードに設定しておき、ユーザ(たとえば、監視員)の要求に応じて、表示モードを適宜切り替えることができるようにしておくのが好ましい。図17は、検出個体表示部170による4通りの表示モードを示す図である。この図17では、説明の便宜上、静止個体指標sおよび動作個体指標mとして図12に示した矩形枠からなる個体指標を用い、時刻t2において得られる画像を例示してある。   Therefore, in practice, the four display modes described above are set to separate display modes, and the display modes can be switched as appropriate according to the request of the user (for example, a monitor). Is preferred. FIG. 17 is a diagram showing four display modes by the detected individual display unit 170. In FIG. 17, for convenience of explanation, an image obtained at time t <b> 2 is illustrated by using the individual indicator composed of the rectangular frame shown in FIG. 12 as the stationary individual indicator s and the moving individual indicator m.

この図17に示す実施例の場合、検出個体表示部170は、原画像表示モード、全個体表示モード、静止個体表示モード、動作個体表示モード、という4通りの表示モードによる表示機能を有しており、ユーザからの指示を受けて、任意の表示モードに切り替えて表示を行うことができる。   In the case of the embodiment shown in FIG. 17, the detected individual display unit 170 has a display function based on four display modes: an original image display mode, an all-individual display mode, a stationary individual display mode, and an operating individual display mode. In response to an instruction from the user, the display can be switched to an arbitrary display mode.

原画像表示モードは、図17(a) に示すように、ディスプレイ画面上に原画像P(t)のみを表示するモードであり、定点カメラによる撮影画像をそのまま表示するモードである。図示の例では、大人A2および子供B2を個体として含む原画像P(t2)が表示されている。もちろん、大人A2および子供B2は、背景画像の中に溶け込んだ状態で表示されており、監視員は、脳内において、これらを個々の個体として認識することになるが、視覚的な情報として、大人A2および子供B2が個々の個体として提示されているわけではなく、もちろん、静止個体か動作個体かといった情報の提示もなされていない。   As shown in FIG. 17A, the original image display mode is a mode in which only the original image P (t) is displayed on the display screen, and is a mode in which an image captured by the fixed point camera is displayed as it is. In the illustrated example, an original image P (t2) including an adult A2 and a child B2 as individuals is displayed. Of course, the adult A2 and the child B2 are displayed in a state of being melted in the background image, and the observer recognizes them as individual individuals in the brain, but as visual information, The adult A2 and the child B2 are not presented as individual individuals, and of course, information regarding whether they are stationary individuals or moving individuals is not presented.

一方、全個体表示モードは、図17(b) に示すように、ディスプレイ画面上に静止個体指標sと動作個体指標mと原画像P(t)とを重畳させた個体検出画像Q(t)−SMを表示するモードである。図示の例では、大人A2および子供B2を個体として含む原画像P(t2)が表示されるとともに、実線の矩形枠からなる動作個体指標m1(t2)と破線の矩形枠からなる静止個体指標s1(t2)とが表示されている。監視員は、視覚的に、大人A2を動作個体として認識し、子供B2を静止個体として認識することができる。   On the other hand, in the all-individual display mode, as shown in FIG. 17B, the individual detection image Q (t) in which the stationary individual index s, the motion individual index m, and the original image P (t) are superimposed on the display screen. -Mode for displaying SM. In the illustrated example, an original image P (t2) including an adult A2 and a child B2 as individuals is displayed, and a moving individual index m1 (t2) composed of a solid rectangular frame and a stationary individual index s1 composed of a dashed rectangular frame (T2) is displayed. The monitor can visually recognize the adult A2 as a moving individual and the child B2 as a stationary individual.

また、静止個体表示モードは、図17(c) に示すように、ディスプレイ画面上に静止個体指標sと原画像P(t)とを重畳させた個体検出画像Q(t)−Sを表示するモードであり、動作個体表示モードは、図17(d) に示すように、ディスプレイ画面上に動作個体指標mと原画像P(t)とを重畳させた個体検出画像Q(t)−Mを表示するモードである。前者のモードでは、監視員は、視覚的に、子供B2を静止個体として認識することができ、後者のモードでは、監視員は、視覚的に、大人A2を動作個体として認識することができる。静止個体のみを直観的に認識したい場合は、前者の静止個体表示モードに切り替えるのが好ましく、動作個体のみを直観的に認識したい場合は、後者の動作個体表示モードに切り替えるのが好ましい。   In the stationary individual display mode, as shown in FIG. 17C, an individual detection image Q (t) -S in which the stationary individual index s and the original image P (t) are superimposed on the display screen is displayed. As shown in FIG. 17 (d), the motion individual display mode is an individual detection image Q (t) -M obtained by superimposing the motion individual index m and the original image P (t) on the display screen. This is the display mode. In the former mode, the monitor can visually recognize the child B2 as a stationary individual, and in the latter mode, the monitor can visually recognize the adult A2 as an operating individual. When it is desired to intuitively recognize only a stationary individual, it is preferable to switch to the former stationary individual display mode, and when it is desired to intuitively recognize only a moving individual, it is preferable to switch to the latter moving individual display mode.

このように、図17に示すようなモード切替機能を設けておけば、ユーザは、監視用途に応じて、最適な表示形態を選択して利用することができるので、利便性を向上させることができる。   In this way, if the mode switching function as shown in FIG. 17 is provided, the user can select and use the optimum display form according to the monitoring application, which can improve convenience. it can.

<<< §4. 画像演算処理の具体的な方法 >>>
図1に示す個体の検出装置100では、背景差分画像作成部130によって背景差分画像D(t)が作成され、フレーム間差分画像作成部140によってフレーム間差分画像F(t)が作成され、重複有無判定部150によって重複確認画像C(t)が作成される。これら各構成要素によって各画像を作成する処理は、実際には、コンピュータによる画像演算処理によって実行される。ここでは、この画像演算処理の具体的な方法を説明する。
<<< §4. Specific method of image calculation processing >>>
In the individual detection apparatus 100 shown in FIG. 1, a background difference image D (t) is created by the background difference image creation unit 130, and an inter-frame difference image F (t) is created by the inter-frame difference image creation unit 140. The duplication confirmation image C (t) is created by the presence / absence determination unit 150. The process of creating each image with each of these components is actually executed by image calculation processing by a computer. Here, a specific method of the image calculation process will be described.

図18は、2枚のカラー画像U,Vについて、二値化差分画像Wを作成し、その差分領域についてラベリング情報を作成する処理の一般的な手順を示す図である。ここでは、図示のような2枚のカラー画像U,Vが与えられた場合を考える。いずれのカラー画像も、3原色R,G,Bの画素値をもった多数の画素の配列から構成されている。   FIG. 18 is a diagram illustrating a general procedure of processing for creating a binary difference image W for two color images U and V and creating labeling information for the difference region. Here, a case is considered where two color images U and V as shown are given. Each color image is composed of an array of a large number of pixels having pixel values of the three primary colors R, G, and B.

ここに示す手順では、まず、これらカラー画像U,Vをそれぞれモノクロ化して、輝度画像U′,V′に変換する。具体的には、図示のとおり、カラー画像U上の任意の位置に配置された着目画素の画素値を(Ru,Gu,Bu)として、輝度画像U′上の同位置の画素の画素値(輝度値)Yuを、「Yu=0.299Ru+0.587Gu+0.114Bu」なる式で求める。同様に、カラー画像V上の任意の位置に配置された着目画素の画素値を(Rv,Gv,Bv)として、輝度画像V′上の同位置の画素の画素値(輝度値)Yvを、「Yv=0.299Rv+0.587Gv+0.114Bv」なる式で求める。   In the procedure shown here, these color images U and V are first converted into monochrome images and converted into luminance images U ′ and V ′. Specifically, as shown in the drawing, the pixel value of the pixel of interest arranged at an arbitrary position on the color image U is (Ru, Gu, Bu), and the pixel value of the pixel at the same position on the luminance image U ′ ( (Luminance value) Yu is calculated | required by the type | formula "Yu = 0.299Ru + 0.587Gu + 0.114Bu". Similarly, assuming that the pixel value of the pixel of interest arranged at an arbitrary position on the color image V is (Rv, Gv, Bv), the pixel value (luminance value) Yv of the pixel at the same position on the luminance image V ′ is It calculates | requires by the type | formula "Yv = 0.299Rv + 0.587Gv + 0.114Bv".

こうして、輝度値Yuをもった画素の集合からなる輝度画像U′と、輝度値Yvをもった画素の集合からなる輝度画像V′とが求められたら、これら輝度画像U′,V′の同位置にある画素の輝度値の差をとることにより、差分画像W′を作成する。すなわち、差分画像W′を構成する任意の画素の画素値(差分値)ΔYは、輝度画像U′上の同位置にある画素の輝度値Yuと、輝度画像V′上の同位置にある画素の輝度値Yvとの差の絶対値として求められる。別言すれば、ΔYは、「ΔY=|Yu−Yv|」なる式で求まることになる。   When the luminance image U ′ composed of a set of pixels having the luminance value Yu and the luminance image V ′ composed of a set of pixels having the luminance value Yv are thus obtained, the luminance images U ′ and V ′ are identical. The difference image W ′ is created by taking the difference in the luminance values of the pixels at the position. That is, the pixel value (difference value) ΔY of an arbitrary pixel constituting the difference image W ′ is equal to the luminance value Yu of the pixel at the same position on the luminance image U ′ and the pixel at the same position on the luminance image V ′. Is obtained as the absolute value of the difference from the luminance value Yv. In other words, ΔY is obtained by an expression “ΔY = | Yu−Yv |”.

続いて、この差分画像W′を二値化することにより、二値化差分画像Wを作成する。具体的には、予め所定の閾値を設定しておき、ΔYが閾値以上となる画素については画素値「1」を与え、ΔYが閾値未満となる画素については画素値「0」を与える処理を行えばよい。こうして得られた二値化差分画像Wは、画素値「1」もしくは「0」をもつ画素の集合体になり、画素値「1」をもった画素の連続領域は、元のカラー画像U,Vを比べた場合に、画素値の差が所定の基準以上の領域、すなわち、有意な差が認められた差分領域ということになる。   Subsequently, the binarized difference image W is created by binarizing the difference image W ′. Specifically, a process is performed in which a predetermined threshold value is set in advance, a pixel value “1” is given to a pixel in which ΔY is equal to or greater than the threshold value, and a pixel value “0” is given to a pixel in which ΔY is less than the threshold value. Just do it. The binarized difference image W thus obtained is an aggregate of pixels having the pixel value “1” or “0”, and the continuous region of the pixels having the pixel value “1” is the original color image U, When V is compared, it is an area where the difference in pixel values is equal to or greater than a predetermined reference, that is, a difference area where a significant difference is recognized.

図18の左下に示す図は、こうして得られた二値化差分画像Wの画素構成の一例を示す図である。この図において、ハッチングを施した画素は画素値「1」をもった画素であり、残りの白い画素は画素値「0」をもった画素である。図に太線で囲って示すように、画素値「1」をもった画素の連続領域によって2組の差分領域w1,w2が形成されている。これらの差分領域w1,w2は、図5の背景差分画像D(t)に黒い領域として示されている背景差分領域di(t)や、図6のフレーム間差分画像F(t)に黒い領域として示されているフレーム間差分領域fj(t)に相当する。   The diagram shown in the lower left of FIG. 18 is a diagram illustrating an example of the pixel configuration of the binarized difference image W obtained in this way. In this figure, hatched pixels are pixels having a pixel value “1”, and the remaining white pixels are pixels having a pixel value “0”. As indicated by a bold line in the figure, two sets of difference areas w1 and w2 are formed by continuous areas of pixels having a pixel value “1”. These difference areas w1 and w2 are a background difference area di (t) shown as a black area in the background difference image D (t) in FIG. 5 and a black area in the inter-frame difference image F (t) in FIG. Corresponds to the inter-frame difference region fj (t) shown as.

もっとも、図示されている差分領域w1,w2は、人間が観察した場合、それぞれが画素値「1」をもった一群の画素の集合体領域として把握することができるが、コンピュータが取り扱うデータとしては、まだ、差分領域w1,w2という概念はない。そこで、コンピュータ上、これら差分領域w1,w2を取り扱うためには、ラベリング処理を実行して図18の右下に示すようなラベリング情報Lを作成する必要がある。このラベリング情報Lは、差分画像上の個々の差分領域ごとに所定の差分領域符号を付与した上で、個々の差分領域符号と、対応する差分領域に含まれる画素を特定する画素特定情報と、の関係を示す情報ということになる。   However, the difference areas w1 and w2 shown in the figure can be grasped as a group area of a group of pixels each having a pixel value “1” when observed by a human, but as data handled by a computer, There is still no concept of difference areas w1 and w2. Therefore, in order to handle the difference areas w1 and w2 on the computer, it is necessary to execute labeling processing to create labeling information L as shown in the lower right of FIG. The labeling information L is obtained by assigning a predetermined difference area code to each individual difference area on the difference image, and then specifying each difference area code, pixel specifying information for specifying a pixel included in the corresponding difference area, That is, information indicating the relationship.

図示の例の場合、ラベリング情報Lは表の形式で作成されており、差分領域符号の欄には、2組の符号w1,w2が収容されている。これらの符号は、図18の左下に示す差分画像に太線で囲って示した2組の差分領域w1,w2に付与された符号である。一方、画素特定情報の欄には、差分領域を構成する個々の画素を特定する情報として、個々の画素の座標値が収容されている。たとえば、差分領域符号w1に対応する画素特定情報の欄に収容されている座標値(1,3),(2,2),(2,3),(3,1),(3,2),(3,3),(4,2),(4,3),(4,4),(4,5)は、図18の左下に示す差分領域w1を構成する10個の画素の座標値である。   In the case of the illustrated example, the labeling information L is created in the form of a table, and two sets of codes w1 and w2 are accommodated in the difference area code column. These codes are given to the two sets of difference areas w1 and w2 indicated by bold lines in the difference image shown in the lower left of FIG. On the other hand, in the column of pixel specifying information, the coordinate value of each pixel is stored as information for specifying each pixel constituting the difference area. For example, the coordinate values (1, 3), (2, 2), (2, 3), (3, 1), (3, 2) stored in the pixel specifying information column corresponding to the difference area code w1 , (3, 3), (4, 2), (4, 3), (4, 4), (4, 5) are the coordinates of 10 pixels constituting the difference area w1 shown in the lower left of FIG. Value.

このように、ラベリング情報Lは、特定の画素に特定の差分領域符号をラベルづけした情報であり、このラベリング情報Lによって、差分画像上に形成されている個々の差分領域を特定することができる。このようなラベリング情報Lは、差分画像上において画素値「1」をもった1つの画素に着目し、当該着目画素について、同じく画素値「1」をもった隣接画素を特定し、更に、当該隣接画素を着目画素として同様の処理を繰り返し実行する、という手法により作成することができる。このようなラベリング情報Lの作成処理アルゴリズムは、公知の技術であるため、ここでは詳しい説明は省略する。   As described above, the labeling information L is information obtained by labeling a specific pixel with a specific difference area code, and the individual difference areas formed on the difference image can be specified by the labeling information L. . Such labeling information L focuses on one pixel having a pixel value “1” on the difference image, identifies an adjacent pixel having the same pixel value “1” for the target pixel, and further It can be created by a method of repeatedly executing the same processing with the adjacent pixel as the target pixel. Since the labeling information L creation processing algorithm is a known technique, a detailed description thereof is omitted here.

以上、図18に示す一般的なカラー画像U,Vについて、二値化差分画像Wを作成し、これについてラベリング情報Lを作成する基本手法を述べた。図1の装置における背景差分画像作成部130およびフレーム間差分画像作成部140は、このような基本手法に基づいて、背景差分画像D(t)やフレーム間差分画像F(t)を作成することができ、更に、上述したラベリング処理を行うことにより、背景差分領域のラベリング情報L(D(t))や、フレーム間差分領域のラベリング情報L(F(t))を作成することができる。   As described above, the basic method of creating the binarized difference image W for the general color images U and V shown in FIG. The background difference image creation unit 130 and the inter-frame difference image creation unit 140 in the apparatus of FIG. 1 create the background difference image D (t) and the inter-frame difference image F (t) based on such a basic method. Further, by performing the above-described labeling process, it is possible to create the labeling information L (D (t)) for the background difference area and the labeling information L (F (t)) for the inter-frame difference area.

結局、図1に示す個体の検出装置100で行う画像処理に、図18に示す手順を導入する場合、各構成要素において次のような処理を行うようにすればよい。まず、原画像入力部110は、三原色RGBの各画素値をもった画素の集合体からなるカラー画像を原画像P(t)として入力し、これを輝度Yを示す画素値をもった画素の集合体からなる輝度画像に変換する処理を行う。すなわち、定点カメラから得られる原画像P(t)がカラー画像である場合には、原画像入力部110において、これをモノクロ化して輝度画像とし、背景差分画像作成部130およびフレーム間差分画像作成部140には、この輝度画像を原画像P(t)として与えるようにする。この場合、背景画像格納部120には、輝度Yを示す画素値をもった画素の集合体からなる、モノクロ化された背景画像BGを格納しておくようにする。   After all, when the procedure shown in FIG. 18 is introduced into the image processing performed by the individual detection apparatus 100 shown in FIG. 1, the following processing may be performed in each component. First, the original image input unit 110 inputs a color image made up of a set of pixels having pixel values of the three primary colors RGB as an original image P (t), and this is input to a pixel having a pixel value indicating luminance Y. A process of converting to a luminance image composed of an aggregate is performed. That is, when the original image P (t) obtained from the fixed point camera is a color image, the original image input unit 110 converts the image into a monochrome image and generates a luminance image. The background difference image creation unit 130 and the inter-frame difference image creation The luminance image is given to the unit 140 as the original image P (t). In this case, the background image storage unit 120 stores a monochrome background image BG made up of a collection of pixels having pixel values indicating the luminance Y.

そして、背景差分画像作成部130は、原画像入力部110から与えられるモノクロ化された原画像P(t)(輝度画像)と、背景画像格納部120に格納されているモノクロ化された背景画像BGとについて、それぞれ対応する画素の画素値(輝度値Y)の差の絶対値ΔYを求める処理を行うようにする。こうして求められたΔYを画素値としてもつ画素の集合体は、図18に示す差分画像W′に相当する差分画像になる。そこで、背景差分画像作成部130は、この差分画像を一時的に格納した上で、所定の閾値を用いて二値化することにより二値化差分画像(図18に示す二値化差分画像Wに相当する画像)を作成し、当該二値化差分画像を背景差分画像D(t)として出力する。   The background difference image creation unit 130 then converts the monochrome original image P (t) (luminance image) given from the original image input unit 110 and the monochrome background image stored in the background image storage unit 120. For BG, a process for obtaining an absolute value ΔY of a difference between pixel values (luminance values Y) of the corresponding pixels is performed. A set of pixels having ΔY as a pixel value thus obtained becomes a difference image corresponding to the difference image W ′ shown in FIG. Therefore, the background difference image creation unit 130 temporarily stores the difference image and binarizes it using a predetermined threshold value, thereby binarizing the difference image (the binarized difference image W shown in FIG. 18). And the binarized differential image is output as a background differential image D (t).

より具体的に説明すれば、背景差分画像作成部130は、輝度値の差の絶対値ΔYが閾値以上となる画素については画素値「1」を与え、輝度値の差の絶対値ΔYが閾値未満となる画素については画素値「0」を与えることにより、背景差分画像D(t)を作成することになる。ここで、画素値「1」をもった画素の連続領域は、背景差分領域di(t)になる。そこで、背景差分画像作成部130は、個々の背景差分領域di(t)ごとに背景差分領域符号を付与し、個々の背景差分領域符号に対応する背景差分領域に含まれる画素を特定する画素特定情報を示す背景差分領域のラベリング情報L(D(t))を作成する。   More specifically, the background difference image creation unit 130 gives a pixel value “1” to a pixel whose absolute value ΔY of the luminance value difference is equal to or larger than the threshold value, and the absolute value ΔY of the luminance value difference is the threshold value. By giving a pixel value “0” to the pixels that are less than this, the background difference image D (t) is created. Here, the continuous area of pixels having the pixel value “1” is the background difference area di (t). Therefore, the background difference image creation unit 130 assigns a background difference area code to each background difference area di (t), and specifies a pixel included in the background difference area corresponding to each background difference area code. Labeling information L (D (t)) for the background difference area indicating information is created.

一方、フレーム間差分画像作成部140は、原画像入力部110から時間差をもって与えられる2枚のモノクロ化された原画像P(t)(2枚のフレーム単位の輝度画像)について、それぞれ対応する画素の画素値(輝度値Y)の差の絶対値ΔYを求める処理を行うようにする。こうして求められたΔYを画素値としてもつ画素の集合体は、図18に示す差分画像W′に相当する差分画像になる。そこで、フレーム間差分画像作成部140は、この差分画像を一時的に格納した上で、所定の閾値を用いて二値化することにより二値化差分画像(図18に示す二値化差分画像Wに相当する画像)を作成し、当該二値化差分画像をフレーム間差分画像F(t)として出力する。   On the other hand, the inter-frame difference image creation unit 140 corresponds to each of the two monochrome original images P (t) (two luminance images in units of frames) given from the original image input unit 110 with a time difference. The process of obtaining the absolute value ΔY of the difference between the pixel values (luminance value Y) of the. A set of pixels having ΔY as a pixel value thus obtained becomes a difference image corresponding to the difference image W ′ shown in FIG. Therefore, the inter-frame difference image creation unit 140 temporarily stores the difference image and binarizes it using a predetermined threshold value, thereby binarizing the difference image (the binary difference image shown in FIG. 18). Image corresponding to W) is generated, and the binarized difference image is output as an inter-frame difference image F (t).

より具体的に説明すれば、フレーム間差分画像作成部140は、輝度値の差の絶対値ΔYが閾値以上となる画素については画素値「1」を与え、輝度値の差の絶対値ΔYが閾値未満となる画素については画素値「0」を与えることにより、フレーム間差分画像F(t)を作成することになる。ここで、画素値「1」をもった画素の連続領域は、フレーム間差分領域fj(t)になる。そこで、フレーム間差分画像作成部140は、個々のフレーム間差分領域fj(t)ごとにフレーム間差分領域符号を付与し、個々のフレーム間差分領域符号に対応するフレーム間差分領域に含まれる画素を特定する画素特定情報を示すフレーム間差分領域のラベリング情報L(F(t))を作成する。   More specifically, the inter-frame difference image creation unit 140 gives a pixel value “1” for pixels whose absolute value ΔY of luminance value difference is equal to or greater than a threshold value, and the absolute value ΔY of luminance value difference is An inter-frame difference image F (t) is created by giving a pixel value “0” to pixels that are less than the threshold. Here, the continuous region of pixels having the pixel value “1” is the inter-frame difference region fj (t). Therefore, the inter-frame difference image creating unit 140 assigns an inter-frame difference area code for each inter-frame difference area fj (t), and the pixels included in the inter-frame difference area corresponding to the individual inter-frame difference area code. The labeling information L (F (t)) of the inter-frame difference area indicating the pixel specifying information for specifying is generated.

重複有無判定部150は、こうして作成された背景差分領域のラベリング情報L(D(t))とフレーム間差分領域のラベリング情報L(F(t))とを利用して、背景差分画像D(t)内の個々の背景差分領域di(t)について、フレーム間差分画像F(t)内のフレーム間差分領域fj(t)に対する重複部分の有無を判定する重複有無判定処理を行うことができる。   The overlap determination unit 150 uses the background difference area labeling information L (D (t)) and the inter-frame difference area labeling information L (F (t)) created in this way to generate a background difference image D ( For each background difference area di (t) in t), it is possible to perform overlap presence / absence determination processing for determining whether or not there is an overlapping portion with respect to the inter-frame difference area fj (t) in the inter-frame difference image F (t). .

図19は、重複有無判定部150による重複有無判定処理の原理を示す図である。ここでは、時刻tについて作成された背景差分画像D(t)とフレーム間差分画像F(t)に基づいて重複確認画像C(t)を作成する処理の基本原理を説明する。   FIG. 19 is a diagram illustrating the principle of the overlap presence / absence determination process by the overlap presence / absence determination unit 150. Here, the basic principle of the process of creating the duplication confirmation image C (t) based on the background difference image D (t) and the inter-frame difference image F (t) created at time t will be described.

図19の上段左に示されている背景差分画像D(t)は、背景差分画像作成部130によって作成された画像であり、原画像P(t)と背景画像BGとの間で差分演算を行うことにより得られる。上述した手順によれば、この背景差分画像D(t)は、画素値「0」もしくは「1」をもった画素の集合からなる二値化差分画像になっている。図示の背景差分画像D(t)には、ハッチングを施して示すように、2組の背景差分領域d1(t),d2(t)が含まれている。これらの領域は、画素値「1」をもった画素の集合体から構成されている。図では、説明の便宜上、背景差分領域d1(t)を構成する画素として、2つの画素a(xa,ya),b(xb,yb)が例示されており、背景差分領域d2(t)を構成する画素として1つの画素c(xc,yc)が例示されている(括弧内は各画素の座標値)。   The background difference image D (t) shown in the upper left of FIG. 19 is an image created by the background difference image creation unit 130, and the difference calculation is performed between the original image P (t) and the background image BG. To obtain. According to the above-described procedure, the background difference image D (t) is a binary difference image composed of a set of pixels having the pixel value “0” or “1”. The illustrated background difference image D (t) includes two sets of background difference areas d1 (t) and d2 (t) as shown by hatching. These areas are composed of a collection of pixels having a pixel value “1”. In the figure, for convenience of explanation, two pixels a (xa, ya) and b (xb, yb) are illustrated as pixels constituting the background difference area d1 (t). One pixel c (xc, yc) is illustrated as a constituent pixel (the coordinate value of each pixel is in parentheses).

上述したとおり、背景差分画像作成部130は、各背景差分領域d1(t),d2(t)について、当該領域に含まれる画素を特定する画素特定情報を含むラベリング情報L(D(t))を作成する。図19の上段右に示されている背景差分領域のラベリング情報L(D(t))は、こうして作成されたラベリング情報である。たとえば、背景差分領域d1(t)については、画素a(xa,ya),画素b(xb,yb)などの座標値が画素特定情報として収容されており、背景差分領域d2(t)については、画素c(xc,yc)などの座標値が画素特定情報として収容されている。   As described above, the background difference image creation unit 130, for each background difference area d1 (t), d2 (t), labeling information L (D (t)) including pixel specifying information for specifying pixels included in the area. Create The background difference area labeling information L (D (t)) shown in the upper right of FIG. 19 is the labeling information thus created. For example, for the background difference area d1 (t), coordinate values of the pixel a (xa, ya), the pixel b (xb, yb), etc. are accommodated as pixel specifying information, and for the background difference area d2 (t) , A coordinate value such as a pixel c (xc, yc) is stored as pixel specifying information.

一方、図19の中段左に示されているフレーム間差分画像F(t)は、フレーム間差分画像作成部140によって作成された画像であり、原画像P(t)とその直前の原画像P(t−1)との間で差分演算を行うことにより得られる。上述した手順によれば、このフレーム間差分画像F(t)も、画素値「0」もしくは「1」をもった画素の集合からなる二値化差分画像になっている。図示のフレーム間差分画像F(t)には、ハッチングを施して示すように、3組のフレーム間差分領域f1(t),f2(t),f3(t)が含まれている。これらの領域は、画素値「1」をもった画素の集合体から構成されている。   On the other hand, the inter-frame difference image F (t) shown in the middle left of FIG. 19 is an image created by the inter-frame difference image creation unit 140, and the original image P (t) and the immediately preceding original image P It is obtained by performing a difference calculation with (t-1). According to the above-described procedure, this inter-frame difference image F (t) is also a binarized difference image composed of a set of pixels having the pixel value “0” or “1”. The illustrated inter-frame difference image F (t) includes three sets of inter-frame difference areas f1 (t), f2 (t), and f3 (t) as shown by hatching. These areas are composed of a collection of pixels having a pixel value “1”.

ここでは、説明の便宜上、図の上段に示す背景差分画像D(t)内に例示した3つの画素a(xa,ya),b(xb,yb),c(xc,yc)と同じ位置にある画素を、図の中段に示すフレーム間差分画像F(t)内に同じ符号を用いて例示してある。ただ、フレーム間差分画像F(t)の場合、画素a(xa,ya)は、ハッチングを施して示すフレーム間差分領域f1(t)内の画素であるため、画素値「1」をもった画素になるが、画素b(xb,yb),c(xc,yc)は、フレーム間差分領域外の画素であるため、画素値「0」をもった画素になる。   Here, for convenience of explanation, the same positions as the three pixels a (xa, ya), b (xb, yb), and c (xc, yc) illustrated in the background difference image D (t) shown in the upper part of the figure. A certain pixel is illustrated using the same symbol in the inter-frame difference image F (t) shown in the middle of the figure. However, in the case of the inter-frame difference image F (t), the pixel a (xa, ya) has a pixel value “1” because it is a pixel in the inter-frame difference area f1 (t) shown by hatching. The pixels b (xb, yb) and c (xc, yc) are pixels outside the inter-frame difference area, and thus have a pixel value “0”.

上述したとおり、フレーム間差分画像作成部140は、各フレーム間差分領域f1(t),f2(t),f3(t)について、当該領域に含まれる画素を特定する画素特定情報を含むラベリング情報L(F(t))を作成する。図19の中段右に示されているフレーム間差分領域のラベリング情報L(F(t))は、こうして作成されたラベリング情報である。たとえば、フレーム間差分領域f1(t)については、画素a(xa,ya)を含む座標値が画素特定情報として収容されている。   As described above, the inter-frame difference image creation unit 140 performs labeling information including pixel specifying information that specifies pixels included in the inter-frame difference areas f1 (t), f2 (t), and f3 (t). L (F (t)) is created. The labeling information L (F (t)) for the inter-frame difference area shown in the middle right of FIG. 19 is the labeling information created in this way. For example, for the inter-frame difference area f1 (t), coordinate values including the pixel a (xa, ya) are accommodated as pixel specifying information.

重複有無判定部150の基本的な役割は、背景差分画像D(t)内の個々の背景差分領域d1(t),d2(t)について、フレーム間差分画像F(t)内のフレーム間差分領域f1(t),f2(t),f3(t)に対する重複部分の有無を判定することである。このような判定は、ラベリング情報L(D(t)),L(F(t))を利用して行うことができる。   The basic role of the duplication presence / absence determination unit 150 is to determine the inter-frame difference in the inter-frame difference image F (t) for the individual background difference areas d1 (t) and d2 (t) in the background difference image D (t). This is to determine whether or not there is an overlapping portion with respect to the regions f1 (t), f2 (t), and f3 (t). Such a determination can be made using the labeling information L (D (t)), L (F (t)).

たとえば、背景差分領域d1(t)について、フレーム間差分領域f1(t),f2(t),f3(t)に対する重複部分の有無を判定する場合は、ラベリング情報L(D(t))のd1(t)の画素特定情報として収容されている座標値と同じ座標値が、ラベリング情報L(F(t))内に、f1(t)〜f3(t)の画素特定情報として収容されているか否かを判定すればよい。図示の例の場合、d1(t)についての座標値(xa,ya)と同じ座標値(xa,ya)が、f1(t)についての画素特定情報として収容されている。このため、背景差分領域d1(t)については、フレーム間差分領域に対する重複部分が有る、との判定がなされ、背景差分領域d1(t)を占める個体は動作個体と認識されることになる。   For example, for the background difference area d1 (t), when it is determined whether or not there is an overlapping portion with respect to the inter-frame difference areas f1 (t), f2 (t), and f3 (t), the labeling information L (D (t)) A coordinate value that is the same as the coordinate value stored as the pixel specifying information of d1 (t) is stored as the pixel specifying information of f1 (t) to f3 (t) in the labeling information L (F (t)). What is necessary is just to determine whether it exists. In the case of the illustrated example, the same coordinate value (xa, ya) as the coordinate value (xa, ya) for d1 (t) is accommodated as pixel specifying information for f1 (t). For this reason, it is determined that the background difference area d1 (t) has an overlapping portion with respect to the inter-frame difference area, and the individual occupying the background difference area d1 (t) is recognized as an operating individual.

要するに、基本原理として、重複有無判定部150は、所定の着目背景差分領域d1(t)について重複部分の有無を判定する際に、当該着目背景差分領域d1(t)のラベリング情報内の画素特定情報によって特定された個々の着目画素について、各フレーム間差分領域f1(t)〜f3(t)のラベリング情報内の画素特定情報に同位置の画素が存在するか否かを調べ、存在する場合に重複部分有りとの判定を行えばよい。   In short, as a basic principle, when the overlapping presence / absence determining unit 150 determines the presence / absence of an overlapping portion for a predetermined target background difference region d1 (t), pixel identification in the labeling information of the target background difference region d1 (t) is specified. For each pixel of interest specified by the information, it is checked whether there is a pixel at the same position in the pixel specifying information in the labeling information of the inter-frame difference areas f1 (t) to f3 (t). It may be determined that there is an overlapping portion.

図1に示す重複有無判定部150は、このような基本原理に基づく判定を行うために、図7〜図10に例示したような重複確認画像C(t)を作成する機能を有している。具体的には、重複有無判定部150は、背景差分画像D(t)とフレーム間差分画像F(t)とについて、対応する画素についての論理積演算を行うことにより、画素値「1」もしくは「0」をもった画素の集合体からなる二値画像である重複確認画像C(t)を作成する。   The duplication presence / absence judging unit 150 shown in FIG. 1 has a function of creating a duplication confirmation image C (t) as exemplified in FIGS. 7 to 10 in order to make a judgment based on such a basic principle. . Specifically, the duplication presence / absence determination unit 150 performs a logical product operation on the corresponding pixels on the background difference image D (t) and the inter-frame difference image F (t), thereby obtaining a pixel value “1” or A duplication confirmation image C (t), which is a binary image composed of a collection of pixels having “0”, is created.

たとえば、図19に示す例の場合、上段左の背景差分画像D(t)上の画素a(xa,ya)と中段左のフレーム間差分画像F(t)上の画素a(xa,ya)との論理積演算の結果として、下段左の重複確認画像C(t)上の画素a(xa,ya)が得られることになる。この場合、演算対象となる2組の画素の画素値はいずれも「1」であるので(ハッチング領域内)、重複確認画像C(t)上の画素a(xa,ya)の画素値はその論理積「1」になる。   For example, in the example shown in FIG. 19, the pixel a (xa, ya) on the upper left background difference image D (t) and the pixel a (xa, ya) on the middle left frame difference image F (t) As a result of the logical product operation, the pixel a (xa, ya) on the left overlapping confirmation image C (t) is obtained. In this case, since the pixel values of the two sets of pixels to be calculated are both “1” (in the hatching area), the pixel value of the pixel a (xa, ya) on the overlap confirmation image C (t) is The logical product is “1”.

これに対して、画素b(xb,yb),c(xc,yc)については、背景差分画像D(t)上の画素は画素値「1」(ハッチング領域内)であるが、フレーム間差分画像F(t)上の画素は画素値「0」(白地領域内)であるため、重複確認画像C(t)上の画素b(xb,yb),c(xc,yc)の画素値はその論理積「0」になる。   On the other hand, for the pixels b (xb, yb) and c (xc, yc), the pixels on the background difference image D (t) have the pixel value “1” (in the hatching area), but the interframe difference Since the pixels on the image F (t) have the pixel value “0” (in the white background region), the pixel values of the pixels b (xb, yb) and c (xc, yc) on the overlap confirmation image C (t) are The logical product is “0”.

図19の下段左の重複確認画像C(t)では、画素値「1」が与えられた画素a(xa,ya)を黒画素として示し、画素値「0」が与えられた画素b(xb,yb),c(xc,yc)を白画素として示した。また、背景差分画像D(t)上の背景差分領域d1(t),d2(t)に対応する対応領域を破線で示した。図には、3つの画素a(xa,ya),b(xb,yb),c(xc,yc)しか示されていないが、実際には、画像構成領域内の全画素について、画素値「0」または「1」のいずれかが与えられる。   In the overlap confirmation image C (t) on the lower left of FIG. 19, the pixel a (xa, ya) to which the pixel value “1” is given is shown as a black pixel, and the pixel b (xb) to which the pixel value “0” is given. , Yb), c (xc, yc) are shown as white pixels. Also, the corresponding areas corresponding to the background difference areas d1 (t) and d2 (t) on the background difference image D (t) are indicated by broken lines. In the figure, only three pixels a (xa, ya), b (xb, yb), and c (xc, yc) are shown. However, in reality, the pixel value “ Either “0” or “1” is given.

個体認識部160は、この重複確認画像C(t)を利用することにより、各背景差分領域d1(t),d2(t)を占める個体が、動作個体であるか静止個体であるかを認識することができる。すなわち、重複確認画像C(t)上に、各背景差分領域d1(t),d2(t)の対応領域を定義し(図に破線で示す領域)、この対応領域内に、画素値「1」をもつ画素(黒画素)のみが存在している場合、および画素値「1」をもつ画素(黒画素)と画素値「0」をもつ画素(白画素)とが混在している場合は、当該背景差分領域を占める個体を動作個体と認識し、画素値「0」をもつ画素(白画素)のみが存在している場合は、当該背景差分領域を占める個体を静止個体と認識すればよい。   The individual recognition unit 160 recognizes whether the individual occupying each of the background difference areas d1 (t) and d2 (t) is an operating individual or a stationary individual by using the duplication confirmation image C (t). can do. That is, a corresponding area of each background difference area d1 (t), d2 (t) is defined on the overlap confirmation image C (t) (area indicated by a broken line in the drawing), and the pixel value “1” is included in this corresponding area. When there is only a pixel having a pixel value (black pixel), and a pixel having a pixel value “1” (black pixel) and a pixel having a pixel value “0” (white pixel) are mixed If an individual occupying the background difference area is recognized as an operating individual and only a pixel (white pixel) having a pixel value “0” exists, the individual occupying the background difference area is recognized as a stationary individual. Good.

図示の例の場合、重複確認画像C(t)上に定義された背景差分領域d1(t)の対応領域(図に破線で示す領域)には、黒画素と白画素とが混在しているので、背景差分領域d1(t)を占める個体は動作個体と認識されることになる。一方、重複確認画像C(t)上に定義された背景差分領域d2(t)の対応領域(図に破線で示す領域)には、白画素のみが存在しているので、背景差分領域d2(t)を占める個体は静止個体と認識されることになる。   In the case of the illustrated example, black pixels and white pixels are mixed in a corresponding region (region indicated by a broken line in the drawing) of the background difference region d1 (t) defined on the overlap confirmation image C (t). Therefore, an individual occupying the background difference area d1 (t) is recognized as an operating individual. On the other hand, since only a white pixel exists in the corresponding area (area indicated by a broken line in the drawing) of the background difference area d2 (t) defined on the overlap confirmation image C (t), the background difference area d2 ( Individuals occupying t) will be recognized as stationary individuals.

図11の右に示す各重複確認画像C(t1)〜C(t4)における人型の輪郭をもった個々の領域は、図5の右に示す各背景差分画像D(t1)〜D(t4)に含まれている背景差分領域d1(t1),d2(t1),... に対応する対応領域であり、図19の下段左に示す重複確認画像C(t)に破線で示された領域に相当するものである。この図11の右に示す各重複確認画像C(t1)〜C(t4)において、人型の輪郭内に黒い部分(重複部分)が一部でも含まれていた場合(すなわち、人型の輪郭内が黒い部分のみの場合、および人型の輪郭内に黒い部分と白い部分とが混在している場合)は、当該人型に対応する個体は動作個体と認識され、人型の輪郭内が白い部分(非重複部分)のみの場合は、当該人型に対応する個体は静止個体と認識される点は、既に説明したとおりである。   Individual regions having a human-shaped outline in each of the overlap confirmation images C (t1) to C (t4) shown on the right in FIG. 11 are the background difference images D (t1) to D (t4) shown on the right in FIG. ) Included in the background difference region d1 (t1), d2 (t1),..., And is indicated by a broken line in the overlap confirmation image C (t) shown on the lower left of FIG. It corresponds to an area. In each of the duplication confirmation images C (t1) to C (t4) shown on the right side of FIG. 11, when a black part (overlapping part) is partially included in the outline of the humanoid (that is, the outline of the humanoid) When the inside is only a black part, and when a black part and a white part are mixed in the outline of a human figure), the individual corresponding to the human figure is recognized as an action individual, and the outline of the human figure is As described above, in the case of only the white part (non-overlapping part), the individual corresponding to the human type is recognized as a stationary individual.

しかしながら、§3−6で述べたように、実際には、髪や服が風になびいたために、フレーム間差分画像F(t)にフレーム間差分領域が生じることになり、その結果、重複確認画像C(t)に微小な重複部分領域(黒い部分)が生じるケースもある。このようなケースを想定すると、図19の下段左の重複確認画像C(t)において、背景差分領域d1(t)の対応領域(図に破線で示されている領域)内に黒画素(画素値「1」をもった画素)が存在していたとしても、黒画素の数が微小である場合には、これを有意な重複部分として取り扱うのは好ましくない。別言すれば、図示の例において、重複確認画像C(t)上の背景差分領域d1(t)の対応領域内に、黒画素が存在したとしても、その数が所定の基準に満たない場合には、背景差分領域d1(t)を示す個体は、動作個体ではなく、静止個体とするべきである。   However, as described in §3-6, since the hair and clothes fluttered in the wind, an inter-frame difference area is generated in the inter-frame difference image F (t). There may be a case where a minute overlapping partial region (black portion) is generated in the image C (t). Assuming such a case, in the overlap confirmation image C (t) on the lower left of FIG. 19, a black pixel (pixel) in the corresponding region (region indicated by a broken line in the drawing) of the background difference region d1 (t). Even if there is a pixel having the value “1”, if the number of black pixels is very small, it is not preferable to treat this as a significant overlapping portion. In other words, in the example shown in the figure, even when black pixels exist in the corresponding region of the background difference region d1 (t) on the overlap confirmation image C (t), the number does not satisfy a predetermined criterion. In this case, the individual indicating the background difference area d1 (t) should not be a moving individual but a stationary individual.

このような点を考慮すると、実用上は、個体認識部160は、背景差分画像D(t)に含まれている特定の背景差分領域d1(t)について、重複確認画像C(t)上の対応領域を参照し、当該対応領域内の画素のうち、画素値「1」をもった画素(黒画素)の総数が所定の基準に満たない場合には、当該特定の背景差分領域d1(t)を占める個体を静止個体と認識し、当該対応領域内の画素のうち、画素値「1」をもった画素(黒画素)の総数が所定の基準以上である場合には、当該特定の背景差分領域d1(t)を占める個体を動作個体と認識する処理を行うのが好ましい。   In consideration of such points, in practice, the individual recognition unit 160 performs a specific background difference area d1 (t) included in the background difference image D (t) on the overlap confirmation image C (t). When the total number of pixels (black pixels) having the pixel value “1” among the pixels in the corresponding area is not equal to a predetermined standard with reference to the corresponding area, the specific background difference area d1 (t ) Is recognized as a stationary individual, and when the total number of pixels (black pixels) having a pixel value “1” among the pixels in the corresponding region is equal to or greater than a predetermined reference, the specific background It is preferable to perform processing for recognizing an individual occupying the difference area d1 (t) as an operating individual.

<<< §5. コンピュータによる実用的な処理手順 >>>
図1に示す個体の検出装置100では、背景差分画像作成部130によって背景差分画像D(t)が作成され、フレーム間差分画像作成部140によってフレーム間差分画像F(t)が作成された後、重複有無判定部150において重複部分の有無を判定する処理(重複確認画像C(t)を作成する処理)が実行され、続いて、個体認識部160において、上記判定結果を踏まえて、静止個体および動作個体を認識する処理が実行され、更に、検出個体表示部170によって、静止個体を示す静止個体指標sおよび動作個体を示す動作個体指標mをディスプレイ画面上に表示する処理が実行される。ここでは、このような一連の処理を、コンピュータプログラムで実行する場合に適した実用的な処理手順を説明する。
<<< §5. Practical processing procedure by computer >>>
In the individual detection apparatus 100 shown in FIG. 1, after the background difference image creation unit 130 creates the background difference image D (t) and the interframe difference image creation unit 140 creates the interframe difference image F (t). Then, a process for determining the presence or absence of an overlapping part (a process for creating an overlapping confirmation image C (t)) is executed in the duplication presence / absence determination unit 150, and then, in the individual recognition unit 160, based on the determination result, a stationary individual Further, a process for recognizing a moving individual is executed, and further, a process for displaying a stationary individual index s indicating a stationary individual and a moving individual index m indicating a moving individual on the display screen is executed by the detected individual display unit 170. Here, a practical processing procedure suitable for executing such a series of processing by a computer program will be described.

<5−1.静止個体指標sの作成手順>
図20は、図1の装置の重複有無判定部150、静止個体認識部161、検出個体表示部170の連携作業により静止個体指標sを作成する手順を示す流れ図である。ここでは、背景差分画像作成部130によって、図5に示すような背景差分画像D(t1)〜D(t4)が作成され、フレーム間差分画像作成部140によって、図6に示すようなフレーム間差分画像F(t1)〜F(t4)が作成されるものとして、これら両差分画像に基づいて、重複有無判定部150、静止個体認識部161、検出個体表示部170によって実行される手順を説明する。
<5-1. Procedure for creating stationary individual index s>
FIG. 20 is a flowchart showing a procedure for creating the stationary individual index s by the cooperative operation of the duplication presence / absence determination unit 150, stationary individual recognition unit 161, and detected individual display unit 170 of the apparatus of FIG. Here, the background difference image creation unit 130 creates background difference images D (t1) to D (t4) as shown in FIG. 5, and the interframe difference image creation unit 140 creates an interframe difference as shown in FIG. Assuming that the difference images F (t1) to F (t4) are created, the procedure executed by the duplication presence / absence determination unit 150, the stationary individual recognition unit 161, and the detected individual display unit 170 based on these two difference images will be described. To do.

まず、ステップS11において、静止個体指標番号kが初期値0に設定される。この静止個体指標番号kは、認識された個々の静止個体に付される連続番号である。実際には、最初に認識された静止個体については、ステップS18においてk=1になるため、静止個体指標番号k=1が付与される。   First, in step S11, the stationary individual index number k is set to an initial value 0. The stationary individual index number k is a serial number assigned to each recognized stationary individual. Actually, the stationary individual first recognized is k = 1 in step S18, so the stationary individual index number k = 1 is assigned.

続くステップS12は、ステップS20までの手順を、i=1〜Imax まで繰り返し実行するループ処理である。ここで、iは、背景差分領域番号を示し、初期値は1、最大値はImax である。したがって、ステップS12からステップS20までのループ処理は、背景差分領域についてのループ処理ということになる。たとえば、図19に示す例の場合、背景差分画像D(t)には、2組の背景差分領域d1(t),d2(t)が含まれているため、Imax =2である。したがって、背景差分領域d1(t)に着目した処理(i=1とする処理)と、背景差分領域d2(t)に着目した処理(i=2とする処理)と、が実行される。   The subsequent step S12 is a loop process in which the procedure up to step S20 is repeatedly executed from i = 1 to Imax. Here, i indicates the background difference area number, the initial value is 1, and the maximum value is Imax. Therefore, the loop process from step S12 to step S20 is a loop process for the background difference area. For example, in the case of the example shown in FIG. 19, since the background difference image D (t) includes two sets of background difference areas d1 (t) and d2 (t), Imax = 2. Therefore, a process that focuses on the background difference area d1 (t) (a process that sets i = 1) and a process that focuses on the background difference area d2 (t) (a process that sets i = 2) are executed.

次のステップS13は、ステップS17までの手順を、j=1〜Jmax まで繰り返し実行するループ処理である。ここで、jは、フレーム間差分領域番号を示し、初期値は1、最大値はJmax である。したがって、ステップS13からステップS17までのループ処理は、フレーム間差分領域についてのループ処理ということになる。たとえば、図19に示す例の場合、フレーム間差分画像F(t)には、3組のフレーム間差分領域f1(t),f2(t),f3(t)が含まれているため、Jmax =3である。したがって、フレーム間差分領域f1(t)に着目した処理(j=1とする処理)と、フレーム間差分領域f2(t)に着目した処理(j=2とする処理)と、フレーム間差分領域f3(t)に着目した処理(j=3とする処理)と、が実行される。   The next step S13 is a loop process in which the procedure up to step S17 is repeatedly executed from j = 1 to Jmax. Here, j indicates the inter-frame difference area number, the initial value is 1, and the maximum value is Jmax. Therefore, the loop process from step S13 to step S17 is a loop process for the inter-frame difference area. For example, in the example shown in FIG. 19, the inter-frame difference image F (t) includes three sets of inter-frame difference areas f1 (t), f2 (t), and f3 (t). = 3. Therefore, a process that focuses on the inter-frame difference area f1 (t) (a process that sets j = 1), a process that focuses on the inter-frame difference area f2 (t) (a process that sets j = 2), and the inter-frame difference area A process focusing on f3 (t) (a process of setting j = 3) is executed.

そして、ステップS14では、第i番目の背景差分領域di(t)内の各画素について、第j番目のフレーム間差分領域fj(t)内の同位置の画素とのANDをとった論理積画像IMG(AND)を作成する処理が実行される。たとえば、最初に実行されるi=1,j=1の場合の処理では、第1番目の背景差分領域d1(t)内の各画素について、第1番目のフレーム間差分領域f1(t)内の同位置の画素とのANDをとった論理積画像IMG(AND)を作成する処理が実行される。これは、図19に示す例の場合、領域d1(t)と領域f1(t)との論理積画像を求める処理ということになり、領域d1(t),f1(t)の重複部分に位置する画素を黒画素(画素値「1」の画素)、それ以外の画素を白画素(画素値「0」の画素)とする論理積画像IMG(AND)が得られる。   In step S14, the AND image of each pixel in the i-th background difference area di (t) and the pixel in the same position in the j-th inter-frame difference area fj (t) is obtained. Processing for creating IMG (AND) is executed. For example, in the first process executed when i = 1 and j = 1, for each pixel in the first background difference area d1 (t), in the first inter-frame difference area f1 (t) A process of creating an AND image IMG (AND) obtained by ANDing the pixels at the same position of is performed. In the case of the example shown in FIG. 19, this is a process for obtaining a logical product image of the area d1 (t) and the area f1 (t), and is located in an overlapping portion of the areas d1 (t) and f1 (t). An AND image IMG (AND) is obtained in which the pixel to be processed is a black pixel (pixel value “1”) and the other pixels are white pixels (pixel value “0”).

続くステップS15では、ステップS14で得られた論理積画像IMG(AND)内の全画素について、ORをとった総合論理和VAL(OR)が求められる。すなわち、ステップS14で得られた論理積画像IMG(AND)は、画素値「0」(白画素の場合)もしくは画素値「1」(黒画素の場合)のいずれかをもった画素の集合体からなる二値画像であり、当該二値画像を構成する全画素の画素値についての論理和として、総合論理和VAL(OR)が計算される。この総合論理和VAL(OR)は、「0」または「1」のいずれかをとる論理値になる。   In the subsequent step S15, a total logical sum VAL (OR) obtained by OR is obtained for all the pixels in the logical product image IMG (AND) obtained in step S14. That is, the logical product image IMG (AND) obtained in step S14 is an aggregate of pixels having either a pixel value “0” (for white pixels) or a pixel value “1” (for black pixels). The total logical sum VAL (OR) is calculated as the logical sum of the pixel values of all the pixels constituting the binary image. This total logical sum VAL (OR) is a logical value taking either “0” or “1”.

別言すれば、総合論理和VAL(OR)の値は、論理積画像IMG(AND)内の全画素が画素値「0」をもつ画素(白画素)であった場合にのみ「0」になり、いずれか1つでも画素値「1」をもつ画素(黒画素)が含まれていた場合は「1」になる。ここで、黒画素は、領域d1(t),f1(t)の重複部分を示す画素であるから、結局、総合論理和VAL(OR)=0であれば、領域d1(t),f1(t)間に重複部分が全くないことを示し、総合論理和VAL(OR)=1であれば、領域d1(t),f1(t)間に重複部分が存在することを示している。   In other words, the value of the total logical sum VAL (OR) is set to “0” only when all the pixels in the logical product image IMG (AND) are pixels (white pixels) having the pixel value “0”. Thus, when any one of the pixels (black pixels) having the pixel value “1” is included, “1” is obtained. Here, since the black pixel is a pixel indicating an overlapping portion of the regions d1 (t) and f1 (t), if the total logical sum VAL (OR) = 0, the regions d1 (t) and f1 ( t) indicates that there is no overlapping portion. If the total logical sum VAL (OR) = 1, it indicates that there is an overlapping portion between the regions d1 (t) and f1 (t).

なお、実用上は、§3−6で述べたように、静止している人が、髪や服が風になびいたために動作個体と認識されてしまうことを避けるため、VAL(OR)としては、数学的に完全な論理和を示す値ではなく、黒画素の数が所定の基準に満たない場合には、VAL(OR)=0とし、黒画素の数が所定の基準以上あった場合には、VAL(OR)=1とするような関数を定義するのが好ましい。   In practice, as described in §3-6, VAL (OR) is used as a VAL (OR) in order to avoid that a stationary person is recognized as an operating individual because of hair or clothes flying in the wind. If the number of black pixels is not a mathematically complete logical sum and the number of black pixels is less than the predetermined reference, VAL (OR) = 0 and the number of black pixels is equal to or greater than the predetermined reference. Preferably defines a function such that VAL (OR) = 1.

続く、ステップS16では、総合論理和VAL(OR)に基く重複部分の有無の判定が行われる。まず、総合論理和VAL(OR)=1の場合は、領域d1(t),f1(t)間に「重複部分有り」との判定がなされ、jのループを抜けて、ステップS20への分岐が行われる。これは、「重複部分有り」の場合は、背景差分領域d1(t)を占める個体は動作個体と認識されるため、静止個体指標sを作成する必要がないためである。このような認識がなされた場合、i=1として行われた背景差分領域d1(t)についての処理は終了する。すなわち、i=1に関しては、j=2,3についての処理を行うまでもなく(領域d1(t),f2(t)についての重複部分の有無や、領域d1(t),f3(t)についての重複部分の有無を調べる必要なしに)、背景差分領域d1(t)を占める個体は動作個体と認識することができる。したがって、ステップS20において、i=2への更新が行われ、ステップS12へ戻り、i=2として、次の背景差分領域d2(t)についての処理が同様に行われる。   In subsequent step S16, it is determined whether or not there is an overlapping portion based on the total logical sum VAL (OR). First, when the total logical sum VAL (OR) = 1, it is determined that “there is an overlapping portion” between the areas d1 (t) and f1 (t), and the process exits the loop of j and branches to step S20. Is done. This is because in the case of “there is an overlapping portion”, the individual occupying the background difference area d1 (t) is recognized as a moving individual, and thus it is not necessary to create the stationary individual index s. When such a recognition is made, the process for the background difference area d1 (t) performed with i = 1 ends. That is, for i = 1, it is not necessary to perform processing for j = 2, 3 (presence / absence of overlapping portions for regions d1 (t) and f2 (t), and regions d1 (t) and f3 (t)). The individual that occupies the background difference area d1 (t) can be recognized as an operating individual without having to check for the presence or absence of an overlapping portion. Therefore, in step S20, the update to i = 2 is performed, the process returns to step S12, and the process for the next background difference region d2 (t) is similarly performed with i = 2.

一方、ステップS16で、総合論理和VAL(OR)=0と判定された場合は、領域d1(t),f1(t)間には「重複部分は無し」との判定がなされたことになる。この場合は、ステップS17へと分岐し、j=2への更新が行われ、ステップS13へと戻り、i=1,j=2として、領域d1(t),f2(t)についての重複部分の有無を調べる処理(ステップS14,S15)が実行される。ここでも、総合論理和VAL(OR)=0と判定された場合は、再びステップS17へと分岐し、j=3への更新が行われ、ステップS13へと戻り、i=1,j=3として、領域d1(t),f3(t)についての重複部分の有無を調べる処理(ステップS14,S15)が実行される。   On the other hand, if it is determined in step S16 that the total logical sum VAL (OR) = 0, it is determined that “there is no overlapping portion” between the regions d1 (t) and f1 (t). . In this case, the process branches to step S17, the update to j = 2 is performed, the process returns to step S13, i = 1, j = 2, and the overlapping portions for the regions d1 (t) and f2 (t) Processing for checking the presence / absence (steps S14 and S15) is executed. Here again, if it is determined that the total logical sum VAL (OR) = 0, the process branches again to step S17, the update to j = 3 is performed, the process returns to step S13, and i = 1, j = 3. As a result, the process (steps S14 and S15) for checking the presence / absence of overlapping portions in the areas d1 (t) and f3 (t) is executed.

こうして、i=1、j=1〜3の組み合わせのすべてについて、総合論理和VAL(OR)=0と判定された場合は、背景差分領域d1(t)は、第1〜第3のフレーム間差分領域f1(t),f2(t),f3(t)のいずれに対しても重複部分をもたないことになるので、背景差分領域d1(t)を占める個体は静止個体と認識できる。そこで、ステップS17からステップS18へと進み、静止個体指標番号k=1に更新し、更に、ステップS19へと進み、第k番目の静止個体指標sk(t)を、第i番目の背景差分領域di(t)に基づいて作成する処理が行われる。   Thus, if it is determined that the total logical sum VAL (OR) = 0 for all combinations of i = 1 and j = 1 to 3, the background difference area d1 (t) is between the first to third frames. Since there is no overlapping part for any of the difference areas f1 (t), f2 (t), and f3 (t), an individual occupying the background difference area d1 (t) can be recognized as a stationary individual. Therefore, the process proceeds from step S17 to step S18, and the stationary individual index number k = 1 is updated. Further, the process proceeds to step S19, where the kth stationary individual index sk (t) is converted into the i-th background difference region. A process of creating based on di (t) is performed.

図19に示す例の場合、i=1として実行される背景差分領域d1(t)についての手順では、j=1として実行されるフレーム間差分領域f1(t)との重複確認処理において重複部分有りと判定されるため、ステップS16からステップS20へと分岐することになるが、続いて、i=2として実行される背景差分領域d2(t)についての手順では、j=1〜3として実行されるフレーム間差分領域f1(t),f2(t),f3(t)との重複確認処理において、すべて重複部分無しと判定されるため、ステップS19が実行されることになり、第1番目の静止個体指標s1(t)が、第2番目の背景差分領域d2(t)に基づいて作成される。たとえば、図2に示す例の場合は、微細矩形ドットによるハッチング領域からなる静止個体指標sが作成され、図12に示す例の場合は、破線の矩形枠からなる静止個体指標sが作成される。   In the case of the example shown in FIG. 19, in the procedure for the background difference area d1 (t) executed with i = 1, the overlapping part in the overlap confirmation process with the inter-frame difference area f1 (t) executed with j = 1. Since it is determined to be present, the process branches from step S16 to step S20. Subsequently, in the procedure for the background difference area d2 (t) executed as i = 2, j = 1 to 3 is executed. In the overlap confirmation process with the inter-frame difference areas f1 (t), f2 (t), and f3 (t), it is determined that there is no overlapping portion, so step S19 is executed. The stationary individual index s1 (t) is generated based on the second background difference area d2 (t). For example, in the case of the example shown in FIG. 2, a stationary individual index s composed of a hatched area with fine rectangular dots is created, and in the example shown in FIG. 12, a stationary individual index s composed of a dashed rectangular frame is created. .

なお、ステップS14における論理積画像IMG(AND)の作成処理は、第i番目の背景差分領域di(t)を含む第1の二値画像と、第j番目のフレーム間差分領域fj(t)を含む第2の二値画像と、を互いに同一座標系を用いた同一サイズの画像として作成し、第1の二値画像と第2の二値画像との間で画像の論理積演算を行うことにより実行することができる。   Note that the process of creating the logical product image IMG (AND) in step S14 includes the first binary image including the i-th background difference area di (t) and the j-th inter-frame difference area fj (t). Are generated as images of the same size using the same coordinate system, and an AND operation of the images is performed between the first binary image and the second binary image. Can be executed.

ここで、第1の二値画像および第2の二値画像は、図19に示すようなラベリング情報Lを利用して作成すればよい。§4で述べたとおり、図19に示す背景差分画像D(t)上における各背景差分領域d1(t),d2(t)のコンピュータによる認識は、背景差分領域のラベリング情報L(D(t))に基づいて行われ、フレーム間差分画像F(t)上における各フレーム間差分領域f1(t),f2(t),f3(t)のコンピュータによる認識は、フレーム間差分領域のラベリング情報L(F(t))に基づいて行われる。   Here, the first binary image and the second binary image may be created using labeling information L as shown in FIG. As described in §4, the computer recognizes the background difference areas d1 (t) and d2 (t) on the background difference image D (t) shown in FIG. )), And the computer recognizes the inter-frame difference areas f1 (t), f2 (t), and f3 (t) on the inter-frame difference image F (t). This is performed based on L (F (t)).

したがって、図20のステップS14において、i=1,j=1として、2組の領域d1(t),f1(t)についての論理積画像IMG(AND)を作成するためのコンピュータ上での実際の処理は、これらラベリング情報を用いた処理によって行うことができる。具体的には、所定サイズの空画像(画素値「0」をもった画素の集合体)を用意し、図19に示すラベリング情報L(D(t))内のd1(t)についての画素特定情報として列挙されている座標に位置する画素のみの画素値を「1」に変更すれば、上述した第1の二値画像を作成することができる。同様に、同じサイズの空画像をもう1枚用意し、ラベリング情報L(F(t))内のf1(t)についての画素特定情報として列挙されている座標に位置する画素のみの画素値を「1」に変更すれば、上述した第2の二値画像を作成することができる。そこで、これら両二値画像について論理積演算を行えば、論理積画像IMG(AND)が得られる。   Therefore, in step S14 of FIG. 20, i = 1 and j = 1, and the actual on the computer for creating the logical product image IMG (AND) for the two sets of regions d1 (t) and f1 (t). This processing can be performed by processing using the labeling information. Specifically, a sky image of a predetermined size (a set of pixels having a pixel value “0”) is prepared, and pixels for d1 (t) in the labeling information L (D (t)) shown in FIG. If the pixel value of only the pixel located at the coordinates listed as the specific information is changed to “1”, the first binary image described above can be created. Similarly, another sky image of the same size is prepared, and pixel values of only pixels located at coordinates listed as pixel specifying information for f1 (t) in labeling information L (F (t)) are obtained. If it is changed to “1”, the above-described second binary image can be created. Therefore, a logical product image IMG (AND) is obtained by performing a logical product operation on these binary images.

もっとも、具体的な演算手法としては、ラベリング情報L(D(t)),L(F(t))を直接対比する方法を採用することもできる。たとえば、図19に示すラベリング情報L(D(t))内のd1(t)についての画素特定情報として列挙されている各画素の座標値のそれぞれについて、ラベリング情報L(F(t))内のf1(t)についての画素特定情報として列挙されている各画素の座標値に一致するものがあるか否かを調べ、一致するものがある場合には、当該画素の位置に黒画素(画素値「1」の画素)を配置し、一致するものがない場合には、当該画素の位置に白画素(画素値「0」の画素)を配置する、という作業を行うことにより、論理積画像IMG(AND)を作成してもよい。   However, as a specific calculation method, a method of directly comparing the labeling information L (D (t)) and L (F (t)) may be employed. For example, for each of the coordinate values of each pixel listed as pixel specifying information for d1 (t) in the labeling information L (D (t)) shown in FIG. 19, the labeling information L (F (t)) Whether there is a match with the coordinate value of each pixel listed as pixel specifying information for f1 (t) of the pixel. If there is a match, a black pixel (pixel If the pixel having the value “1” is arranged and there is no match, a white pixel (pixel having the pixel value “0”) is arranged at the position of the pixel. IMG (AND) may be created.

続いて、図20の流れ図に示す処理の各手順を、図8に示す時刻t2における各画像D(t2),F(t2)を用いて実行する場合を例にとって具体的に説明する。   Next, each procedure of the processing shown in the flowchart of FIG. 20 will be specifically described by taking as an example the case of executing using the images D (t2) and F (t2) at time t2 shown in FIG.

図21の左側には、図20の流れ図において、i=1,j=1としたときの処理内容が示されている。すなわち、図21(a) は、第i番目(i=1)の背景差分領域d1(t2)を含む第1の二値画像を示しており、図21(b) は、第j番目(j=1)のフレーム間差分領域f1(t2)を含む第2の二値画像を示している。ここで、図21(a) に示す背景差分領域d1(t2)は、図8に示す背景差分画像D(t2)に含まれている2組の背景差分領域のうちの1つであり、実際には、ラベリング情報L(D(t2))内のd1(t2)についての画素特定情報として列挙されている各画素の集合体によって構成されている。同様に、図21(b) に示すフレーム間差分領域f1(t2)は、図8に示すフレーム間差分画像F(t2)に含まれているフレーム間差分領域であり、実際には、ラベリング情報L(F(t2))内のf1(t2)についての画素特定情報として列挙されている各画素の集合体によって構成されている。   The left side of FIG. 21 shows the processing contents when i = 1 and j = 1 in the flowchart of FIG. That is, FIG. 21 (a) shows a first binary image including the i-th (i = 1) background difference area d1 (t2), and FIG. 21 (b) shows the j-th (j = 1) shows a second binary image including the inter-frame difference area f1 (t2). Here, the background difference area d1 (t2) shown in FIG. 21 (a) is one of the two sets of background difference areas included in the background difference image D (t2) shown in FIG. Is composed of a collection of pixels listed as pixel specifying information for d1 (t2) in labeling information L (D (t2)). Similarly, the inter-frame difference area f1 (t2) shown in FIG. 21B is an inter-frame difference area included in the inter-frame difference image F (t2) shown in FIG. It is composed of a collection of pixels listed as pixel specifying information for f1 (t2) in L (F (t2)).

図21(a) に示す第1の二値画像および図21(b) に示す第2の二値画像は、図示する矩形の外枠をもった同一サイズの二値画像であり、図の黒い部分は画素値「1」をもった画素によって構成され、図の白い部分は画素値「0」をもった画素によって構成される。上述したとおり、図の黒い部分は、ラベリング情報L内の画素特定情報(構成画素の座標値を羅列したデータ)によって特定される画素の集合体である。これは、後述する図23,図25,図26についても同様である。   The first binary image shown in FIG. 21 (a) and the second binary image shown in FIG. 21 (b) are binary images of the same size having the rectangular outer frame shown in the figure, and are black in the figure. The portion is composed of pixels having a pixel value “1”, and the white portion in the figure is composed of pixels having a pixel value “0”. As described above, the black portion in the figure is an aggregate of pixels specified by the pixel specifying information (data in which the coordinate values of the constituent pixels are listed) in the labeling information L. The same applies to FIGS. 23, 25, and 26 described later.

図20の流れ図におけるステップS14では、2組の領域d1(t2),f1(t2)についての論理積として、論理積画像IMG(AND)が得られる。実際には、領域d1(t2)を含む第1の二値画像(図21(a) )と領域f1(t2)を含む第2の二値画像(図21(b) )との論理積演算によって、論理積画像IMG(AND)を求めることができる。図21(c) は、こうして得られた論理積画像IMG(AND)を示したものである。   In step S14 in the flowchart of FIG. 20, a logical product image IMG (AND) is obtained as a logical product of the two sets of regions d1 (t2) and f1 (t2). Actually, the logical product operation of the first binary image (FIG. 21 (a)) including the region d1 (t2) and the second binary image (FIG. 21 (b)) including the region f1 (t2). Thus, the logical product image IMG (AND) can be obtained. FIG. 21 (c) shows the logical product image IMG (AND) obtained in this way.

一方、図20の流れ図におけるステップS15では、この論理積画像IMG(AND)内の全画素の画素値についての総合論理和VAL(OR)が求められる。すなわち、図において矩形枠内の画像として示されている論理積画像IMG(AND)内に、黒画素(画素値「1」の画素)が1つでもあれば、VAL(OR)=1となり、黒画素が1つもなければ、VAL(OR)=0となる。   On the other hand, in step S15 in the flowchart of FIG. 20, the total logical sum VAL (OR) for the pixel values of all the pixels in the logical product image IMG (AND) is obtained. That is, if there is at least one black pixel (pixel value “1”) in the logical product image IMG (AND) shown as an image in a rectangular frame in the figure, VAL (OR) = 1. If there is no black pixel, VAL (OR) = 0.

なお、実用上は、上述したとおり、黒画素の数が所定の基準に満たない場合には、VAL(OR)=0とし、黒画素の数が所定の基準以上あった場合には、VAL(OR)=1とするのが好ましい。要するに、2組の領域d1(t2),f1(t2)についての重複部分が所定の面積に満たない場合は、重複部分無しとの判定を行うようにするのが好ましい。   In practice, as described above, when the number of black pixels is less than the predetermined reference, VAL (OR) = 0, and when the number of black pixels exceeds the predetermined reference, VAL ( OR) = 1. In short, it is preferable to determine that there is no overlapping portion when the overlapping portions of the two sets of regions d1 (t2) and f1 (t2) are less than a predetermined area.

図21(c) に示す論理積画像IMG(AND)の場合は、VAL(OR)=1となり、重複部分有りとの判定がなされることになるので、図20の流れ図において、ステップS16からステップS20へと分岐し、i=1について(背景差分領域d1(t2)について)の静止個体指標は作成されない(ステップS19は実行されない)。図21(d) は、説明の便宜上、i=1についての静止個体指標が作成されないことを示している。   In the case of the logical product image IMG (AND) shown in FIG. 21 (c), VAL (OR) = 1 and it is determined that there is an overlapping portion. Therefore, in the flowchart of FIG. The process branches to S20, and no stationary individual index is created for i = 1 (for the background difference area d1 (t2)) (step S19 is not executed). FIG. 21 (d) shows that a stationary individual index for i = 1 is not created for convenience of explanation.

一方、図21の右側には、図20の流れ図において、i=2,j=1としたときの処理内容が示されている。すなわち、図21(e) は、第i番目(i=2)の背景差分領域d2(t2)を含む第1の二値画像を示しており、図21(f) は、第j番目(j=1)のフレーム間差分領域f1(t2)を含む第2の二値画像を示している。図21(e) に示す背景差分領域d2(t2)は、図8に示す背景差分画像D(t2)に含まれている2組の背景差分領域のうちの1つであり、実際には、ラベリング情報L(D(t2))内のd2(t2)についての画素特定情報として列挙されている各画素の集合体によって構成されている。同様に、図21(f) に示すフレーム間差分領域f1(t2)は、図8に示すフレーム間差分画像F(t2)に含まれているフレーム間差分領域であり、実際には、ラベリング情報L(F(t2))内のf1(t2)についての画素特定情報として列挙されている各画素の集合体によって構成されている。   On the other hand, the right side of FIG. 21 shows the processing contents when i = 2 and j = 1 in the flowchart of FIG. That is, FIG. 21 (e) shows a first binary image including the i-th (i = 2) background difference region d2 (t2), and FIG. 21 (f) shows the j-th (j = 1) shows a second binary image including the inter-frame difference area f1 (t2). The background difference area d2 (t2) shown in FIG. 21 (e) is one of the two sets of background difference areas included in the background difference image D (t2) shown in FIG. It is comprised by the aggregate | assembly of each pixel enumerated as pixel specific information about d2 (t2) in labeling information L (D (t2)). Similarly, the inter-frame difference area f1 (t2) shown in FIG. 21 (f) is the inter-frame difference area included in the inter-frame difference image F (t2) shown in FIG. 8, and actually the labeling information It is composed of a collection of pixels listed as pixel specifying information for f1 (t2) in L (F (t2)).

図20の流れ図におけるステップS14では、2組の領域d2(t2),f1(t2)についての論理積として、論理積画像IMG(AND)が得られる。実際には、第1の二値画像(図21(e) )と第2の二値画像(図21(f) )との論理積演算によって、論理積画像IMG(AND)を求めることができる。図21(g) は、こうして得られた論理積画像IMG(AND)を示したものである。この例の場合、領域d2(t2),f1(t2)間には重複部分が全く存在しないため、図21(g) に示す論理積画像IMG(AND)は空の画像になる。   In step S14 in the flowchart of FIG. 20, a logical product image IMG (AND) is obtained as the logical product of the two sets of regions d2 (t2) and f1 (t2). Actually, the logical product image IMG (AND) can be obtained by the logical product operation of the first binary image (FIG. 21 (e)) and the second binary image (FIG. 21 (f)). . FIG. 21 (g) shows the logical product image IMG (AND) thus obtained. In this example, since there is no overlapping portion between the areas d2 (t2) and f1 (t2), the logical product image IMG (AND) shown in FIG. 21 (g) is an empty image.

よって、VAL(OR)=0となり、重複部分無しとの判定がなされることになるので、図20の流れ図において、ステップS16からステップS17,S18,S19へと進み、i=2について(背景差分領域d2(t2)について)の静止個体指標s1(t2)が作成されることになる。ここで、「s1」の「1」は、静止個体番号k=1に対応するものである。図21(h) は、こうして作成されたi=2についての静止個体指標s1(t2)を示すものである。ここでは、図2に示す例と同様に、背景差分領域d2(t2)に基づいて、微細矩形ドットによるハッチング領域からなる静止個体指標s1(t2)が作成された例が示されている。   Therefore, since VAL (OR) = 0 and it is determined that there is no overlapping portion, the process proceeds from step S16 to steps S17, S18, and S19 in the flowchart of FIG. The stationary individual index s1 (t2) for the region d2 (t2) is created. Here, “1” of “s1” corresponds to the stationary individual number k = 1. FIG. 21 (h) shows the stationary individual index s1 (t2) for i = 2 created in this way. Here, as in the example shown in FIG. 2, an example is shown in which a stationary individual index s1 (t2) composed of a hatched area with fine rectangular dots is created based on the background difference area d2 (t2).

<5−2.動作個体指標mの作成手順>
図22は、図1の装置の重複有無判定部150、動作個体認識部162、検出個体表示部170の連携作業により動作個体指標mを作成する手順を示す流れ図である。ここでも、背景差分画像作成部130によって、図5に示すような背景差分画像D(t1)〜D(t4)が作成され、フレーム間差分画像作成部140によって、図6に示すようなフレーム間差分画像F(t1)〜F(t4)が作成されるものとして、これら両差分画像に基づいて、重複有無判定部150、動作個体認識部162、検出個体表示部170によって実行される手順を説明する。
<5-2. Procedure for creating moving individual index m>
FIG. 22 is a flowchart showing a procedure for creating the motion individual index m by the cooperative work of the duplication presence / absence determination unit 150, the motion individual recognition unit 162, and the detected object display unit 170 of the apparatus of FIG. Again, the background difference image creation unit 130 creates background difference images D (t1) to D (t4) as shown in FIG. 5, and the interframe difference image creation unit 140 creates an interframe difference as shown in FIG. Assuming that the difference images F (t1) to F (t4) are created, the procedure executed by the duplication presence / absence determination unit 150, the moving individual recognition unit 162, and the detected individual display unit 170 based on both the difference images will be described. To do.

まず、ステップS21において、動作個体指標番号hが初期値0に設定される。この動作個体指標番号hは、認識された個々の動作個体に付される連続番号である。実際には、最初に認識された動作個体については、ステップS28においてh=1になるため、動作個体指標番号h=1が付与される。   First, in step S21, the motion individual index number h is set to an initial value 0. The motion individual index number h is a serial number assigned to each recognized motion individual. Actually, the motion object first recognized is h = 1 in step S28, and therefore the motion object index number h = 1 is assigned.

続くステップS22は、ステップS30までの手順を、i=1〜Imax まで繰り返し実行するループ処理である。図20の流れ図と同様に、iは、背景差分領域番号を示し、初期値は1、最大値はImax である。したがって、ステップS22からステップS30までのループ処理は、背景差分領域についてのループ処理ということになる。   The subsequent step S22 is a loop process in which the procedure up to step S30 is repeatedly executed from i = 1 to Imax. As in the flowchart of FIG. 20, i indicates the background difference area number, the initial value is 1, and the maximum value is Imax. Therefore, the loop process from step S22 to step S30 is a loop process for the background difference area.

次のステップS23は、ステップS27までの手順を、j=1〜Jmax まで繰り返し実行するループ処理である。図20の流れ図と同様に、jは、フレーム間差分領域番号を示し、初期値は1、最大値はJmax である。したがって、ステップS23からステップS27までのループ処理は、フレーム間差分領域についてのループ処理ということになる。   The next step S23 is a loop process in which the procedure up to step S27 is repeatedly executed from j = 1 to Jmax. As in the flowchart of FIG. 20, j indicates the inter-frame difference area number, the initial value is 1, and the maximum value is Jmax. Therefore, the loop process from step S23 to step S27 is a loop process for the inter-frame difference area.

ステップS24の処理は、図20の流れ図におけるステップS14の処理と全く同じであり、第i番目の背景差分領域di(t)内の各画素について、第j番目のフレーム間差分領域fj(t)内の同位置の画素とのANDをとった論理積画像IMG(AND)が作成される。具体的な処理については、既にステップS14の処理として説明したため、ここでは説明は省略する。   The process of step S24 is exactly the same as the process of step S14 in the flowchart of FIG. 20, and for each pixel in the i-th background difference area di (t), the j-th inter-frame difference area fj (t). A logical product image IMG (AND) obtained by ANDing the pixels at the same position is created. Since the specific process has already been described as the process of step S14, the description thereof is omitted here.

また、ステップS25の処理は、図20の流れ図におけるステップS15の処理と全く同じであり、ステップS24で得られた論理積画像IMG(AND)内の全画素について、ORをとった総合論理和VAL(OR)が求められる。具体的な処理については、既にステップS15の処理として説明したため、ここでは説明は省略する。   Further, the processing in step S25 is exactly the same as the processing in step S15 in the flowchart of FIG. 20, and the total logical sum VAL obtained by ORing all the pixels in the logical product image IMG (AND) obtained in step S24. (OR) is required. Since the specific processing has already been described as the processing in step S15, description thereof is omitted here.

ステップS26の処理は、図20の流れ図におけるステップS16の処理に対応するものであるが、分岐後の処理が異なっている。これは、図20の流れ図が静止個体指標sを作成する手順を示すものであるのに対して、ここで述べる図22の流れ図は、動作個体指標mを作成する手順を示すものであるためである。   The processing in step S26 corresponds to the processing in step S16 in the flowchart of FIG. 20, but the processing after branching is different. This is because the flowchart of FIG. 20 shows the procedure for creating the stationary individual index s, whereas the flowchart of FIG. 22 described here shows the procedure for creating the moving individual index m. is there.

この、ステップS26では、やはり総合論理和VAL(OR)に基く重複部分の有無の判定が行われる。まず、総合論理和VAL(OR)=1の場合は、領域d1(t),f1(t)間に「重複部分有り」との判定がなされる。この場合、背景差分領域d1(t)を占める個体は動作個体と認識できるので、jのループを抜けて、ステップS28への分岐が行われ、動作個体指標番号hを更新し、更に、ステップS29へと進み、第h番目の動作個体指標mh(t)を、第i番目の背景差分領域di(t)に基づいて作成する処理が行われる。   In step S26, it is determined whether or not there is an overlapping portion based on the total logical sum VAL (OR). First, when the total logical sum VAL (OR) = 1, it is determined that “there is an overlapping portion” between the regions d1 (t) and f1 (t). In this case, since the individual occupying the background difference area d1 (t) can be recognized as an action individual, the process exits the loop j, branches to step S28, updates the action individual index number h, and further performs step S29. , The process of creating the h-th motion individual index mh (t) based on the i-th background difference area di (t) is performed.

図19に示す例の場合、i=1として実行される背景差分領域d1(t)についての手順において、j=1として実行されるフレーム間差分領域f1(t)との重複確認処理において重複部分有りと判定されるため、ステップS26からステップS28,S29へと進み、第1番目の動作個体指標m1(t)が、第1番目の背景差分領域d1(t)に基づいて作成される。たとえば、図3に示す例の場合は、斜線網目によるハッチング領域からなる動作個体指標mが作成され、図12に示す例の場合は、実線の矩形枠からなる動作個体指標mが作成される。   In the case of the example shown in FIG. 19, in the procedure for the background difference area d1 (t) executed with i = 1, in the overlap confirmation process with the inter-frame difference area f1 (t) executed with j = 1. Since it is determined that there is, the process proceeds from step S26 to steps S28 and S29, and the first motion individual index m1 (t) is created based on the first background difference area d1 (t). For example, in the case of the example shown in FIG. 3, the motion individual index m composed of a hatched area with a hatched mesh is created, and in the example shown in FIG. 12, the motion individual index m composed of a solid rectangular frame is created.

こうして、ステップS29において、第1番目の動作個体指標m1(t)が作成されると、i=1として行われた背景差分領域d1(t)についての処理は終了する。そこで、ステップS30において、i=2への更新が行われ、ステップS22へ戻り、i=2として、次の背景差分領域d2(t)についての処理が同様に行われる。   Thus, when the first motion individual index m1 (t) is created in step S29, the process for the background difference area d1 (t) performed with i = 1 is completed. Therefore, in step S30, the update to i = 2 is performed, the process returns to step S22, and the process for the next background difference region d2 (t) is similarly performed with i = 2.

一方、ステップS26で、総合論理和VAL(OR)=0と判定された場合は、領域d1(t),f1(t)間には「重複部分は無し」との判定がなされたことになる。この場合は、ステップS27へと分岐し、j=2への更新が行われ、ステップS23へと戻り、i=1,j=2として、領域d1(t),f2(t)についての重複部分の有無を調べる処理(ステップS24,S25)が実行される。ここでも、総合論理和VAL(OR)=0と判定された場合は、再びステップS27へと分岐し、j=3への更新が行われ、ステップS23へと戻り、i=1,j=3として、領域d1(t),f3(t)についての重複部分の有無を調べる処理(ステップS24,S25)が実行される。   On the other hand, if it is determined in step S26 that the total logical sum VAL (OR) = 0, it is determined that “there is no overlapping portion” between the areas d1 (t) and f1 (t). . In this case, the process branches to step S27, the update to j = 2 is performed, the process returns to step S23, i = 1, j = 2, and the overlapping portions for the regions d1 (t) and f2 (t) Processing for checking the presence or absence (steps S24 and S25) is executed. Again, if it is determined that the total logical sum VAL (OR) = 0, the process branches back to step S27, the update to j = 3 is performed, the process returns to step S23, and i = 1, j = 3. As a result, processing (steps S24 and S25) for checking the presence / absence of overlapping portions for the regions d1 (t) and f3 (t) is executed.

こうして、i=1、j=1〜3の組み合わせのすべてについて、総合論理和VAL(OR)=0と判定された場合は、背景差分領域d1(t)は、第1〜第3のフレーム間差分領域f1(t),f2(t),f3(t)のいずれに対しても重複部分をもたないことになるので、背景差分領域d1(t)を占める個体は静止個体と認識できる。このため、背景差分領域d1(t)については、動作個体指標mを作成する処理は実行されないまま、i=1の処理は終了する。そこで、ステップS30において、i=2への更新が行われ、ステップS22へ戻り、i=2として、次の背景差分領域d2(t)についての処理が同様に行われる。   Thus, if it is determined that the total logical sum VAL (OR) = 0 for all combinations of i = 1 and j = 1 to 3, the background difference area d1 (t) is between the first to third frames. Since there is no overlapping part for any of the difference areas f1 (t), f2 (t), and f3 (t), an individual occupying the background difference area d1 (t) can be recognized as a stationary individual. For this reason, for the background difference area d1 (t), the process of creating the motion individual index m is not executed, and the process of i = 1 is completed. Therefore, in step S30, the update to i = 2 is performed, the process returns to step S22, and the process for the next background difference region d2 (t) is similarly performed with i = 2.

図19に示す例の場合、i=1として実行される背景差分領域d1(t)についての手順では、上述したとおり、第1番目の動作個体指標m1(t)が作成されることになるが、i=2として実行される背景差分領域d2(t)についての手順では、j=1〜3として実行されるフレーム間差分領域f1(t),f2(t),f3(t)との重複確認処理において、すべて重複部分無しと判定されるため、動作個体指標mを作成する処理は実行されないまま、i=2の処理は終了することになる。   In the case of the example shown in FIG. 19, in the procedure for the background difference area d1 (t) executed with i = 1, as described above, the first motion individual index m1 (t) is created. In the procedure for the background difference area d2 (t) executed as i = 2, overlap with the inter-frame difference areas f1 (t), f2 (t), and f3 (t) executed as j = 1 to 3 Since it is determined in the confirmation process that there is no overlapping part, the process of creating the motion individual index m is not executed, and the process of i = 2 is finished.

ここでも、図22の流れ図に示す処理の各手順を、図8に示す時刻t2における各画像D(t2),F(t2)を用いて実行する場合を例にとって具体的に説明する。   Here, each procedure of the process shown in the flowchart of FIG. 22 will be specifically described by taking as an example the case of executing each procedure D (t2) and F (t2) at time t2 shown in FIG.

図23の左側には、図22の流れ図において、i=1,j=1としたときの処理内容が示されている。すなわち、図23(a) は、第i番目(i=1)の背景差分領域d1(t2)を含む第1の二値画像を示しており、図23(b) は、第j番目(j=1)のフレーム間差分領域f1(t2)を含む第2の二値画像を示している。また、図23(c) には、図22の流れ図におけるステップS24により作成された論理積画像IMG(AND)が示されている。これら図23(a) ,(b) ,(c) の内容は、図21(a) ,(b) ,(c) の内容と同じであり、詳しい説明は省略する。   The left side of FIG. 23 shows the processing contents when i = 1 and j = 1 in the flowchart of FIG. 23A shows the first binary image including the i-th (i = 1) background difference area d1 (t2), and FIG. 23B shows the j-th (j = 1) shows a second binary image including the inter-frame difference area f1 (t2). FIG. 23 (c) shows a logical product image IMG (AND) created in step S24 in the flowchart of FIG. The contents of FIGS. 23 (a), (b), and (c) are the same as those of FIGS. 21 (a), (b), and (c), and detailed description thereof is omitted.

図23(c) に示す論理積画像IMG(AND)については、VAL(OR)=1となり、重複部分有りとの判定がなされることになる。このため、図22の流れ図において、ステップS26からステップS28へと分岐し、i=1について(背景差分領域d1(t2)について)、動作個体指標m1(t2)が作成されることになる。ここで、「m1」の「1」は、動作個体番号h=1に対応するものである。図23(d) は、こうして作成されたi=1についての動作個体指標m1(t2)を示すものである。ここでは、図3に示す例と同様に、背景差分領域d1(t2)に基づいて、斜線網目によるハッチング領域からなる動作個体指標m1(t2)が作成された例が示されている。   For the logical product image IMG (AND) shown in FIG. 23 (c), VAL (OR) = 1 and it is determined that there is an overlapping portion. For this reason, in the flowchart of FIG. 22, the process branches from step S26 to step S28, and the motion individual index m1 (t2) is created for i = 1 (for the background difference area d1 (t2)). Here, “1” of “m1” corresponds to the operation individual number h = 1. FIG. 23 (d) shows the motion individual index m1 (t2) for i = 1 created in this way. Here, as in the example shown in FIG. 3, an example is shown in which an action individual index m1 (t2) including a hatched area with hatched meshes is created based on the background difference area d1 (t2).

一方、図23の右側には、図22の流れ図において、i=2,j=1としたときの処理内容が示されている。すなわち、図23(e) は、第i番目(i=2)の背景差分領域d2(t2)を含む第1の二値画像を示しており、図23(f) は、第j番目(j=1)のフレーム間差分領域f1(t2)を含む第2の二値画像を示している。また、図23(g) には、図22の流れ図におけるステップS24により作成された論理積画像IMG(AND)が示されている。これら図23(e) ,(f) ,(g) の内容は、図21(e) ,(f) ,(g) の内容と同じであり、詳しい説明は省略する。   On the other hand, the right side of FIG. 23 shows the processing contents when i = 2 and j = 1 in the flowchart of FIG. 23 (e) shows a first binary image including the i-th (i = 2) background difference area d2 (t2), and FIG. 23 (f) shows the j-th (j = 1) shows a second binary image including the inter-frame difference area f1 (t2). FIG. 23 (g) shows the logical product image IMG (AND) created in step S24 in the flowchart of FIG. The contents of FIGS. 23 (e), (f), and (g) are the same as those of FIGS. 21 (e), (f), and (g), and detailed description thereof is omitted.

図23(e) に示す論理積画像IMG(AND)は、実際には空の画像であり、VAL(OR)=0となる。したがって、最終的には、図22の流れ図において、ステップS26からステップS27,S30へと進み、i=2について(背景差分領域d2(t2)について)の動作個体指標は作成されない(ステップS29は実行されない)。図23(h) は、説明の便宜上、i=2についての動作個体指標が作成されないことを示している。   The logical product image IMG (AND) shown in FIG. 23 (e) is actually an empty image, and VAL (OR) = 0. Therefore, finally, in the flowchart of FIG. 22, the process proceeds from step S26 to steps S27 and S30, and no motion individual index is created for i = 2 (for the background difference area d2 (t2)) (step S29 is executed). Not) FIG. 23 (h) shows that the motion individual index for i = 2 is not created for convenience of explanation.

<5−3.動作個体指標mの作成手順の変形例>
これまで述べてきたように、図1に示す個体の検出装置100における検出個体表示部170は、静止個体認識部161によって静止個体と認識された個体を示す静止個体指標sと、動作個体認識部162によって動作個体と認識された個体を示す動作個体指標mと、を表示する機能を有している。そして、これまで述べてきた例では、静止個体指標sおよび動作個体指標mを、背景差分画像D(t)に含まれている背景差分画像di(t)に基づいて作成している。
<5-3. Modification of the procedure for creating the motion individual index m>
As described so far, the detected individual display unit 170 in the individual detection apparatus 100 shown in FIG. 1 includes the stationary individual index s indicating the individual recognized as the stationary individual by the stationary individual recognition unit 161, and the moving individual recognition unit. 162 has a function of displaying an action individual index m indicating an individual recognized as an action individual by 162. In the example described so far, the stationary individual index s and the moving individual index m are created based on the background differential image di (t) included in the background differential image D (t).

たとえば、図20に示す静止個体指標の作成手順によれば、図21(h) に示すような静止個体指標s1(t2)を作成することができる。この静止個体指標s1(t2)は、図21(e) に示す背景差分領域d2(t2)に基づいて作成されたものである。具体的には、図21(h) に示す静止個体指標s1(t2)は、図21(e) に示す背景差分領域d2(t2)の内部に微細矩形ドットによるハッチングを施すことにより作成することができる。また、図12の個体検出画像Q(t2)−SM内に示されている静止個体指標s1(t2)は、背景差分領域d2(t2)の外接矩形として作成することができる。図13以降に示す様々なバリエーションに係る静止個体指標s1(t2)も、やはり背景差分領域d2(t2)に基づいて作成することができる。   For example, according to the procedure for creating a stationary individual index shown in FIG. 20, a stationary individual index s1 (t2) as shown in FIG. 21 (h) can be created. This stationary individual index s1 (t2) is created based on the background difference area d2 (t2) shown in FIG. Specifically, the stationary individual index s1 (t2) shown in FIG. 21 (h) is created by applying hatching with fine rectangular dots inside the background difference area d2 (t2) shown in FIG. 21 (e). Can do. Also, the stationary individual index s1 (t2) shown in the individual detection image Q (t2) -SM in FIG. 12 can be created as a circumscribed rectangle of the background difference area d2 (t2). The stationary individual index s1 (t2) related to various variations shown in FIG. 13 and subsequent figures can also be created based on the background difference area d2 (t2).

同様に、図22に示す動作個体指標の作成手順によれば、図23(d) に示すような動作個体指標m1(t2)を作成することができる。この動作個体指標m1(t2)は、図23(a) に示す背景差分領域d1(t2)に基づいて作成されたものである。具体的には、図23(d) に示す静止個体指標m1(t2)は、図23(a) に示す背景差分領域d1(t2)の内部に斜線網目によるハッチングを施すことにより作成することができる。また、図12の個体検出画像Q(t2)−SM内に示されている動作個体指標m1(t2)は、背景差分領域d1(t2)の外接矩形として作成することができる。図13以降に示す様々なバリエーションに係る動作個体指標m1(t2)も、やはり背景差分領域d1(t2)に基づいて作成することができる。   Similarly, according to the procedure for creating the motion individual index shown in FIG. 22, the motion individual index m1 (t2) as shown in FIG. 23 (d) can be created. This motion individual index m1 (t2) is created based on the background difference area d1 (t2) shown in FIG. Specifically, the stationary individual index m1 (t2) shown in FIG. 23 (d) can be created by applying hatching with hatched mesh inside the background difference area d1 (t2) shown in FIG. 23 (a). it can. Also, the motion individual index m1 (t2) shown in the individual detection image Q (t2) -SM in FIG. 12 can be created as a circumscribed rectangle of the background difference area d1 (t2). The motion individual index m1 (t2) related to various variations shown in FIG. 13 and subsequent figures can also be created based on the background difference area d1 (t2).

このように、これまで述べてきた実施例では、検出個体表示部170は、静止個体を示す静止個体指標sを、当該静止個体が占める背景差分領域di(t)に基づいて作成しており、動作個体を示す動作個体指標mを、当該動作個体が占める背景差分領域di(t)に基づいて作成している。   Thus, in the embodiments described so far, the detected individual display unit 170 creates the stationary individual index s indicating the stationary individual based on the background difference area di (t) occupied by the stationary individual, The motion individual index m indicating the motion individual is created based on the background difference area di (t) occupied by the motion individual.

このため、図20に示す静止個体指標の作成手順では、まず、第i番目の背景差分領域di(t)に着目し(ステップS12)、当該背景差分領域di(t)について重複部分無しとの判定がなされたときには(ステップS16)、当該背景差分領域di(t)に基づいて静止個体指標sk(t)が作成される(ステップS19)。同様に、図22に示す動作個体指標の作成手順では、まず、第i番目の背景差分領域di(t)に着目し(ステップS22)、当該背景差分領域di(t)について重複部分有りとの判定がなされたときには(ステップS26)、当該背景差分領域di(t)に基づいて動作個体指標mh(t)が作成される(ステップS29)。   For this reason, in the procedure for creating a stationary individual index shown in FIG. 20, first, pay attention to the i-th background difference area di (t) (step S12), and that the background difference area di (t) has no overlapping portion. When the determination is made (step S16), the stationary individual index sk (t) is created based on the background difference area di (t) (step S19). Similarly, in the procedure for creating the motion individual index shown in FIG. 22, first, the i-th background difference area di (t) is focused (step S22), and the background difference area di (t) has an overlapping portion. When the determination is made (step S26), the motion individual index mh (t) is created based on the background difference area di (t) (step S29).

ここで述べる手順の基本的な考え方は、背景差分領域di(t)ではなく、フレーム間差分領域fj(t)に基づいて指標を作成するというものである。ただ、背景差分領域di(t)が、図5の背景差分画像D(t)に示されているような、背景画像に対する差分を示す領域であるのに対して、フレーム間差分領域fj(t)は、図6のフレーム間差分画像F(t)に示されているような、時間的変化を示す領域である。したがって、背景差分領域di(t)の代わりに、フレーム間差分領域fj(t)に基づいて指標を作成する変形例を採用する場合は、次の2つの点に留意する必要がある。   The basic concept of the procedure described here is to create an index based on the inter-frame difference area fj (t), not the background difference area di (t). However, the background difference area di (t) is an area indicating a difference with respect to the background image as shown in the background difference image D (t) of FIG. ) Is a region showing temporal changes as shown in the inter-frame difference image F (t) in FIG. Therefore, when adopting a modified example in which an index is created based on the inter-frame difference area fj (t) instead of the background difference area di (t), it is necessary to pay attention to the following two points.

この変形例についての第1の留意点は、動作個体指標mの作成に適用することはできるが、静止個体指標sの作成に適用することはできない、という点である。たとえば、図6の時刻t1に示すフレーム間差分画像F(t1)には、大人A1と子供B1にそれぞれ対応するフレーム間差分領域f1(t1),f2(t1)が含まれている。しかしながら、時刻t2に示すフレーム間差分画像F(t2)には、大人A2に対応するフレーム間差分領域f1(t2)しか含まれていない。これは、時刻t2において、子供B2は静止しているためである。また、時刻t3に示すフレーム間差分画像F(t3)には、フレーム間差分領域は全く含まれていない。これは、時刻t3において、大人A3,子供B3は双方ともに静止しているためである。   The first point to note about this modification is that it can be applied to the creation of the moving individual indicator m, but cannot be applied to the creation of the stationary individual indicator s. For example, the inter-frame difference image F (t1) shown at time t1 in FIG. 6 includes inter-frame difference areas f1 (t1) and f2 (t1) corresponding to the adult A1 and the child B1, respectively. However, the inter-frame difference image F (t2) shown at time t2 includes only the inter-frame difference area f1 (t2) corresponding to the adult A2. This is because the child B2 is stationary at time t2. Also, the inter-frame difference area F is not included in the inter-frame difference image F (t3) shown at time t3. This is because both the adult A3 and the child B3 are stationary at time t3.

このように、フレーム間差分画像F(t)に含まれているフレーム間差分領域fj(t)は、動作個体の動きによって形成される領域であり、静止個体の情報は含まれていない。このため、フレーム間差分領域fj(t)に基づいて指標を作成するという変形例は、動作個体指標mの作成に利用することはできるが、静止個体指標sの作成に利用することはできない。   Thus, the inter-frame difference area fj (t) included in the inter-frame difference image F (t) is an area formed by the motion of the moving individual, and does not include information on the stationary individual. For this reason, the modified example in which the index is created based on the inter-frame difference area fj (t) can be used to create the moving individual index m, but cannot be used to create the stationary individual index s.

そして、この変形例についての第2の留意点は、図5の背景差分画像D(t)に含まれている背景差分領域di(t)が、動作個体・静止個体を問わず、個体の外形(この例では人型)をそのまま表現した領域になっているのに対して、フレーム間差分領域fj(t)は、図6のフレーム間差分画像F(t)に含まれている各例を見ればわかるとおり、個体の外形をそのまま表現した領域になっているわけではない、という点である。したがって、フレーム間差分領域fj(t)に基づいて動作個体指標mを作成する変形例を採用する場合は、フレーム間差分領域fj(t)に対して、必要に応じた補正処理が必要になる。   The second point to note about this modification is that the background difference area di (t) included in the background difference image D (t) in FIG. (In this example, the human type) is an area that is directly expressed, whereas the inter-frame difference area fj (t) is an example included in the inter-frame difference image F (t) in FIG. As you can see, it is not an area that directly represents the outline of an individual. Therefore, when adopting a modification in which the motion individual index m is created based on the inter-frame difference area fj (t), correction processing as necessary is required for the inter-frame difference area fj (t). .

たとえば、図6の時刻t1に示すフレーム間差分画像F(t1)には、2組のフレーム間差分領域f1(t1),f2(t1)が含まれているが、これらは大人A1と子供B1の外形をそのまま示すものではなく、動きに応じた二重の人型を重ねた形状をなし、しかも手足の一部に白抜きの欠けが生じている。図6の時刻t4に示すフレーム間差分画像F(t4)に至っては、もはや元の個体の全体像は完全に失われ、一部の腕の部分に相当する2組のフレーム間差分領域f1(t4),f2(t4)が残されているだけである。   For example, the inter-frame difference image F (t1) shown at time t1 in FIG. 6 includes two sets of inter-frame difference areas f1 (t1) and f2 (t1), which are an adult A1 and a child B1. The outer shape of the limb is not shown as it is, but the shape is formed by overlapping double humanoids according to the movements, and there is a lack of white in a part of the limb. When the inter-frame difference image F (t4) shown at time t4 in FIG. 6 is reached, the whole image of the original individual is no longer completely lost, and two sets of inter-frame difference areas f1 (corresponding to some arm portions). Only t4) and f2 (t4) are left.

そこで、ここで述べる変形例の場合、検出個体表示部170は、動作個体を示す動作個体指標mを、当該動作個体が占めるフレーム間差分領域に対して、当該動作個体が占める背景差分領域に基づく補正を施すことにより作成する、という方法を採用することになる。具体的には、動作個体が占めるフレーム間差分領域と当該動作個体が占める背景差分領域とについて、領域を構成する図形の論理和演算を行うことにより、補正を実行すればよい。   Therefore, in the case of the modification described here, the detected individual display unit 170 uses the motion individual index m indicating the motion individual based on the background difference region occupied by the motion individual with respect to the inter-frame difference region occupied by the motion individual. A method of creating by performing correction is adopted. Specifically, the correction may be performed by performing a logical OR operation on the figures constituting the area for the inter-frame difference area occupied by the moving object and the background difference area occupied by the moving object.

たとえば、図6のフレーム間差分画像F(t1)に含まれているフレーム間差分領域f1(t1)を利用して、大人A1(動作個体)についての動作個体指標mを作成する場合であれば、手足の一部に白抜きの欠けが生じているフレーム間差分領域f1(t1)に対して、図5の背景差分画像D(t1)に含まれている背景差分領域d1(t1)に基づく補正を行い、手足の欠けが修復された補正後のフレーム間差分領域f1(t1)に基づいて動作個体指標mを作成することになる。実際には、フレーム間差分領域f1(t1)を構成する図形と背景差分領域d1(t1)を構成する図形とについて、図形の論理和演算を行って論理和画像を作成し、この論理和画像に基づいて動作個体指標mを作成すればよい。   For example, when the motion individual index m for the adult A1 (motion individual) is created using the inter-frame difference region f1 (t1) included in the inter-frame difference image F (t1) in FIG. , Based on the background difference area d1 (t1) included in the background difference image D (t1) of FIG. 5 with respect to the interframe difference area f1 (t1) in which a part of the limb is white. The motion individual index m is created based on the corrected inter-frame difference region f1 (t1) in which correction of the missing limbs is performed. Actually, a logical OR operation is performed on the graphic forming the inter-frame difference area f1 (t1) and the graphic forming the background differential area d1 (t1) to create a logical OR image, and this logical OR image The motion individual index m may be created based on the above.

以下、図24を参照しながら、この変形例に係る動作個体指標mの作成手順を説明する。この図24は、図1の装置の重複有無判定部150、動作個体認識部162、検出個体表示部170の連携作業により動作個体指標mを作成する手順を示す流れ図である。ここでも、背景差分画像作成部130によって、図5に示すような背景差分画像D(t1)〜D(t4)が作成され、フレーム間差分画像作成部140によって、図6に示すようなフレーム間差分画像F(t1)〜F(t4)が作成されるものとして、これら両差分画像に基づいて、重複有無判定部150、動作個体認識部162、検出個体表示部170によって実行される手順を説明する。   Hereinafter, with reference to FIG. 24, a procedure for creating the motion individual index m according to this modification will be described. FIG. 24 is a flowchart showing a procedure for creating the motion individual index m by the cooperative work of the duplication presence / absence determination unit 150, the motion object recognition unit 162, and the detected object display unit 170 of the apparatus of FIG. Again, the background difference image creation unit 130 creates background difference images D (t1) to D (t4) as shown in FIG. 5, and the interframe difference image creation unit 140 creates an interframe difference as shown in FIG. Assuming that the difference images F (t1) to F (t4) are created, the procedure executed by the duplication presence / absence determination unit 150, the moving individual recognition unit 162, and the detected individual display unit 170 based on both the difference images will be described. To do.

まず、ステップS31において、動作個体指標番号hが初期値0に設定される。この動作個体指標番号hは、前述したとおり、認識された個々の動作個体に付される連続番号である。実際には、最初に認識された動作個体については、ステップS33においてh=1になるため、動作個体指標番号h=1が付与される。   First, in step S31, the motion individual index number h is set to an initial value 0. The motion individual index number h is a serial number assigned to each recognized motion individual as described above. Actually, the first motion object recognized is h = 1 in step S33, and therefore the motion object index number h = 1 is assigned.

続くステップS32は、ステップS42までの手順を、j=1〜Jmax まで繰り返し実行するループ処理である。図20,図22の流れ図と同様に、jは、フレーム間差分領域番号を示し、初期値は1、最大値はJmax である。したがって、ステップS32からステップS42までのループ処理は、フレーム間差分領域についてのループ処理ということになる。図20,図22に示す手順は、上述したとおり、静止個体指標sや動作個体指標mを、背景差分画像D(t)に含まれている背景差分画領域di(t)に基づいて作成するため、個々の背景差分領域di(t)に着目した処理を行うことになるが、この図24に示す手順では、フレーム間差分画像F(t)に含まれているフレーム間差分領域fj(t)に基づいて動作個体指標mを作成するため、個々のフレーム間差分領域fj(t)に着目した処理が行われる。   The subsequent step S32 is a loop process in which the procedure up to step S42 is repeatedly executed from j = 1 to Jmax. Similar to the flowcharts of FIGS. 20 and 22, j indicates the inter-frame difference area number, the initial value is 1, and the maximum value is Jmax. Therefore, the loop process from step S32 to step S42 is a loop process for the inter-frame difference area. The procedure shown in FIGS. 20 and 22 creates the stationary individual index s and the moving individual index m based on the background differential image area di (t) included in the background differential image D (t) as described above. Therefore, the processing focusing on the individual background difference areas di (t) is performed, but in the procedure shown in FIG. 24, the inter-frame difference areas fj (t) included in the inter-frame difference image F (t). ) Is generated based on the individual inter-frame difference area fj (t).

次のステップS33では、動作個体指標番号hがh=h+1に更新され、ステップS34において、第h番目の仮動作個体指標m′h(t)として、第j番目のフレーム間差分領域fj(t)を設定する処理が行われる。たとえば、ステップS32において、j=1のループ処理が開始すると、ステップS33においてh=1に設定され、ステップS34において、第1番目のフレーム間差分領域f1(t)が、第1番目の仮動作個体指標m′1(t)として設定される。ここで、「仮動作個体指標」とは、現段階では正式な動作個体指標mではない「仮」の指標を意味する。   In the next step S33, the motion individual index number h is updated to h = h + 1. In step S34, the jth inter-frame difference area fj (t) is set as the hth temporary motion individual index m′h (t). ) Is set. For example, when the loop processing of j = 1 is started in step S32, h = 1 is set in step S33. In step S34, the first inter-frame difference area f1 (t) is changed to the first provisional motion. It is set as the individual index m′1 (t). Here, the “provisional motion individual index” means a “provisional” index that is not an official motion individual index m at this stage.

具体的には、たとえば、ステップS32から開始するフレーム間差分領域のループが、図6のフレーム間差分画像F(t1)内のフレーム間差分領域f1(t1)を処理対象とするループであった場合、まず、このフレーム間差分領域f1(t1)が仮動作個体指標m′1(t1)として設定される。当該仮動作個体指標m′1(t1)は、手足の一部に欠けが生じており、正式な動作個体指標mとして利用するためには、後続する手順を経て、ステップS39において補正を行う必要がある。   Specifically, for example, the loop of the inter-frame difference area starting from step S32 is a loop that targets the inter-frame difference area f1 (t1) in the inter-frame difference image F (t1) in FIG. In this case, first, the inter-frame difference area f1 (t1) is set as the temporary motion individual index m′1 (t1). The temporary motion individual index m′1 (t1) is missing in a part of the limb, and in order to be used as the official motion individual index m, it is necessary to perform correction in step S39 through a subsequent procedure. There is.

続くステップS35は、ステップS40までの手順を、i=1〜Imax まで繰り返し実行するループ処理である。図20,図22の流れ図と同様に、iは、背景差分領域番号を示し、初期値は1、最大値はImax である。したがって、ステップS35からステップS40までのループ処理は、背景差分領域についてのループ処理ということになる。このループ処理の目的は、仮動作個体指標m′h(t)に対する補正を、重複している背景差分領域di(t)を利用して行うことにある。   The subsequent step S35 is a loop process in which the procedure up to step S40 is repeatedly executed from i = 1 to Imax. As in the flowcharts of FIGS. 20 and 22, i indicates the background difference area number, the initial value is 1, and the maximum value is Imax. Therefore, the loop process from step S35 to step S40 is a loop process for the background difference area. The purpose of this loop processing is to perform correction for the temporary motion individual index m′h (t) using the overlapping background difference area di (t).

まず、ステップS36において、第j番目のフレーム間差分領域fj(t)内の各画素について、第i番目の背景差分領域di(t)内の同位置の画素とのANDをとった論理積画像IMG(AND)が作成される。実際には、図20のステップS14や図22のステップS24と同様に、領域fj(t)を含む第1の二値画像と領域di(t)を含む第2の二値画像との論理積演算によって、論理積画像IMG(AND)を求めることができる。   First, in step S36, a logical product image obtained by ANDing each pixel in the jth inter-frame difference area fj (t) with a pixel at the same position in the i-th background difference area di (t). IMG (AND) is created. Actually, the logical product of the first binary image including the region fj (t) and the second binary image including the region di (t) is similar to step S14 in FIG. 20 and step S24 in FIG. A logical product image IMG (AND) can be obtained by calculation.

続いて、ステップS37において、ステップS36で得られた論理積画像IMG(AND)内の全画素について、ORをとった総合論理和VAL(OR)が求められる。この総合論理和VAL(OR)の値は、既に図20のステップS15や図22のステップS25のおいて説明したとおり、論理積画像IMG(AND)内の全画素が画素値「0」をもつ画素(白画素)であった場合にのみ「0」になり、いずれか1つでも画素値「1」をもつ画素(黒画素)が含まれていた場合は「1」になる。したがって、総合論理和VAL(OR)=0であれば、領域fj(t),di(t)間に重複部分が全くないことを示し、総合論理和VAL(OR)=1であれば、領域fj(t),di(t)間に重複部分が存在することを示している。   Subsequently, in step S37, for all the pixels in the logical product image IMG (AND) obtained in step S36, a total logical sum VAL (OR) obtained by OR is obtained. As already described in step S15 in FIG. 20 and step S25 in FIG. 22, the value of this total logical sum VAL (OR) has the pixel value “0” in all the pixels in the logical product image IMG (AND). It is “0” only when it is a pixel (white pixel), and it is “1” when any one of the pixels (black pixels) having the pixel value “1” is included. Therefore, if the total logical sum VAL (OR) = 0, it indicates that there is no overlap between the regions fj (t) and di (t), and if the total logical sum VAL (OR) = 1, the region It shows that there is an overlapping portion between fj (t) and di (t).

なお、実用上は、上述したとおり、黒画素の数が所定の基準に満たない場合には、VAL(OR)=0とし、黒画素の数が所定の基準以上あった場合には、VAL(OR)=1とするのが好ましい。   In practice, as described above, when the number of black pixels is less than the predetermined reference, VAL (OR) = 0, and when the number of black pixels exceeds the predetermined reference, VAL ( OR) = 1.

そこで、次のステップS38において、総合論理和VAL(OR)に基く分岐が行われる。まず、総合論理和VAL(OR)=1の場合は、領域fj(t),di(t)間に「重複部分有り」との判定がなされる。この場合、背景差分領域di(t)はフレーム間差分領域fj(t)と同一の個体についての領域と判定できるので、仮動作個体指標m′h(t)に対する補正に利用することができる。そこで、ステップS39へと進み、仮動作個体指標m′h(t)内の各画素について、第i番目の背景差分領域di(t)の同位置の画素とのORをとった論理和画像IMG(OR)を作成し、これを新たな仮動作個体指標m′h(t)とする処理が行われる。   Therefore, in the next step S38, a branch based on the total logical sum VAL (OR) is performed. First, when the total logical sum VAL (OR) = 1, it is determined that “there is an overlapping portion” between the regions fj (t) and di (t). In this case, since the background difference area di (t) can be determined as an area for the same individual as the inter-frame difference area fj (t), it can be used for correction of the provisional motion individual index m′h (t). Accordingly, the process proceeds to step S39, and the logical sum image IMG obtained by ORing each pixel in the temporary motion individual index m′h (t) with a pixel at the same position in the i-th background difference region di (t). (OR) is created, and this is used as a new temporary motion individual index m′h (t).

こうして、ステップS35〜S40のループ処理(iについてのループ処理)がi=1〜Imax まで繰り返し実行されると、フレーム間差分領域fj(t)に対して重複部分有りと判定された背景差分領域di(t)が見つかる度に、当該領域di(t)と、その時点の仮動作個体指標m′h(t)との間でORをとった論理和画像IMG(OR)が作成され、これを新たな仮動作個体指標m′h(t)とする更新処理が行われる。これにより、欠け部分を含んでいた当初の仮動作個体指標m′h(t)は徐々に修復されてゆくことになる。   Thus, when the loop processing (loop processing for i) in steps S35 to S40 is repeatedly executed from i = 1 to Imax, the background difference area determined to have an overlapping portion with respect to the interframe difference area fj (t). Each time di (t) is found, a logical sum image IMG (OR) is created by ORing the region di (t) and the temporary motion individual index m′h (t) at that time. Is updated to a new temporary motion individual index m′h (t). As a result, the initial provisional motion individual index m′h (t) including the missing portion is gradually repaired.

こうして、iについてのループ処理が完了すると、ステップS41へと進み、第h番目の動作個体指標mh(t)が、その時点での第h番目の仮動作個体指標m′h(t)、すなわち、欠け部分の修復が完了した仮指標に基づいて作成される。たとえば、図3に示す動作個体指標mを用いる場合は、仮動作個体指標m′h(t)を構成する領域の内部に対して斜線網目によるハッチングを施すことにより、動作個体指標mh(t)を作成することができ、図12に示す動作個体指標mを用いる場合は、仮動作個体指標m′h(t)を構成する領域の外接矩形を求めることにより、動作個体指標mh(t)を作成することができる。   Thus, when the loop processing for i is completed, the process proceeds to step S41, where the h-th motion individual index mh (t) is the h-th temporary motion individual index m′h (t) at that time, that is, It is created on the basis of a provisional index in which the repair of the chipped portion is completed. For example, when the motion individual index m shown in FIG. 3 is used, the motion individual index mh (t) is obtained by hatching the area constituting the temporary motion individual index m′h (t) with a hatched mesh. When the motion individual index m shown in FIG. 12 is used, the motion individual index mh (t) is obtained by obtaining a circumscribed rectangle of the area constituting the temporary motion individual index m′h (t). Can be created.

こうして、ステップS41において、第h番目の動作個体指標mh(t)が作成されると、ステップS42からステップS32へと戻り、jを更新することにより、新たなフレーム間差分領域に基づいて新たな動作個体指標mを作成するため、ステップS32〜S42のループ処理(jについてのループ処理)がj=1〜Jmax まで繰り返し実行される。   Thus, when the h-th motion individual indicator mh (t) is created in step S41, the process returns from step S42 to step S32, and a new j is obtained based on the new inter-frame difference area by updating j. In order to create the motion individual index m, the loop processing (loop processing for j) in steps S32 to S42 is repeatedly executed from j = 1 to Jmax.

ここでは、図24の流れ図に示す処理の各手順を、図7に示す時刻t1における各画像D(t1),F(t1)に基づいて実行する具体例に即して説明しておく。   Here, each procedure of the process shown in the flowchart of FIG. 24 will be described based on a specific example executed based on the images D (t1) and F (t1) at time t1 shown in FIG.

図25の上段には、図24の流れ図において、j=1,i=1としたときの処理内容が示されている。まず、図25(a) には、ステップS32において、j=1に設定したときの処理対象となる第j番目(j=1)のフレーム間差分領域f1(t1)を含む第1の二値画像が示されている(図7のF(t1)内に示すものと同じ)。ステップS34では、このフレーム間差分領域f1(t1)が、そのまま第h番目(h=1)の仮動作個体指標m′1(t1)として設定されることになる。図25(b) には、こうして設定された仮動作個体指標m′1(t1)を含む二値画像が示されている(「m′1」の「1」は、動作個体番号h=1に対応する)。図示のとおり、この仮動作個体指標m′1(t1)は、手足の一部に欠けを生じた不完全なものになっており、補正が必要である。   The upper part of FIG. 25 shows the processing contents when j = 1 and i = 1 in the flowchart of FIG. First, FIG. 25A shows the first binary including the j-th (j = 1) inter-frame difference area f1 (t1) to be processed when j = 1 is set in step S32. An image is shown (same as shown in F (t1) of FIG. 7). In step S34, the inter-frame difference area f1 (t1) is set as the h-th (h = 1) temporary motion individual index m′1 (t1) as it is. FIG. 25 (b) shows a binary image including the temporary motion individual index m′1 (t1) set in this way (“1” of “m′1” indicates the motion individual number h = 1). Corresponding to). As shown in the figure, the temporary motion individual index m′1 (t1) is incomplete with a part of the limb missing and needs to be corrected.

一方、図25(c) には、ステップS35において、i=1に設定したときの処理対象となる第i番目(i=1)の背景差分領域d1(t1)を含む第2の二値画像が示されている(図7のD(t1)内に示すものと同じ)。上述したとおり、ステップS36では、図25(a) に示すフレーム間差分領域f1(t1)を含む第1の二値画像と図25(c) に示す背景差分領域d1(t1)を含む第2の二値画像との間でANDをとった論理積画像IMG(AND)が作成される。図25(d) に示す画像は、このようにして作成された論理積画像IMG(AND)である。   On the other hand, FIG. 25 (c) shows a second binary image including the i-th (i = 1) background difference region d1 (t1) to be processed when i = 1 is set in step S35. (Same as shown in D (t1) of FIG. 7). As described above, in step S36, the first binary image including the inter-frame difference area f1 (t1) shown in FIG. 25A and the second binary image including the background difference area d1 (t1) shown in FIG. A logical product image IMG (AND) obtained by ANDing the two binary images is created. The image shown in FIG. 25 (d) is the logical product image IMG (AND) created in this way.

ステップS37において、当該論理積画像IMG(AND)内の全画素についてORをとった総合論理和VAL(OR)を求めれば、図示のIMG(AND)に対しては、VAL(OR)=1となり、重複部分有りとの判定がなされることになる。この判定結果は、図25(c) に示す背景差分領域d1(t1)を利用して、図25(b) に示す現時点での仮動作個体指標m′1(t1)に対して補正を行うことができることを意味する。そこで、ステップS38からステップS39へと移行し、補正処理(論理和画像IMG(OR)を作成して置き換える処理)が実行される。すなわち、仮動作個体指標m′1(t1)を含む二値画像と背景差分領域d1(t1)を含む二値画像との間でORをとることにより、論理和画像IMG(OR)を作成し、これを新たな仮動作個体指標m′1(t1)とする処理が実行される。   If the total logical sum VAL (OR) obtained by ORing all the pixels in the logical product image IMG (AND) is obtained in step S37, VAL (OR) = 1 is obtained for the illustrated IMG (AND). Therefore, it is determined that there is an overlapping part. This determination result is corrected for the current temporary motion individual index m′1 (t1) shown in FIG. 25B using the background difference area d1 (t1) shown in FIG. Means that you can. Therefore, the process proceeds from step S38 to step S39, and correction processing (processing for creating and replacing the logical sum image IMG (OR)) is executed. That is, an OR image IMG (OR) is created by taking an OR between the binary image including the temporary motion individual index m′1 (t1) and the binary image including the background difference region d1 (t1). Then, a process of setting this as a new temporary motion individual index m′1 (t1) is executed.

図25(e) は、こうして作成された新しい仮動作個体指標m′1(t1)を含む二値画像を示している。図25(b) に示す古い仮動作個体指標m′1(t1)に存在していた手足の欠けの部分が、図25(e) に示す新しい仮動作個体指標m′1(t1)では修復されていることがわかる。   FIG. 25 (e) shows a binary image including the new temporary motion individual index m′1 (t1) created in this way. The missing part of the limb that existed in the old temporary motion individual index m′1 (t1) shown in FIG. 25 (b) is repaired in the new temporary motion individual index m′1 (t1) shown in FIG. 25 (e). You can see that

続いて、ステップS40において、i=2への更新が行われ、再びステップS35からの処理が実行される。図25の下段には、図24の流れ図において、j=1,i=2としたときの処理内容が示されている。まず、図25(f) には、i=2に設定したときの処理対象となる第i番目(i=2)の背景差分領域d2(t1)を含む二値画像が示されている(図5のD(t1)内に示すものと同じ)。ステップS36では、図25(a) に示すフレーム間差分領域f1(t1)と図25(f) に示す背景差分領域d2(t1)との間でANDをとった論理積画像IMG(AND)が作成される。図25(g) に示す画像は、このようにして作成された論理積画像IMG(AND)である。図示のとおり、領域f1(t1),d2(t1)には重複部分が全くないため、図25(g) に示す論理積画像IMG(AND)は、実際には空の画像になる。   Subsequently, in step S40, updating to i = 2 is performed, and the processing from step S35 is executed again. The lower part of FIG. 25 shows the processing contents when j = 1 and i = 2 in the flowchart of FIG. First, FIG. 25 (f) shows a binary image including the i-th (i = 2) background difference region d2 (t1) to be processed when i = 2 is set (FIG. 25f). 5 (same as shown in D (t1)). In step S36, an AND image IMG (AND) obtained by ANDing between the inter-frame difference area f1 (t1) shown in FIG. 25A and the background difference area d2 (t1) shown in FIG. Created. The image shown in FIG. 25 (g) is the logical product image IMG (AND) created in this way. As shown in the figure, the regions f1 (t1) and d2 (t1) do not have any overlapping portions, so the logical product image IMG (AND) shown in FIG. 25 (g) is actually an empty image.

したがって、ステップS37において、当該論理積画像IMG(AND)内の全画素についてORをとった総合論理和VAL(OR)を求めれば、図示のIMG(AND)に対しては、VAL(OR)=0となり、重複部分無しとの判定がなされることになる。この判定結果は、図25(f) に示す背景差分領域d2(t1)を利用して、図25(e) に示す現時点での仮動作個体指標m′1(t1)に対して補正を行うことはできないことを意味する。そこで、ステップS38からステップS40へと移行し、ステップS39の補正処理(論理和画像IMG(OR)を作成して置き換える処理)は実行されない。   Accordingly, in step S37, if a total logical sum VAL (OR) obtained by ORing all the pixels in the logical product image IMG (AND) is obtained, VAL (OR) = It becomes 0, and it is determined that there is no overlapping portion. This determination result is corrected for the temporary motion individual index m′1 (t1) at the present time shown in FIG. 25 (e) using the background difference area d2 (t1) shown in FIG. 25 (f). It means you can't. Therefore, the process proceeds from step S38 to step S40, and the correction processing (processing for creating and replacing the logical sum image IMG (OR)) in step S39 is not executed.

こうして、ステップS35からステップS40までのループ処理が、i=1〜Imax まで完了すると、ステップS41において、図25(e) に示す現時点での仮動作個体指標m′1(t1)に基づいて、正式な動作個体指標m1(t1)を作成する処理が行われる。図25(h) は、こうして作成された正式な動作個体指標m1(t1)を示すものである。この例の場合、図25(e) に示す仮動作個体指標m′1(t1)を構成する領域の内部に対して斜線網目によるハッチングを施すことにより、図25(h) に示す正式な動作個体指標m1(t1)が作成されている。   Thus, when the loop processing from step S35 to step S40 is completed from i = 1 to Imax, in step S41, based on the current temporary motion individual index m′1 (t1) shown in FIG. A process of creating a formal motion individual index m1 (t1) is performed. FIG. 25 (h) shows the official motion individual index m1 (t1) created in this way. In the case of this example, the formal operation shown in FIG. 25 (h) is performed by applying hatching to the inside of the region constituting the temporary motion individual index m′1 (t1) shown in FIG. 25 (e). An individual index m1 (t1) is created.

以上の処理により、第1番目(h=1)の動作個体指標m1(t1)が、フレーム間差分領域f1(t1)に基づいて作成されたことになる。そこで、ステップS42において、j=2への更新が行われ、再びステップS32からの処理が実行される。   With the above processing, the first (h = 1) motion individual index m1 (t1) is created based on the inter-frame difference area f1 (t1). Therefore, in step S42, updating to j = 2 is performed, and the processing from step S32 is executed again.

図26の上段には、図24の流れ図において、j=2,i=1としたときの処理内容が示されている。まず、図25(a) には、ステップS32において、j=2に設定したときの処理対象となる第j番目(j=2)のフレーム間差分領域f2(t1)を含む第1の二値画像が示されている(図6のF(t1)内に示すものと同じ)。ステップS34では、このフレーム間差分領域f2(t1)が、そのまま第h番目(h=2)の仮動作個体指標m′2(t1)として設定されることになる。図26(b) には、こうして設定された仮動作個体指標m′2(t1)が示されている(「m′2」の「2」は、動作個体番号h=2に対応する)。図示のとおり、この仮動作個体指標m′2(t1)は、手足の一部に欠けを生じた不完全なものになっており、補正が必要である。   The upper part of FIG. 26 shows the processing contents when j = 2 and i = 1 in the flowchart of FIG. First, in FIG. 25 (a), the first binary including the j-th (j = 2) inter-frame difference region f2 (t1) to be processed when j = 2 is set in step S32. An image is shown (same as shown in F (t1) of FIG. 6). In step S34, the inter-frame difference area f2 (t1) is set as the h-th (h = 2) temporary motion individual index m′2 (t1) as it is. FIG. 26B shows the temporary motion individual index m′2 (t1) set in this way (“2” of “m′2” corresponds to the motion individual number h = 2). As shown in the figure, this temporary motion individual index m′2 (t1) is an incomplete one in which a part of the limb is missing and needs to be corrected.

一方、図26(c) には、ステップS35において、i=1に設定したときの処理対象となる第i番目(i=1)の背景差分領域d1(t1)を含む第2の二値画像が示されている(図5のD(t1)内に示すものと同じ)。上述したとおり、ステップS36では、図26(a) に示すフレーム間差分領域f2(t1)と図26(c) に示す背景差分領域d1(t1)との間でANDをとった論理積画像IMG(AND)が作成される。実際には、第1の二値画像(図26(a) )と第2の二値画像(図26(c) )との論理積演算によって、論理積画像IMG(AND)を求めることができる。図26(d) に示す画像は、このようにして作成された論理積画像IMG(AND)である。図示のとおり、領域f2(t1),d1(t1)には重複部分が全くないため、図26(d) に示す論理積画像IMG(AND)は、実際には空の画像になる。   On the other hand, FIG. 26C shows a second binary image including the i-th (i = 1) background difference area d1 (t1) to be processed when i = 1 is set in step S35. (Same as shown in D (t1) of FIG. 5). As described above, in step S36, the AND image IMG obtained by ANDing between the inter-frame difference area f2 (t1) shown in FIG. 26 (a) and the background difference area d1 (t1) shown in FIG. 26 (c). (AND) is created. Actually, the logical product image IMG (AND) can be obtained by the logical product operation of the first binary image (FIG. 26 (a)) and the second binary image (FIG. 26 (c)). . The image shown in FIG. 26 (d) is a logical product image IMG (AND) created in this way. As shown in the figure, the regions f2 (t1) and d1 (t1) have no overlapping portion, so the logical product image IMG (AND) shown in FIG. 26 (d) is actually an empty image.

したがって、ステップS37において、当該論理積画像IMG(AND)内の全画素についてORをとった総合論理和VAL(OR)を求めれば、図示のIMG(AND)に対しては、VAL(OR)=0となり、重複部分無しとの判定がなされることになる。この判定結果は、図26(c) に示す背景差分領域d1(t1)を利用して、図26(b) に示す現時点での仮動作個体指標m′2(t1)に対して補正を行うことはできないことを意味する。そこで、ステップS38からステップS40へと移行する。このとき、ステップS39の補正処理(論理和画像IMG(OR)を作成して置き換える処理)は実行されない。   Accordingly, in step S37, if a total logical sum VAL (OR) obtained by ORing all the pixels in the logical product image IMG (AND) is obtained, VAL (OR) = It becomes 0, and it is determined that there is no overlapping portion. This determination result is corrected using the background difference area d1 (t1) shown in FIG. 26 (c) with respect to the current temporary motion individual index m′2 (t1) shown in FIG. 26 (b). It means you can't. Therefore, the process proceeds from step S38 to step S40. At this time, the correction processing (processing for creating and replacing the logical sum image IMG (OR)) in step S39 is not executed.

続いて、ステップS40において、i=2への更新が行われ、再びステップS35からの処理が実行される。図26の下段には、図24の流れ図において、j=2,i=2としたときの処理内容が示されている。まず、図26(e) には、i=2に設定したときの処理対象となる第i番目(i=2)の背景差分領域d2(t1)を含む二値画像が示されている(図5のD(t1)内に示すものと同じ)。ステップS36では、図26(a) に示すフレーム間差分領域f2(t1)と図26(e) に示す背景差分領域d2(t1)との間でANDをとった論理積画像IMG(AND)が作成される。実際には、第1の二値画像(図26(a) )と第2の二値画像(図26(e) )との論理積演算によって、論理積画像IMG(AND)を求めることができる。図26(f) に示す画像は、このようにして作成された論理積画像IMG(AND)である。   Subsequently, in step S40, updating to i = 2 is performed, and the processing from step S35 is executed again. The lower part of FIG. 26 shows the processing contents when j = 2 and i = 2 in the flowchart of FIG. First, FIG. 26 (e) shows a binary image including the i-th (i = 2) background difference region d2 (t1) to be processed when i = 2 is set (FIG. 26). 5 (same as shown in D (t1)). In step S36, an AND image IMG (AND) obtained by ANDing between the inter-frame difference area f2 (t1) shown in FIG. 26A and the background difference area d2 (t1) shown in FIG. Created. Actually, the logical product image IMG (AND) can be obtained by the logical product operation of the first binary image (FIG. 26 (a)) and the second binary image (FIG. 26 (e)). . The image shown in FIG. 26 (f) is the logical product image IMG (AND) created in this way.

次のステップS37において、当該論理積画像IMG(AND)内の全画素についてORをとった総合論理和VAL(OR)を求めれば、図示のIMG(AND)に対しては、VAL(OR)=1となり、重複部分有りとの判定がなされることになる。この判定結果は、図26(e) に示す背景差分領域d2(t1)を利用して、図26(b) に示す現時点での仮動作個体指標m′2(t1)に対して補正を行うことができることを意味する。そこで、ステップS38からステップS39へと移行し、補正処理(論理和画像IMG(OR)を作成して置き換える処理)が実行される。すなわち、仮動作個体指標m′2(t1)を含む二値画像と背景差分領域d2(t1)を含む二値画像との間でORをとることにより、論理和画像IMG(OR)を作成し、これを新たな仮動作個体指標m′2(t1)とする処理が実行される。   In the next step S37, if the total logical sum VAL (OR) obtained by ORing all the pixels in the logical product image IMG (AND) is obtained, VAL (OR) = 1 and it is determined that there is an overlapping portion. The determination result is corrected for the current temporary motion individual index m′2 (t1) shown in FIG. 26B by using the background difference area d2 (t1) shown in FIG. Means that you can. Therefore, the process proceeds from step S38 to step S39, and correction processing (processing for creating and replacing the logical sum image IMG (OR)) is executed. That is, the OR image IMG (OR) is created by performing OR between the binary image including the temporary motion individual index m′2 (t1) and the binary image including the background difference region d2 (t1). Then, a process of setting this as a new temporary motion individual index m′2 (t1) is executed.

図26(g) は、こうして作成された新しい仮動作個体指標m′2(t1)を含む二値画像を示している。図26(b) に示す古い仮動作個体指標m′2(t1)に存在していた手足の欠けの部分が、図26(g) に示す新しい仮動作個体指標m′2(t1)では修復されていることがわかる。   FIG. 26 (g) shows a binary image including the new temporary motion individual index m′2 (t1) created in this way. The missing part of the limb that existed in the old temporary motion individual index m′2 (t1) shown in FIG. 26 (b) is repaired in the new temporary motion individual index m′2 (t1) shown in FIG. 26 (g). You can see that

こうして、ステップS35からステップS40までのループ処理が、i=1〜Imax まで完了すると、ステップS41において、図26(g) に示す現時点での仮動作個体指標m′2(t1)に基づいて、正式な動作個体指標m2(t1)を作成する処理が行われる。具体的には、図26(g) に示す仮動作個体指標m′2(t1)を構成する領域の内部に対して斜線網目によるハッチングを施すことにより、正式な動作個体指標m2(t1)が作成される(図示省略)。   Thus, when the loop processing from step S35 to step S40 is completed from i = 1 to Imax, in step S41, based on the current temporary motion individual index m′2 (t1) shown in FIG. A process of creating a formal motion individual index m2 (t1) is performed. Specifically, the formal motion individual index m2 (t1) is obtained by hatching the area constituting the temporary motion individual index m′2 (t1) shown in FIG. It is created (not shown).

以上の処理により、第2番目(h=2)の動作個体指標m2(t1)が、フレーム間差分領域f2(t1)に基づいて作成されたことになる。   Through the above processing, the second (h = 2) motion individual indicator m2 (t1) is created based on the inter-frame difference region f2 (t1).

なお、図25および図26に示す実例の場合、ステップS39に示す補正処理を1回行うだけで、仮動作個体指標m′h(t)に対する補正は完了する。たとえば、図25の例の場合、図25(b) に示す仮動作個体指標m′1(t1)に対して、図25(c) に示す背景差分領域d1(t1)とのORをとる補正処理を1回行うだけで、図25(e) に示す新しい仮動作個体指標m′1(t1)を得ることができ、欠けていた手足の一部は完全に修復されている。同様に、図26の例の場合、図26(b) に示す仮動作個体指標m′2(t1)に対して、図26(e) に示す背景差分領域d2(t1)とのORをとる補正処理を1回行うだけで、図26(g) に示す新しい仮動作個体指標m′2(t1)を得ることができ、欠けていた手足の一部は完全に修復されている。   In the case of the examples shown in FIGS. 25 and 26, the correction for the temporary motion individual index m′h (t) is completed by performing the correction process shown in step S39 only once. For example, in the case of the example of FIG. 25, the temporary motion individual index m′1 (t1) shown in FIG. 25 (b) is corrected to be ORed with the background difference area d1 (t1) shown in FIG. 25 (c). A new temporary motion individual index m′1 (t1) shown in FIG. 25 (e) can be obtained by performing the process only once, and a part of the missing limb is completely repaired. Similarly, in the case of the example of FIG. 26, the provisional motion individual index m′2 (t1) shown in FIG. 26B is ORed with the background difference area d2 (t1) shown in FIG. A new temporary motion individual index m′2 (t1) shown in FIG. 26 (g) can be obtained by performing the correction process only once, and a part of the missing limb is completely repaired.

したがって、これらの実施例に関しては、図24に示す流れ図において、ステップS39の補正処理が実行された時点で、iのループを抜けて、ステップS41へ分岐してしまっても問題はない。ただ、実用上は、補正に用いる背景差分領域di(t)が、必ずしも個体全体には対応していないケースもありうるので、図24に示す流れ図では、ステップS39の補正処理が実行された後も、iのループを抜けることなしにステップS40へ進むようにしてある。   Therefore, with respect to these embodiments, there is no problem even if the process exits the loop of i and branches to step S41 when the correction process of step S39 is executed in the flowchart shown in FIG. However, in practice, there may be a case where the background difference area di (t) used for correction does not necessarily correspond to the entire individual. Therefore, in the flowchart shown in FIG. 24, after the correction processing in step S39 is executed. However, the process proceeds to step S40 without exiting the i loop.

たとえば、図25(c) に示す背景差分領域d1(t1)が、何らかの事情により、上半身領域d1(t1)−1と下半身領域d1(t1)−2とに分かれてしまっていた場合(この個体の腹部近傍が背景に近似していた場合、そのような現象が生じる)、領域d1(t1)−1と領域d1(t1)−2とは、iのループにおいて、別々の領域として取り扱われる。この場合、上半身領域d1(t1)−1を用いた補正処理だけでは完全な修復を行うことができないので、引き続いて、下半身領域d1(t1)−2を用いた補正処理が必要になる。図24に示す手順によれば、iのループがi=1〜Imax のすべてについて実施されるため、上例のような場合にも、十分な修復を行うことが可能である。   For example, when the background difference area d1 (t1) shown in FIG. 25 (c) has been divided into an upper body area d1 (t1) -1 and a lower body area d1 (t1) -2 for some reason (this individual Such a phenomenon occurs when the vicinity of the abdomen is approximated to the background), the region d1 (t1) -1 and the region d1 (t1) -2 are treated as separate regions in the i loop. In this case, since the complete restoration cannot be performed only by the correction process using the upper body region d1 (t1) -1, a correction process using the lower body region d1 (t1) -2 is required. According to the procedure shown in FIG. 24, since the loop of i is performed for all of i = 1 to Imax, sufficient repair can be performed even in the above example.

また、上例は、図24の流れ図に示す手順を、図7に示す時刻t1における各画像D(t1),F(t1)に基づいて実行した例であるため、個々の個体について、それぞれ1つの動作個体指標mh(t)が作成されているが、場合によっては、同一の個体について複数通りの動作個体指標mh(t)が作成されるケースもある。   In the above example, the procedure shown in the flowchart of FIG. 24 is executed based on the images D (t1) and F (t1) at time t1 shown in FIG. Although two motion individual indices mh (t) are created, there are cases where a plurality of motion individual indices mh (t) are created for the same individual.

たとえば、図24の流れ図に示す手順を、図10に示す時刻t4における各画像D(t4),F(t4)に基づいて実行した場合、大人Aについて2通りの動作個体指標m1(t4),m2(t4)が作成される。これは、図10に示すフレーム間差分画像F(t4)には、2組のフレーム間差分領域f1(t4),f2(t4)が含まれており、しかも、これらの領域f1(t4),f2(t4)は、いずれも同一の個体(大人A)についての領域になっているためである。   For example, when the procedure shown in the flowchart of FIG. 24 is executed based on the images D (t4) and F (t4) at time t4 shown in FIG. 10, two types of motion individual indices m1 (t4), m2 (t4) is created. This is because the inter-frame difference image F (t4) shown in FIG. 10 includes two sets of inter-frame difference areas f1 (t4) and f2 (t4), and these areas f1 (t4), This is because f2 (t4) is an area for the same individual (adult A).

こうして作成された2通りの動作個体指標m1(t4),m2(t4)は、同一の個体(大人A)に基づいて作成された領域であるため、相互に重複部分を有している。もちろん、同一個体に対して複数の動作個体指標mが作成された場合、検出個体表示部170により、これらをディスプレイ画面上に重複して表示してもかまわないが、実用上は、相互に重複部分を有する複数の指標があった場合には、いずれか1つ(たとえば、面積が最も大きな指標)のみを選択して表示するのが好ましい。   The two motion individual indices m1 (t4) and m2 (t4) created in this way are regions created based on the same individual (adult A), and thus have overlapping portions. Of course, when a plurality of motion individual indices m are created for the same individual, the detected individual display unit 170 may display them on the display screen in a duplicated manner, but in practice they overlap each other. When there are a plurality of indicators having a portion, it is preferable to select and display only one (for example, the indicator having the largest area).

ところで、この§5−3で述べる変形例によって作成される動作個体指標mは、§5−2で述べた実施例によって作成された動作個体指標mとは若干異なる形態を有している。たとえば、図3の個体検出画像Q(t1)−Mに含まれている動作個体指標m1(t1)は、§5−2で述べた実施例の手順によって作成されたものであり、図25(c) に示す背景差分領域d1(t1)を基本として作成されたものである。これに対して、図25(h) に示されている動作個体指標m1(t1)は、§5−3で述べた変形例によって作成されたものであり、図25(a) に示すフレーム間差分画像f1(t1)を基本として作成されたものである。いずれも、個体Aが時刻t1に占有している領域の近傍に配置されている閉領域から構成されているが、前者が個体Aの時刻t1の位置を示す指標になっているのに対して、後者は、個体Aの時刻t0〜t1の動きを示す指標になっている。   By the way, the motion individual index m created by the modification described in §5-3 has a slightly different form from the motion individual index m created by the embodiment described in §5-2. For example, the motion individual index m1 (t1) included in the individual detection image Q (t1) -M in FIG. 3 is created by the procedure of the embodiment described in §5-2, and FIG. It is created based on the background difference area d1 (t1) shown in c). On the other hand, the motion individual index m1 (t1) shown in FIG. 25 (h) is created by the modification described in §5-3, and the interframe interval shown in FIG. It is created based on the difference image f1 (t1). Each is composed of a closed region arranged in the vicinity of the region occupied by the individual A at time t1, whereas the former is an index indicating the position of the individual A at time t1. The latter is an index indicating the movement of the individual A from time t0 to t1.

図4は、静止個体指標sの作成手順として図20に示す手順を用い、動作個体指標mの作成手順として図22に示す手順を用いた場合について、ディスプレイ画面上に表示される個体検出画像Q(t)−SMの具体例を示す図である。一方、図27は、静止個体指標sの作成手順としては図20に示す手順を用いつつ、動作個体指標mの作成手順として、図24に示す変形例に係る手順を用いた場合について、ディスプレイ画面上に表示される個体検出画像Q(t)−SMの具体例を示す図である。   FIG. 4 shows the individual detection image Q displayed on the display screen when the procedure shown in FIG. 20 is used as the procedure for creating the stationary individual index s and the procedure shown in FIG. 22 is used as the procedure for creating the moving individual index m. It is a figure which shows the specific example of (t) -SM. On the other hand, FIG. 27 shows a display screen when the procedure shown in FIG. 20 is used as the procedure for creating the stationary individual index s and the procedure according to the modification shown in FIG. 24 is used as the procedure for creating the moving individual index m. It is a figure which shows the specific example of the individual detection image Q (t) -SM displayed on the top.

図4と図27とを比較すると、いずれも左側に示されている原画像P(t)は全く同じであるが、右側に示されている個体検出画像Q(t)−SM上の動作個体指標mについて違いが生じている。たとえば、時刻t1についての個体検出画像Q(t1)−SMを比較すると、図4の場合、動作個体指標m1(t1),m2(t1)は、それぞれ個体A1,B1の時刻t1における位置を示す指標になっているのに対して、図27の場合、動作個体指標m1(t1),m2(t1)は、それぞれ個体A0〜A1への移動,個体B0〜B1への移動を示す指標になっている   Comparing FIG. 4 and FIG. 27, the original image P (t) shown on the left side is exactly the same, but the individual detected on the individual detection image Q (t) -SM shown on the right side. There is a difference for the index m. For example, comparing the individual detection image Q (t1) -SM with respect to time t1, in the case of FIG. 4, the motion individual indices m1 (t1) and m2 (t1) indicate the positions of the individual A1 and B1 at the time t1, respectively. On the other hand, in the case of FIG. 27, the moving individual indices m1 (t1) and m2 (t1) are indices indicating movement to the individuals A0 to A1 and movement to the individuals B0 to B1, respectively. ing

前述したとおり、動作個体指標m1(t1),m2(t1)は、原画像P(t1)の上に重ねて表示されるため、図4に示す個体検出画像Q(t1)−SMでは、各指標m1(t1),m2(t1)は、現時点で、原画像P(t1)上に表示されている個体A1,B1を示す役割を果たす。これに対して、図27に示す個体検出画像Q(t1)−SMでは、各指標m1(t1),m2(t1)は、現時点で、原画像P(t1)上に表示されている個体A1,B1だけではなく、その過去の位置に相当する個体A0,B0を併せて示す役割を果たすことになる。   As described above, the motion individual indices m1 (t1) and m2 (t1) are displayed so as to be superimposed on the original image P (t1). Therefore, in the individual detection image Q (t1) -SM shown in FIG. The indices m1 (t1) and m2 (t1) play a role of indicating the individuals A1 and B1 currently displayed on the original image P (t1). On the other hand, in the individual detection image Q (t1) -SM shown in FIG. 27, each index m1 (t1), m2 (t1) is the individual A1 currently displayed on the original image P (t1). , B1 as well as individuals A0 and B0 corresponding to the past positions.

もちろん、原画像P(t1)上には、個体A0,B0は存在していないので、図27に示す個体検出画像Q(t1)−SMに表示されている指標m1(t1),m2(t1)は、個体A1,B1が影を引きずって移動している状態を表現することができる。しかも、引きずる影の大きさは、個体の移動速度に応じたものになるので、速度感も表現されることになる。同様に、図27に示す個体検出画像Q(t4)−SMの場合、動作個体指標m1(t4)は、個体A4の腕の動きを表現することができる(なお、図27に示す動作個体指標m1(t4)は、説明の便宜上、図6のフレーム間差分画像F(t4)に示す2組に分かれたフレーム間差分領域f1(t4),f2(t4)を用いた例ではなく、両差分領域f1(t4),f2(t4)が融合して1つの閉領域を形成していた場合に得られる動作個体指標を示す)。   Of course, since the individuals A0 and B0 do not exist on the original image P (t1), the indices m1 (t1) and m2 (t1) displayed in the individual detection image Q (t1) -SM shown in FIG. ) Can represent a state in which the individual A1, B1 is moving by dragging a shadow. In addition, the size of the shadow to be dragged depends on the moving speed of the individual, so that a sense of speed is also expressed. Similarly, in the case of the individual detection image Q (t4) -SM shown in FIG. 27, the motion individual index m1 (t4) can represent the movement of the arm of the individual A4 (note that the motion individual index shown in FIG. 27). For convenience of explanation, m1 (t4) is not an example using the inter-frame difference areas f1 (t4) and f2 (t4) divided into two sets shown in the inter-frame difference image F (t4) in FIG. The motion individual index obtained when the regions f1 (t4) and f2 (t4) are merged to form one closed region).

このような効果は、別な形態の指標を採用した場合も同様である。たとえば、図12に示す個体検出画像Q(t)−SMは、静止個体指標sの作成手順として図20に示す手順を用い、動作個体指標mの作成手順として図22に示す手順を用いた場合について、ディスプレイ画面上に表示される個体検出画像Q(t)−SMの具体例を示す図であるが、個々の指標s,mとして、個体の外接矩形を用いた例である。一方、図28は、静止個体指標sの作成手順としては図20に示す手順を用いつつ、動作個体指標mの作成手順として、図24に示す変形例に係る手順を用いた場合について、ディスプレイ画面上に表示される個体検出画像Q(t)−SMの具体例を示す図である。ここで、静止個体指標sとしては、静止個体の外接矩形を用いているが、動作個体指標mとしては、最終的な仮動作個体指標m′h(t)の外接矩形を用いている。   Such an effect is the same when another form of index is adopted. For example, the individual detection image Q (t) -SM shown in FIG. 12 uses the procedure shown in FIG. 20 as the procedure for creating the stationary individual index s and the procedure shown in FIG. 22 as the procedure for creating the moving individual index m. Is a diagram showing a specific example of the individual detection image Q (t) -SM displayed on the display screen, and is an example in which the circumscribed rectangle of the individual is used as the individual indices s and m. On the other hand, FIG. 28 shows a display screen when the procedure shown in FIG. 20 is used as the procedure for creating the stationary individual index s and the procedure according to the modification shown in FIG. 24 is used as the procedure for creating the moving individual index m. It is a figure which shows the specific example of the individual detection image Q (t) -SM displayed on the top. Here, the circumscribed rectangle of the stationary individual is used as the stationary individual index s, but the circumscribed rectangle of the final temporary moving individual index m′h (t) is used as the moving individual index m.

図12に示す個体検出画像Q(t)−SMと、図28に示す個体検出画像Q(t)−SMとを比較すると、やはり後者の動作個体指標mは、動作個体の動きを表現することができる。たとえば、図28に示す個体検出画像Q(t1)−SMを見ると、個体A1は、矩形からなる動作個体指標m1(t1)の右端に位置しているため、左側に影を引きずりながら右側へ移動中である様子を感じさせることができる。同様に、個体B1は、矩形からなる動作個体指標m2(t1)の左端に位置しているため、右側に影を引きずりながら左側へ移動中である様子を感じさせることができる。   When comparing the individual detection image Q (t) -SM shown in FIG. 12 and the individual detection image Q (t) -SM shown in FIG. 28, the latter motion individual index m also represents the motion of the motion individual. Can do. For example, looking at the individual detection image Q (t1) -SM shown in FIG. 28, the individual A1 is located at the right end of the motion individual indicator m1 (t1) made of a rectangle, so that it moves to the right side while dragging the shadow to the left side. You can feel that you are moving. Similarly, since the individual B1 is located at the left end of the action individual indicator m2 (t1) formed of a rectangle, it can be felt that the individual B1 is moving to the left side while dragging a shadow on the right side.

このように、§5−3で述べた変形例を実施すると、検出個体表示部170によって表示される個体検出画像上の動作個体指標mによって、動作個体の動きを表現することができ、しかも、引きずる影の大きさによって、個体が動く速度感も表現できる、という特別な作用効果が生まれることになる。   As described above, when the modified example described in §5-3 is performed, the motion of the motion individual can be expressed by the motion individual index m on the individual detection image displayed by the detected individual display unit 170, Depending on the size of the shadow to be dragged, a special effect that the individual can feel the speed of movement is born.

結局、§5−2で述べた実施例(背景差分画像D(t)を基本として動作個体指標mを作成する実施例)を採用すれば、図4に示すような動作個体指標mを表示することができ、前時刻の残像がない正確な個体を示す指標を用いた表示が可能になる。図4に示す各動作個体指標mは、その時刻における個々の動作個体を、その輪郭線に沿って正確に切り出した形状を示している。   After all, when the embodiment described in §5-2 (an embodiment in which the motion individual index m is created based on the background difference image D (t)) is adopted, the motion individual index m as shown in FIG. 4 is displayed. Display using an index indicating an accurate individual without an afterimage of the previous time. Each action individual index m shown in FIG. 4 indicates a shape obtained by accurately cutting out each action individual at the time along the contour line.

したがって、§5−2で述べた実施例は、個々の動作個体の正確な形状を示す図形の内部に所定パターンを形成したり、当該図形の内部を所定色で塗りつぶしたりする閉領域指標として、動作個体指標mを表現する場合に適している。また、図14に示す例のように、個々の動作個体の輪郭線を示す輪郭指標として動作個体指標mを表現する場合や、図16に示す例のように、個々の動作個体をマスクからの露出部分として示す指標として動作個体指標mを表現する場合にも適している。   Therefore, in the embodiment described in §5-2, as a closed region index for forming a predetermined pattern inside a figure showing an accurate shape of each individual moving object or filling the inside of the figure with a predetermined color, This is suitable for expressing the motion individual index m. Further, when the motion individual index m is expressed as a contour index indicating the contour line of each motion individual as in the example shown in FIG. 14, or the individual motion individual is removed from the mask as in the example illustrated in FIG. 16. It is also suitable for expressing the motion individual index m as an index shown as an exposed portion.

これに対して、§5−3で述べた変形例(フレーム間差分画像F(t)を基本として動作個体指標mを作成する実施例)を採用すれば、図27に示すような動作個体指標mを表示することができ、前時刻の残像を含む動きのある動作個体を示すことが可能になる。すなわち、このような動作個体指標mは、観察者に対して、個々の動作個体の移動方向や移動速度を暗示することができ、動作個体の動きをより強調した表現を行いたい場合に好適である。したがって、この§5−3で述べた変形例は、図28に示すような矩形枠(あるいは、楕円枠などでもよい)のような、動作個体を囲む枠状指標として動作個体指標mを表現する場合に適している。   On the other hand, if the modified example described in §5-3 (an example in which the motion individual index m is created based on the inter-frame difference image F (t)) is employed, the motion individual index as shown in FIG. m can be displayed, and it is possible to indicate a moving motion object including an afterimage of the previous time. That is, such an action individual index m can be used to imply the movement direction and speed of each action individual to the observer, and is suitable for a case where it is desired to express the action individual movement more emphasized. is there. Therefore, in the modification described in §5-3, the motion individual index m is expressed as a frame-shaped index surrounding the motion individual, such as a rectangular frame (or an elliptical frame or the like) as shown in FIG. Suitable for cases.

<<< §6. 外接矩形を用いた簡易判定法 >>>
<6−0.外接矩形を用いた簡易判定法の基本概念>
図1に示す個体の検出装置100では、重複有無判定部150によって、背景差分画像D(t)内の個々の背景差分領域di(t)について、フレーム間差分画像F(t)内のフレーム間差分領域fj(t)に対する重複部分の有無が判定され、個体認識部160は、その判定結果に基づいて、特定の背景差分領域di(t)を占める個体を静止個体もしくは動作個体と認識することになる。具体的には、「重複部分無し」との判定結果が得られた場合には静止個体との認識がなされ、「重複部分有り」との判定結果が得られた場合には動作個体との認識がなされる。
<<< §6. Simple judgment method using circumscribed rectangle >>>
<6-0. Basic concept of simple judgment method using circumscribed rectangle>
In the individual detection device 100 shown in FIG. 1, the overlap presence / absence determination unit 150 performs inter-frame difference image F (t) between frames for each background difference region di (t) in background difference image D (t). The presence / absence of an overlapping portion with respect to the difference region fj (t) is determined, and the individual recognition unit 160 recognizes an individual occupying a specific background difference region di (t) as a stationary individual or a moving individual based on the determination result. become. Specifically, when a determination result of “no overlapping part” is obtained, it is recognized as a stationary individual, and when a determination result of “with overlapping part” is obtained, it is recognized as a moving individual. Is made.

この重複有無判定部150による重複有無判定処理は、たとえば図21に示す例の場合、第i番目の背景差分領域di(t)を含む第1の二値画像と、第j番目のフレーム間差分領域fj(t)を含む第2の二値画像と、についての、画像間の論理積演算を行って論理積画像IMG(AND)を作成し、この論理積画像IMG(AND)内の全画素について、ORをとった総合論理和VAL(OR)を求める演算を行うことによりなされる。具体的には、この例の場合、総合論理和VAL(OR)の値が「0」の場合は「重複部分無し」との判定がなされ、総合論理和VAL(OR)の値が「1」の場合は「重複部分有り」との判定がなされる。   In the example shown in FIG. 21, for example, in the example shown in FIG. 21, the overlap presence / absence determination unit 150 performs the first binary image including the i-th background difference region di (t) and the j-th inter-frame difference. An AND operation between the images for the second binary image including the region fj (t) is performed to create an AND image IMG (AND), and all the pixels in the AND image IMG (AND) Is obtained by performing an operation for obtaining a total logical sum VAL (OR) obtained by ORing. Specifically, in this example, when the value of the total logical sum VAL (OR) is “0”, it is determined that “there is no overlapping portion”, and the value of the total logical sum VAL (OR) is “1”. In the case of, it is determined that “there is an overlapping portion”.

しかしながら、実際には、このような画像演算は、コンピュータにとって処理負担の重い演算になる。もちろん、重複有無判定部150としての処理を担当するコンピュータに、画像処理専用のグラフィックチップなどを設けるようにすれば、それなりに画像処理機能を向上させることが可能であるが、一般のパソコンにとっては、上記重複有無判定処理はかなり負担のかかる処理になる。特に、定点カメラとして高解像度カメラを用いた場合、1フレームの画素の数は膨大なものになり、演算負担は極めて重いものになる。   However, in practice, such an image calculation is an operation that places a heavy processing burden on the computer. Of course, if the computer in charge of the processing as the duplication determination unit 150 is provided with a graphic chip dedicated to image processing, the image processing function can be improved as such, but for a general personal computer, The duplication presence / absence determination process is a very burdensome process. In particular, when a high-resolution camera is used as a fixed point camera, the number of pixels in one frame becomes enormous and the calculation burden becomes extremely heavy.

しかも、図1に示す個体の検出装置100の場合、検出個体表示部170が、原画像P(t)の上に静止個体指標sや動作個体指標mを重ねた個体検出画像Q(t)を作成してディスプレイ画面上に表示する処理を実行することになる。したがって、監視カメラで撮影された画像をリアルタイムで監視する業務に利用する場合、重複有無判定部150は、入力される各フレーム画像について、リアルタイムで重複有無判定処理を実行する必要があり、短時間で処理を完了させる必要がある。   Moreover, in the case of the individual detection apparatus 100 shown in FIG. 1, the detected individual display unit 170 displays an individual detection image Q (t) in which the stationary individual index s and the moving individual index m are superimposed on the original image P (t). The process of creating and displaying on the display screen is executed. Therefore, when using an image captured by a monitoring camera for a task of monitoring in real time, the duplication presence / absence determination unit 150 needs to execute duplication presence / absence determination processing on each input frame image in real time. It is necessary to complete the process.

このような事情を考慮して、ここでは、重複有無判定部150による重複有無判定処理の負担を軽減するための簡易判定法を説明する。一般的なパソコン程度のコンピュータを用いて、監視カメラで撮影された画像をリアルタイムで監視する業務に利用する装置の場合は、§5で述べた処理手順の代わりに、以下に説明する簡易判定法に基づく処理手順を行うようにするのが好ましい。   Considering such circumstances, here, a simple determination method for reducing the burden of the overlap determination processing by the overlap determination unit 150 will be described. In the case of a device that uses a computer such as a general personal computer and uses an image taken by a surveillance camera in real time, the simple determination method described below is used instead of the processing procedure described in §5. It is preferable to perform a processing procedure based on the above.

ここで述べる簡易判定法の特徴は、2つの領域についての重複部分の有無を判定する際に、当該領域自身の代わりに、これらの外接矩形を用いて簡易判定を行う点にある。すなわち、重複有無判定部150は、背景差分画像D(t)内の背景差分領域di(t)について、フレーム間差分画像F(t)内のフレーム間差分領域fj(t)に対する重複部分の有無を判定する際に、当該背景差分領域di(t)の外接矩形と当該フレーム間差分領域fj(t)の外接矩形とについて、重複部分の有無を判定する簡易判定法を実行することになる。   A feature of the simple determination method described here is that, when determining the presence or absence of an overlapping portion between two regions, simple determination is performed using these circumscribed rectangles instead of the regions themselves. That is, the duplication presence / absence determination unit 150 determines whether or not there is an overlapping portion of the background difference area di (t) in the background difference image D (t) with respect to the inter-frame difference area fj (t) in the inter-frame difference image F (t). Is determined, a simple determination method for determining whether or not there is an overlapping portion between the circumscribed rectangle of the background difference area di (t) and the circumscribed rectangle of the inter-frame difference area fj (t) is executed.

図29は、この簡易判定法を導入した実施形態における矩形データの取り扱いを説明する図である。図29(a) は、任意形状の図形とその外接矩形との関係を示す図である。図に示す人型図形は任意形状の図形であり、これまでの説明で述べてきた背景差分領域di(t)やフレーム間差分領域fj(t)に対応するものである。このような任意形状の図形は、当該図形の内部に位置する個々の画素をラベリング情報等によって特定することにより表現せざるを得ず、その情報量は膨大なものになる。これに対して、図示の矩形Rは、この任意形状の人型図形に外接する矩形であり、かつ、当該人型図形を、左上位置に原点Oをもち、右方向をX軸、下方向をY軸とするXY二次元座標系上に配置した場合に、上下両辺がX軸に平行になり、左右両辺がY軸に平行になる正則な矩形になる。   FIG. 29 is a diagram for explaining the handling of rectangular data in an embodiment in which this simple determination method is introduced. FIG. 29 (a) is a diagram showing the relationship between a figure of arbitrary shape and its circumscribed rectangle. The humanoid figure shown in the figure is an arbitrary figure, and corresponds to the background difference area di (t) and the inter-frame difference area fj (t) described in the above description. Such an arbitrarily-shaped figure must be expressed by specifying individual pixels located inside the figure by labeling information or the like, and the amount of information becomes enormous. On the other hand, the rectangle R shown in the figure is a rectangle circumscribing this arbitrarily shaped humanoid figure, and the humanoid figure has an origin O at the upper left position, the right direction is the X axis, and the lower direction is the lower direction. When arranged on the XY two-dimensional coordinate system as the Y-axis, it becomes a regular rectangle whose upper and lower sides are parallel to the X-axis and whose left and right sides are parallel to the Y-axis.

ここで、この外接矩形Rの4頂点をA,B,C,Dとすると、図29(a) の右側に記載したとおり、その座標値は、A(xmin ,ymin),B(xmax ,ymin),C(xmin ,ymax),D(xmax ,ymax)になり、外接矩形Rは、これら4頂点の座標値のみによって定義することができる(実際には、外接矩形Rの対角2頂点の座標のみで定義できる)。ここで、座標値「xmin 」は、人型図形を構成する各画素のもつX座標値の最小値、座標値「xmax 」は、その最大値である。同様に、座標値「ymin 」は、人型図形を構成する各画素のもつY座標値の最小値、座標値「ymax 」は、その最小値である。   Here, assuming that the four vertices of the circumscribed rectangle R are A, B, C, and D, the coordinate values are A (xmin, ymin), B (xmax, ymin) as shown on the right side of FIG. ), C (xmin, ymax), and D (xmax, ymax), and the circumscribed rectangle R can be defined only by the coordinate values of these four vertices (actually, the two diagonal vertices of the circumscribed rectangle R). Can be defined by coordinates only) Here, the coordinate value “xmin” is the minimum value of the X coordinate values of each pixel constituting the humanoid figure, and the coordinate value “xmax” is the maximum value thereof. Similarly, the coordinate value “ymin” is the minimum value of the Y coordinate value of each pixel constituting the humanoid figure, and the coordinate value “ymax” is the minimum value.

このような外接矩形Rを用いると、2つの領域についての重複部分の有無を判定する処理は非常に簡単になる。図29(b) は、2つの外接矩形について、重複部分の有無を判定する方法を示す図である。ここでは、第1の外接矩形Raと第2の外接矩形Rbとが、重複部分を有しているか否かを判定する方法が示されている。図示のとおり、この判定方法では、第1の外接矩形Raの左上頂点座標(x1,y1)と、第1の外接矩形Raの右下頂点座標(x2,y2)と、第2の外接矩形Rbの左上頂点座標(x3,y3)と、第2の外接矩形Rbの右下頂点座標(x4,y4)と、を用いて、図29(b) の右側に記載した論理式を演算することにより、判定結果を得ることができる。   When such a circumscribed rectangle R is used, the process for determining the presence or absence of an overlapping portion between two areas becomes very simple. FIG. 29 (b) is a diagram illustrating a method for determining the presence or absence of overlapping portions for two circumscribed rectangles. Here, a method for determining whether or not the first circumscribed rectangle Ra and the second circumscribed rectangle Rb have overlapping portions is shown. As illustrated, in this determination method, the upper left vertex coordinates (x1, y1) of the first circumscribed rectangle Ra, the lower right vertex coordinates (x2, y2) of the first circumscribed rectangle Ra, and the second circumscribed rectangle Rb. By using the upper left vertex coordinates (x3, y3) and the lower right vertex coordinates (x4, y4) of the second circumscribed rectangle Rb, the logical expression described on the right side of FIG. The determination result can be obtained.

具体的には、図示のとおり、VAL(Overlap)=(x1≦x4)AND(x3≦x2)AND(y1≦y4)AND(y3≦y2)なる論理演算式で定義される矩形重複判定値VAL(Overlap)の値を求めればよい。VAL(Overlap)=1であれば「重複部分有り」との判定結果が得られ、VAL(Overlap)=0であれば「重複部分無し」との判定結果が得られる。図示の例の場合は、VAL(Overlap)=1になるため「重複部分有り」との判定結果になる。   Specifically, as shown in the figure, a rectangular overlap determination value VAL defined by a logical operation expression of VAL (Overlap) = (x1 ≦ x4) AND (x3 ≦ x2) AND (y1 ≦ y4) AND (y3 ≦ y2) What is necessary is just to obtain the value of (Overlap). If VAL (Overlap) = 1, a determination result “overlapping portion” is obtained, and if VAL (Overlap) = 0, a determination result “no overlapping portion” is obtained. In the case of the illustrated example, since VAL (Overlap) = 1, the determination result is “There is an overlapping portion”.

したがって、§5で述べた手順において、背景差分領域di(t)とフレーム間差分領域fj(t)とについて論理積画像IMG(AND)を求め、これについて総合論理和VAL(OR)を計算する処理の代わりに、各領域di(t),fj(t)について、図29(a) に示す外接矩形の2頂点A,Dの座標値を求め、図29(b) に示す単純な論理演算式により矩形重複判定値VAL(Overlap)の値を求めれば、2つの領域についての重複部分の有無を示す判定結果を得ることができる。このため、演算負担は大幅に軽減される。   Therefore, in the procedure described in §5, the logical product image IMG (AND) is obtained for the background difference region di (t) and the inter-frame difference region fj (t), and the total logical sum VAL (OR) is calculated for this. Instead of processing, the coordinate values of the two vertices A and D of the circumscribed rectangle shown in FIG. 29 (a) are obtained for each area di (t) and fj (t), and a simple logical operation shown in FIG. 29 (b) is obtained. If the value of the rectangular overlap determination value VAL (Overlap) is obtained by an equation, a determination result indicating the presence or absence of an overlapping portion for two regions can be obtained. For this reason, the calculation burden is greatly reduced.

もちろん、領域di(t),fj(t)についての重複部分の有無を示す判定結果と、これらの外接矩形についての重複部分の有無を示す判定結果とは、正確には一致しないので、外接矩形を用いた簡易判定法を採用した場合、検出結果に誤差が含まれることになり、静止個体か動作個体かの認識に誤りが生じる可能性がある。しかしながら、そもそも静止個体か動作個体かの区分けは厳密なものではなく、区分けに多少の誤差が生じたとしても、実用上、大きな支障は生じない。   Of course, the determination result indicating the presence / absence of overlapping portions for the regions di (t) and fj (t) does not exactly match the determination result indicating the presence / absence of overlapping portions for these circumscribed rectangles. When the simple determination method using is adopted, an error is included in the detection result, and there is a possibility that an error occurs in recognition of whether it is a stationary individual or a moving individual. However, the classification of a stationary individual or a moving individual is not strict in the first place, and even if some errors occur in the classification, there is no practical problem.

また、図24の流れ図におけるステップS39では、2つの画像についての論理和画像IMG(OR)を作成する処理が必要になるが、外接矩形を用いると、この論理和画像IMG(OR)を作成する処理も単純化することができる。   Further, in step S39 in the flowchart of FIG. 24, it is necessary to create a logical sum image IMG (OR) for two images. When a circumscribed rectangle is used, this logical sum image IMG (OR) is created. Processing can also be simplified.

図29(c) は、矩形Raを含む画像と矩形Rbを含む画像とについて、論理和画像IMG(OR)を作成する方法を示す図である。具体的には、矩形Raと矩形Rbについて、これらを包摂する包摂矩形Rcを求めれば、当該包摂矩形Rcを含む画像が論理和画像IMG(OR)ということになる。包摂矩形Rcは、図に破線で示すとおり、2つの矩形Ra,Rb全体についての外接矩形に相当するものである。したがって、この包摂矩形Rcの4頂点の座標値は、矩形Ra,Rbの4頂点の座標値に基づいて簡単に決定することができる。   FIG. 29 (c) is a diagram illustrating a method of creating a logical sum image IMG (OR) for an image including the rectangle Ra and an image including the rectangle Rb. Specifically, if an inclusion rectangle Rc that includes the rectangle Ra and the rectangle Rb is obtained, an image including the inclusion rectangle Rc is the logical sum image IMG (OR). The inclusion rectangle Rc corresponds to a circumscribed rectangle for the two rectangles Ra and Rb as shown by broken lines in the figure. Therefore, the coordinate values of the four vertices of the inclusion rectangle Rc can be easily determined based on the coordinate values of the four vertices of the rectangles Ra and Rb.

具体的には、図29(c) の右側に記載したとおり、包摂矩形Rcの左上頂点のX座標は、矩形Raの左上頂点のX座標値x1と矩形Rbの左上頂点のX座標値x3のうち、いずれか小さい方になり、包摂矩形Rcの左上頂点のY座標は、矩形Raの左上頂点のY座標値y1と矩形Rbの左上頂点のY座標値y3のうち、いずれか小さい方になる。また、包摂矩形Rcの右下頂点のX座標は、矩形Raの右下頂点のX座標値x2と矩形Rbの右下頂点のX座標値x4のうち、いずれか大きい方になり、包摂矩形Rcの右下頂点のY座標は、矩形Raの右下頂点のY座標値y2と矩形Rbの右下頂点のY座標値y4のうち、いずれか大きい方になる。   Specifically, as described on the right side of FIG. 29 (c), the X coordinate of the upper left vertex of the inclusion rectangle Rc is the X coordinate value x1 of the upper left vertex of the rectangle Ra and the X coordinate value x3 of the upper left vertex of the rectangle Rb. The Y coordinate of the upper left vertex of the inclusion rectangle Rc is the smaller of the Y coordinate value y1 of the upper left vertex of the rectangle Ra and the Y coordinate value y3 of the upper left vertex of the rectangle Rb. . The X coordinate of the lower right vertex of the inclusion rectangle Rc is the larger of the X coordinate value x2 of the lower right vertex of the rectangle Ra and the X coordinate value x4 of the lower right vertex of the rectangle Rb, and the inclusion rectangle Rc The Y coordinate of the lower right vertex of Y is the larger one of the Y coordinate value y2 of the lower right vertex of the rectangle Ra and the Y coordinate value y4 of the lower right vertex of the rectangle Rb.

このように、図24のステップS39において、2つの画像についての論理和画像IMG(OR)を作成する代わりに、各領域の外接矩形の2頂点の座標値に基づいてその包摂矩形Rcを作成し、この包摂矩形Rcを含む画像を論理和画像IMG(OR)の代わりに用いることにすれば、演算負担は大幅に軽減される。   In this way, in step S39 of FIG. 24, instead of creating the logical sum image IMG (OR) for the two images, the inclusion rectangle Rc is created based on the coordinate values of the two vertices of the circumscribed rectangle of each region. If the image including the inclusion rectangle Rc is used instead of the logical sum image IMG (OR), the calculation burden is greatly reduced.

もちろん、上記包摂矩形Rcは、2つの画像についての論理和画像IMG(OR)に含まれる論理和領域に一致するものではない。たとえば、図25(e) に示す二値画像は、図25(b) に示す二値画像と図25(c) に示す二値画像とに基づいて作成された論理和画像IMG(OR)であり、黒画素の集合として形成された領域m′1(t1)は、二重人型領域になっている。これに対して、図25(b) に示す領域m′1(t1)の外接矩形と図25(c) に示す領域d1(t1)の外接矩形に基づいて、その包摂矩形Rcを作成した場合、得られる包摂矩形Rcは、図25(e) に示す領域m′1(t1)を囲う矩形枠に過ぎず、二重人型領域を示す図形にはならない。   Of course, the inclusion rectangle Rc does not coincide with the logical sum area included in the logical sum image IMG (OR) for the two images. For example, the binary image shown in FIG. 25 (e) is an OR image IMG (OR) created based on the binary image shown in FIG. 25 (b) and the binary image shown in FIG. 25 (c). A region m′1 (t1) formed as a set of black pixels is a double humanoid region. On the other hand, when the inclusion rectangle Rc is created based on the circumscribed rectangle of the region m′1 (t1) shown in FIG. 25B and the circumscribed rectangle of the region d1 (t1) shown in FIG. The obtained inclusion rectangle Rc is merely a rectangular frame surrounding the region m′1 (t1) shown in FIG. 25 (e), and does not become a figure indicating a double humanoid region.

しかしながら、この包摂矩形Rcは、そのまま矩形状の動作個体指標m1(t1)として利用することができる。別言すれば、図25に示す例の場合、最終的に作成される動作個体指標m1(t1)は、図25(h) に示すように、斜線網目によるハッチング領域になるが、外接矩形を用いた簡易判定法を利用した場合には、図28のQ(t1)−SMに示されているような、矩形状の動作個体指標m1(t1)(すなわち、包摂矩形Rc)を表示するようにすればよい。   However, the inclusion rectangle Rc can be used as it is as the rectangular motion individual index m1 (t1). In other words, in the case of the example shown in FIG. 25, the motion individual index m1 (t1) to be finally created is a hatched area with a hatched mesh as shown in FIG. When the simple determination method used is used, a rectangular motion individual index m1 (t1) (that is, an inclusion rectangle Rc) as shown by Q (t1) -SM in FIG. 28 is displayed. You can do it.

続いて、§5−1,§5−2,§5−3で述べた各処理手順に、外接矩形を用いた簡易判定法を適用した場合に、具体的にどのような処理が行われるかを、以下に述べる§6−1,§6−2,§6−3でそれぞれ簡単に説明する。   Subsequently, what kind of processing is specifically performed when the simple determination method using the circumscribed rectangle is applied to each processing procedure described in §5-1, 5-2, and §5-3? Are briefly described in §6-1, 6-2, and 6-2, respectively.

<6−1.簡易判定法による静止個体指標sの作成手順>
§5−1では、図20の流れ図を参照しながら、静止個体指標sを作成する手順を説明した。ここでは、この図20の流れ図に示す手順における重複有無判定処理に、上述した外接矩形を用いた簡易判定法を適用した場合の手順を説明する。
<6-1. Procedure for creating stationary individual index s by simple judgment method>
In section 5-1, the procedure for creating the stationary individual index s has been described with reference to the flowchart of FIG. Here, a procedure when the simple determination method using the circumscribed rectangle described above is applied to the duplication presence / absence determination processing in the procedure shown in the flowchart of FIG. 20 will be described.

図30は、この簡易判定法を適用した場合の手順を示す流れ図であり、基本的には、図20に示す手順と同様の処理手順になっている。ただ、重複有無判定処理の内容が簡易判定法に置き換えられている。そこで、以下、図20に示す手順(§5−1で述べた手順)と異なる部分についてのみ、説明を行うことにする。具体的には、ステップS11,S12,S13,S17,S18,S20の各ステップは、図20に示す手順の処理と全く同じであり、背景差分領域についてのiのループおよびフレーム間差分領域についてのjのループが繰り返し実行されることになる。   FIG. 30 is a flowchart showing a procedure when this simple determination method is applied, and basically, the processing procedure is the same as the procedure shown in FIG. However, the content of the duplication determination process is replaced with a simple determination method. Therefore, only the parts different from the procedure shown in FIG. 20 (the procedure described in §5-1) will be described below. Specifically, the steps S11, S12, S13, S17, S18, and S20 are exactly the same as the procedure shown in FIG. 20, and the i loop for the background difference area and the inter-frame difference area. The loop of j is repeatedly executed.

ただ、図20に示すステップS14,S15,S16(重複有無判定処理など)については、図30の流れ図では、ステップS14′およびステップS16′に置き換えられている。また、ステップS19は、ステップS19′に置き換えられている。   However, steps S14, S15, and S16 (duplication presence / absence determination processing and the like) shown in FIG. 20 are replaced with steps S14 ′ and S16 ′ in the flowchart of FIG. Step S19 is replaced with step S19 ′.

まず、ステップS14′では、第i番目の背景差分領域di(t)の外接矩形ddi(t)と、第j番目のフレーム間差分領域fj(t)の外接矩形ffj(t)とが作成される。ここで、各外接矩形を示すデータとしては、たとえば、左上頂点座標と右下頂点座標とを用いることができ、少なくとも2頂点の座標値のみにより、1つの外接矩形を特定することができる。この§6の説明に用いる各図では、便宜上、各外接矩形や包摂矩形を画像上の四角形として示しているが、実際には、これらの各矩形は、画素の集合からなる画像データとして特定されるわけではなく、2頂点の座標値(各頂点のX座標値とY座標値)のデータによって特定されることになる。   First, in step S14 ′, a circumscribed rectangle ddi (t) of the i-th background difference area di (t) and a circumscribed rectangle ffj (t) of the j-th inter-frame difference area fj (t) are created. The Here, as data indicating each circumscribed rectangle, for example, the upper left vertex coordinate and the lower right vertex coordinate can be used, and one circumscribed rectangle can be specified only by the coordinate values of at least two vertices. In each figure used in the description of §6, for convenience, each circumscribed rectangle and inclusion rectangle is shown as a quadrangle on the image, but in reality, each of these rectangles is specified as image data including a set of pixels. Instead, it is specified by data of coordinate values of two vertices (X coordinate value and Y coordinate value of each vertex).

次に、これら両外接矩形ddi(t),ffj(t)について、矩形重複判定値VAL(Overlap)が求められる。この矩形重複判定値VAL(Overlap)は、図29(b) の右側に示す論理演算式に基づいて算出される論理値であり、前述したとおり、両外接矩形ddi(t),ffj(t)について、重複部分があればVAL(Overlap)=1となり、重複部分がなければVAL(Overlap)=0になる。   Next, a rectangle overlap determination value VAL (Overlap) is obtained for both circumscribed rectangles ddi (t) and ffj (t). This rectangle overlap determination value VAL (Overlap) is a logical value calculated based on the logical operation expression shown on the right side of FIG. 29B, and as described above, both circumscribed rectangles ddi (t), ffj (t) If there is an overlapping part, VAL (Overlap) = 1, and if there is no overlapping part, VAL (Overlap) = 0.

続くステップS16′では、この矩形重複判定値VAL(Overlap)に基づく分岐が行われる。まず、矩形重複判定値VAL(Overlap)=1の場合は、両外接矩形ddi(t),ffj(t)に「重複部分有り」との判定がなされたことになるので、jのループを抜けて、ステップS20への分岐が行われる。一方、矩形重複判定値VAL(Overlap)=0の場合は、両外接矩形ddi(t),ffj(t)に「重複部分無し」との判定がなされたことになるので、ステップS17へと分岐し、j=2への更新が行われ、ステップS13へと戻り、i=1,j=2として、領域d1(t),f2(t)についての重複部分の有無を調べる処理(外接矩形を用いた簡易判定法による判定処理)が実行される。ここでも、矩形重複判定値VAL(Overlap)=0と判定された場合は、再びステップS17へと分岐し、j=3への更新が行われ、ステップS13へと戻り、i=1,j=3として、領域d1(t),f3(t)についての重複部分の有無を調べる処理(外接矩形を用いた簡易判定法による判定処理)が実行される。   In the subsequent step S16 ′, a branch based on the rectangular overlap determination value VAL (Overlap) is performed. First, when the rectangle overlap determination value VAL (Overlap) = 1, it is determined that “there is an overlapping portion” in both circumscribed rectangles ddi (t) and ffj (t), so the loop of j is exited. Thus, branching to step S20 is performed. On the other hand, if the rectangle overlap determination value VAL (Overlap) = 0, it is determined that there is no overlapping portion in both circumscribed rectangles ddi (t) and ffj (t), and the process branches to step S17. Then, the update to j = 2 is performed, and the process returns to step S13, where i = 1, j = 2, and the process of checking the presence / absence of overlapping portions in the regions d1 (t) and f2 (t) The determination process using the simple determination method used is executed. Again, if it is determined that the rectangle overlap determination value VAL (Overlap) = 0, the process branches back to step S17, the update to j = 3 is performed, the process returns to step S13, and i = 1, j = 3, a process for determining whether or not there are overlapping portions in the regions d1 (t) and f3 (t) (a determination process using a simple determination method using a circumscribed rectangle) is executed.

こうして、i=1、j=1〜3の組み合わせのすべてについて、矩形重複判定値VAL(Overlap)=0と判定された場合は、背景差分領域d1(t)の外接矩形dd1(t)は、第1〜第3のフレーム間差分領域f1(t),f2(t),f3(t)の外接矩形ff1(t),ff2(t),ff3(t)のいずれに対しても重複部分をもたないことになるので、背景差分領域d1(t)を占める個体は静止個体と認識できる。そこで、ステップS17からステップS18へと進み、静止個体指標番号k=1に更新し、更に、ステップS19′へと進み、第k番目の静止個体指標ssk(t)を、第i番目の背景差分領域di(t)の外接矩形ddi(t)に基づいて作成する処理が行われる。   In this way, when the rectangle overlap determination value VAL (Overlap) = 0 is determined for all the combinations of i = 1 and j = 1 to 3, the circumscribed rectangle dd1 (t) of the background difference area d1 (t) is An overlapping portion is provided for any of the circumscribed rectangles ff1 (t), ff2 (t), and ff3 (t) of the first to third inter-frame difference areas f1 (t), f2 (t), and f3 (t). Therefore, an individual occupying the background difference area d1 (t) can be recognized as a stationary individual. Therefore, the process proceeds from step S17 to step S18, where the stationary individual index number k = 1 is updated. Further, the process proceeds to step S19 ′, where the kth stationary individual index ssk (t) is changed to the i-th background difference. A process of creating based on the circumscribed rectangle ddi (t) of the area di (t) is performed.

図20に示すステップS19では、背景差分領域di(t)に基づいて静止個体指標sk(t)が作成されるので、たとえば、図21(h) に示すような人型の静止個体指標s1(t2)を作成することができるが、図30に示すステップS19′では、外接矩形ddi(t)に基づいて静止個体指標ssk(t)が作成されるので、作成される静止個体指標ssk(t)は、図21(h) に示すような人型ではなく、これを取り囲む矩形状の指標になる(たとえば、図12の個体検出画像Q(t2)−SM内に示されている破線の矩形からなるs1(t2)のような指標)。   In step S19 shown in FIG. 20, since the stationary individual index sk (t) is created based on the background difference area di (t), for example, a human-type stationary individual index s1 (see FIG. 21 (h)). t2) can be created. In step S19 ′ shown in FIG. 30, the stationary individual index ssk (t) is created based on the circumscribed rectangle ddi (t). ) Is not a human figure as shown in FIG. 21 (h), but becomes a rectangular index surrounding the figure (for example, a broken-line rectangle shown in the individual detection image Q (t2) -SM in FIG. 12). An index such as s1 (t2).

もっとも、必要があれば、背景差分画像D(t)に含まれている各背景差分領域di(t)の中から、外接矩形ddi(t)内に位置するものを選択し、選択された特定の背景差分領域di(t)に基づいて静止個体指標ssk(t)を作成するようにすれば、図21(h) に示すような人型の指標を作成することができる。もちろん、図13〜図15に例示するようなバリエーションに係る指標を作成することも可能である。   However, if necessary, from among the background difference areas di (t) included in the background difference image D (t), the one located within the circumscribed rectangle ddi (t) is selected, and the selected identification is made. If the stationary individual index ssk (t) is created based on the background difference area di (t), a humanoid index as shown in FIG. 21 (h) can be created. Of course, it is possible to create an index related to variations as illustrated in FIGS.

続いて、図30の流れ図に示す処理の各手順を、図8に示す時刻t2における各画像D(t2),F(t2)を用いて実行する場合を例にとって具体的に説明する。   Next, each procedure of the process shown in the flowchart of FIG. 30 will be specifically described by taking as an example the case of executing using the images D (t2) and F (t2) at time t2 shown in FIG.

図31の左側には、図30の流れ図において、i=1,j=1としたときの処理内容が示されている。すなわち、図31(a) は、第i番目(i=1)の背景差分領域d1(t2)を含む第1の二値画像を示しており、図31(b) は、第j番目(j=1)のフレーム間差分領域f1(t2)を含む第2の二値画像を示している。ただ、ここで説明する簡易判定法では、図示のとおり、背景差分領域d1(t2)については外接矩形dd1(t2)が作成され、フレーム間差分領域f1(t2)については外接矩形ff1(t2)が作成される。実際には、上述したとおり、各外接矩形の左上頂点座標と右下頂点座標とが決定され、データとして保存される。以後の演算は、実際には、これら2頂点の座標値を利用して行われる。   The left side of FIG. 31 shows the processing contents when i = 1 and j = 1 in the flowchart of FIG. That is, FIG. 31A shows a first binary image including the i-th (i = 1) background difference region d1 (t2), and FIG. 31B shows the j-th (j = 1) shows a second binary image including the inter-frame difference area f1 (t2). However, in the simple determination method described here, as illustrated, a circumscribed rectangle dd1 (t2) is created for the background difference area d1 (t2), and a circumscribed rectangle ff1 (t2) for the inter-frame difference area f1 (t2). Is created. Actually, as described above, the upper left vertex coordinate and the lower right vertex coordinate of each circumscribed rectangle are determined and stored as data. The subsequent calculation is actually performed using the coordinate values of these two vertices.

まず、図31(c) に示すように、これら外接矩形dd1(t2),ff1(t2)についての重複有無判定がなされる(ステップS14′)。具体的には、図29(b) の右側に示す論理演算式に基づいて、外接矩形dd1(t2),ff1(t2)についての重複有無判定演算を行えばよい。図31(c) に示す例の場合、両矩形はハッチングを施した部分において重複しているので、VAL(Overlap)=1となり、「重複部分有り」との判定結果が得られる。そこで、図30の流れ図において、ステップS16′からステップS20へと分岐し、i=1について(背景差分領域d1(t2)について)の静止個体指標は作成されない(ステップS19′は実行されない)。図31(d) は、説明の便宜上、i=1についての静止個体指標が作成されないことを示している。   First, as shown in FIG. 31 (c), the circumscribed rectangles dd1 (t2) and ff1 (t2) are determined for overlap (step S14 ′). Specifically, based on the logical operation expression shown on the right side of FIG. 29 (b), the overlap existence determination operation for the circumscribed rectangles dd1 (t2) and ff1 (t2) may be performed. In the case of the example shown in FIG. 31 (c), since both rectangles overlap in the hatched portion, VAL (Overlap) = 1 is obtained, and a determination result that “there is an overlapping portion” is obtained. Therefore, in the flowchart of FIG. 30, the process branches from step S16 ′ to step S20, and no stationary individual index is created for i = 1 (for the background difference area d1 (t2)) (step S19 ′ is not executed). FIG. 31 (d) shows that a stationary individual index for i = 1 is not created for convenience of explanation.

一方、図31の右側には、図30の流れ図において、i=2,j=1としたときの処理内容が示されている。すなわち、図31(e) は、第i番目(i=2)の背景差分領域d2(t2)を含む第1の二値画像を示しており、図31(f) は、第j番目(j=1)のフレーム間差分領域f1(t2)を含む第2の二値画像を示している。ここでも、図示のとおり、背景差分領域d2(t2)については外接矩形dd2(t2)が作成され、フレーム間差分領域f1(t2)については外接矩形ff1(t2)が作成される。   On the other hand, the right side of FIG. 31 shows the processing contents when i = 2 and j = 1 in the flowchart of FIG. That is, FIG. 31 (e) shows the first binary image including the i-th (i = 2) background difference region d2 (t2), and FIG. 31 (f) shows the j-th (j = 1) shows a second binary image including the inter-frame difference area f1 (t2). Here, as shown, a circumscribed rectangle dd2 (t2) is created for the background difference area d2 (t2), and a circumscribed rectangle ff1 (t2) is created for the inter-frame difference area f1 (t2).

そして、図31(g) に示すように、これら外接矩形dd2(t2),ff1(t2)についての重複有無判定がなされる(ステップS14′)。具体的には、図29(b) の右側に示す論理演算式に基づいて、外接矩形dd2(t2),ff1(t2)についての重複有無判定演算を行えばよい。図31(g) に示す例の場合、両矩形は全く重複していないので、VAL(Overlap)=0となり、「重複部分無し」との判定結果が得られる。そこで、図30の流れ図において、ステップS16′からステップS17,S18,S19′へと進み、i=2について(背景差分領域d2(t2)について)の静止個体指標ss1(t2)が作成されることになる。   Then, as shown in FIG. 31 (g), it is determined whether or not these circumscribed rectangles dd2 (t2) and ff1 (t2) are overlapped (step S14 ′). Specifically, based on the logical operation expression shown on the right side of FIG. 29 (b), the overlap existence determination operation for the circumscribed rectangles dd2 (t2) and ff1 (t2) may be performed. In the case of the example shown in FIG. 31 (g), since both rectangles do not overlap at all, VAL (Overlap) = 0, and a determination result of “no overlapping portion” is obtained. Therefore, in the flowchart of FIG. 30, the process proceeds from step S16 ′ to steps S17, S18, and S19 ′, and a stationary individual index ss1 (t2) is created for i = 2 (for the background difference area d2 (t2)). become.

図31(h) は、こうして作成されたi=2についての静止個体指標ss1(t2)を示すものである。ステップS19′に示す手順に従えば、静止個体指標ss1(t2)は、背景差分領域d2(t2)の外接矩形dd2(t2)に基づいて作成されることになる。図31(h) に示されている静止個体指標ss1(t2)は、図31(e) に示されている外接矩形dd2(t2)を破線で表現したものになっている。これは、図12の個体検出画像Q(t2)−SM内に示されている静止個体指標s1(t2)と同じ指標である。   FIG. 31 (h) shows the stationary individual index ss1 (t2) for i = 2 created in this way. According to the procedure shown in step S19 ′, the stationary individual index ss1 (t2) is created based on the circumscribed rectangle dd2 (t2) of the background difference area d2 (t2). The stationary individual index ss1 (t2) shown in FIG. 31 (h) is a representation of the circumscribed rectangle dd2 (t2) shown in FIG. 31 (e) with a broken line. This is the same index as the stationary individual index s1 (t2) shown in the individual detection image Q (t2) -SM in FIG.

要するに、個体認識部160内の静止個体認識部161は、重複有無判定部150が行った上記簡易判定法によって、外接矩形についての重複部分は無い、との判定結果が得られた背景差分領域d2(t2)を占める個体B2を静止個体と認識する。そして、検出個体表示部170は、このような認識に基づいて、図31の右側に示すように、静止個体と認識された個体B2を示す矩形枠からなる静止個体指標ss1(t2)(図31(h) )を、当該静止個体B2が占める背景差分領域d2(t2)の外接矩形dd2(t2)に基づいて作成し、これを個体検出画像Q(t)上に表示することになる。   In short, the stationary individual recognizing unit 161 in the individual recognizing unit 160 has obtained a determination result that there is no overlapping portion of the circumscribed rectangle by the simple determination method performed by the overlapping presence determining unit 150. The individual B2 occupying (t2) is recognized as a stationary individual. Based on such recognition, the detected individual display unit 170, as shown on the right side of FIG. 31, shows a stationary individual index ss1 (t2) including a rectangular frame indicating the individual B2 recognized as a stationary individual (FIG. 31). (h)) is created based on the circumscribed rectangle dd2 (t2) of the background difference area d2 (t2) occupied by the stationary individual B2, and this is displayed on the individual detection image Q (t).

もっとも、必要があれば、外接矩形dd2(t2)と図5に示す背景差分画像D(t2)とに基づく照合作業を行い、背景差分画像D(t2)に含まれている背景差分領域d1(t2)およびd2(t2)の中から、外接矩形dd2(t2)内に位置するd2(t2)を選択し、選択された背景差分領域d2(t2)に基づいて静止個体指標ss1(t2)を作成するようにすれば、図21(h) に示すような人型の静止個体指標s1(t2)を作成することもできる。もちろん、図13〜図15に例示するようなバリエーションに係る指標を作成することも可能である。   However, if necessary, a collation operation based on the circumscribed rectangle dd2 (t2) and the background difference image D (t2) shown in FIG. 5 is performed, and the background difference area d1 ( d2 (t2) located in the circumscribed rectangle dd2 (t2) is selected from t2) and d2 (t2), and the stationary individual index ss1 (t2) is selected based on the selected background difference region d2 (t2). If created, a humanoid stationary individual index s1 (t2) as shown in FIG. 21 (h) can be created. Of course, it is possible to create an index related to variations as illustrated in FIGS.

<6−2.簡易判定法による動作個体指標mの作成手順>
§5−2では、図22の流れ図を参照しながら、動作個体指標mを作成する手順を説明した。ここでは、この図22の流れ図に示す手順における重複有無判定処理に、上述した外接矩形を用いた簡易判定法を適用した場合の手順を説明する。
<6-2. Procedure for creating the motion individual index m by the simple judgment method>
In §5-2, the procedure for creating the motion individual index m has been described with reference to the flowchart of FIG. Here, a procedure when the simple determination method using the circumscribed rectangle described above is applied to the duplication presence / absence determination processing in the procedure shown in the flowchart of FIG. 22 will be described.

図32は、この簡易判定法を適用した場合の手順を示す流れ図であり、基本的には、図22に示す手順と同様の処理手順になっている。ただ、重複有無判定処理の内容が簡易判定法に置き換えられている。そこで、以下、図22に示す手順(§5−2で述べた手順)と異なる部分についてのみ、説明を行うことにする。具体的には、ステップS21,S22,S23,S27,S28,S30の各ステップは、図22に示す手順の処理と全く同じであり、背景差分領域についてのiのループおよびフレーム間差分領域についてのjのループが繰り返し実行されることになる。   FIG. 32 is a flowchart showing a procedure when this simple determination method is applied. The processing procedure is basically the same as the procedure shown in FIG. However, the content of the duplication determination process is replaced with a simple determination method. Therefore, only the parts different from the procedure shown in FIG. 22 (the procedure described in §5-2) will be described below. Specifically, steps S21, S22, S23, S27, S28, and S30 are exactly the same as the procedure shown in FIG. 22, and the i loop for the background difference region and the inter-frame difference region are processed. The loop of j is repeatedly executed.

ただ、図22に示すステップS24,S25,S26(重複有無判定処理など)については、図32の流れ図では、ステップS24′およびステップS26′に置き換えられている。また、ステップS29はステップS29′に置き換えられている。   However, steps S24, S25, and S26 (duplication presence / absence determination processing, etc.) shown in FIG. 22 are replaced with steps S24 ′ and S26 ′ in the flowchart of FIG. Further, step S29 is replaced with step S29 '.

ここで、ステップS24′の処理は、図30に示すステップS14′の処理と同じである。すなわち、第i番目の背景差分領域di(t)の外接矩形ddi(t)と、第j番目のフレーム間差分領域fj(t)の外接矩形ffj(t)とが作成され、これら両外接矩形ddi(t),ffj(t)について、矩形重複判定値VAL(Overlap)が求められる。両外接矩形ddi(t),ffj(t)について、重複部分があればVAL(Overlap)=1となり、重複部分がなければVAL(Overlap)=0になる。   Here, the process of step S24 'is the same as the process of step S14' shown in FIG. That is, a circumscribed rectangle ddi (t) of the i-th background difference area di (t) and a circumscribed rectangle ffj (t) of the j-th inter-frame difference area fj (t) are created, and these circumscribed rectangles are created. A rectangular overlap determination value VAL (Overlap) is obtained for ddi (t) and ffj (t). For both circumscribed rectangles ddi (t) and ffj (t), if there is an overlapping portion, VAL (Overlap) = 1, and if there is no overlapping portion, VAL (Overlap) = 0.

続くステップS26′では、この矩形重複判定値VAL(Overlap)に基づく分岐が行われる。まず、矩形重複判定値VAL(Overlap)=1の場合は、両外接矩形ddi(t),ffj(t)に「重複部分有り」との判定がなされたことになるので、jのループを抜けて、ステップS28への分岐が行われ、動作個体指標番号hを更新し、更に、ステップS29′へと進み、第h番目の動作個体指標mmh(t)を、第i番目の背景差分領域di(t)の外接矩形ddi(t)に基づいて作成する処理が行われる。   In the subsequent step S26 ′, a branch based on the rectangular overlap determination value VAL (Overlap) is performed. First, when the rectangle overlap determination value VAL (Overlap) = 1, it is determined that “there is an overlapping portion” in both circumscribed rectangles ddi (t) and ffj (t), so the loop of j is exited. Then, branching to step S28 is performed, the motion individual index number h is updated, and the process further proceeds to step S29 ′, where the h-th motion individual index mmh (t) is changed to the i-th background difference area di. A process of creating based on the circumscribed rectangle ddi (t) of (t) is performed.

このステップS29′では、外接矩形ddi(t)に基づいて動作個体指標mmh(t)が作成されるので、作成される動作個体指標mmh(t)は、図23(d) に示すような人型ではなく、これを取り囲む矩形状の指標になる(たとえば、図12の個体検出画像Q(t2)−SM内に示されている実線の矩形からなるm1(t2)のような指標)。   In this step S29 ′, the motion individual index mmh (t) is created based on the circumscribed rectangle ddi (t). Therefore, the motion individual index mmh (t) to be created is a person as shown in FIG. It is not a mold but a rectangular index surrounding it (for example, an index such as m1 (t2) consisting of a solid-line rectangle shown in the individual detection image Q (t2) -SM in FIG. 12).

もっとも、必要があれば、背景差分画像D(t)に含まれている各背景差分領域di(t)の中から、外接矩形ddi(t)内に位置するものを選択し、選択された特定の背景差分領域di(t)に基づいて静止個体指標mmh(t)を作成するようにすれば、図23(d) に示すような人型の指標を作成することができる。もちろん、図13,図14,図16に例示するようなバリエーションに係る指標を作成することも可能である。   However, if necessary, from among the background difference areas di (t) included in the background difference image D (t), the one located within the circumscribed rectangle ddi (t) is selected, and the selected identification is made. If the stationary individual index mmh (t) is created based on the background difference area di (t), a human-type index as shown in FIG. 23 (d) can be created. Of course, it is also possible to create an index related to variations as exemplified in FIGS. 13, 14, and 16.

続いて、図32の流れ図に示す処理の各手順を、図8に示す時刻t2における各画像D(t2),F(t2)を用いて実行する場合を例にとって具体的に説明する。   Subsequently, each procedure of the process shown in the flowchart of FIG. 32 will be specifically described by taking as an example a case of executing using the images D (t2) and F (t2) at time t2 shown in FIG.

図33の左側には、図32の流れ図において、i=1,j=1としたときの処理内容が示されている。すなわち、図33(a) は、第i番目(i=1)の背景差分領域d1(t2)を含む第1の二値画像を示しており、図33(b) は、第j番目(j=1)のフレーム間差分領域f1(t2)を含む第2の二値画像を示している。ただ、ここで説明する簡易判定法では、図示のとおり、背景差分領域d1(t2)については外接矩形dd1(t2)が作成され、フレーム間差分領域f1(t2)については外接矩形ff1(t2)が作成される。   The left side of FIG. 33 shows the processing contents when i = 1 and j = 1 in the flowchart of FIG. That is, FIG. 33 (a) shows a first binary image including the i-th (i = 1) background difference area d1 (t2), and FIG. 33 (b) shows the j-th (j = 1) shows a second binary image including the inter-frame difference area f1 (t2). However, in the simple determination method described here, as illustrated, a circumscribed rectangle dd1 (t2) is created for the background difference area d1 (t2), and a circumscribed rectangle ff1 (t2) for the inter-frame difference area f1 (t2). Is created.

そして、図33(c) に示すように、これら外接矩形dd1(t2),ff1(t2)についての重複有無判定がなされる(ステップS24′)。具体的には、図29(b) の右側に示す論理演算式に基づいて、外接矩形dd1(t2),ff1(t2)についての重複有無判定演算を行えばよい。図33(c) に示す例の場合、両矩形はハッチングを施した部分において重複しているので、VAL(Overlap)=1となり、「重複部分有り」との判定結果が得られる。そこで、図32の流れ図において、ステップS26′からステップS28,S29′へと進み、i=1について(背景差分領域d1(t2)について)の動作個体指標mm1(t2)が作成されることになる。   Then, as shown in FIG. 33 (c), it is determined whether or not these circumscribed rectangles dd1 (t2) and ff1 (t2) are overlapped (step S24 ′). Specifically, based on the logical operation expression shown on the right side of FIG. 29 (b), the overlap existence determination operation for the circumscribed rectangles dd1 (t2) and ff1 (t2) may be performed. In the example shown in FIG. 33 (c), since both rectangles overlap in the hatched portion, VAL (Overlap) = 1 is obtained, and a determination result that “there is an overlapping portion” is obtained. Therefore, in the flowchart of FIG. 32, the process proceeds from step S26 ′ to steps S28 and S29 ′, and the motion individual index mm1 (t2) for i = 1 (for the background difference area d1 (t2)) is created. .

図33(d) は、こうして作成されたi=1についての動作個体指標mm1(t2)を示すものである。ステップS29′に示す手順に従えば、動作個体指標mm1(t2)は、背景差分領域d1(t2)の外接矩形dd1(t2)に基づいて作成されることになる。図33(d) に示されている動作個体指標mm1(t2)は、図33(a) に示されている外接矩形dd1(t2)をそのまま表現したものになっている。これは、図12の個体検出画像Q(t2)−SM内に示されている動作個体指標m1(t2)と同じ指標である。   FIG. 33 (d) shows the motion individual index mm1 (t2) for i = 1 created in this way. According to the procedure shown in step S29 ′, the motion individual index mm1 (t2) is created based on the circumscribed rectangle dd1 (t2) of the background difference area d1 (t2). The motion individual index mm1 (t2) shown in FIG. 33 (d) is a representation of the circumscribed rectangle dd1 (t2) shown in FIG. 33 (a) as it is. This is the same index as the motion individual index m1 (t2) shown in the individual detection image Q (t2) -SM in FIG.

要するに、個体認識部160内の動作個体認識部162は、重複有無判定部150が行った上記簡易判定法によって、外接矩形についての重複部分が有る、との判定結果が得られた背景差分領域d1(t2)を占める個体A2を動作個体と認識する。そして、検出個体表示部170は、このような認識に基づいて、図33の左側に示すように、動作個体と認識された個体A2を示す矩形枠からなる動作個体指標mm1(t2)(図33(d) )を、当該動作個体A2が占める背景差分領域d1(t2)の外接矩形dd1(t2)に基づいて作成し、これを個体検出画像Q(t)上に表示することになる。   In short, the motion individual recognition unit 162 in the individual recognition unit 160 has obtained a determination result that there is an overlapping portion for the circumscribed rectangle by the simple determination method performed by the duplication presence / absence determination unit 150. The individual A2 occupying (t2) is recognized as an operating individual. Then, based on such recognition, the detected individual display unit 170, as shown on the left side of FIG. 33, the moving individual indicator mm1 (t2) (FIG. 33) including a rectangular frame indicating the individual A2 recognized as the moving individual. (d)) is created based on the circumscribed rectangle dd1 (t2) of the background difference area d1 (t2) occupied by the moving individual A2, and this is displayed on the individual detection image Q (t).

もっとも、必要があれば、外接矩形dd1(t2)と図5に示す背景差分画像D(t2)とに基づく照合作業を行い、背景差分画像D(t2)に含まれている背景差分領域d1(t2)およびd2(t2)の中から、外接矩形dd1(t2)内に位置するd1(t2)を選択し、選択された背景差分領域d1(t2)に基づいて動作個体指標mm1(t2)を作成するようにすれば、図23(d) に示すような人型の動作個体指標m1(t2)を作成することもできる。もちろん、図13,図14,図16に例示するようなバリエーションに係る指標を作成することも可能である。   However, if necessary, a collation operation based on the circumscribed rectangle dd1 (t2) and the background difference image D (t2) shown in FIG. 5 is performed, and the background difference area d1 ( d1 (t2) located in the circumscribed rectangle dd1 (t2) is selected from t2) and d2 (t2), and the motion individual index mm1 (t2) is selected based on the selected background difference area d1 (t2). If created, a human-type motion individual index m1 (t2) as shown in FIG. 23 (d) can be created. Of course, it is also possible to create an index related to variations as exemplified in FIGS. 13, 14, and 16.

一方、図33の右側には、図32の流れ図において、i=2,j=1としたときの処理内容が示されている。すなわち、図33(e) は、第i番目(i=2)の背景差分領域d2(t2)を含む第1の二値画像を示しており、図33(f) は、第j番目(j=1)のフレーム間差分領域f1(t2)を含む第2の二値画像を示している。ここでも、図示のとおり、背景差分領域d2(t2)については外接矩形dd2(t2)が作成され、フレーム間差分領域f1(t2)については外接矩形ff1(t2)が作成される。   On the other hand, the right side of FIG. 33 shows the processing contents when i = 2 and j = 1 in the flowchart of FIG. That is, FIG. 33 (e) shows the first binary image including the i-th (i = 2) background difference area d2 (t2), and FIG. 33 (f) shows the j-th (j = 1) shows a second binary image including the inter-frame difference area f1 (t2). Here, as shown, a circumscribed rectangle dd2 (t2) is created for the background difference area d2 (t2), and a circumscribed rectangle ff1 (t2) is created for the inter-frame difference area f1 (t2).

そして、図33(g) に示すように、これら外接矩形dd2(t2),ff1(t2)についての重複有無判定がなされる(ステップS24′)。具体的には、図29(b) の右側に示す論理演算式に基づいて、外接矩形dd2(t2),ff1(t2)についての重複有無判定演算を行えばよい。図33(g) に示す例の場合、両矩形は全く重複していないので、VAL(Overlap)=0となり、「重複部分無し」との判定結果が得られる。   Then, as shown in FIG. 33 (g), it is determined whether or not these circumscribed rectangles dd2 (t2) and ff1 (t2) are overlapped (step S24 '). Specifically, based on the logical operation expression shown on the right side of FIG. 29 (b), the overlap existence determination operation for the circumscribed rectangles dd2 (t2) and ff1 (t2) may be performed. In the case of the example shown in FIG. 33 (g), since both rectangles do not overlap at all, VAL (Overlap) = 0 and a determination result of “no overlapping portion” is obtained.

そこで、図32の流れ図において、ステップS26′からステップS27,S30へと進み、i=2について(背景差分領域d2(t2)について)の動作個体指標は作成されない(ステップS29′は実行されない)。図33(h) は、説明の便宜上、i=2についての動作個体指標が作成されないことを示している。   Therefore, in the flowchart of FIG. 32, the process proceeds from step S26 ′ to steps S27 and S30, and no motion individual index is created for i = 2 (for the background difference region d2 (t2)) (step S29 ′ is not executed). FIG. 33 (h) shows that the motion individual index for i = 2 is not created for convenience of explanation.

<6−3.簡易判定法による動作個体指標mの作成手順の変形例>
§5−3では、図24の流れ図を参照しながら、動作個体指標mを作成する変形例に係る手順を説明した。ここでは、この図24の流れ図に示す手順における重複有無判定処理に、上述した外接矩形を用いた簡易判定法を適用した場合の手順を説明する。
<6-3. Modified example of the procedure for creating the motion individual index m by the simple judgment method>
In §5-3, the procedure according to the modified example of creating the motion individual index m has been described with reference to the flowchart of FIG. Here, a procedure when the simple determination method using the circumscribed rectangle described above is applied to the duplication presence / absence determination processing in the procedure shown in the flowchart of FIG. 24 will be described.

図34は、この簡易判定法を適用した場合の手順を示す流れ図であり、基本的には、図24に示す手順と同様の処理手順になっている。ただ、重複有無判定処理の内容が簡易判定法に置き換えられている。そこで、以下、図24に示す手順(§5−3で述べた手順)と異なる部分についてのみ、説明を行うことにする。具体的には、ステップS31,S32,S33,S35,S40,S42の各ステップは、図24に示す手順の処理と全く同じであり、フレーム間差分領域についてのjのループおよび背景差分領域についてのiのループが繰り返し実行されることになる。   FIG. 34 is a flowchart showing a procedure when this simple determination method is applied, and is basically the same processing procedure as the procedure shown in FIG. However, the content of the duplication determination process is replaced with a simple determination method. Therefore, only the parts different from the procedure shown in FIG. 24 (the procedure described in §5-3) will be described below. Specifically, the steps S31, S32, S33, S35, S40, and S42 are exactly the same as the procedure shown in FIG. 24, and the j loop for the interframe difference area and the background difference area. The i loop is repeatedly executed.

ただ、図24に示すステップS34,S36,S37,S38,S39、S41(重複有無判定処理など)については、図34の流れ図では、ステップS34′,S36′,S38′,S39′、S41′に置き換えられている。   However, steps S34, S36, S37, S38, S39, and S41 (duplication presence / absence determination processing, etc.) shown in FIG. Has been replaced.

ここで、ステップS34′の処理では、第h番目の仮動作個体指標mm′h(t)として、第j番目のフレーム間差分領域fj(t)の外接矩形ffj(t)を設定する処理が行われる。ここで、「仮動作個体指標」とは、現段階では正式な動作個体指標mmではない「仮」の指標を意味する。当該仮動作個体指標mm′h(t)は、正式な動作個体指標mmとして利用するには不完全な形状であり、正式な動作個体指標mmとして利用するためには、後続する手順を経て、ステップS39′において補正を行う必要がある。   Here, in the process of step S34 ', the circumscribed rectangle ffj (t) of the jth inter-frame difference area fj (t) is set as the hth temporary motion individual index mm'h (t). Done. Here, the “provisional motion individual index” means a “provisional” index that is not an official motion individual index mm at the present stage. The temporary motion individual index mm′h (t) has an incomplete shape for use as the formal motion individual index mm, and in order to be used as the formal motion individual index mm, It is necessary to perform correction in step S39 '.

続くステップS35は、ステップS40までの手順を、i=1〜Imax まで繰り返し実行するループ処理である。iは、背景差分領域番号を示し、初期値は1、最大値はImax である。したがって、ステップS35からステップS40までのループ処理は、背景差分領域についてのループ処理ということになる。このループ処理の目的は、仮動作個体指標mm′h(t)に対する補正を、重複している背景差分領域di(t)の外接矩形ddi(t)を利用して行うことにある。   The subsequent step S35 is a loop process in which the procedure up to step S40 is repeatedly executed from i = 1 to Imax. i indicates the background difference area number, the initial value is 1, and the maximum value is Imax. Therefore, the loop process from step S35 to step S40 is a loop process for the background difference area. The purpose of this loop processing is to perform correction for the temporary motion individual index mm′h (t) using the circumscribed rectangle ddi (t) of the overlapping background difference area di (t).

まず、ステップS36′において、第j番目のフレーム間差分領域fj(t)の外接矩形ffj(t)と、第i番目の背景差分領域di(t)の外接矩形ddi(t)とが作成され、これら両外接矩形ffj(t),ddi(t)について、矩形重複判定値VAL(Overlap)が求められる。両外接矩形ffj(t),ddi(t)について、重複部分があればVAL(Overlap)=1となり、重複部分がなければVAL(Overlap)=0になる。   First, in step S36 ′, a circumscribed rectangle ffj (t) of the j-th inter-frame difference region fj (t) and a circumscribed rectangle ddi (t) of the i-th background difference region di (t) are created. The rectangle overlap determination value VAL (Overlap) is obtained for both circumscribed rectangles ffj (t) and ddi (t). For both circumscribed rectangles ffj (t) and ddi (t), if there is an overlapping part, VAL (Overlap) = 1, and if there is no overlapping part, VAL (Overlap) = 0.

続くステップS38′では、この矩形重複判定値VAL(Overlap)に基づく分岐が行われる。まず、矩形重複判定値VAL(Overlap)=1の場合は、両外接矩形ffj(t),ddi(t)に「重複部分有り」との判定がなされたことになるので、ステップS39′への分岐が行われ、仮動作個体指標mm′h(t)と、第i番目の背景差分領域di(t)の外接矩形ddi(t)とについて、包摂矩形を求め、当該包摂矩形を新たな仮動作個体指標mm′h(t)とする処理が行われる。任意の2組の矩形Ra,Rbについて包摂矩形Rcを求める方法は、図29(c) で説明したとおりである。   In the subsequent step S38 ′, a branch based on the rectangular overlap determination value VAL (Overlap) is performed. First, when the rectangle overlap determination value VAL (Overlap) = 1, it is determined that “there is an overlapping portion” in both circumscribed rectangles ffj (t) and ddi (t). Branching is performed, an inclusion rectangle is obtained for the provisional motion individual index mm′h (t) and the circumscribed rectangle ddi (t) of the i-th background difference region di (t), and the inclusion rectangle is obtained as a new provisional rectangle. A process for setting the motion individual index mm′h (t) is performed. The method of obtaining the inclusion rectangle Rc for any two sets of rectangles Ra and Rb is as described in FIG. 29 (c).

こうして、ステップS35〜S40のループ処理(iについてのループ処理)がi=1〜Imax まで繰り返し実行されると、フレーム間差分領域fj(t)の外接矩形ffj(t)に対して重複部分有りと判定された背景差分領域di(t)の外接矩形ddi(t)が見つかる度に、当該外接矩形ddi(t)とその時点の仮動作個体指標mm′h(t)を構成する矩形とについての包摂矩形が求められ、これを新たな仮動作個体指標mm′h(t)とする更新処理が行われる。これにより、不完全な矩形であった当初の仮動作個体指標mm′h(t)は徐々に修復されてゆくことになる。   Thus, when the loop processing (loop processing for i) of steps S35 to S40 is repeatedly executed from i = 1 to Imax, there is an overlapping portion with respect to the circumscribed rectangle ffj (t) of the inter-frame difference area fj (t). Each time the circumscribed rectangle ddi (t) of the background difference area di (t) determined as is found, the circumscribed rectangle ddi (t) and the rectangle constituting the temporary motion individual index mm′h (t) at that time An inclusion rectangle is obtained, and update processing is performed using this as a new temporary motion individual index mm′h (t). As a result, the initial provisional motion individual index mm′h (t), which was an incomplete rectangle, is gradually restored.

こうして、iについてのループ処理が完了すると、ステップS41′へと進み、第h番目の動作個体指標mmh(t)が、その時点での第h番目の仮動作個体指標mm′h(t)、すなわち、不完全な形状について修復が完了した仮指標に基づいて作成される。たとえば、図28の個体検出画像Q(t1)−SMに含まれている矩形状の動作個体指標m1(t1)は、こうして作成された指標である。   Thus, when the loop processing for i is completed, the process proceeds to step S41 ′, where the h-th motion individual index mmh (t) is the h-th temporary motion individual index mm′h (t) at that time, That is, the incomplete shape is created based on the temporary index that has been repaired. For example, the rectangular motion individual index m1 (t1) included in the individual detection image Q (t1) -SM in FIG. 28 is an index created in this way.

こうして、ステップS41′において、第h番目の動作個体指標mmh(t)が作成されると、ステップS42からステップS32へと戻り、jを更新することにより、新たなフレーム間差分領域に基づいて新たな動作個体指標mmを作成するため、ステップS32〜S42のループ処理(jについてのループ処理)がj=1〜Jmax まで繰り返し実行される。   Thus, when the h-th motion individual indicator mmh (t) is created in step S41 ′, the process returns from step S42 to step S32, and j is updated, so that a new one based on the new inter-frame difference area is obtained. In order to create a simple motion individual index mm, the loop processing of steps S32 to S42 (loop processing for j) is repeatedly executed from j = 1 to Jmax.

ここでは、図34の流れ図に示す処理の各手順を、図7に示す時刻t1における各画像D(t1),F(t1)に基づいて実行する具体例に即して説明しておく。   Here, each procedure of the processing shown in the flowchart of FIG. 34 will be described based on a specific example executed based on the images D (t1) and F (t1) at time t1 shown in FIG.

図35の上段には、図34の流れ図において、j=1,i=1としたときの処理内容が示されている。まず、図35(a) には、ステップS32において、j=1に設定したときの処理対象となる第j番目(j=1)のフレーム間差分領域f1(t1)を含む第1の二値画像が示されている。ステップS34′では、このフレーム間差分領域f1(t1)の外接矩形ff1(t1)が作成される。なお、このフレーム間差分領域f1(t1)は、本来は、図7のF(t1)内に示すものと同じであるが、ここでは便宜上、図示のように、すべての足の部分に欠けが生じていたものとして、以下の説明を行うことにする。したがって、フレーム間差分領域f1(t1)についての外接矩形ff1(t1)は、図示のとおり、欠けた足の部分を含まない、若干高さが縮んだ矩形になる。   The upper part of FIG. 35 shows the processing contents when j = 1 and i = 1 in the flowchart of FIG. First, FIG. 35 (a) shows the first binary including the j-th (j = 1) inter-frame difference region f1 (t1) to be processed when j = 1 is set in step S32. An image is shown. In step S34 ′, a circumscribed rectangle ff1 (t1) of the inter-frame difference area f1 (t1) is created. The inter-frame difference area f1 (t1) is originally the same as that shown in F (t1) of FIG. 7, but here, for convenience, all the foot portions are missing as shown in the figure. The following explanation will be given as it has occurred. Therefore, the circumscribed rectangle ff1 (t1) for the inter-frame difference region f1 (t1) is a rectangle with a slightly reduced height that does not include the missing foot portion, as shown.

ステップS34′では、この外接矩形ff1(t1)が、第h番目(h=1)の仮動作個体指標mm′1(t1)として設定されることになる。図35(b) には、こうして設定された仮動作個体指標mm′1(t1)が示されている(「mm′1」の「1」は、動作個体番号h=1に対応する)。図示のとおり、この仮動作個体指標mm′1(t1)は、一部に欠けを生じた不完全な矩形になっており、補正が必要である。   In step S34 ′, the circumscribed rectangle ff1 (t1) is set as the h-th (h = 1) temporary motion individual index mm′1 (t1). FIG. 35 (b) shows the temporary motion individual index mm′1 (t1) set in this way (“1” of “mm′1” corresponds to the motion individual number h = 1). As shown in the figure, this temporary motion individual index mm′1 (t1) is an incomplete rectangle with a part missing, and needs to be corrected.

一方、図35(c) には、ステップS35において、i=1に設定したときの処理対象となる第i番目(i=1)の背景差分領域d1(t1)を含む第2の二値画像が示されている。図示のとおり、この背景差分領域d1(t1)については外接矩形dd1(t1)が作成される。背景差分領域d1(t1)は、足の部分に欠けを生じていない完全な個体領域であるので、外接矩形dd1(t1)も欠けが生じていない完全な矩形になる。   On the other hand, FIG. 35C shows a second binary image including the i-th (i = 1) background difference region d1 (t1) to be processed when i = 1 is set in step S35. It is shown. As shown in the figure, a circumscribed rectangle dd1 (t1) is created for the background difference area d1 (t1). Since the background difference area d1 (t1) is a complete individual area in which there is no chipping in the foot portion, the circumscribed rectangle dd1 (t1) is also a complete rectangle in which no chipping occurs.

そして、図35(d) に示すように、これら外接矩形ff1(t1),dd1(t1)についての重複有無判定がなされる(ステップS36′)。具体的には、図29(b) の右側に示す論理演算式に基づいて、外接矩形ff1(t1),dd1(t1)についての重複有無判定演算を行えばよい。図35(d) に示す例の場合、両矩形はハッチングを施した部分において重複しているので、VAL(Overlap)=1となり、「重複部分有り」との判定結果が得られる。   Then, as shown in FIG. 35 (d), it is determined whether or not these circumscribed rectangles ff1 (t1) and dd1 (t1) are overlapped (step S36 '). Specifically, based on the logical operation expression shown on the right side of FIG. 29 (b), the overlap existence determination operation for the circumscribed rectangles ff1 (t1) and dd1 (t1) may be performed. In the case of the example shown in FIG. 35 (d), since both rectangles overlap in the hatched portion, VAL (Overlap) = 1 is obtained, and a determination result that “there is an overlapping portion” is obtained.

この判定結果は、図35(c) に示す外接矩形dd1(t1)を利用して、図35(b) に示す現時点での仮動作個体指標mm′1(t1)に対して補正を行うことができることを意味する。そこで、ステップS38′からステップS39′へと移行し、補正処理(包摂矩形を作成して置き換える処理)が実行される。すなわち、仮動作個体指標mm′1(t1)と外接矩形dd1(t1)とについて、包摂矩形を求め、当該包摂矩形を新たな仮動作個体指標mm′1(t1)とする処理が行われる。   This determination result is corrected using the circumscribed rectangle dd1 (t1) shown in FIG. 35 (c) for the current temporary motion individual index mm′1 (t1) shown in FIG. 35 (b). Means you can. Therefore, the process proceeds from step S38 ′ to step S39 ′, and correction processing (processing for creating and replacing an inclusion rectangle) is executed. That is, for the provisional motion individual index mm′1 (t1) and the circumscribed rectangle dd1 (t1), a process of obtaining an inclusion rectangle and setting the inclusion rectangle as a new provisional motion individual index mm′1 (t1) is performed.

図35(e) は、こうして作成された新しい仮動作個体指標mm′1(t1)を示している。この新しい仮動作個体指標mm′1(t1)内の破線は、包摂矩形の元になった2組の矩形の輪郭を示している。図35(b) に示す古い仮動作個体指標mm′1(t1)を構成する外接矩形において欠けていた部分が、図35(e) に示す新しい仮動作個体指標mm′1(t1)を構成する包摂矩形では修復されていることがわかる。   FIG. 35 (e) shows the new temporary motion individual index mm′1 (t1) created in this way. The broken lines in the new temporary motion individual index mm′1 (t1) indicate the outlines of two sets of rectangles that are the basis of the inclusion rectangle. The missing portion in the circumscribed rectangle constituting the old temporary motion individual indicator mm′1 (t1) shown in FIG. 35 (b) constitutes the new temporary motion individual indicator mm′1 (t1) shown in FIG. 35 (e). It can be seen that the inclusion rectangle is repaired.

続いて、ステップS40において、i=2への更新が行われ、再びステップS35からの処理が実行される。図35の下段には、図34の流れ図において、j=1,i=2としたときの処理内容が示されている。まず、図35(f) には、i=2に設定したときの処理対象となる第i番目(i=2)の背景差分領域d2(t1)を含む二値画像が示されている(図5のD(t1)内に示すものと同じ)。この背景差分領域d2(t1)については、図示のとおり、外接矩形dd2(t1)が作成される。   Subsequently, in step S40, updating to i = 2 is performed, and the processing from step S35 is executed again. The lower part of FIG. 35 shows the processing contents when j = 1 and i = 2 in the flowchart of FIG. First, FIG. 35 (f) shows a binary image including the i-th (i = 2) background difference area d2 (t1) to be processed when i = 2 is set (FIG. 35 (f)). 5 (same as shown in D (t1)). For this background difference area d2 (t1), a circumscribed rectangle dd2 (t1) is created as shown.

そして、図35(g) に示すように、外接矩形ff1(t1),dd2(t1)についての重複有無判定がなされる(ステップS36′)。図35(g) に示す例の場合、両矩形には重複部分が全くないため、VAL(Overlap)=0となり、「重複部分無し」との判定結果が得られる。   Then, as shown in FIG. 35 (g), it is determined whether or not there are overlaps with respect to the circumscribed rectangles ff1 (t1) and dd2 (t1) (step S36 '). In the case of the example shown in FIG. 35 (g), since there is no overlapping portion in both rectangles, VAL (Overlap) = 0 is obtained, and a determination result of “no overlapping portion” is obtained.

この判定結果は、図35(g) に示す外接矩形dd2(t1)は、図35(e) に示す現時点の仮動作個体指標mm′1(t1)に対する補正には利用できないことを意味する。そこで、ステップS38′からステップS40へと移行し、ステップS39′の補正処理(包摂矩形を作成して置き換える処理)は実行されない。   This determination result means that the circumscribed rectangle dd2 (t1) shown in FIG. 35 (g) cannot be used for correction of the current temporary motion individual index mm′1 (t1) shown in FIG. 35 (e). Therefore, the process proceeds from step S38 ′ to step S40, and the correction process (the process of creating and replacing the inclusion rectangle) in step S39 ′ is not executed.

こうして、ステップS35からステップS40までのループ処理が、i=1〜Imax まで完了すると、ステップS41′において、図35(e) に示す現時点での仮動作個体指標mm′1(t1)に基づいて、正式な動作個体指標mm1(t1)を作成する処理が行われる。図35(h) は、こうして作成された正式な動作個体指標mm1(t1)を示すものである。この例の場合、正式な動作個体指標mm1(t1)は、仮動作個体指標mm′1(t1)と全く同じ矩形状の指標によって構成されており、図28の個体検出画像Q(t1)−SMに示されている動作個体指標m1(t1)と同じものになる。   Thus, when the loop processing from step S35 to step S40 is completed from i = 1 to Imax, in step S41 ′, based on the current temporary motion individual index mm′1 (t1) shown in FIG. Then, a process of creating a formal motion individual index mm1 (t1) is performed. FIG. 35 (h) shows the official motion individual index mm1 (t1) created in this way. In this example, the formal motion individual index mm1 (t1) is composed of the same rectangular index as the provisional motion individual index mm′1 (t1), and the individual detection image Q (t1) − in FIG. It becomes the same as the motion individual index m1 (t1) shown in SM.

要するに、個体認識部160内の動作個体認識部162は、重複有無判定部150が行った上記簡易判定法によって、外接矩形についての重複部分が有る、との判定結果が得られたフレーム間差分領域f1(t1)を占める個体A1を動作個体と認識する。そして、検出個体表示部170は、このような認識に基づいて、図35に示すように、動作個体と認識された個体A1を示す矩形枠からなる動作個体指標mm1(t1)(図35(h) )を、当該動作個体A1が占めるフレーム間差分領域f1(t1)の外接矩形ff1(t1)に対して、当該動作個体A1が占める背景差分領域d1(t1)の外接矩形dd1(t1)に基づく補正を施すことにより作成し、これを個体検出画像Q(t)上に表示することになる。   In short, the motion individual recognition unit 162 in the individual recognition unit 160 uses the simple determination method performed by the duplication presence / absence determination unit 150 to obtain an inter-frame difference region from which a determination result is obtained that there is an overlapping portion for a circumscribed rectangle. The individual A1 occupying f1 (t1) is recognized as an operating individual. Then, based on such recognition, the detected individual display unit 170, as shown in FIG. 35, the moving individual indicator mm1 (t1) (FIG. 35 (h1)) formed of a rectangular frame indicating the individual A1 recognized as the moving individual. )) To the circumscribed rectangle dd1 (t1) of the background difference region d1 (t1) occupied by the motion individual A1 with respect to the circumscribed rectangle ff1 (t1) of the inter-frame difference region f1 (t1) occupied by the motion individual A1. It is created by performing a correction based on this, and this is displayed on the individual detection image Q (t).

具体的には、検出個体表示部170は、動作個体A1が占めるフレーム間差分領域f1(t1)の外接矩形ff1(t1)と当該動作個体A1が占める背景差分領域d1(t1)の外接矩形dd1(t1)とについて、両外接矩形を包摂する包摂矩形を求め(図35(e) )、求めた包摂矩形に基づいて動作個体指標mm1(t1)を作成する。   Specifically, the detected individual display unit 170 includes a circumscribed rectangle ff1 (t1) of the inter-frame difference area f1 (t1) occupied by the moving object A1 and a circumscribed rectangle dd1 of the background difference area d1 (t1) occupied by the moving object A1. For (t1), an inclusion rectangle that includes both circumscribed rectangles is obtained (FIG. 35 (e)), and an action individual index mm1 (t1) is created based on the obtained inclusion rectangle.

以上の処理により、第1番目(h=1)の動作個体指標mm1(t1)が、矩形状図形として作成されたことになる。そこで、ステップS42において、j=2への更新が行われ、再びステップS32からの処理が実行される。   Through the above processing, the first (h = 1) motion individual index mm1 (t1) is created as a rectangular figure. Therefore, in step S42, updating to j = 2 is performed, and the processing from step S32 is executed again.

図36の上段には、図34の流れ図において、j=2,i=1としたときの処理内容が示されている。まず、図36(a) には、ステップS32において、j=2に設定したときの処理対象となる第j番目(j=2)のフレーム間差分領域f2(t1)を含む第1の二値画像が示されている。ステップS34′では、このフレーム間差分領域f2(t1)の外接矩形ff2(t1)が作成される。なお、このフレーム間差分領域f2(t1)は、本来は、図7のF(t1)内に示すものと同じであるが、ここでは便宜上、図示のように、すべての足の部分に欠けが生じていたものとして、以下の説明を行うことにする。したがって、フレーム間差分領域f2(t1)についての外接矩形ff2(t1)は、図示のとおり、欠けた足の部分を含まない、若干高さが縮んだ矩形になる。   The upper part of FIG. 36 shows the processing contents when j = 2 and i = 1 in the flowchart of FIG. First, FIG. 36 (a) shows the first binary including the j-th (j = 2) inter-frame difference region f2 (t1) to be processed when j = 2 is set in step S32. An image is shown. In step S34 ′, a circumscribed rectangle ff2 (t1) of the inter-frame difference area f2 (t1) is created. The inter-frame difference area f2 (t1) is originally the same as that shown in F (t1) of FIG. 7, but here, for convenience, all the foot portions are missing as shown in the figure. The following explanation will be given as it has occurred. Therefore, the circumscribed rectangle ff2 (t1) for the inter-frame difference region f2 (t1) is a rectangle with a slightly reduced height that does not include the missing foot portion, as illustrated.

ステップS34′では、この外接矩形ff2(t1)が、第h番目(h=2)の仮動作個体指標mm′2(t1)として設定されることになる。図36(b) には、こうして設定された仮動作個体指標mm′2(t1)が示されている(「mm′2」の「2」は、動作個体番号h=2に対応する)。図示のとおり、この仮動作個体指標mm′2(t1)は、一部に欠けを生じた不完全な矩形になっており、補正が必要である。   In step S34 ′, the circumscribed rectangle ff2 (t1) is set as the h-th (h = 2) temporary motion individual index mm′2 (t1). FIG. 36B shows the provisional motion individual index mm′2 (t1) set in this way (“2” in “mm′2” corresponds to the motion individual number h = 2). As shown in the figure, this temporary motion individual index mm′2 (t1) is an incomplete rectangle with a part missing, and needs to be corrected.

一方、図36(c) には、ステップS35において、i=1に設定したときの処理対象となる第i番目(i=1)の背景差分領域d1(t1)を含む第2の二値画像が示されている。図示のとおり、この背景差分領域d1(t1)については外接矩形dd1(t1)が作成される。背景差分領域d1(t1)は、足の部分に欠けを生じていない完全な個体領域であるので、外接矩形dd1(t1)も欠けが生じていない完全な矩形になる。   On the other hand, FIG. 36C shows a second binary image including the i-th (i = 1) background difference region d1 (t1) to be processed when i = 1 is set in step S35. It is shown. As shown in the figure, a circumscribed rectangle dd1 (t1) is created for the background difference area d1 (t1). Since the background difference area d1 (t1) is a complete individual area in which there is no chipping in the foot portion, the circumscribed rectangle dd1 (t1) is also a complete rectangle in which no chipping occurs.

そして、図36(d) に示すように、これら外接矩形ff2(t1),dd1(t1)についての重複有無判定がなされる(ステップS36′)。具体的には、図29(b) の右側に示す論理演算式に基づいて、外接矩形ff2(t1),dd1(t1)についての重複有無判定演算を行えばよい。図36(d) に示す例の場合、両矩形には重複部分が全くないため、VAL(Overlap)=0となり、「重複部分無し」との判定結果が得られる。   Then, as shown in FIG. 36 (d), it is determined whether or not these circumscribed rectangles ff2 (t1) and dd1 (t1) are overlapped (step S36 '). Specifically, based on the logical operation expression shown on the right side of FIG. 29 (b), the overlap existence determination operation for the circumscribed rectangles ff2 (t1) and dd1 (t1) may be performed. In the example shown in FIG. 36 (d), since there is no overlapping portion in both rectangles, VAL (Overlap) = 0 is obtained, and a determination result of “no overlapping portion” is obtained.

この判定結果は、図36(c) に示す外接矩形dd1(t1)は、図36(b) に示す現時点の仮動作個体指標mm′2(t1)に対する補正には利用できないことを意味する。そこで、ステップS38′からステップS40へと移行し、ステップS39′の補正処理(包摂矩形を作成して置き換える処理)は実行されない。   This determination result means that the circumscribed rectangle dd1 (t1) shown in FIG. 36 (c) cannot be used for correction of the current temporary motion individual index mm′2 (t1) shown in FIG. 36 (b). Therefore, the process proceeds from step S38 ′ to step S40, and the correction process (the process of creating and replacing the inclusion rectangle) in step S39 ′ is not executed.

続いて、ステップS40において、i=2への更新が行われ、再びステップS35からの処理が実行される。図36の下段には、図34の流れ図において、j=2,i=2としたときの処理内容が示されている。まず、図36(e) には、i=2に設定したときの処理対象となる第i番目(i=2)の背景差分領域d2(t1)を含む二値画像が示されている(図5のD(t1)内に示すものと同じ)。この背景差分領域d2(t1)については、図示のとおり、外接矩形dd2(t1)が作成される。   Subsequently, in step S40, updating to i = 2 is performed, and the processing from step S35 is executed again. The lower part of FIG. 36 shows the processing contents when j = 2 and i = 2 in the flowchart of FIG. First, FIG. 36 (e) shows a binary image including the i-th (i = 2) background difference region d2 (t1) to be processed when i = 2 is set (FIG. 36). 5 (same as shown in D (t1)). For this background difference area d2 (t1), a circumscribed rectangle dd2 (t1) is created as shown.

そして、図36(f) に示すように、外接矩形ff2(t1),dd2(t1)についての重複有無判定がなされる(ステップS36′)。図36(f) に示す例の場合、両矩形はハッチングを施した部分において重複しているので、VAL(Overlap)=1となり、「重複部分有り」との判定結果が得られる。   Then, as shown in FIG. 36 (f), it is determined whether or not there are overlaps with respect to the circumscribed rectangles ff2 (t1) and dd2 (t1) (step S36 ′). In the case of the example shown in FIG. 36 (f), since both rectangles overlap in the hatched portion, VAL (Overlap) = 1 is obtained, and a determination result that “there is an overlapping portion” is obtained.

この判定結果は、図36(e) に示す外接矩形dd2(t1)を利用して、図36(b) に示す現時点での仮動作個体指標mm′2(t1)に対して補正を行うことができることを意味する。そこで、ステップS38′からステップS39′へと移行し、補正処理(包摂矩形を作成して置き換える処理)が実行される。すなわち、仮動作個体指標mm′2(t1)と外接矩形dd2(t1)とについて、包摂矩形を求め、当該包摂矩形を新たな仮動作個体指標mm′2(t1)とする処理が行われる。   This determination result is corrected using the circumscribed rectangle dd2 (t1) shown in FIG. 36 (e) with respect to the current temporary motion individual index mm′2 (t1) shown in FIG. 36 (b). Means you can. Therefore, the process proceeds from step S38 ′ to step S39 ′, and correction processing (processing for creating and replacing an inclusion rectangle) is executed. That is, for the provisional motion individual index mm′2 (t1) and the circumscribed rectangle dd2 (t1), an inclusion rectangle is obtained, and the inclusion rectangle is used as a new provisional motion individual index mm′2 (t1).

図36(g) は、こうして作成された新しい仮動作個体指標mm′2(t1)を示している。この新しい仮動作個体指標mm′2(t1)内の破線は、包摂矩形の元になった2組の矩形の輪郭を示している。図36(b) に示す古い仮動作個体指標mm′2(t1)を構成する外接矩形において欠けていた部分が、図36(g) に示す新しい仮動作個体指標mm′2(t1)を構成する包摂矩形では修復されていることがわかる。   FIG. 36 (g) shows the new temporary motion individual index mm′2 (t1) created in this way. The broken lines in the new temporary motion individual indicator mm′2 (t1) indicate the outlines of two sets of rectangles that are the basis of the inclusion rectangle. The missing portion in the circumscribed rectangle constituting the old temporary motion individual indicator mm′2 (t1) shown in FIG. 36 (b) constitutes the new temporary motion individual indicator mm′2 (t1) shown in FIG. 36 (g). It can be seen that the inclusion rectangle is repaired.

こうして、ステップS35からステップS40までのループ処理が、i=1〜Imax まで完了すると、ステップS41′において、図36(g) に示す現時点での仮動作個体指標mm′2(t1)に基づいて、正式な動作個体指標mm2(t1)を作成する処理が行われる。この例の場合、正式な動作個体指標mm2(t1)は、仮動作個体指標mm′2(t1)と全く同じ矩形状の指標によって構成されており、図28の個体検出画像Q(t1)−SMに示されている動作個体指標m2(t1)と同じものになる。   Thus, when the loop processing from step S35 to step S40 is completed from i = 1 to Imax, in step S41 ′, based on the current temporary motion individual index mm′2 (t1) shown in FIG. 36 (g). Then, a process of creating a formal motion individual index mm2 (t1) is performed. In this example, the formal motion individual index mm2 (t1) is composed of the same rectangular index as the provisional motion individual index mm′2 (t1), and the individual detection image Q (t1) − in FIG. This is the same as the motion individual index m2 (t1) shown in SM.

なお、この§6−3で述べる実施例の場合も、必要があれば、図35(h) に示す包摂矩形mm1(t1)や図36(g) に示す包摂矩形mm2(t1)に基づいて、その内部に含まれるべき人型の領域を探し出し、矩形ではなく人型の動作個体指標mを表示させることは可能であるが、こうして表示させた人型の動作個体指標mは、不適切な指標になる可能性があるため、実用上は避けた方が好ましい。   In the case of the embodiment described in §6-3, if necessary, based on the inclusion rectangle mm1 (t1) shown in FIG. 35 (h) or the inclusion rectangle mm2 (t1) shown in FIG. 36 (g). It is possible to search for a humanoid region to be included therein and display a humanoid motion individual indicator m instead of a rectangle, but the humanoid motion individual indicator m displayed in this way is inappropriate. Since it may become an index, it is preferable to avoid it in practice.

すなわち、§6−1,§6−2で述べた実施例の場合は、外接矩形をそのまま指標として表示する代わりに、背景差分画像D(t)に含まれている背景差分領域di(t2)の中から、当該外接矩形内に位置するものを選択し、選択された背景差分領域di(t)に基づいて指標を作成するようにすれば、人型の静止個体指標sや動作個体指標mを作成することができ、図13〜図16に例示するようなバリエーションに係る指標を作成することも可能である。   That is, in the embodiment described in §6-1 and 6-2, instead of displaying the circumscribed rectangle as an index as it is, the background difference area di (t2) included in the background difference image D (t) If an object located within the circumscribed rectangle is selected from among the images, and an index is created based on the selected background difference area di (t), the human-type stationary individual index s and the moving individual index m It is also possible to create an index related to variations as exemplified in FIGS.

しかしながら、この§6−3で述べる実施例の場合、たとえば、図35(h) に示す包摂矩形mm1(t1)は、特定の背景差分領域di(t)の外接矩形にはなっておらず、より広い領域を占める矩形になる。このため、当該包摂矩形mm1(t1)内に位置する背景差分領域di(t)を正確に特定することはできない。もちろん、図35(h) に示す包摂矩形mm1(t1)は、図35(a) に示すフレーム間差分領域f1(t1)を含む矩形ではあるが、フレーム間差分領域f1(t1)は、欠けた部分を含んだ不完全な個体形状を示すものであり、補正がなされていない状態のものであるから、これに基づいて動作個体指標mを作成することは好ましくない。   However, in the example described in §6-3, for example, the inclusion rectangle mm1 (t1) shown in FIG. 35 (h) is not a circumscribed rectangle of the specific background difference area di (t). The rectangle occupies a wider area. For this reason, the background difference area di (t) located in the inclusion rectangle mm1 (t1) cannot be accurately specified. Of course, the inclusion rectangle mm1 (t1) shown in FIG. 35 (h) is a rectangle including the inter-frame difference region f1 (t1) shown in FIG. 35 (a), but the inter-frame difference region f1 (t1) is missing. Therefore, it is not preferable to create the motion individual index m based on the incomplete individual shape including the portion that is not corrected.

したがって、実用上、この§6−3で述べる実施例では、図35(h) に示す例のように、最終的に仮動作個体指標mm′h(t)として得られた包摂矩形に基づいて、矩形状の動作個体指標mmh(t)を作成して表示するのが好ましい。   Therefore, practically, in the embodiment described in this §6-3, based on the inclusion rectangle finally obtained as the provisional motion individual index mm′h (t) as in the example shown in FIG. 35 (h). It is preferable to create and display a rectangular motion individual index mmh (t).

<<< §7.本発明に係る個体の検出装置を用いた監視システム >>>
これまで述べてきた実施例は、人を検出対象となる個体として用いた例であるが、もちろん、本発明は動物、車両、船舶、航空機、種々の機械器具、玩具など、様々な対象物を個体として検出する用途に利用することが可能である。
<<< §7. Monitoring system using an individual detection apparatus according to the present invention >>>
The embodiments described so far are examples in which a person is used as an individual to be detected. Of course, the present invention uses various objects such as animals, vehicles, ships, aircrafts, various mechanical devices, and toys. It can be used for the purpose of detecting as an individual.

また、検出対象となる個体が密集している環境では、原画像P(t)上において複数の個体が重なり合うため、背景差分領域di(t)やフレーム間差分領域fi(t)が、複数の個体を含んだ融合領域になる可能性もあるが、上述した処理を行う上では、たとえば、手をつないだ2人の人物が1つの融合個体として認識されたとしても、何ら支障は生じない。この場合、動作個体指標mは、手をつないだ2人の人物を1つの動作個体として示すことになる。   Further, in an environment where individuals to be detected are densely packed, a plurality of individuals overlap on the original image P (t), so that the background difference region di (t) and the inter-frame difference region fi (t) There is a possibility that the fusion area includes the individual, but in performing the above-described processing, for example, even if two persons holding hands are recognized as one fusion individual, no trouble occurs. In this case, the motion individual index m indicates two persons holding hands as one motion individual.

したがって、図1に示す個体の検出装置100は、種々の環境下で種々の対象物を監視するための監視システムとして利用することが可能である。図37は、本発明に係る個体の検出装置を用いた監視システムの一例を示すブロック図である。図示のとおり、この監視システムは、クライアントシステム200と、このクライアントシステム200に対してネットワーク300(たとえば、インターネット)を介して接続されたサーバシステム400と、によって構成される。   Therefore, the individual detection apparatus 100 shown in FIG. 1 can be used as a monitoring system for monitoring various objects under various environments. FIG. 37 is a block diagram showing an example of a monitoring system using the individual detection apparatus according to the present invention. As illustrated, the monitoring system includes a client system 200 and a server system 400 connected to the client system 200 via a network 300 (for example, the Internet).

図示のとおり、クライアントシステム200は、定点カメラ210と、ディスプレイ装置220と、クライアントコンピュータ230と、を備えており、サーバシステム400は、サーバコンピュータ410を備えている。クライアントコンピュータ230とサーバコンピュータ410とは、ネットワーク300を介して相互に通信を行うことができる。   As illustrated, the client system 200 includes a fixed point camera 210, a display device 220, and a client computer 230, and the server system 400 includes a server computer 410. The client computer 230 and the server computer 410 can communicate with each other via the network 300.

定点カメラ210は、所定の撮影対象領域に対して動画撮影を行うことにより、時系列で並んだフレーム単位の画像を取得する機能を有しており、この定点カメラ210が取得したフレーム単位の画像は、これまでの説明で述べた原画像P(t)として、クライアントコンピュータ230に与えられる。クライアントコンピュータ230は、定点カメラ210から与えられた原画像P(t)を入力して、所定の処理を実行する。ディスプレイ装置220は、クライアントコンピュータ230の指示に基づいて画像表示を行う。一方、サーバコンピュータ410は、クライアントコンピュータ230とネットワーク300を介した通信を行いながら、所定の処理を実行する。   The fixed point camera 210 has a function of acquiring images in units of frames arranged in time series by performing moving image shooting on a predetermined shooting target region, and the frame unit image acquired by the fixed point camera 210. Is given to the client computer 230 as the original image P (t) described in the above description. The client computer 230 inputs the original image P (t) given from the fixed point camera 210 and executes a predetermined process. The display device 220 displays an image based on an instruction from the client computer 230. On the other hand, the server computer 410 executes predetermined processing while communicating with the client computer 230 via the network 300.

クライアントコンピュータ230には、専用のクライアントコンピュータ用プログラムがインストールされており、このクライアントコンピュータ用プログラムに基づく動作により、図1に示す個体の検出装置100としての一部の処理を実行する。一方、サーバコンピュータ410には、専用のサーバコンピュータ用プログラムがインストールされており、このサーバコンピュータ用プログラムに基づく動作により、図1に示す個体の検出装置100としての他の一部の処理(クライアントコンピュータ230側では行われない処理)を実行する。   A dedicated client computer program is installed in the client computer 230, and a part of the processing as the individual detection apparatus 100 shown in FIG. 1 is executed by an operation based on the client computer program. On the other hand, a dedicated server computer program is installed in the server computer 410, and other processes (client computer) as the individual detection apparatus 100 shown in FIG. 1 are performed by operations based on the server computer program. Processing that is not performed on the 230 side is executed.

クライアントコンピュータ230の機能により、ディスプレイ装置220の表示画面には、定点カメラ210による撮影画像(原画像P(t))がリアルタイムで表示され、更に、個体認識部160による認識結果を示す情報(たとえば、静止個体と認識された個体を示す静止個体指標sや動作個体と認識された個体を示す動作個体指標m)が表示される。この監視システムを利用する監視員は、ディスプレイ装置220の表示画面に表示された撮影画像と上記認識結果を示す情報とにより、リアルタイムで撮影画像上に現れている静止個体と動作個体とを視覚的に区別して把握することができる。   Due to the function of the client computer 230, an image captured by the fixed point camera 210 (original image P (t)) is displayed in real time on the display screen of the display device 220, and information indicating the recognition result by the individual recognition unit 160 (for example, Then, a stationary individual index s indicating an individual recognized as a stationary individual and a moving individual index m) indicating an individual recognized as a moving individual are displayed. A monitoring person who uses this monitoring system visually identifies a stationary object and a moving object appearing on the captured image in real time based on the captured image displayed on the display screen of the display device 220 and information indicating the recognition result. Can be distinguished and understood.

また、監視員は、必要に応じて、クライアントコンピュータ230に対して何らかの操作入力を与えることにより、個体の検出装置100としての動作に対して指示を与えることができる。たとえば、図17に例示するような表示モードの切替を行うことができる。このように、この監視システムを利用する監視員にとっては、クライアントシステム200が直接の操作対象ということになるが、サーバシステム400がクラウド環境を提供する役割を果たし、クライアントシステム200に代わって一部の処理を実行することができる。   In addition, the monitor can give an instruction to the operation of the individual detection device 100 by giving some operation input to the client computer 230 as necessary. For example, the display mode can be switched as illustrated in FIG. As described above, for the monitor who uses this monitoring system, the client system 200 is a direct operation target. However, the server system 400 plays a role of providing a cloud environment, and a part of the client system 200 is replaced. Can be executed.

図1に示す個体の検出装置100の各構成要素の役割を、クライアントシステム200とサーバシステム400との間でどのように分担するかは、当該監視システムの用途、定点カメラ210による撮影画像の情報量、クライアントコンピュータ230の処理能力などを考慮して、適宜定めればよいが、一般的には、リアルタイムでの処理を行うために高速性が要求される処理についてはクライアントシステム200側に担当させるようにし、クライアントコンピュータ230によって処理させるには演算負担が大きすぎる処理についてはサーバシステム400側に担当させるようにするのが好ましい。   The role of each component of the individual detection apparatus 100 shown in FIG. 1 is shared between the client system 200 and the server system 400 depending on the use of the monitoring system and information on the image captured by the fixed point camera 210. However, in general, the client system 200 is in charge of processing that requires high speed in order to perform real-time processing. Thus, it is preferable that the server system 400 is in charge of processing that is too computationally intensive to be processed by the client computer 230.

なお、図37に示す監視システムでは、図示のとおり、クライアントコンピュータ230が外部に対して警報を発する機能を有している。図示の例の場合、警報は監視員に対してなされるものであり、ランプの点灯やブザーの鳴動などによる報知がなされる。もちろん、ネットワーク300を介して、サーバシステム400やその他の場所に警報を伝えるようにしてもかまわない。   In the monitoring system shown in FIG. 37, the client computer 230 has a function of issuing an alarm to the outside as shown. In the case of the example shown in the figure, the warning is given to the supervisor, and notification is made by lighting the lamp or sounding the buzzer. Of course, an alarm may be transmitted to the server system 400 and other places via the network 300.

この警報は、個体認識部160による静止個体もしくは動作個体の認識結果に基づいて発せられるものであり、予め設定された発報条件が満たされた場合に、外部に対してなされるものである。たとえば、「静止個体の総数が所定の基準値を超えた場合」あるいは「動作個体の総数が所定の基準値を超えた場合」といった発報条件を設定しておき、個体認識部160に、各時点で認識された静止個体や動作個体の総数を計数する機能をもたせておけば、上記発報条件が満たされた場合に外部へ警報を発することができる。もちろん、「静止個体の総数が所定の基準値を超えた状態が所定の基準時間以上継続した場合」あるいは「動作個体の総数が所定の基準値を超えた状態が所定の基準時間以上継続した場合」というように、時間を含む発報条件を設定することも可能である。   This alarm is issued based on the recognition result of the stationary individual or the moving individual by the individual recognition unit 160, and is given to the outside when a preset reporting condition is satisfied. For example, a notification condition such as “when the total number of stationary individuals exceeds a predetermined reference value” or “when the total number of moving individuals exceeds a predetermined reference value” is set, If a function for counting the total number of stationary and moving individuals recognized at the time is provided, an alarm can be issued to the outside when the above-described reporting conditions are satisfied. Of course, “when the total number of stationary individuals exceeds a predetermined reference value continues for a predetermined reference time” or “when the total number of moving individuals exceeds a predetermined reference value continues for a predetermined reference time” It is also possible to set a notification condition including time.

なお、図37に示す監視システムは、クライアントシステム200とサーバシステム400とによって構成され、図1に示す個体の検出装置100として必要な処理を両システムで分担して実行するシステムであるが、もちろん、図示のクライアントコンピュータ230に必要な処理をすべて実行させるようにして、クライアントコンピュータ230のみが独立して、図1に示す個体の検出装置100として機能するようにしてもかまわない。   The monitoring system shown in FIG. 37 is configured by the client system 200 and the server system 400, and is a system that executes the processing necessary for the individual detection device 100 shown in FIG. The client computer 230 shown in the figure may execute all necessary processes, and only the client computer 230 may function independently as the individual detection apparatus 100 shown in FIG.

この場合、クライアントコンピュータ230は、必ずしもネットワーク300に接続されている必要はなく、いわゆるスタンドアロン型のコンピュータであってかまわない。この場合、監視システムは、所定の撮影対象領域に対して動画撮影を行うことにより、時系列で並んだフレーム単位の画像を取得する定点カメラ210と、この定点カメラが取得したフレーム単位の画像を原画像として入力して、所定の処理を実行するコンピュータ230と、このコンピュータ230の指示に基づいて画像表示を行うディスプレイ装置220と、によって構成されることになり、コンピュータ230は、インストールされたプログラムに基づく動作により、図1に示す個体の検出装置100として機能することになる。   In this case, the client computer 230 is not necessarily connected to the network 300, and may be a so-called stand-alone computer. In this case, the monitoring system performs moving image shooting on a predetermined shooting target region, thereby obtaining a fixed point camera 210 that acquires images in frame units arranged in time series, and an image in frame units acquired by the fixed point camera. The computer 230 is input as an original image and executes predetermined processing, and the display device 220 that displays an image based on an instruction of the computer 230. The computer 230 is an installed program. By the operation based on, it functions as the individual detection apparatus 100 shown in FIG.

図37に示すクライアントシステム200は、定点カメラ210で撮影した画像をクライアントコンピュータ230で即座に処理し、その結果をディスプレイ装置220にリアルタイムで表示する機能をもった監視システムである。このような監視システムを用いれば、監視員は、リアルタイムで監視を行うことが可能になる。ただ、実用上は、必ずしも、このようなリアルタイムの監視が必要になるわけではなく、過去の撮影画像を後に確認しながら不審者の有無を確認するような業務(ここでは、便宜上、事後監視と呼ぶ)を行うケースもある。   A client system 200 shown in FIG. 37 is a monitoring system having a function of immediately processing an image photographed by the fixed point camera 210 by the client computer 230 and displaying the result on the display device 220 in real time. If such a monitoring system is used, the monitoring staff can perform monitoring in real time. However, in practice, this kind of real-time monitoring is not necessarily required, and a task of checking the presence or absence of a suspicious person while confirming past captured images later (here, for the sake of convenience In some cases.

このような事後監視を行うためには、たとえば、図37に示すクライアントシステム200において、定点カメラ210の代わりに、事前に撮影された動画データ(所定の撮影対象領域に対して動画撮影を行うことにより得られた、時系列で並んだフレーム単位の画像)を保存した入力用の画像保存装置を用いて監視システムを構成すればよい。入力用の画像保存装置としては、ビデオ録画再生機器やコンピュータ用のハードディスク装置を用いればよい。クライアントコンピュータ230は、定点カメラ210からのフレーム単位の画像を原画像として入力して所定の処理を実行する代わりに、入力用の画像保存装置に保存されているフレーム単位の画像を原画像として入力して、所定の処理を実行することになる。   In order to perform such post-monitoring, for example, in the client system 200 shown in FIG. 37, instead of the fixed point camera 210, moving image data (moving image shooting is performed on a predetermined shooting target area). The monitoring system may be configured using the input image storage device that stores the images of the frame units arranged in time series obtained by the above. As an input image storage device, a video recording / playback device or a hard disk device for a computer may be used. The client computer 230 inputs the frame unit image stored in the input image storage device as the original image instead of inputting the frame unit image from the fixed point camera 210 as the original image and executing a predetermined process. Thus, a predetermined process is executed.

たとえば、図37に示すクライアントシステム200において、定点カメラ210を入力用の画像保存装置(たとえば、ビデオ録画再生機器)に置き換えることにより事後監視システムを構成しておけば、ビデオ録画再生機器によって過去に撮影された動画を再生し、これをクライアントコンピュータ230によって処理することにより、ディスプレイ装置220上には、静止個体指標や動作個体指標を原画像(再生された動画)に重畳させた個体検出画像を表示させることができるので、リアルタイムではないものの、過去の撮影画像上に存在する不審者を発見する用途に役立てることができる。   For example, in the client system 200 shown in FIG. 37, if a post-mortem monitoring system is configured by replacing the fixed point camera 210 with an input image storage device (for example, a video recording / playback device), the video recording / playback device can By reproducing the captured moving image and processing it by the client computer 230, an individual detection image obtained by superimposing a stationary individual index or a moving individual index on the original image (reproduced moving image) is displayed on the display device 220. Since it can be displayed, it can be used for finding a suspicious person existing on a past photographed image, although it is not in real time.

もちろん、定点カメラ210と入力用の画像保存装置との双方を設けておけば、クライアントコンピュータ230は、定点カメラ210から入力した画像に基づいてリアルタイムでの監視を行うこともできるし、画像保存装置から入力した画像に基づいて事後監視を行うこともできる。   Of course, if both the fixed point camera 210 and the input image storage device are provided, the client computer 230 can perform real-time monitoring based on the image input from the fixed point camera 210, and the image storage device. It is also possible to perform post-mortem monitoring based on the image input from.

また、ディスプレイ装置220の代わりに、クライアントコンピュータ230から与えられる画像を保存する出力用の画像保存装置を設けることにより、事後監視に利用することも可能である。たとえば、図37に示すクライアントシステム200において、ディスプレイ装置220を出力用の画像保存装置に置き換えることにより事後監視システムを構成しておけば、クライアントコンピュータ230に、定点カメラ210で撮影された画像に基づいて個体検出画像を作成させ、この個体検出画像からなる動画を、ディスプレイ装置220上に表示させる代わりに、出力用の画像保存装置に保存させることができる。   Further, instead of the display device 220, an image storage device for output that stores an image given from the client computer 230 is provided, so that it can be used for post-monitoring. For example, in the client system 200 shown in FIG. 37, if the post-mortem monitoring system is configured by replacing the display device 220 with an output image storage device, the client computer 230 is based on the image taken by the fixed point camera 210. Thus, an individual detection image can be created, and a moving image composed of the individual detection image can be stored in an output image storage device instead of being displayed on the display device 220.

たとえば、出力用の画像保存装置としてビデオ録画再生機器を用い、クライアントコンピュータ230から出力される個体検出画像からなる動画を、DVD−Rなどの光学式情報記録媒体に保存するようにすれば、保存された動画は、定点カメラ210で撮影された動画に静止個体指標や動作個体指標を重畳させたものになるので、図示のシステムとは全く別のビデオ録画再生機器等によって再生しながら、事後監視業務を行うことも可能である。   For example, if a video recording / playback device is used as an output image storage device and a moving image composed of individual detection images output from the client computer 230 is stored in an optical information recording medium such as a DVD-R, the storage is performed. Since the moving image is obtained by superimposing the stationary individual index and the moving individual index on the video captured by the fixed point camera 210, it is monitored by the video recording / reproducing apparatus completely different from the system shown in FIG. It is also possible to do business.

もちろん、ディスプレイ装置220と出力用の画像保存装置との双方を設けておけば、クライアントコンピュータ230は、出力画像をディスプレイ装置220に表示させることもできるし、出力用の画像保存装置に保存させることもできる。   Of course, if both the display device 220 and the output image storage device are provided, the client computer 230 can display the output image on the display device 220 or can store the output image in the output image storage device. You can also.

また、入力用の画像保存装置と出力用の画像保存装置との双方を設けるようにしてもかまわない。この場合、実用上は、1台の画像保存装置を、入力用の画像保存装置および出力用の画像保存装置として共用することもできる。あるいは、入力用の画像保存装置や出力用の画像保存装置を、クライアントシステム200側ではなくサーバシステム400側に設け、クライアントコンピュータ230が、ネットワーク300を介して原画像を入力し、処理後の個体検出画像をネットワーク300を介してサーバシステム400側に出力して保存するような形態をとることも可能である。   Further, both an input image storage device and an output image storage device may be provided. In this case, in practice, one image storage device can be shared as an input image storage device and an output image storage device. Alternatively, an image storage device for input and an image storage device for output are provided on the server system 400 side instead of the client system 200 side, and the client computer 230 inputs the original image via the network 300, and the processed individual The detected image may be output to the server system 400 via the network 300 and stored.

100:個体の検出装置
110:原画像入力部
120:背景画像格納部
130:背景差分画像作成部
140:フレーム間差分画像作成部
150:重複有無判定部
160:個体認識部
161:静止個体認識部
162:動作個体認識部
170:検出個体表示部
200:クライアントシステム
210:定点カメラ
220:ディスプレイ装置
230:クライアントコンピュータ
300:ネットワーク(インターネット)
400:サーバシステム
410:サーバコンピュータ
A,A0〜A4:第1の個体(大人)
a(xa,ya):画素
B,B0〜B4:第2の個体(子供)
BG:背景画像
Bu,Bv:青色画素の画素値
b(xb,yb):画素
C(t),C(t1)〜C(t4):重複確認画像
c1(t1)〜c2(t4):重複部分領域
c(xc,yc):画素
D(t),D(t1)〜D(t4):背景差分画像
d1(t),d2(t):背景差分領域
d1(t1)〜d2(t4):背景差分領域
di(t):背景差分領域
dd1(t1),dd1(t2),dd2(t1),dd2(t2):背景差分領域の外接矩形
ddi(t):背景差分領域の外接矩形
F(t),F(t1)〜F(t4):フレーム間差分画像
f1(t),f2(t),f3(t):フレーム間差分領域
f1(t1)〜f2(t4):フレーム間差分領域
fj(t):フレーム間差分領域
ff1(t1),ff1(t2),ff2(t1):フレーム間差分領域の外接矩形
ffi(t):フレーム間差分領域の外接矩形
Gu,Gv:緑色画素の画素値
h:動作個体指標番号
IMG(AND):論理積画像
IMG(OR):論理和画像
Imax:背景差分領域番号の最大値
i:背景差分領域番号
Jmax:フレーム間差分領域番号の最大値
j:フレーム間差分領域番号
k:静止個体指標番号
L:ラベリング情報
m,m1(t1),m2(t1),m1(t2),m1(t4):動作個体指標
mh(t):動作個体指標
m′1(t1),m′2(t1):仮動作個体指標
m′h(t):仮動作個体指標
mm1(t1),mm1(t2),mm2(t1):動作個体指標
mmh(t):動作個体指標
mm′1(t1),mm′2(t1):仮動作個体指標
mm′h(t):仮動作個体指標
n:フレーム番号
P(t),P(t0)〜P(t4):原画像(時系列で並んだフレーム単位の画像)
Q(t):個体検出画像
Q(t)−M:動作個体の個体検出画像
Q(t1)−M:動作個体の個体検出画像
Q(t2)−M:動作個体の個体検出画像
Q(t3)−M:動作個体の個体検出画像
Q(t4)−M:動作個体の個体検出画像
Q(t)−S:静止個体の個体検出画像
Q(t1)−S:静止個体の個体検出画像
Q(t2)−S:静止個体の個体検出画像
Q(t3)−S:静止個体の個体検出画像
Q(t4)−S:静止個体の個体検出画像
Q(t)−SM:静止個体・動作個体の個体検出画像
Q(t1)−SM:静止個体・動作個体の個体検出画像
Q(t2)−SM:静止個体・動作個体の個体検出画像
Q(t3)−SM:静止個体・動作個体の個体検出画像
Q(t4)−SM:静止個体・動作個体の個体検出画像
R,Ra,Rb,Rc:矩形
Ru,Rv:赤色画素の画素値
S11〜S42:流れ図の各ステップ
s,s1(t2),s1(t3),s2(t3),s1(t4):静止個体指標
sk(t):静止個体指標
ss1(t2):静止個体指標
ssk(t):静止個体指標
t,t0〜t4:時刻
U:カラー画像
U′:輝度画像
V:カラー画像
V′:輝度画像
VAL(OR):総合論理和
VAL(Overlap):矩形重複判定値
W:二値化差分画像
W′:差分画像
w1,w2:差分領域
x1〜x4:X座標値
xmax:X座標の最大値
xmin:X座標の最小値
Yu,Yv:輝度値
y1〜y4:Y座標値
ymax:Y座標の最大値
ymin:Y座標の最小値
ΔY:輝度値の差の絶対値
100: individual detection device 110: original image input unit 120: background image storage unit 130: background difference image creation unit 140: inter-frame difference image creation unit 150: overlap determination unit 160: individual recognition unit 161: stationary individual recognition unit 162: Motion individual recognition unit 170: Detected individual display unit 200: Client system 210: Fixed point camera 220: Display device 230: Client computer 300: Network (Internet)
400: Server system 410: Server computer A, A0 to A4: First individual (adult)
a (xa, ya): pixels B, B0 to B4: second individual (child)
BG: Background image Bu, Bv: Pixel value b (xb, yb) of blue pixel: Pixels C (t), C (t1) to C (t4): Overlapping confirmation images c1 (t1) to c2 (t4): Overlapping Partial region c (xc, yc): Pixels D (t), D (t1) to D (t4): Background difference images d1 (t), d2 (t): Background difference regions d1 (t1) to d2 (t4) : Background difference area di (t): Background difference area dd1 (t1), dd1 (t2), dd2 (t1), dd2 (t2): circumscribed rectangle of background difference area ddi (t): circumscribed rectangle F of background difference area (T), F (t1) to F (t4): Inter-frame difference images f1 (t), f2 (t), f3 (t): Inter-frame difference areas f1 (t1) to f2 (t4): Inter-frame differences Region fj (t): Inter-frame difference region ff1 (t1), ff1 (t2), ff2 (t1 : Circumscribing rectangle fi (t) of inter-frame difference area: circumscribing rectangle Gu, Gv: inter-frame difference area pixel value h: motion individual index number IMG (AND): logical product image IMG (OR): logical sum Image Imax: Maximum value of background difference area number i: Background difference area number Jmax: Maximum value of interframe difference area number j: Interframe difference area number k: Stationary individual index number L: Labeling information m, m1 (t1), m2 (t1), m1 (t2), m1 (t4): Motion individual index mh (t): Motion individual index m′1 (t1), m′2 (t1): Temporary motion individual index m′h (t) : Temporary motion individual index mm1 (t1), mm1 (t2), mm2 (t1): Motion individual index mmh (t): Motion individual index mm'1 (t1), mm'2 (t1): Temporary motion individual index mm ′ H (t): provisional motion individual index n: Frame number P (t), P (t0) ~P (t4): the original image (image of the frame unit lined up in chronological order)
Q (t): individual detection image Q (t) -M: individual detection image Q (t1) -M: individual detection image Q (t2) -M: individual detection image Q (t3) ) -M: individual detection image Q (t4) of the moving individual M: individual detection image Q (t) of the moving individual S: individual detection image Q (t1) of the stationary individual S: individual detection image Q of the stationary individual (T2) -S: individual detection image Q (t3) -S: stationary individual detection image Q (t4) -S: stationary individual detection image Q (t) -SM: stationary individual / moving individual Individual detection image Q (t1) -SM: stationary individual / moving individual detection image Q (t2) -SM: stationary individual / moving individual detection image Q (t3) -SM: stationary individual / moving individual Detected image Q (t4) -SM: Individual detected image R, Ra, Rb, Rc of stationary and moving individuals Rectangles Ru, Rv: Pixel values S11 to S42 of red pixels: Steps s, s1 (t2), s1 (t3), s2 (t3), s1 (t4) of the flowchart: Stationary individual index sk (t): Stationary individual Index ss1 (t2): Stationary individual index ssk (t): Stationary individual index t, t0 to t4: Time U: Color image U ′: Luminance image V: Color image V ′: Luminance image VAL (OR): Total OR VAL (Overlap): rectangle overlap determination value W: binarized difference image W ′: difference image w1, w2: difference area x1 to x4: X coordinate value xmax: maximum value of X coordinate xmin: minimum value Yu of X coordinate Yv: luminance values y1 to y4: Y coordinate value ymax: maximum value of Y coordinate ymin: minimum value of Y coordinate ΔY: absolute value of difference in luminance value

Claims (58)

所定の撮影対象領域内に存在する個体を、静止中の静止個体もしくは動作中の動作個体として検出する個体の検出装置であって、
所定の撮影対象領域に対する撮影によって時系列で並んだフレーム単位の画像として得られた各原画像を入力する原画像入力部と、
前記撮影対象領域についての背景画像を格納する背景画像格納部と、
前記原画像入力部が入力した各原画像について、前記背景画像との差分を示す背景差分領域を含む背景差分画像を作成する背景差分画像作成部と、
前記原画像入力部が入力した各原画像について、時系列における異なるフレームとの差分を示すフレーム間差分領域を含むフレーム間差分画像を作成するフレーム間差分画像作成部と、
前記背景差分画像内の個々の背景差分領域について、前記フレーム間差分画像内のフレーム間差分領域に対する重複部分の有無を判定する重複有無判定部と、
前記重複有無判定部による判定結果に基づいて、前記原画像に含まれる個体を静止個体もしくは動作個体と認識する個体認識部と、
を備えることを特徴とする撮影画像内の個体の検出装置。
An individual detection device for detecting an individual existing in a predetermined imaging target region as a stationary individual at rest or an operating individual at motion,
An original image input unit for inputting each original image obtained as an image in frame units arranged in time series by photographing with respect to a predetermined photographing target area;
A background image storage unit that stores a background image of the imaging target region;
For each original image input by the original image input unit, a background difference image creation unit that creates a background difference image including a background difference region indicating a difference from the background image;
For each original image input by the original image input unit, an inter-frame difference image creating unit that creates an inter-frame difference image including an inter-frame difference region indicating a difference from different frames in time series, and
For each background difference area in the background difference image, an overlap presence / absence determination unit that determines the presence / absence of an overlapping portion with respect to the inter-frame difference area in the inter-frame difference image;
Based on the determination result by the duplication presence / absence determination unit, an individual recognition unit that recognizes an individual included in the original image as a stationary individual or a moving individual;
A device for detecting an individual in a photographed image.
請求項1に記載の撮影画像内の個体の検出装置において、
個体認識部が、重複有無判定部によって、フレーム間差分領域に対する実質的な重複部分は無い、との判定結果が得られた背景差分領域を占める個体を、静止個体と認識する静止個体認識部を有することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 1,
The individual recognition unit recognizes an individual occupying the background difference region, which is obtained as a result of the determination that there is no substantial overlap with the inter-frame difference region, by the duplication presence / absence determination unit as a stationary individual. An apparatus for detecting an individual in a photographed image, comprising:
請求項2に記載の撮影画像内の個体の検出装置において、
静止個体認識部によって静止個体と認識された個体を示す静止個体指標を表示する検出個体表示部を更に有することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 2,
An apparatus for detecting an individual in a photographed image, further comprising: a detected individual display unit that displays a stationary individual index indicating an individual recognized as a stationary individual by the stationary individual recognition unit.
請求項3に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体を示す静止個体指標を、当該静止個体が占める背景差分領域に基づいて作成することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 3,
An apparatus for detecting an individual in a photographed image, wherein the detected individual display unit creates a stationary individual index indicating a stationary individual based on a background difference area occupied by the stationary individual.
請求項1に記載の撮影画像内の個体の検出装置において、
個体認識部が、重複有無判定部によって、少なくとも一部の領域についてフレーム間差分領域に対する実質的な重複部分が有る、との判定結果が得られた背景差分領域を占める個体を、動作個体と認識する動作個体認識部を有することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 1,
The individual recognition unit recognizes an individual that occupies a background difference region from which the determination result that at least a part of the region has a substantial overlap portion with respect to the inter-frame difference region is obtained by the overlap presence / absence determination unit as an operation individual An apparatus for detecting an individual in a photographed image, characterized by comprising an action individual recognition unit.
請求項5に記載の撮影画像内の個体の検出装置において、
動作個体認識部によって動作個体と認識された個体を示す動作個体指標を表示する検出個体表示部を更に有することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 5,
An apparatus for detecting an individual in a photographed image, further comprising a detected individual display unit that displays an operating individual index indicating an individual recognized as an operating individual by the operating individual recognition unit.
請求項6に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、動作個体を示す動作個体指標を、当該動作個体が占める背景差分領域に基づいて作成することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 6,
An apparatus for detecting an individual in a captured image, wherein the detected individual display unit creates an operating individual index indicating the operating individual based on a background difference area occupied by the operating individual.
請求項6に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、動作個体を示す動作個体指標を、当該動作個体が占めるフレーム間差分領域に対して、当該動作個体が占める背景差分領域に基づく補正を施すことにより作成することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 6,
The detected object display unit creates an action object index indicating an action object by performing correction based on a background difference area occupied by the action object on an inter-frame difference area occupied by the action object. A device for detecting an individual in a captured image.
請求項8に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、動作個体が占めるフレーム間差分領域と当該動作個体が占める背景差分領域とについて、領域を構成する図形の論理和演算を行うことにより、補正を実行することを特徴とする撮影画像内の個体の検出装置。
In the detection device of the individual in the photographed image according to claim 8,
The detected individual display unit performs correction by performing a logical OR operation on a figure constituting the region for the inter-frame difference region occupied by the moving individual and the background difference region occupied by the moving individual. A device for detecting an individual in an image.
請求項1に記載の撮影画像内の個体の検出装置において、
個体認識部が、
重複有無判定部によって、フレーム間差分領域に対する実質的な重複部分は無い、との判定結果が得られた背景差分領域を占める個体を、静止個体と認識する静止個体認識部と、
重複有無判定部によって、少なくとも一部の領域についてフレーム間差分領域に対する実質的な重複部分が有る、との判定結果が得られた背景差分領域を占める個体を、動作個体と認識する動作個体認識部と、
を有することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 1,
The individual recognition unit
A stationary individual recognizing unit that recognizes an individual occupying a background differential region obtained as a result of determination that there is no substantial overlapping portion with respect to the inter-frame difference region by the duplication presence / absence determining unit,
The motion individual recognition unit that recognizes an individual occupying the background difference region from which the determination result that at least a part of the region has a substantial overlap with the inter-frame difference region is obtained by the overlap presence / absence determination unit as a motion individual When,
A device for detecting an individual in a photographed image.
請求項10に記載の撮影画像内の個体の検出装置において、
静止個体認識部によって静止個体と認識された個体を示す静止個体指標と、動作個体と認識された個体を示す動作個体指標とを、それぞれ視覚的に区別可能な態様で表示する検出個体表示部を更に有することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 10,
A detected individual display unit for displaying a stationary individual index indicating an individual recognized as a stationary individual by a stationary individual recognition unit and a moving individual index indicating an individual recognized as a moving individual in a visually distinguishable manner. An apparatus for detecting an individual in a photographed image, further comprising:
請求項11に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体を示す静止個体指標を、当該静止個体が占める背景差分領域に基づいて作成し、動作個体を示す動作個体指標を、当該動作個体が占める背景差分領域に基づいて作成することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 11,
The detected individual display unit creates a stationary individual index indicating a stationary individual based on the background difference area occupied by the stationary individual, and creates an operating individual index indicating the moving individual based on the background difference area occupied by the moving individual. An apparatus for detecting an individual in a photographed image.
請求項11に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体を示す静止個体指標を、当該静止個体が占める背景差分領域に基づいて作成し、動作個体を示す動作個体指標を、当該動作個体が占めるフレーム間差分領域に対して、当該動作個体が占める背景差分領域に基づく補正を施すことにより作成することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 11,
The detected individual display unit creates a stationary individual index indicating a stationary individual based on the background difference area occupied by the stationary individual, and an operating individual index indicating the moving individual is calculated with respect to the inter-frame difference area occupied by the moving individual. An apparatus for detecting an individual in a captured image, which is created by performing correction based on a background difference area occupied by the moving individual.
請求項13に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、動作個体が占めるフレーム間差分領域と当該動作個体が占める背景差分領域とについて、領域を構成する図形の論理和演算を行うことにより、補正を実行することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 13,
The detected individual display unit performs correction by performing a logical OR operation on a figure constituting the region for the inter-frame difference region occupied by the moving individual and the background difference region occupied by the moving individual. A device for detecting an individual in an image.
請求項3,4,6〜9のいずれかに記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を原画像に重畳させることにより個体検出画像を作成し、この個体検出画像をディスプレイ画面上に表示することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image in any one of Claims 3, 4, 6-9,
A detected individual display unit creates an individual detected image by superimposing a stationary individual index or a moving individual index on an original image, and displays the individual detected image on a display screen. Detection device.
請求項15に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された閉領域指標によって構成し、原画像に前記閉領域指標を重畳させることにより個体検出画像を作成することを特徴とする撮影画像内の個体の検出装置。
In the detection device of the individual in the picked-up image according to claim 15,
The detected individual display unit is arranged in the vicinity of the area occupied by the target individual with the stationary individual index or the moving individual index, and the inside is painted with a predetermined color or the closed area index in which the predetermined pattern is formed An apparatus for detecting an individual in a captured image, comprising: creating an individual detection image by superimposing the closed region index on an original image.
請求項16に記載の撮影画像内の個体の検出装置において、
閉領域指標が、半透明の色で塗られるかもしくは部分的に隙間のあるパターンが形成された閉領域によって構成され、原画像に前記閉領域指標を重畳させた場合に、原画像が前記閉領域指標を通して透けて表示されるようにしたことを特徴とする撮影画像内の個体の検出装置。
In the device for detecting an individual in a captured image according to claim 16,
The closed region index is configured by a closed region that is painted in a semi-transparent color or has a partially spaced pattern, and when the closed region index is superimposed on the original image, the original image is A device for detecting an individual in a captured image, wherein the device is displayed through a region index.
請求項15に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体を囲む枠状指標によって構成し、原画像に前記枠状指標を重畳させることにより個体検出画像を作成することを特徴とする撮影画像内の個体の検出装置。
In the detection device of the individual in the picked-up image according to claim 15,
The detected individual display unit comprises a stationary individual index or a moving individual index by a frame-shaped index surrounding a target individual, and creates an individual detection image by superimposing the frame-shaped index on an original image. A device for detecting an individual in a captured image.
請求項15に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体の輪郭線を示す輪郭指標によって構成し、原画像に前記輪郭指標を重畳させることにより個体検出画像を作成することを特徴とする撮影画像内の個体の検出装置。
In the detection device of the individual in the picked-up image according to claim 15,
The detected individual display unit includes a stationary individual index or a moving individual index by a contour index indicating a contour line of a target individual, and creates an individual detection image by superimposing the contour index on an original image. A device for detecting an individual in a photographed image.
請求項15に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体部分に開口窓が配置され、前記開口窓以外の部分が被覆されたマスク画像によって構成し、原画像に前記マスク画像を重畳させることにより個体検出画像を作成することを特徴とする撮影画像内の個体の検出装置。
In the detection device of the individual in the picked-up image according to claim 15,
The detected individual display unit includes a stationary individual index or a moving individual index, a mask image in which an aperture window is arranged in a target individual portion and a portion other than the aperture window is covered, and the mask image is included in an original image. An apparatus for detecting an individual in a captured image, wherein an individual detection image is created by superimposing the individual detection images.
請求項11〜14のいずれかに記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標および動作個体指標を原画像に重畳させることにより個体検出画像を作成し、この個体検出画像をディスプレイ画面上に表示することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image in any one of Claims 11-14,
The detected individual display unit creates an individual detected image by superimposing a stationary individual index and a moving individual index on the original image, and displays the individual detected image on a display screen. Detection device.
請求項21に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された第1の閉領域指標によって構成し、動作個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された第2の閉領域指標によって構成し、前記第1の閉領域指標と前記第2の閉領域指標とは、互いに異なる色によって塗られるかもしくは互いに異なるパターンが形成された閉領域となるようにし、原画像に前記第1の閉領域指標および前記第2の閉領域指標を重畳させることにより個体検出画像を作成することを特徴とする撮影画像内の個体の検出装置。
In the detection device of the individual in the picked-up image according to claim 21,
The detected individual display unit is configured by a first closed region index in which a stationary individual index is arranged in the vicinity of a region occupied by the target individual and the inside is painted with a predetermined color or a predetermined pattern is formed inside The moving individual indicator is configured by a second closed region indicator which is arranged in the vicinity of the region occupied by the target individual and whose interior is painted with a predetermined color or has a predetermined pattern formed therein, The closed region index of 1 and the second closed region index are closed regions in which different colors are applied or different patterns are formed, and the first closed region index and the An apparatus for detecting an individual in a captured image, wherein an individual detection image is created by superimposing a second closed region index.
請求項22に記載の撮影画像内の個体の検出装置において、
第1の閉領域指標および第2の閉領域指標が、半透明の色で塗られるかもしくは部分的に隙間のあるパターンが形成された閉領域によって構成され、原画像に前記各閉領域指標を重畳させた場合に、原画像が前記各閉領域指標を通して透けて表示されるようにしたことを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 22,
The first closed region index and the second closed region index are constituted by closed regions that are painted in a semi-transparent color or partially formed with a gap pattern, and each closed region index is added to the original image. An apparatus for detecting an individual in a photographed image, wherein when superimposed, an original image is displayed through each closed region index.
請求項21に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標を、対象となる静止個体を囲む第1の枠状指標によって構成し、動作個体指標を、対象となる動作個体を囲む第2の枠状指標によって構成し、前記第1の枠状指標と前記第2の枠状指標とは、線種、色、形状、太さのうちの少なくとも1つが互いに異なる枠線によって構成されるようにし、原画像に前記第1の枠状指標および前記第2の枠状指標を重畳させることにより個体検出画像を作成することを特徴とする撮影画像内の個体の検出装置。
In the detection device of the individual in the picked-up image according to claim 21,
The detected individual display unit configures the stationary individual index by a first frame-shaped index surrounding the target stationary individual, and configures the moving individual index by the second frame-shaped index surrounding the target moving individual, The first frame-shaped index and the second frame-shaped index are configured by frame lines having at least one of line type, color, shape, and thickness different from each other, and the first frame-shaped index is included in the original image. A device for detecting an individual in a photographed image, wherein an individual detection image is created by superimposing the frame-shaped index and the second frame-shaped index.
請求項21に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標を、対象となる静止個体の輪郭線を示す第1の輪郭指標によって構成し、動作個体指標を、対象となる動作個体の輪郭線を示す第2の輪郭指標によって構成し、前記第1の輪郭指標と前記第2の輪郭指標とは、線種、色、太さのうちの少なくとも1つが互いに異なる輪郭線によって構成されるようにし、原画像に前記第1の輪郭指標および前記第2の輪郭指標を重畳させることにより個体検出画像を作成することを特徴とする撮影画像内の個体の検出装置。
In the detection device of the individual in the picked-up image according to claim 21,
The detected individual display unit configures the stationary individual index by the first contour index indicating the contour line of the target stationary individual, and the moving individual index indicates the second contour index indicating the contour line of the target moving individual. The first contour index and the second contour index are configured by contour lines that are different from each other in at least one of line type, color, and thickness, and the first image is included in the original image. A device for detecting an individual in a photographed image, wherein an individual detection image is created by superimposing the second contour index and the second contour index.
請求項21〜25のいずれかに記載の撮影画像内の個体の検出装置において、
検出個体表示部が、
ディスプレイ画面上に原画像を表示する原画像表示モードと、
ディスプレイ画面上に静止個体指標と動作個体指標と原画像とを重畳させた個体検出画像を表示する全個体表示モードと、
ディスプレイ画面上に静止個体指標と原画像とを重畳させた個体検出画像を表示する静止個体表示モードと、
ディスプレイ画面上に動作個体指標と原画像とを重畳させた個体検出画像を表示する動作個体表示モードと、
の4通りの表示モードによる表示機能を有し、任意の表示モードに切り替えて表示を行うことを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image in any one of Claims 21-25,
The detected individual display section
An original image display mode for displaying the original image on the display screen;
An all-individual display mode for displaying an individual detection image in which a stationary individual index, a motion individual index, and an original image are superimposed on a display screen;
A stationary individual display mode for displaying an individual detection image in which a stationary individual index and an original image are superimposed on a display screen;
An action individual display mode for displaying an individual detection image in which an action individual indicator and an original image are superimposed on a display screen;
A display device for detecting an individual in a photographed image, which has a display function based on the following four display modes and performs display by switching to an arbitrary display mode.
請求項1〜26のいずれかに記載の撮影画像内の個体の検出装置において、
背景画像格納部が、原画像入力部が過去に入力した複数のフレーム単位の画像に基づいて背景画像を作成して格納する機能を有し、
背景差分画像作成部が、前記背景画像格納部に格納されている最新の背景画像を用いて背景差分画像を作成することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image in any one of Claims 1-26,
The background image storage unit has a function of creating and storing a background image based on a plurality of frame unit images input in the past by the original image input unit,
An apparatus for detecting an individual in a captured image, wherein a background difference image creation unit creates a background difference image using the latest background image stored in the background image storage unit.
請求項1〜27のいずれかに記載の撮影画像内の個体の検出装置において、
原画像入力部が、外部から与えられる時系列で並んだフレーム単位の画像を所定のサンプリング周期でサンプリングして入力し、
フレーム間差分画像作成部が、サンプリングされた各フレーム単位の画像について、時系列における直前の画像との間で差分演算を行うことによりフレーム間差分画像を作成することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image in any one of Claims 1-27,
The original image input unit samples and inputs images in frame units arranged in time series given from the outside at a predetermined sampling period,
An inter-frame difference image creating unit creates an inter-frame difference image by performing a difference operation on the sampled image of each frame unit with the immediately preceding image in time series. Individual detection device.
請求項1〜28のいずれかに記載の撮影画像内の個体の検出装置において、
原画像入力部が、三原色RGBの各画素値をもった画素の集合体からなるカラー画像を原画像として入力し、これを輝度Yを示す画素値をもった画素の集合体からなる輝度画像に変換する処理を行い、
背景画像格納部が、輝度Yを示す画素値をもった画素の集合体からなる背景画像を格納し、
背景差分画像作成部が、前記輝度画像と前記背景画像についての輝度値の差の絶対値ΔYを示す画素値をもった画素の集合体からなる差分画像を、所定の閾値を用いて二値化することにより背景差分画像を作成し、
フレーム間差分画像作成部が、2枚のフレーム単位の画像についての輝度値の差の絶対値ΔYを示す画素値をもった画素の集合体からなる差分画像を、所定の閾値を用いて二値化することによりフレーム間差分画像を作成することを特徴とする撮影画像内の個体の検出装置。
In the device for detecting an individual in a photographed image according to any one of claims 1 to 28,
The original image input unit inputs a color image composed of a set of pixels having pixel values of the three primary colors RGB as an original image, and converts the color image into a luminance image composed of a set of pixels having a pixel value indicating luminance Y. Process to convert,
The background image storage unit stores a background image composed of a collection of pixels having pixel values indicating luminance Y,
A background difference image creation unit binarizes a difference image composed of a collection of pixels having pixel values indicating an absolute value ΔY of a difference between luminance values of the luminance image and the background image using a predetermined threshold value. To create a background difference image,
The inter-frame difference image creation unit binarizes a difference image composed of a set of pixels having pixel values indicating an absolute value ΔY of a difference in luminance value between two frame-unit images using a predetermined threshold value. A device for detecting an individual in a photographed image, characterized in that an inter-frame difference image is created by converting into an image.
請求項29に記載の撮影画像内の個体の検出装置において、
背景差分画像作成部が、輝度値の差の絶対値ΔYが閾値以上となる画素については画素値「1」を与え、輝度値の差の絶対値ΔYが閾値未満となる画素については画素値「0」を与えることにより、画素値「1」をもった画素の連続領域を背景差分領域として含む背景差分画像を作成し、
フレーム間差分画像作成部が、輝度値の差の絶対値ΔYが閾値以上となる画素については画素値「1」を与え、輝度値の差の絶対値ΔYが閾値未満となる画素については画素値「0」を与えることにより、画素値「1」をもった画素の連続領域をフレーム間差分領域として含むフレーム間差分画像を作成することを特徴とする撮影画像内の個体の検出装置。
The device for detecting an individual in a captured image according to claim 29,
The background difference image creation unit gives a pixel value “1” for a pixel whose absolute value ΔY of the luminance value difference is equal to or greater than the threshold value, and a pixel value “1” for a pixel whose absolute value ΔY of the luminance value difference is less than the threshold value. By giving “0”, a background difference image including a continuous area of pixels having a pixel value “1” as a background difference area is created,
The inter-frame difference image creation unit gives a pixel value “1” for a pixel for which the absolute value ΔY of the luminance value difference is greater than or equal to the threshold value, and a pixel value for the pixel for which the absolute value ΔY of the luminance value difference is less than the threshold value An apparatus for detecting an individual in a photographed image, characterized in that, by giving “0”, an inter-frame difference image including a continuous area of pixels having a pixel value “1” as an inter-frame difference area is created.
請求項1〜30のいずれかに記載の撮影画像内の個体の検出装置において、
重複有無判定部が、背景差分画像とフレーム間差分画像とに基づいて、背景差分領域とフレーム間差分領域との重複部分を示す重複部分領域を含む重複確認画像を作成し、
個体認識部が、前記背景差分画像に含まれている特定の背景差分領域について、前記重複確認画像上の対応領域を参照し、当該対応領域内に前記重複部分領域が実質的に含まれていない場合には、前記特定の背景差分領域を占める個体を静止個体と認識し、当該対応領域内に前記重複部分領域が実質的に含まれていた場合には、前記特定の背景差分領域を占める個体を動作個体と認識することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image in any one of Claims 1-30,
Based on the background difference image and the inter-frame difference image, the duplication presence / absence determining unit creates an overlap confirmation image including an overlapping partial region indicating an overlapping portion of the background difference region and the inter-frame difference region,
The individual recognition unit refers to a corresponding area on the overlap confirmation image for a specific background difference area included in the background difference image, and the overlapping partial area is not substantially included in the corresponding area. In this case, an individual occupying the specific background difference area is recognized as a stationary individual, and if the overlapping partial area is substantially included in the corresponding area, the individual occupying the specific background difference area A device for detecting an individual in a captured image, characterized in that
請求項31に記載の撮影画像内の個体の検出装置において、
個体認識部が、対応領域内に含まれている重複部分領域の面積が所定の基準に満たない場合には、当該対応領域内に重複部分領域が含まれていないと判断することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 31,
When the area of the overlapping partial region included in the corresponding region does not satisfy a predetermined criterion, the individual recognition unit determines that the overlapping partial region is not included in the corresponding region. A device for detecting an individual in a captured image.
請求項32に記載の撮影画像内の個体の検出装置において、
背景差分画像作成部が、画素値「1」もしくは「0」をもった画素の集合体からなる二値画像であって、画素値「1」をもった画素の連続領域として背景差分領域を表現した背景差分画像を作成し、
フレーム間差分画像作成部が、画素値「1」もしくは「0」をもった画素の集合体からなる二値画像であって、画素値「1」をもった画素の連続領域としてフレーム間差分領域を表現したフレーム間差分画像を作成し、
重複有無判定部が、前記背景差分画像と前記フレーム間差分画像とについて、対応する画素についての論理積演算を行うことにより、画素値「1」もしくは「0」をもった画素の集合体からなる二値画像である重複確認画像を作成し、
個体認識部が、前記背景差分画像に含まれている特定の背景差分領域について、前記重複確認画像上の対応領域を参照し、当該対応領域内の画素のうち、画素値「1」をもった画素の総数が所定の基準に満たない場合には、前記特定の背景差分領域を占める個体を静止個体と認識し、当該対応領域内の画素のうち、画素値「1」をもった画素の総数が所定の基準以上である場合には、前記特定の背景差分領域を占める個体を動作個体と認識することを特徴とする撮影画像内の個体の検出装置。
The apparatus for detecting an individual in a captured image according to claim 32,
The background difference image creation unit is a binary image composed of a collection of pixels having a pixel value “1” or “0”, and represents the background difference region as a continuous region of pixels having the pixel value “1”. Created background difference image,
The inter-frame difference image creation unit is a binary image composed of a collection of pixels having a pixel value “1” or “0”, and the inter-frame difference area is a continuous area of pixels having the pixel value “1”. Create an inter-frame difference image that represents
The duplication presence / absence determination unit includes a set of pixels having a pixel value “1” or “0” by performing an AND operation on corresponding pixels of the background difference image and the inter-frame difference image. Create a duplicate confirmation image that is a binary image,
The individual recognition unit refers to a corresponding region on the overlap confirmation image for a specific background difference region included in the background difference image, and has a pixel value “1” among the pixels in the corresponding region. When the total number of pixels does not satisfy a predetermined criterion, the individual occupying the specific background difference area is recognized as a stationary individual, and the total number of pixels having the pixel value “1” among the pixels in the corresponding area When the value is equal to or more than a predetermined reference, an individual occupying the specific background difference area is recognized as an operating individual, and an individual detection apparatus in a captured image is characterized.
請求項1〜30のいずれかに記載の撮影画像内の個体の検出装置において、
背景差分画像作成部が、個々の背景差分領域ごとに背景差分領域符号を付与し、個々の背景差分領域符号に対応する背景差分領域に含まれる画素を特定する画素特定情報を含む、背景差分領域のラベリング情報を作成する処理を行い、
フレーム間差分画像作成部が、個々のフレーム間差分領域ごとにフレーム間差分領域符号を付与し、個々のフレーム間差分領域符号に対応するフレーム間差分領域に含まれる画素を特定する画素特定情報を含む、フレーム間差分領域のラベリング情報を作成する処理を行い、
重複有無判定部が、所定の着目背景差分領域について重複部分の有無を判定する際に、前記着目背景差分領域のラベリング情報内の画素特定情報によって特定された個々の着目画素について、各フレーム間差分領域のラベリング情報内の画素特定情報に同位置の画素が存在するか否かを調べ、存在する場合に重複部分有りとの判定を行うことを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image in any one of Claims 1-30,
A background difference area including a pixel difference information that the background difference image creating unit assigns a background difference area code to each background difference area and identifies pixels included in the background difference area corresponding to each background difference area code Process to create labeling information for
The inter-frame difference image creating unit assigns an inter-frame difference area code for each inter-frame difference area, and specifies pixel specifying information for specifying a pixel included in the inter-frame difference area corresponding to each inter-frame difference area code. Including the process of creating the labeling information of the inter-frame difference area,
When the overlapping presence / absence determining unit determines the presence / absence of an overlapping portion for a predetermined target background difference region, the inter-frame difference is determined for each target pixel specified by the pixel specifying information in the labeling information of the target background difference region. A device for detecting an individual in a photographed image, which checks whether or not there is a pixel at the same position in the pixel specifying information in the labeling information of the region, and determines that there is an overlapping portion if it exists.
請求項1〜30のいずれかに記載の撮影画像内の個体の検出装置において、
重複有無判定部が、背景差分画像内の背景差分領域について、フレーム間差分画像内のフレーム間差分領域に対する重複部分の有無を判定する際に、前記背景差分領域の外接矩形と前記フレーム間差分領域の外接矩形とについての重複部分の有無を判定する簡易判定法を行うことを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image in any one of Claims 1-30,
When the overlap presence / absence determination unit determines the presence / absence of an overlapping portion with respect to the inter-frame difference area in the inter-frame difference image for the background difference area in the background difference image, the circumscribed rectangle of the background difference area and the inter-frame difference area A device for detecting an individual in a photographed image, wherein a simple determination method for determining the presence or absence of an overlapping portion with respect to a circumscribed rectangle is performed.
請求項35に記載の撮影画像内の個体の検出装置において、
個体認識部が、重複有無判定部が行った簡易判定法によって、外接矩形についての重複部分は無い、との判定結果が得られた背景差分領域を占める個体を静止個体と認識し、
静止個体と認識された個体を示す静止個体指標を、当該静止個体が占める背景差分領域の外接矩形に基づいて作成し、これを表示する検出個体表示部を更に有することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 35,
The individual recognition unit recognizes the individual occupying the background difference area from which the determination result is obtained that there is no overlapping part about the circumscribed rectangle by the simple determination method performed by the duplication presence / absence determination unit as a stationary individual,
In a captured image, further comprising a detected individual display unit that creates a stationary individual index indicating an individual recognized as a stationary individual based on a circumscribed rectangle of a background difference area occupied by the stationary individual and displays the rectangle Individual detection device.
請求項35に記載の撮影画像内の個体の検出装置において、
個体認識部が、重複有無判定部が行った簡易判定法によって、外接矩形についての重複部分が有る、との判定結果が得られた背景差分領域を占める個体を動作個体と認識し、
動作個体と認識された個体を示す動作個体指標を、当該動作個体が占める背景差分領域の外接矩形に基づいて作成し、これを表示する検出個体表示部を更に有することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 35,
The individual recognition unit recognizes the individual occupying the background difference area from which the determination result is obtained that there is an overlapping part about the circumscribed rectangle by the simple determination method performed by the duplication presence / absence determination unit, as an operation individual,
In a captured image, further comprising: a detected individual display unit that creates an operating individual index indicating an individual recognized as an operating individual based on a circumscribed rectangle of a background difference area occupied by the operating individual, and displays the rectangle Individual detection device.
請求項35に記載の撮影画像内の個体の検出装置において、
個体認識部が、重複有無判定部が行った簡易判定法によって、外接矩形についての重複部分が有る、との判定結果が得られたフレーム間差分領域を占める個体を動作個体と認識し、
動作個体と認識された個体を示す動作個体指標を、当該動作個体が占めるフレーム間差分領域の外接矩形に対して、当該動作個体が占める背景差分領域の外接矩形に基づく補正を施すことにより作成し、これを表示する検出個体表示部を更に有することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual | organism | solid in the picked-up image of Claim 35,
The individual recognition unit recognizes an individual that occupies the inter-frame difference area obtained as a result of determination that there is an overlapping part for the circumscribed rectangle by the simple determination method performed by the duplication presence / absence determination unit, as an operation individual,
The motion individual index indicating the individual recognized as the motion individual is created by performing correction based on the circumscribing rectangle of the background difference region occupied by the motion individual on the circumscribing rectangle of the inter-frame difference region occupied by the motion individual. An apparatus for detecting an individual in a photographed image, further comprising a detected individual display unit for displaying the detected individual.
請求項38に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、動作個体が占めるフレーム間差分領域の外接矩形と当該動作個体が占める背景差分領域の外接矩形とについて、両外接矩形を包摂する包摂矩形を求め、求めた包摂矩形に基づいて動作個体指標を作成することを特徴とする撮影画像内の個体の検出装置。
In the detection device of the individual in the picked-up image according to claim 38,
The detected individual display unit obtains an inclusion rectangle that includes both circumscribed rectangles for the circumscribed rectangle of the inter-frame difference area occupied by the moving individual and the circumscribed rectangle of the background difference area occupied by the moving individual, and based on the obtained inclusion rectangle An apparatus for detecting an individual in a photographed image, characterized by creating an action individual index.
請求項1〜39のいずれかに記載の個体の検出装置としてコンピュータを機能させるプログラム。   A program that causes a computer to function as the individual detection apparatus according to any one of claims 1 to 39. 請求項1〜39のいずれかに記載の個体の検出装置が組み込まれた監視システムであって、
所定の撮影対象領域に対して動画撮影を行うことにより、時系列で並んだフレーム単位の画像を取得する定点カメラと、
前記定点カメラが取得したフレーム単位の画像を原画像として入力して、所定の処理を実行するコンピュータと、
前記コンピュータの指示に基づいて画像表示を行うディスプレイ装置と、
を備え、
前記コンピュータは、インストールされたプログラムに基づく動作により、前記個体の検出装置として機能することを特徴とする監視システム。
A monitoring system in which the individual detection device according to any one of claims 1 to 39 is incorporated,
A fixed-point camera that acquires images in frame units arranged in time series by performing moving image shooting on a predetermined shooting target area;
A computer for inputting a frame unit image acquired by the fixed point camera as an original image and executing a predetermined process;
A display device for displaying an image based on an instruction from the computer;
With
The monitoring system, wherein the computer functions as the individual detection device by an operation based on an installed program.
請求項1〜39のいずれかに記載の個体の検出装置が組み込まれた監視システムであって、
ネットワークによって相互に接続されたクライアントシステムとサーバシステムとを備え、
前記クライアントシステムは、
所定の撮影対象領域に対して動画撮影を行うことにより、時系列で並んだフレーム単位の画像を取得する定点カメラと、
前記定点カメラが取得したフレーム単位の画像を原画像として入力して、所定の処理を実行するクライアントコンピュータと、
前記クライアントコンピュータの指示に基づいて画像表示を行うディスプレイ装置と、を備え、
前記サーバシステムは、
前記クライアントコンピュータと前記ネットワークを介した通信を行いながら、所定の処理を実行するサーバコンピュータを備え、
前記クライアントコンピュータは、インストールされたクライアントコンピュータ用プログラムに基づく動作により、前記個体の検出装置として必要な一部の処理を実行し、
前記サーバコンピュータは、インストールされたサーバコンピュータ用プログラムに基づく動作により、前記個体の検出装置として必要な他の一部の処理を実行することを特徴とする監視システム。
A monitoring system in which the individual detection device according to any one of claims 1 to 39 is incorporated,
A client system and a server system connected to each other via a network;
The client system is
A fixed-point camera that acquires images in frame units arranged in time series by performing moving image shooting on a predetermined shooting target area;
A client computer that inputs a frame-unit image acquired by the fixed-point camera as an original image and executes a predetermined process;
A display device that displays an image based on an instruction of the client computer,
The server system is
A server computer that executes predetermined processing while performing communication with the client computer via the network,
The client computer performs a part of processing necessary as the individual detection device by an operation based on the installed client computer program,
The monitoring system, wherein the server computer executes another part of processing necessary as the individual detection device by an operation based on an installed server computer program.
請求項42に記載の監視システムにおけるクライアントコンピュータにインストールされたクライアントコンピュータ用プログラムまたはサーバコンピュータにインストールされたサーバコンピュータ用プログラム。   43. A client computer program installed on a client computer or a server computer program installed on a server computer in the monitoring system according to claim 42. 請求項41または42に記載の個体の監視システムにおいて、
コンピュータもしくはクライアントコンピュータが、静止個体もしくは動作個体の認識結果に基づいて、外部に対して警報を発することを特徴とする監視システム。
The individual monitoring system according to claim 41 or 42,
A monitoring system in which a computer or a client computer issues an alarm to the outside based on a recognition result of a stationary object or a moving object.
請求項41に記載の個体の監視システムにおいて、
定点カメラの代わりに、または、定点カメラに加えて、所定の撮影対象領域に対して動画撮影を行うことにより得られた、時系列で並んだフレーム単位の画像を保存する入力用の画像保存装置を備え、
コンピュータが、前記入力用の画像保存装置に保存されているフレーム単位の画像を原画像として入力して、所定の処理を実行することを特徴とする監視システム。
The individual monitoring system according to claim 41,
An image storage device for input that stores images in frames arranged in time series obtained by performing moving image shooting on a predetermined shooting target area instead of or in addition to the fixed point camera. With
A monitoring system, wherein a computer inputs an image of a frame unit stored in the input image storage device as an original image and executes predetermined processing.
請求項41または45に記載の個体の監視システムにおいて、
ディスプレイ装置の代わりに、または、ディスプレイ装置に加えて、コンピュータから与えられる画像を保存する出力用の画像保存装置を備え、
コンピュータが、ディスプレイ装置に出力すべき画像を、前記出力用の画像保存装置に対して出力して保存させることを特徴とする監視システム。
The individual monitoring system according to claim 41 or 45,
In addition to or in addition to the display device, an image storage device for output for storing an image given from a computer is provided.
A monitoring system in which a computer outputs an image to be output to a display device to the output image storage device to be stored.
所定の撮影対象領域内に存在する個体のうち、静止中の静止個体を検出する個体の検出装置であって、
所定の撮影対象領域に対する撮影によって時系列で並んだフレーム単位の画像として得られる原画像を入力する原画像入力部と、
前記原画像上に現れている個々の個体が、静止個体か動作個体かを認識する個体認識部と、
前記個体認識部による認識結果に基づいて、前記原画像上に、静止個体と認識された個体を示す静止個体指標を重畳して表示する検出個体表示部と、
を備えることを特徴とする撮影画像内の個体の検出装置。
Among individuals existing within a predetermined imaging target area, an individual detection device that detects a stationary individual that is stationary,
An original image input unit for inputting an original image obtained as an image in frame units arranged in time series by photographing with respect to a predetermined photographing target region;
An individual recognition unit for recognizing whether each individual appearing on the original image is a stationary individual or a moving individual;
Based on the recognition result by the individual recognition unit, a detected individual display unit that superimposes and displays a stationary individual index indicating an individual recognized as a stationary individual on the original image;
A device for detecting an individual in a photographed image.
所定の撮影対象領域内に存在する個体のうち、動作中の動作個体を検出する個体の検出装置であって、
所定の撮影対象領域に対する撮影によって時系列で並んだフレーム単位の画像として得られる原画像を入力する原画像入力部と、
前記原画像上に現れている個々の個体が、静止個体か動作個体かを認識する個体認識部と、
前記個体認識部による認識結果に基づいて、前記原画像上に、動作個体と認識された個体を示す動作個体指標を重畳して表示する検出個体表示部と、
を備えることを特徴とする撮影画像内の個体の検出装置。
An individual detection device for detecting an operating individual among individuals existing in a predetermined imaging target region,
An original image input unit for inputting an original image obtained as an image in frame units arranged in time series by photographing with respect to a predetermined photographing target region;
An individual recognition unit for recognizing whether each individual appearing on the original image is a stationary individual or a moving individual;
Based on the recognition result by the individual recognition unit, a detected individual display unit that superimposes and displays an operation individual index indicating an individual recognized as an operation individual on the original image;
A device for detecting an individual in a photographed image.
請求項47または48に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された閉領域指標によって構成し、原画像に前記閉領域指標を重畳させて表示することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual in the picked-up image of Claim 47 or 48,
The detected individual display unit is arranged in the vicinity of the area occupied by the target individual with the stationary individual index or the moving individual index, and the inside is painted with a predetermined color or the closed area index in which the predetermined pattern is formed An apparatus for detecting an individual in a captured image, wherein the device is configured to display the closed region index superimposed on an original image.
請求項49に記載の撮影画像内の個体の検出装置において、
閉領域指標が、半透明の色で塗られるかもしくは部分的に隙間のあるパターンが形成された閉領域によって構成され、原画像に前記閉領域指標を重畳させた場合に、原画像が前記閉領域指標を通して透けて表示されるようにしたことを特徴とする撮影画像内の個体の検出装置。
The apparatus for detecting an individual in a captured image according to claim 49,
The closed region index is configured by a closed region that is painted in a semi-transparent color or has a partially spaced pattern, and when the closed region index is superimposed on the original image, the original image is A device for detecting an individual in a captured image, wherein the device is displayed through a region index.
請求項47または48に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体を囲み、所定の線種、色、形状、太さを有する枠状指標によって構成し、原画像に前記枠状指標を重畳させて表示することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual in the picked-up image of Claim 47 or 48,
The detected individual display unit configures a stationary individual index or a moving individual index with a frame-shaped index surrounding a target individual and having a predetermined line type, color, shape, and thickness, and the frame-shaped index is displayed on an original image. An apparatus for detecting an individual in a captured image, wherein the individual image is displayed in a superimposed manner.
請求項47または48に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標または動作個体指標を、対象となる個体の輪郭線を示し、所定の線種、色、太さを有する輪郭指標によって構成し、原画像に前記輪郭指標を重畳させて表示することを特徴とする撮影画像内の個体の検出装置。
In the detection apparatus of the individual in the picked-up image of Claim 47 or 48,
The detected individual display unit displays the stationary individual index or the moving individual index by indicating a contour line of the target individual, and is configured by a contour index having a predetermined line type, color, and thickness, and the contour index is superimposed on the original image A device for detecting an individual in a photographed image, characterized by being displayed.
所定の撮影対象領域内に存在する個体を、静止中の静止個体もしくは動作中の動作個体として検出する個体の検出装置であって、
所定の撮影対象領域に対する撮影によって時系列で並んだフレーム単位の画像として得られる原画像を入力する原画像入力部と、
前記原画像上に現れている個々の個体を、静止個体もしくは動作個体と認識する個体認識部と、
前記個体認識部による認識結果に基づいて、前記原画像上に、静止個体と認識された個体を示す静止個体指標と、動作個体と認識された個体を示す動作個体指標と、を重畳して、かつ、前記静止個体指標と前記動作個体指標とがそれぞれ視覚的に区別可能となるような態様で表示する検出個体表示部と、
を備えることを特徴とする撮影画像内の個体の検出装置。
An individual detection device for detecting an individual existing in a predetermined imaging target region as a stationary individual at rest or an operating individual at motion,
An original image input unit for inputting an original image obtained as an image in frame units arranged in time series by photographing with respect to a predetermined photographing target region;
An individual recognition unit that recognizes each individual appearing on the original image as a stationary individual or a moving individual,
Based on the recognition result by the individual recognition unit, on the original image, a stationary individual index indicating an individual recognized as a stationary individual and a moving individual index indicating an individual recognized as a moving individual are superimposed, And the detected individual display unit that displays the stationary individual index and the moving individual index in such a manner as to be visually distinguishable,
A device for detecting an individual in a photographed image.
請求項53に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された第1の閉領域指標によって構成し、動作個体指標を、対象となる個体が占有する領域の近傍に配置され、内部が所定色によって塗られるかもしくは内部に所定パターンが形成された第2の閉領域指標によって構成し、前記第1の閉領域指標と前記第2の閉領域指標とは、互いに異なる色によって塗られるかもしくは互いに異なるパターンが形成された閉領域となるようにし、原画像に前記第1の閉領域指標および前記第2の閉領域指標を重畳させて表示することを特徴とする撮影画像内の個体の検出装置。
The apparatus for detecting an individual in a captured image according to claim 53,
The detected individual display unit is configured by a first closed region index in which a stationary individual index is arranged in the vicinity of a region occupied by the target individual and the inside is painted with a predetermined color or a predetermined pattern is formed inside The moving individual indicator is configured by a second closed region indicator which is arranged in the vicinity of the region occupied by the target individual and whose interior is painted with a predetermined color or has a predetermined pattern formed therein, The closed region index of 1 and the second closed region index are closed regions in which different colors are applied or different patterns are formed, and the first closed region index and the A device for detecting an individual in a photographed image, wherein the second closed region index is superimposed and displayed.
請求項54に記載の撮影画像内の個体の検出装置において、
第1の閉領域指標および第2の閉領域指標が、半透明の色で塗られるかもしくは部分的に隙間のあるパターンが形成された閉領域によって構成され、原画像に前記各閉領域指標を重畳させた場合に、原画像が前記各閉領域指標を通して透けて表示されるようにしたことを特徴とする撮影画像内の個体の検出装置。
In the detection device of the individual in a photography picture according to claim 54,
The first closed region index and the second closed region index are constituted by closed regions that are painted in a semi-transparent color or partially formed with a gap pattern, and each closed region index is added to the original image. An apparatus for detecting an individual in a photographed image, wherein when superimposed, an original image is displayed through each closed region index.
請求項53に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標を、対象となる静止個体を囲む第1の枠状指標によって構成し、動作個体指標を、対象となる動作個体を囲む第2の枠状指標によって構成し、前記第1の枠状指標と前記第2の枠状指標とは、線種、色、形状、太さのうちの少なくとも1つが互いに異なる枠線によって構成されるようにし、原画像に前記第1の枠状指標および前記第2の枠状指標を重畳させて表示することを特徴とする撮影画像内の個体の検出装置。
The apparatus for detecting an individual in a captured image according to claim 53,
The detected individual display unit configures the stationary individual index by a first frame-shaped index surrounding the target stationary individual, and configures the moving individual index by the second frame-shaped index surrounding the target moving individual, The first frame-shaped index and the second frame-shaped index are configured by frame lines having at least one of line type, color, shape, and thickness different from each other, and the first frame-shaped index is included in the original image. An apparatus for detecting an individual in a photographed image, wherein the frame-shaped index and the second frame-shaped index are superimposed and displayed.
請求項53に記載の撮影画像内の個体の検出装置において、
検出個体表示部が、静止個体指標を、対象となる静止個体の輪郭線を示す第1の輪郭指標によって構成し、動作個体指標を、対象となる動作個体の輪郭線を示す第2の輪郭指標によって構成し、前記第1の輪郭指標と前記第2の輪郭指標とは、線種、色、太さのうちの少なくとも1つが互いに異なる輪郭線によって構成されるようにし、原画像に前記第1の輪郭指標および前記第2の輪郭指標を重畳させて表示することを特徴とする撮影画像内の個体の検出装置。
The apparatus for detecting an individual in a captured image according to claim 53,
The detected individual display unit configures the stationary individual index by the first contour index indicating the contour line of the target stationary individual, and the moving individual index indicates the second contour index indicating the contour line of the target moving individual. The first contour index and the second contour index are configured by contour lines that are different from each other in at least one of line type, color, and thickness, and the first image is included in the original image. A device for detecting an individual in a photographed image, wherein the contour index and the second contour index are superimposed and displayed.
請求項47〜57のいずれかに記載の個体の検出装置としてコンピュータを機能させるプログラム。   A program that causes a computer to function as the individual detection apparatus according to any one of claims 47 to 57.
JP2016156392A 2016-08-09 2016-08-09 Detection device for individuals in captured images Active JP6838310B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016156392A JP6838310B2 (en) 2016-08-09 2016-08-09 Detection device for individuals in captured images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016156392A JP6838310B2 (en) 2016-08-09 2016-08-09 Detection device for individuals in captured images

Publications (2)

Publication Number Publication Date
JP2018025914A true JP2018025914A (en) 2018-02-15
JP6838310B2 JP6838310B2 (en) 2021-03-03

Family

ID=61194081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016156392A Active JP6838310B2 (en) 2016-08-09 2016-08-09 Detection device for individuals in captured images

Country Status (1)

Country Link
JP (1) JP6838310B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020036081A (en) * 2018-08-27 2020-03-05 日本信号株式会社 Image processing device and monitoring system
CN112184773A (en) * 2020-09-30 2021-01-05 华中科技大学 Helmet wearing detection method and system based on deep learning
CN113344967A (en) * 2021-06-07 2021-09-03 哈尔滨理工大学 Dynamic target identification tracking method under complex background
JP2021135794A (en) * 2020-02-27 2021-09-13 ソフトバンク株式会社 Image processing apparatus, program, system and image processing method
US11430133B2 (en) 2019-06-07 2022-08-30 Canon Kabushiki Kaisha Video analyzing apparatus, control method thereof, and non-transitory computer-readable storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008104130A (en) * 2006-10-23 2008-05-01 Hitachi Ltd Apparatus and system for monitoring video
JP2009212637A (en) * 2008-03-03 2009-09-17 Sanyo Electric Co Ltd Imaging device
JP2010176206A (en) * 2009-01-27 2010-08-12 Secom Co Ltd Mobile object tracking device
JP2010226687A (en) * 2009-02-27 2010-10-07 Sony Corp Image processing device, image processing system, camera device, image processing method, and program therefor
JP2012023566A (en) * 2010-07-14 2012-02-02 Toshiba Teli Corp Monitoring system, and behavior monitoring program
JP2012073891A (en) * 2010-09-29 2012-04-12 Nohmi Bosai Ltd Frequency component specification method for smoke detection and smoke detector

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008104130A (en) * 2006-10-23 2008-05-01 Hitachi Ltd Apparatus and system for monitoring video
JP2009212637A (en) * 2008-03-03 2009-09-17 Sanyo Electric Co Ltd Imaging device
JP2010176206A (en) * 2009-01-27 2010-08-12 Secom Co Ltd Mobile object tracking device
JP2010226687A (en) * 2009-02-27 2010-10-07 Sony Corp Image processing device, image processing system, camera device, image processing method, and program therefor
JP2012023566A (en) * 2010-07-14 2012-02-02 Toshiba Teli Corp Monitoring system, and behavior monitoring program
JP2012073891A (en) * 2010-09-29 2012-04-12 Nohmi Bosai Ltd Frequency component specification method for smoke detection and smoke detector

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020036081A (en) * 2018-08-27 2020-03-05 日本信号株式会社 Image processing device and monitoring system
JP7244979B2 (en) 2018-08-27 2023-03-23 日本信号株式会社 Image processing device and monitoring system
US11430133B2 (en) 2019-06-07 2022-08-30 Canon Kabushiki Kaisha Video analyzing apparatus, control method thereof, and non-transitory computer-readable storage medium
JP2021135794A (en) * 2020-02-27 2021-09-13 ソフトバンク株式会社 Image processing apparatus, program, system and image processing method
CN112184773A (en) * 2020-09-30 2021-01-05 华中科技大学 Helmet wearing detection method and system based on deep learning
CN113344967A (en) * 2021-06-07 2021-09-03 哈尔滨理工大学 Dynamic target identification tracking method under complex background
CN113344967B (en) * 2021-06-07 2023-04-07 哈尔滨理工大学 Dynamic target identification tracking method under complex background

Also Published As

Publication number Publication date
JP6838310B2 (en) 2021-03-03

Similar Documents

Publication Publication Date Title
JP2018025914A (en) Detection device for individual in shot image
US20190273908A1 (en) Methods Circuits Devices Assemblies Systems and Functionally Associated Computer Executable Code for Image Acquisition With Depth Estimation
JP6504364B2 (en) Monitoring device, monitoring system and monitoring method
US8254628B2 (en) Image processing device for detecting and suppressing shadows, method, and computer program
JP2018528536A (en) Method and system for monitoring driving behavior
Cavallaro et al. Shadow-aware object-based video processing
US7190811B2 (en) Adaptive tracking for gesture interfaces
JP2017532076A (en) Inspection system for appropriate oral hygiene procedures
KR20170042363A (en) Systems and methods for generating augmented and virtual reality images
JP2016529935A (en) Smart prosthesis to promote artificial vision using scene abstraction
CN106296677B (en) A kind of remnant object detection method of double exposure mask context updates based on double-background model
US11257390B2 (en) Evaluation of a simulated vehicle-related feature
CN106774862B (en) VR display method based on sight and VR equipment
CN111145135B (en) Image descrambling processing method, device, equipment and storage medium
Li et al. Photo-realistic simulation of road scene for data-driven methods in bad weather
CN104969145A (en) Target and press natural user input
KR20200014694A (en) Image processing apparatus, image processing apparatus control method, and non-transitory computer-readable storage medium
CN107480612A (en) Recognition methods, device and the terminal device of figure action
WO2019114013A1 (en) Scene displaying method for self-driving vehicle and smart eyewear
CN108986232B (en) Method for presenting AR environment picture in VR display device
JP2007274234A (en) White cane user detection system using stereo camera
KR20220145893A (en) Augmented Reality Guest Recognition System and Method
US11904869B2 (en) Monitoring system and non-transitory storage medium
US11941729B2 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
CN113033412B (en) Traffic situation monitoring method, device, equipment and medium based on live-action fusion

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210125

R150 Certificate of patent or registration of utility model

Ref document number: 6838310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150